AI用“错”了 人真的会变笨!没骗你
发布时间:2025-01-29 03:11:59 作者: 行业资讯

  AI 一天,人间一年。近两年来,AI 技术发展迅猛,对我们生活渗透的速度,可以用一日千里形容。从智能家居到无人驾驶,从智能客服到 AI 助手,从写作画图到情感陪伴,高效、便捷的 AI 技术,一点一滴悄然改变着我们的行为,提升着我们的生活品质和工作效率。

  许多像我一样(天天梦想着不劳而获)的打工人,开始做起了“无痛工作”的白日梦梦想着能够借助 AI 的力量,在不付出太多努力的情况下完成工作,享受生活。

  每月花上两三百块钱开个 AI 会员,实现 50% 以上工作外包,这事搁谁身上没有巨大的诱惑力呢?然而,当我们沉浸在 AI 带来的便利中时,也不得不警惕其可能给使用者带来的负面影响:思维迟钝、产生依赖、行动懒惰。

  听到这,有些朋友可能会怀疑,明明 AI 用着那么爽,出活那么快那么好,你这怕不是危言耸听吧?

  近两年,有多项研究得出了类似结论,为了让大家兼听则明,下面咱们用“人话”介绍几个 AI 相关的研究以及学者们的结论和建议,请放心,零基础也看得懂。

  书中介绍了一个实验,莫里克和他的其他同行,请世界顶级咨询公司之一的波士顿咨询集团(BCG)协助负责实施研究,近 800 名波士顿咨询的顾问参与了实验。

  这些顾问被随机分为两组,一组按照传统方式正常工作,另一组一定要使用 GPT-4 (OpenAI 的拳头产品,大语言模型的领先者之一)。

  这些顾问在经过人工智能培训后,可以自由执行 BCG 设计的 18 项任务,包括创意任务、分析任务、写作和营销任务、说服力任务等,这些都是正常咨询顾问的工作范围以内的标准任务。

  这个答案其实没有悬念使用了人工智能的那组做得更好。而且这种评判不是主观的(某个领导说你行你就行那种),而是研究者用了 118 次不同的分析,使用人工智能组仍然具有非常明显优势。

  人工智能组的顾问们工作速度更快,更有创意、写得更好、分析能力更强。方方面面都行。

  但是研究者发现了一些令人担忧的事顾问们在用AI来帮他们达成目标过程中,由于AI已经完成了大部分工作,大多数实验参与者只是简单地粘贴他们被问到的问题,然后把AI的答案复制到他们的工作结果中。

  然后 BCG 又设计了一项任务,这项任务是经过用尽心思挑选的,以确保人工智能无法得出正确的答案该任务结合了棘手的统计问题和误导性数据。

  在没有人工智能帮助的情况下,人类顾问的正确率是 84% ,但当顾问用AI时,只有 60% 到 70% 的正确率。

  聪明的你肯定也猜到了,顾问们依然像上次一样,仅仅简单地把AI的答案复制粘贴下来。这很难归咎于顾问们投机取巧。设想一下,你如果处在这个场景,面前已经有一份看似“完美”的标准答案,很难克制自己不直接使用。

  研究者们有个形象的比喻过于依赖 AI 的顾问们就像趴在方向盘上睡着的司机,因AI太过强大,能较好地完成绝大部分工作,人类不知不觉间给予了 AI 太多信任,但如果问题超出了 AI 的能力,这种信任就可能铸成大错。

  人工智能在教育行业中正被愈来愈普遍地使用,而机智的大学生们,已经在第一时间使用各种大模型帮他们完成作业。此外,还有学校或者官方合作的智能体软硬件,以及其他商业企业来提供的一些辅助教育产品都层出不穷。关于AI对教育领域的研究显然是很重要且必要的。

  去年 6 月,有一项发表在《自然》杂志(Nature)上的研究,就探讨了AI对巴基斯坦和中国大学生决策能力丧失、懒惰和隐私问题的影响。

  这项研究主要考察了巴基斯坦和中国来自不同大学的 285 名学生的学习情况,数据分析根据结果得出,人工智能明显影响学生和教师的决策能力,并使学生变得懒惰。此外,还会带来安全和隐私方面的问题。

  调查结果为,人类(参与的教师和学生)68.9% 的懒惰、68.6% 的个人隐私和安全问题、27.7% 的决策失误都是由于人工智能影响。

  使用人工智能技术的教师和学生会慢慢地、逐渐地失去自己做任务的兴趣,还会逐渐导致人类决策权的丧失。当人工智能的使用和依赖增加时,会自动限制人脑的思维能力。

  同时,人工智能的使用,会大幅度减少实时物理交互,并会影响学生和教师之间的教育环境。

  在真实的环境中,教师和学生之间有大量的互动,这会发展学生的个性和公民素养,例如,学生可以向其他学生学习,向老师提问,感受同学们之间的反馈等等,光靠 AI 的话全都难以做到。

  这项研究认为,在教育中大规模应用人工智能技术之前,需要采取重要的预防的方法。在不解决人类主体问题(人性天然具有弱点)的情况下,贸然接受人工智能就像召唤魔鬼一样。建议集中精力合理设计、部署和用AI进行教育来解决这一个问题。

  AI 还有个常见应用,就是帮助人力资源部门筛选简历,帮助招聘,那么效果究竟怎么样呢?

  哈佛商学院创新科学实验室的社会学家法布里奇奥戴尔阿夸(Fabrizio DellAcqua)2022 年发布了一项研究,他聘请了 181 名专业招聘人员来审查 44 份简历。

  他把受试者随机分为四组,分别与“能完美预测的人工智能” 、“好AI” 、“坏人工智能”、“无人工智能”搭档进行招聘工作。

  结果发现,使用高质量人工智能的受试者,对工作申请的评估不太准确,他们在每份简历上花费的时间和精力更少,并且盲目遵循人工智能的建议。跟着时间的推移,他们也没有改善。

  但使用“坏人工智能”的招聘人员会付出更多的努力并花费更多的时间来评估简历,并且不太可能自动选择人工智能推荐的候选人,他们更加警觉、更加挑剔、更加独立。这些招聘人员学会了如何与指定的人工智能更好地互动,并提高了他们的绩效。

  这说明高性能人工智能可能会“鼓励”人类多偷懒,把掌舵的方向盘完全交给了人工智能,自己在驾驶员的位置上睡着了。

  史蒂芬霍金曾说过,人工智能的成功创造将是人类历史上最重大的事件。不幸的是,除非我们学会避免风险,否则这也可能是最后一次。

  无可否认,我们人类天生具有某些短板,这也是我们之所以为人的重要属性。伟大的科技在开创之初,都是为了弥补或平衡人类的短板,我们最不希望看到的结果它让我们的短板越来越短。

  人工智能技术是为了造福人类而开发的,但从目前看,它并没有实现在某些方面让人类的自身水平提升获益。

  我们作为丰富感性的碳基人类,难免偶尔会偷懒,但我们应该认识到,当我们完全信任地把决策权悉数交给一个系统时,这实际上在进行一笔交易,隐藏的成本可能是你内源性的深度思考和技能成长空间。(咳咳咳,此处特别强调给用AI“交作业”的一些学生朋友们,小机灵鬼,说的就是你)

  当工作中为了提效,和人工智能协作时,我们该将AI视为一个古怪的队友,而不是一个无所不知的仆人。我们得记得检查其谎言和偏见、马虎或遗漏,并且要权衡其决策的道德性。最重要的,考虑哪些任务值得交给它,哪些任务我们想保留给自己。

  毕竟,如果真的让人工智能完全“替自己打工”,那么,未来某一天,砸掉自己饭碗的,不是人工智能,而是你自己。