——斯坦福揭示新型生产力杀手:40%员工深受其害,企业年损失或达900万美元

朋友,你是否经历过这样的场景:
你的同事发来一份报告,乍一看图文并茂、语言流畅。但你仔细阅读后却发现,内容空洞、上下文混乱,甚至还有明显的事实错误。
你不仅没省下时间,反而花了近2个小时去纠正、核查甚至重写。更糟糕的是,你感到一阵恼火和困惑。
欢迎来到AI时代的新型“雷区”——“AI工作马虎病” (AI Workslop)。
这是斯坦福大学和Betterup Labs最新定义的一个术语,它指的是那些“伪装成好作品,但缺乏实质内容、无法推进任务”的AI生成内容。
作为一名长期观察AI落地的顾问,我认为这可能是当下企业在AI转型中面临的最大隐形杀手。今天,我将为你深度拆解:
💡 什么是“AI工作马虎病”,它为何会泛滥?
💣 它如何悄无声息地侵蚀你的生产力和团队信任?
🚀 企业应如何从战略、培训和文化上狙击这一“顽疾”?
👇 让我们开始吧。
一、📈 40%的人中招:“马虎病”如何成为流行病?
“AI工作马虎病”绝非个例。
斯坦福大学的报告显示,在1150名受访员工中,高达40%的人表示在过去一个月内收到过同事发来的“AI马虎病”内容,这些劣质内容约占他们收到工作内容的16%。
这种现象在专业服务和科技行业尤为普遍。
它为什么会发生?表面看是员工偷懒,但根源在于企业战略的“想当然”。
技能与工具的错配
Pegasystems的CTO Don Schuerman一针见血地指出:企业将为“创造力”而设计的大语言模型,错误地用在了需要“高精度、高可靠性”的场景中。
用户的“拿来主义”
麦肯锡Lilli平台的创始人Erik Roth也提到一个典型场景:员工“几乎逐字逐句”地照搬AI的输出,并将其作为最终成果。这些员工往往不精通提示词工程,也无法识别AI的“幻觉”和错误信息。
缺乏人工的“灵魂注入”
Dice总裁Paul Farnsworth警告说,这种对AI的过度依赖会制造一种“虚假的效率感”。你以为自己工作得更快了,实际上却在给未来的自己(或同事)“埋雷”,导致后期花更多时间去返工和澄清。
专家视角:麦肯锡的Erik Roth将其总结为:“这是没有真正价值创造的生产力错觉”。
二、💣 致命的代价:不仅是效率,更是信任
如果“马虎病”只浪费了时间,那还不是最可怕的。它真正的杀伤力在于它对组织文化的系统性破坏。
1.巨额的“隐形税”
报告估算,处理这些劣质内容平均让每位员工每月多花费近2小时,这相当于一笔高达186美元的“隐形税”。
对于一个万人员工规模的企业,如果按41%的流行率计算,每年因“AI马虎病”损失的生产力接近900万美元。
2.团队信任的“腐蚀剂”这才是最致命的。当收到劣质AI内容时,员工的感受是:
53% 的人感到恼火
38% 的人感到困惑
22% 的人感到被冒犯
更严重的是,它在瓦解同事间的“个人品牌”:
42%的人认为使用AI的同事“不太值得信赖”
37%的人认为他们“不太聪明”
这种不信任甚至导致34%的员工向经理“举报”同事的不当AI使用行为,而32%的人表示不愿再与此人合作。
专家视角:Pegasystems的CTO Schuerman总结道:“管理不善的AI不仅拖慢工作,更在侵蚀信任。AI没有成为生产力伙伴,反而成了待办清单上那个‘制造更多工作’的项目。”
三、🚀 战略启示:如何狙击“马虎病”?
“AI马虎病”的解药,不是禁用AI,而是智慧地“驾驭”AI。作为睿信咨询战略顾问,我认为企业必须立刻从三个层面建立防线。
防线一:教育与培训(AI素养)
这是狙击“马虎病”的第一道,也是最重要的一道防线。
破除神秘感:Dice总裁Farnsworth指出,培训必须从“揭开AI的神秘面纱”开始。
建立批判性思维:鼓励员工质疑AI的输出,理解AI的局限性。
展示“好”与“坏”:IT领导者必须主动向员工展示“强”和“弱”的AI内容案例,帮助他们建立辨别力。
防线二:治理与护栏(结构化工作流)
盲目地把AI工具丢给员工,是管理上的失职。
在正确的地方用正确的AI:IT领导者必须确保员工为正确的任务配备了正确的工具。
嵌入工作流:Schuerman建议,应将AI系统集成到结构化的工作流程中,并配备清晰的可见性、反馈循环和审计追踪。这样,员工就不必猜测“好”的标准,因为标准就在流程中。
防线三:文化与问责(建立新标准)
归根结底,AI的质量是一个文化问题。
强调“人机协作”而非“AI替代”:领导者必须明确传达:AI是工具,而人(你)才是最终质量的负责人。
投资于“可预测的AI”:投资那些可预测、可治理的AI系统,不仅能带来更好的结果,更能建立一支信任并负责任地使用AI的团队。
AI就像一面镜子,它既能放大卓越与高效,也能放大草率与平庸。
“AI工作马虎病”的出现,给所有管理者敲响了警钟:如果你只投资于AI工具,却不投资于使用工具的人,那么AI带来的将不是生产力革命,而是一场“看似高效”的信任危机。
那么,你的企业准备好为AI这场“文化变革”买单了吗?
在没有培训员工计划的情况下实施人工智能,正让许多组织陷入一个陷阱,这给你的员工带来了更多的工作和挫败感。教育和文化变革可以提供帮助。

图片来源:Rob Schultz / Shutterstock
人工智能为工作者提供了提高效率和生产力的承诺,将他们从重复性工作中解放出来,以应对更复杂的任务。但随着公司向员工推广AI工具,许多公司正面临一个不同的挑战:AI生成的工作反而在起反作用。
AI生成内容的质量,在很大程度上取决于与该工具协作的人的技能,而并非每个人都在这一领域具备了正确的技能组合,这导致了斯坦福社交媒体实验室和Betterup实验室所创造的术语——AI“工作失误”(workslop)——他们将其定义为“伪装成好作品,但缺乏实质内容以有意义地推进给定任务的AI生成的工作内容。”
“当组织在错误的时间使用了错误的AI,将为创造力和推理而设计的大语言模型部署到需要精确性、治理和可靠性的情境中时,AI工作失误就发生了,”Pegasystems的首席技术官(CTO)Don Schuerman说。“其结果是,输出的内容表面看起来很光鲜,但在审查下却不堪一击——比如不一致或糟糕的建议、幻觉,或是与组织政策或监管合规不符的行为。”
一、什么是AI工作失误,它是如何发生的?
根据斯坦福社交媒体实验室和Betterup Labs发表在《哈佛商业评论》上的一份报告,在接受调查的1150名美国员工中,有40%的人表示他们在过去一个月内曾从同事那里收到过AI工作失误,他们估计这约占他们在工作中收到的内容的16%。工作失误通常在同事之间发送(40%);然而,员工也报告了工作失误由直接下属发送给经理(18%)以及反之(16%)的情况。根据调查结果,虽然AI工作失误发生在各个行业,但它在专业服务和技术行业最为普遍。
麦肯锡生成式AI平台Lilli的创始人Erik Roth表示,AI工作失误的一个例子是“员工几乎逐字逐句地采纳大型语言模型的输出”,并将其作为最终内容传递出去。
这种类型的AI内容通常质量更差,因为采用这种方法的员工通常并不精通构建AI提示词,不知道如何发现AI幻觉或虚假信息,并且不花时间确保AI生成的结果通过人类的标准。
AI工作失误最终是“上下文单薄、领域判断力轻微、且几乎没有经过人工润色的内容。这是没有真正价值创造的生产力错觉,”Roth说。
Dice公司总裁Paul Farnsworth表示,他见过一些AI内容,乍一看“似乎很精美”,但“再读一遍时就分崩离析了”。无论是不正确的数学、数据、逻辑,还是“根本没说任何有意义的”内容,他的主要警告是“过度依赖AI会制造一种虚假的效率感”。这给你一种你工作更快的错觉,而实际上“你正花费更多时间在之后进行重新审视和澄清,”他说。
二、AI生成的工作失误会产生额外的工作和挫败感
传递给同事的低质量AI内容,通常会给接收端的人带来更多工作。根据斯坦福社交媒体实验室和Betterup Labs的数据,AI工作失误平均给员工带来了近两个小时的额外工作负担,因为他们被迫解析内容以纠正错误、识别虚假信息,有时甚至需要从头开始重写内容或代码。
实验室估计,这种努力带来了一种每月高达186美元的“隐形税”,这个数字会迅速累积。例如,实验室计算,一个拥有10,000名员工、AI工作失误率为41%的组织,每年可能导致近900万美元的生产力损失。
AI工作失误也会在同事之间制造紧张关系。当被问及收到此类内容的感受时,员工的回答包括恼怒(53%)、困惑(38%)和被冒犯(22%)。报告还发现,同事们认为使用AI的其他同事“相比以前创造力更低、能力更差、更不可靠”,同时有42%的人表示他们认为同事“更不值得信赖”,37%的人表示“更不聪明”。
这也导致员工向管理层互相举报,34%的人表示他们曾就AI工作失误问题通知过其他团队成员或经理,32%的人表示他们在收到工作失误后,不太愿意与那个人合作。
“管理不善的AI不仅会拖慢工作,它还在侵蚀信任。当员工们不断地修复或核查AI生成的输出时,这会产生疲劳和怀疑。AI没有成为生产力伙伴,反而成了待办清单上的另一项,并且它产生更多工作而不是减少工作,”Pegasystems的Schuerman说。
三、管理和避免AI工作失误
Schuerman说,抵御AI工作失误的第一道防线是教育和治理,他建议IT领导者通过培训和实验来装备员工的AI素养,并鼓励他们质疑AI的输出,理解AI是如何产生结果的。
他补充说,IT领导者还应该建立护栏,并确保员工能够在正确的任务上使用正确的工具。"当AI系统被整合到结构化的工作流程中,具备可见性、反馈循环和审计追踪时,员工就不必猜测‘好’是什么样子了。他们在每个任务中都能看到它的示范。"
Dice的Farnsworth也倡导指导和治理。“组织需要记住,AI的好坏取决于其背后的人。如果你不投资于指导和治理,AI工具很快就会成为一种负债,而非优势,”他说。“关键在于有意识地使用AI——知道你要求它做什么,并准备好在需要时介入。”
并非每个人都会立刻接受AI。尽管如此,IT领导者必须积极带领员工踏上AI之旅,向他们展示强AI内容和弱AI内容的示例,以便他们能够学习和理解。
“培训员工有效使用生成式AI,首先要揭开它的神秘面纱,”Farnsworth说。
随着员工在使用AI方面变得更舒适和更精明,工作失误将随着时间的推移而减少。
“归根结底,AI的质量不仅仅是一个技术问题;它是一个文化问题,”Pegasystems的Schuerman说。“那些投资于可预测、可治理的AI的组织,不仅能获得更好的结果,他们还能建立起一支信任并能负责任地放大这些系统的员工队伍。”
人工智能的质量,本质上不是技术问题,而是文化问题。没有培训和治理,AI带来的不是生产力革命,而是一场“看似高效”的信任危机。