人人都说需要AI,但大多数公司其实并没准备好——真正困难的不是模型本身,而是让模型运作起来的混乱中间环节。

图源:Credit: Lazy_Bear / Shutterstock
参加足够多的领导会议,你就会听到带有不同口音的相同故事:“我们需要AI。”它出现在董事会的演示文稿、年度战略文件以及那张神奇地将试点变成利润的曲棍球杆曲线图。
我明白这一点。AI是真实存在的,其潜在收益也是真实的。但这里有一个悄然侵蚀预算和可信度的问题:大多数公司并没有像他们认为的那样准备好采用AI。
他们尚未具备能力。
当我谈到AI采用的隐藏成本时,我不是在说模型定价或供应商费用,这些是可见且可协商的。真正的成本存在于混乱的中间环节:数据基础、整合工作、运营模式变化、治理、安全、合规以及在演示结束后保持AI有用的持续努力。
这是一些从未出现在产品发布视频中的乏味工作——而正是这些工作最终决定了AI是成为一种持久的竞争优势还是一次昂贵的副业冒险。
一、AI就绪是一种能力,而不是一种购买行为
如果我必须用一句话来概括AI就绪,那就是:AI就绪是你的组织反复将业务问题转化为明确的决策或工作流程,提供可靠的数据并交付可以监控、审计和改进的解决方案的能力。
这个定义很重要,因为许多声称AI就绪的说法其实只是替代品:
我们有数据(数量,而不是质量)
我们处于云端(基础设施,而不是运营模式)
我们进行了概念验证(演示,而不是生产)
我们聘请了数据科学家(角色,而不是一个系统)
真正的就绪有四个层面,它们必须同时出现:
数据就绪:了解数据的位置、数据的所有者以及数据是否可靠到足以用于自动化决策
技术就绪:具备以生产标准构建、部署、监控和保护AI系统的能力
组织就绪:明确的所有权、技能和决策权锚定在真正的产品团队中
风险和合规就绪:解释系统做什么,如何失败以及如何处理失败的能力
框架在这里很重要,不是因为它们优雅,而是因为它们能带来明确性。它们在早期就揭示了治理和问责制,而这些正是AI就绪叙事通常薄弱的领域。
二、膨胀信心的三个神话
大多数过度自信都源于三个错误观念。它们很常见;它们是可以理解的;但它们很昂贵。
神话1:我们已经拥有数据了
有人说:“我们有多年的客户数据”,每个人都会像工作基本完成一样地点点头。
拥有数据并不等于拥有可用数据,AI系统会在大规模范围内放大质量问题。在被证明之前,“我们已经拥有数据了”通常意味着存在重复记录、定义不一致、缺失字段、敏感数据出现在错误位置以及所有权不明确等问题。
隐藏的成本很快就会显现出来:数据清洗、去重、架构对齐、标注、管道构建、访问控制以及反映现实而非乐观情绪的评估数据集。许多AI项目在产出任何值得展示的成果之前会花费数月时间,因为第一个真正的交付物不是模型——而是不会在生产环境中崩溃的数据。
神话2:我们只需接入AI供应商
即使有经过精心打磨的API或SaaS工具,真正的日常工作仍然是:身份和访问控制、数据映射、工作流整合、防护措施、监控和故障处理。
然后是更艰难的部分:让人们信任并使用该系统。如果它增加了摩擦或产生不可靠的输出,采用率会迅速崩溃,供应商风险也不会消失。定价变化,使用量激增,工作流与你无法完全控制的工具耦合。如果没有内部所有者,你就不是在构建能力,而是在租赁能力。
神话3:我们的团队会解决这个问题
强大的工程团队通常认为AI只是另一个功能。有时确实如此,但很多时候并非如此。
AI工作改变了人才构成和协调负担。它引入了新的需求:数据工程、评估设计、领域专业知识和AI特定的风险意识。即使是简单的生成式功能也需要精心设计,以避免自信、看似合理但错误的输出——这是最危险的故障模式。
AI项目还同时涉及产品、工程、运营、法律和风险团队。如果这种跨职能需求没有被规划,AI工作不仅会延误,还会扰乱周围的路线图。
三、AI采用的真正隐藏成本
当AI项目遇到困难时,很少是因为想法不好或模型薄弱,而是因为真正的成本出现得晚且一次性全部显现出来。
在严肃的AI项目中,这些成本通常分为五个类别:
1.技术和基础设施成本
AI系统需要的不仅仅是计算能力,而是实验环境、部署管道、与自动化风险相匹配的监控和安全控制。生成式AI在演示中看起来很轻量级,但在生产环境中则需要严格把控。提示词会变化,模型在负载下表现不同,故障需要警报和回滚路径。
2.实验开销
大多数组织优化的是执行,而不是学习,AI会迅速暴露出这种差距。数据假设会失败,评估指标会改变,每次迭代都会消耗时间和信誉。试点项目看起来廉价,是因为它们掩盖了这种开销,生产环境则不会。
如果你想要一个直接的指标,从试点到生产的转化率往往低于领导者的预期。Gartner相关的报告表明,在某些环境中,只有大约一半的AI模型能够从试点阶段进入生产阶段。无论你的比例是40%还是70%,教训都是相同的:试点阶段的成本较低,而生产阶段的成本较高。
3.变更管理与工作流程重塑
AI重塑流程,每一次部署都会促使关于责任、人工干预和异常处理的决策。如果这些问题不被解决,采用就会停滞,风险会悄然累积。这不是边缘案例,而是一个模式。最近对福布斯关于麻省理工学院相关研究的讨论的报道强调了众多企业通用AI试点项目未能显示出可衡量影响的原因——它们从未被整合到真正的工作流程中。技术是有效的,但组织没有围绕它进行调整。
4.治理与合规
在大规模应用中,AI是一个治理问题。自动化决策涉及敏感数据并影响结果,组织需要明确性、文档和审查途径。治理不是为了减缓团队速度,而是为了在没有持续的紧急情况的情况下实现负责任的自动化。
5.持续维护
AI系统会退化。数据会发生变化,政策会改变,集成会中断。真正的成本不是构建第一版,而是承诺随着时间的推移运营和改进系统。
综合来看,这些成本解释了为什么许多AI项目在承诺和影响之间停滞不前。它们不是因为缺乏雄心,而是因为高估了自身的准备程度。
四、我如何真正评估AI准备程度
当我评估AI准备程度时,我不会从工具或供应商开始,而是从尝试尽早扼杀这个想法开始。
我问了四个问题,并且不允许含糊的回答。
1.我们正在改进什么决策或工作流程以及我们将如何知道它是否奏效?如果答案是更好的洞察力或更高的效率,我们就停止。我希望了解当前的工作流程、基准线、干预点和定义成功的指标。
2.这取决于什么数据,谁拥有这些数据以及它现在有多糟糕?如果所有权不明确或质量未知,那就不是AI问题,而是伪装成AI问题的数据治理问题。
3.系统在启动后由谁负责,即使在糟糕的一天?每个AI系统都需要有明确的所有者、预算决策权和对结果的责任,而不是演示。没有所有者的AI不会大声失败,它只是变得无关紧要。
4.这可能会如何失败以及当它失败时我们该怎么办?如果答案是我们会监控它,我会进一步追问——监控什么?使用什么阈值?由谁审查?
只有在这些问题得到解答后,我才会在数据、技术、组织和风险维度上评估准备程度。如果有人处于红色状态,我们会改变工作的方向——在扩大雄心之前先修复基础。
五、更明智的AI采用的实用策略
为了避免隐藏成本陷阱,我默认使用纪律严明的剧本:
从狭窄且可度量的范围开始,选择具有可见价值和可承受失败的用例。
在数据基础设施建设的早期投资,而不是在试点之后。
从第一天起就将预算用于赋能,采用是构建的一部分。
试点→验证→扩展。真实的工作流程、真实的数据、真实的约束条件。
从一开始就建立跨职能团队,早期的对齐速度较慢,但后期会更快。
如果你想要一个极其坦率的信号来表明这很重要,请查看波士顿咨询公司2025年报告中强调的AI价值差距。像波士顿咨询公司这样的咨询公司报告称,尽管投入了大量资金,但只有少数公司能够实现有意义的AI价值。这个差距不是因为AI不奏效,而是因为团队、所有权和运营模式的准备程度远比大多数组织预期的要困难得多。
六、巧妙利用AI
AI仍然是组织最强大的杠杆工具之一,但优势不再属于第一个采用它或谈论它最多的公司,而属于那些能够负责任地、反复且有纪律地将AI付诸实践的公司。
AI采用的真正隐藏成本不是模型或供应商,而是成为能够真正使用AI的组织的成本:清理数据、有弹性的管道、明确的所有权、强大的治理以及使人们更有效率的工作流程。
获胜的组织将AI视为一种长期能力,他们在有雄心之前就进行基础投资且只扩展那些经得起现实考验的东西。回报不是魔法,但它们会复合增长。在一个充斥着演示的环境中,这种运营优势是唯一持久的胜利。