本文提出了一个极其尖锐的观点:尽管企业在GenAI上砸了400亿美元,但95%的组织没赚到钱。
这并不是因为技术不行,而是因为大多数企业的AI战略“迷失了方向”。他们把AI当成了“万能药”,却忽视了最基本的商业逻辑:结果、风险、信任、数据和安全。
作为睿信咨询AI与数据转型资深战略顾问,我将为您深度解读这篇“AI战略体检报告”,并为您提供一份包含6个核心问题的“自检清单”。

——MIT最新报告揭示AI失败真相,以及CIO必须问的6个“灵魂问题”
各位CEO和CIO:
MIT最新的《2025年商业AI现状报告》给所有狂热的AI信徒泼了一盆冷水:尽管企业在生成式AI(GenAI)上投入了300亿至400亿美元,但95%的组织并未获得任何回报。
为什么?因为大多数项目都“迷失”了:它们未能规模化、未能解决真问题、或者仅仅是个“昂贵的玩具”。
然而,Gartner的调查也发现,那5%的成功者(高AI成熟度组织),他们的AI项目已经持续产出三年以上的价值。
这说明,AI不是不能成功,而是你的“打开方式”不对。
成功的AI战略没有单一公式,但它一定经得起拷问。今天,我将带你进行一次“AI战略体检”。请对着以下6个“灵魂问题”,诚实地回答:你的AI之旅,真的在正轨上吗?
很多CIO陷入了一个误区:盯着具体的“流程”或“任务”去优化,却忘了问“这能带来什么商业价值?”
Principal Financial Group的CIO Kathy Kay举了一个经典反例:用AI写邮件。
这听起来很美,能省时间。但如果你的员工本来就不怎么写邮件,或者邮件对业务没那么重要,那么这项投资的回报就是零。
【睿信咨询顾问建议】
别再迷恋技术本身。请问自己:“如果不谈AI,我们到底想解决什么商业问题?” 是提高效率、改善客户体验,还是加快增长?如果答案模糊,请立刻叫停项目。
安永(EY)的调查显示,99%的公司因AI风险遭受了财务损失,其中64%损失超百万美元。但只有12%的领导者知道该怎么控制风险。
TD Bank的高管Ted Paris指出,光列出风险是不够的。你必须问:
“这个AI项目,在我们的风险承受范围内处于什么位置?想要部署它,我们必须满足哪些先决条件?”
【睿信咨询顾问建议】
如果创新因规避风险而受阻,那就建立“沙盒”进行可控实验;如果实验速度超过了监督速度,那就立刻暂停,强化问责。
Vanguard的高管Charles Thompson警告:没有信任的AI创新是不可持续的。
对于外部客户,AI必须透明、安全、公平。
对于内部员工,AI必须可解释、可靠,且被设计为“支持”而非“取代”人类。
【睿信咨询顾问建议】
CIO必须向员工清晰传达:AI为何对他们有益?它在流程中扮演什么角色?只有当员工理解并信任它,AI才能真正落地。
这是最致命的问题。55%的数据领导者承认,他们的数据安全战略跟不上AI的步伐。
SS&C的CIO Anthony Caiafa连发三问:
你知道你需要哪些数据集吗?
你有权使用这些数据吗?(很多时候答案是No)
你需要担心数据本地化吗?
【睿信咨询顾问建议】
应用AI的最大障碍,往往不是AI工具,而是“数据没准备好”。CIO需要问:“我们的数据战略,能否支撑我们的AI野心?”
Booz Allen的高管Matt Costello提醒,AI正在扩大企业的“攻击面”。
Gartner发现,29%的企业遭受过针对GenAI基础设施的攻击,32%遭遇过“提示注入”攻击。
更可怕的是供应链风险:你用的SaaS软件里嵌入的AI功能安全吗?你构建AI的管道(Pipeline)本身安全吗?
【睿信咨询顾问建议】
不要让CISO(首席信息安全官)在事后“打补丁”。安全必须从第一天起就嵌入AI战略的设计中。
随着“自主型AI智能体”(Agentic AI)的兴起,AI开始具备自主行动能力。
Protiviti的Mottram提出了终极问题:
“你想从人类手中拿走多少工作和决策权?你想设置多少制衡机制?”
【睿信咨询顾问总结】
AI战略不是技术竞赛,而是一场关于结果、风险、信任、数据、安全和权力的深度思考。
如果你对以上6个问题没有清晰的答案,那么你的AI项目,很可能就是那95%的“分母”。

图源:Rob Schultz / Shutterstock
如果相关研究是正确的话,大多数人工智能(AI)项目都未能达到目标。
近期的多份报告显示,这些项目未能实现规模化、解决问题、满足客户需求或创造价值。
值得一提的是MIT(麻省理工学院)的《2025年商业人工智能现状报告》,该报告得出结论称,尽管企业在生成式人工智能(GenAI)方面投入了300亿至400亿美元,但95%的组织并未获得任何回报。
不过,也有一些人工智能成功案例。在这些案例中,企业部署了人工智能,并在效率、生产力、市场差异化等方面获得了足够的可量化回报,从而宣告成功。
例如,研究公司Gartner(高德纳)在2025年的一项调查中发现,“45%的高人工智能成熟度组织的领导者表示,他们的人工智能项目已持续生产三年或更长时间,以确保持续的影响和价值。”
那些研究人工智能成功案例的人士以及取得此类成功的企业高管表示,成功的人工智能战略涉及诸多因素。
高德纳在其《2025年成功人工智能战略的支柱》报告中指出:“AI巨大的潜在商业价值不会自动实现。AI领导者应引导其组织进入一个时代,不仅创造有形的商业价值,还要超越这一点,成为关键的竞争差异化因素和行业颠覆者。”
不出所料,研究人员、顾问和顶尖的首席信息官(CIO)表示,没有单一的成功人工智能战略公式。相反,每个组织都必须确定自己的道路。希望确定其人工智能战略正确方向的CIO应向自己和组织提出以下关键问题。
一、 我们是否专注于期望人工智能实现的结果?
人工智能提供了大量重塑工作方式和与客户互动方式的机会。
为了避免分散的方法,CIO需要问自己和同事,他们的AI项目是否与他们希望为业务实现的结果一致,Principal Financial Group的执行副总裁兼CIO Kathy Kay(凯西·凯)说。否则,她说,“我们只会导致人工智能应用的无序扩张,并增加技术债务。”
Kay说,企业高管应明确他们希望实现的具体结果,无论是提高效率、改善客户体验还是加快业务增长,并确保其与业务目标一致。
她解释说,高管不应专注于使用人工智能重塑“流程”或“任务”,因为这样做可能无法实现期望的结果。
例如,投资人工智能来辅助或接管邮件撰写工作——这是生成式人工智能在完成任务方面的一种常见应用。这似乎是一项轻而易举的任务,能够节省员工时间,从而带来投资回报率。但在电子邮件并不占用员工太多时间或提供任何差异化价值的组织中,将人工智能应用于这项任务可能不会产生任何具有可衡量价值的结果。
Kay承认,专注于结果而不是重塑任务是一个微妙的区别,但她强调,这是一个重要的区别,因为这迫使企业高管确定他们的人工智能计划是否能够带来真正的商业价值。
她说,另一种方法是问:“我们是否清楚我们试图通过人工智能战略解决的问题,以免我们只钟情于解决方案?”
根据其他专家和从业者的说法,CIO还可以这样提问:“人工智能战略将解决哪些客户的需求和期望?”“我们的人工智能战略能带来什么价值?” 以及“我们正在做的事情如何与我们的业务优先事项对齐?”
Protiviti技术咨询业务董事总经理Peter Mottram(彼得·莫特拉姆)表示:“CIO必须有一个筛选机制,输入有价值的用例,输出相应结果,并通过关键绩效指标和衡量标准来评估是否实现了(预期结果)。”
二、 我们对人工智能的风险承受能力如何,以及如何调整战略与之匹配?
CIO及其高管同事认识到人工智能会带来风险,但TD Bank执行副总裁兼分析、智能与人工智能主管Ted Paris(泰德·帕里斯)表示,仅仅阐述这些风险是不够的。相反,他说,企业高层需要问:“这个(人工智能项目)在我们的风险承受范围内处于什么位置?对于这个特定的解决方案以及我们部署它的能力有何看法?要能够部署这个项目,我们必须满足哪些条件?”
研究表明,许多高管对这些问题没有好的答案。
专业服务公司EY(安永)2025年10月的《负责任人工智能动态调查》显示,99%的受访公司报告称因人工智能相关风险遭受了财务损失,其中64%的公司损失超过100万美元。该调查还发现,只有12%的企业高层领导能够确定针对五个关键人工智能风险的适当控制措施。此外,调查显示,39%的员工对自己是否负责任地使用人工智能缺乏信心。
安永在报告中指出:“投资于人工监督和安全提示至关重要。”
Kay建议建立风险评估和缓解流程,而Paris则建议CIO与风险、法律、隐私和安全部门的领导合作,创建一个风险框架,以指导识别风险并制定适当的控制级别。
专业服务公司Deloitte(德勤)负责人、美国人工智能与工程战略及服务主管Faruk Muratovic(法鲁克·穆拉托维奇)补充道:“需要集中实施一系列保障措施,并确保遵守这些措施。对于某些类型的流程,引入自主性和智能代理必须遵循一些原则,并且这些原则需要在整个组织中贯彻落实,以确保在整个组织内负责任地使用人工智能。”
三、 我们是否在创新与信任之间取得了恰当的平衡?
金融公司Vanguard负责人兼咨询与财富管理技术主管Charles Thompson(查尔斯·汤普森)表示,信任问题也是需要考虑的重要因素,并补充说没有信任的人工智能创新是不可持续的。
他解释说:“随着企业将人工智能融入产品、服务和运营中,它们必须在内部和外部都增强信心。对于外部客户,人工智能必须具备透明度、安全性和公平性。对于内部客户/员工,人工智能必须是可解释的、可靠的,并且其设计目的是支持而非取代人类的判断力。”
他说,CIO“必须在推进速度与管理责任之间取得平衡,在推动进步的同时保护数据完整性、客户隐私和品牌声誉。这是一个微妙但至关重要的平衡,必须加以维持。”
Thompson还说:“如果创新因规避风险而受到限制,那就重新调整,在明确的治理框架下进行可控的实验。如果实验速度超过了监督速度,那就暂停一下,强化问责制和透明度框架。”
他还认为,CIO需要向客户和员工清晰地传达人工智能的使用方式以及为何对他们有益,这样他们就能理解人工智能在流程中的作用,并学会信任它。
四、 我们的数据战略是否真的为人工智能做好了准备?
SS&C Technologies首席信息官兼首席技术官Anthony Caiafa(安东尼·卡亚法)表示,随着企业制定人工智能战略并寻求特定的人工智能应用,他们需要确定哪些数据在流入和流出,以及他们是否对这些数据进行了适当的管理。
Caiafa问道:“您知道您需要哪些数据集吗?您知道您想要与之交互的数据集吗?您需要担心数据本地化问题吗?”
Caiafa说,这些只是开始,他指出,随着CIO推进人工智能项目,还有几十个与数据相关的问题需要得到解答。
例如,CIO应该问问他们的组织是否甚至获得了使用特定人工智能项目所需数据的许可。正如Caiafa所解释的,一个组织可能手头有特定人工智能用例所需的客户数据,但如果使用这些数据,可能会违反监管或合同条款。
尽管数据准备工作至关重要,但大多数企业领导者——包括CIO——在踏上人工智能之旅之前并没有掌握他们应该掌握的答案。数据安全供应商Immuta的《2025年数据安全状况报告》显示,55%的数据领导者表示他们的数据安全战略跟不上人工智能的发展步伐。该报告还指出,64%的数据领导者在为授权用户及时、安全地提供数据访问方面面临重大挑战。
当然,CIO必须与所在组织的数据领导者合作,以克服这一挑战。但Caiafa说,他们还需要企业领导者思考并回答数据准备方面的问题,因为企业领导者应该主导那些能使他们部门受益的人工智能用例——并且应该理解并掌控实现成功结果所需的数据。
Muratovic说,对于大多数组织来说,数据准备问题至关重要。
他说:“应用人工智能的最大障碍之一是数据没有准备好,或者没有进行正确的整合或整理,以至于无法被人工智能工具利用。所以CIO们需要问,‘我们的战略是什么,才能使数据需求和可访问性与我们的人工智能计划保持一致?’而且他们不仅要考虑数据,还要考虑数据基础设施,要思考数据是存储在本地,还是需要迁移到云端,或者这个人工智能用例是否需要将数据迁回本地,以降低延迟或成本。”
五、 我们如何保障企业中人工智能的使用安全?
Booz Allen Hamilton商业人工智能解决方案副总裁Matt Costello(马特·科斯特洛)表示,企业对人工智能的使用正在扩大组织必须保护和防御的攻击面,CIO有责任关注防御策略——而不仅仅是让首席信息安全官(CISO)在事后追加安全措施。
他补充说:“使用这些工具时,安全是一个真正的挑战。”
这也是当务之急,因为各组织正目睹其人工智能工具遭受攻击。
高德纳在2025年春季的一项调查中发现,29%的网络安全领导者表示,在过去12个月里,他们的组织遭遇了对企业生成式人工智能应用基础设施的攻击,32%的领导者表示,在同一时期,他们遭遇了对利用应用提示的人工智能应用的攻击。
高德纳在公布调查结果时写道:“聊天机器人助手容易受到各种对抗性提示技术的攻击,例如攻击者生成提示,操纵大语言模型(LLM)或多模态模型生成有偏见或恶意的输出。”
Costello说,虽然金融等监管严格行业的组织更有可能制定成熟的人工智能安全策略,但大多数其他行业的组织仍在努力了解这些威胁以及应对这些威胁所需的安全措施。
他补充说,CIO还必须关注他们人工智能工具的供应链,包括SaaS(软件即服务)产品中嵌入的人工智能功能,以及这些带来的安全风险。
他说:“CIO还必须询问他们构建人工智能工具的管道是否安全。”他解释说,人工智能平台和其他任何软件一样,容易出现类似Apache Log4j漏洞(一种严重的安全漏洞,允许攻击者执行任意代码)那样的问题。
他还说:“CIO需要关注从旁门进入组织的人工智能,因为这可能会带来安全风险。”他指出,安全、法律和风险团队都应该参与提出和回答有关人工智能安全需求的问题。
六、 我们想把多少工作和决策交给人工智能?
随着人工智能的发展,各组织在使用人工智能方面的技能也日益娴熟,Protiviti的Mottram表示,CIO应该要求同事们思考,要从人类手中拿走多少工作和决策权,并将其交给人工智能?
他说:“您必须思考控制措施在哪里,您想交给机器多少工作,以及您想要多少制衡机制。”他还补充说,随着组织开始更深入地投资于能够自主做出和执行决策的**代理人工智能(Agentic AI)**系统,这一系列问题将变得越来越关键。
作者:Mary K. Pratt(玛丽·K·普拉特)
Mary K. Pratt(玛丽·K·普拉特)是马萨诸塞州的一名自由撰稿人。
译者:宝蓝 编审:@lex