你好,欢迎您来到福建信息主管(CIO)网! 设为首页|加入收藏|会员中心
您现在的位置:>> 新闻资讯 >>
麦肯锡警告:2/3的企业AI无法规模化!你的“数据地基”真的稳吗?
作者:CI0.com&睿观 来源:CIOCDO 发布时间:2025年12月12日 点击数:

麦肯锡的数据显示,近三分之二的组织难以在业务范围内推广AI。原因很简单:数据没准备好。许多企业试图在“碎片化的数据源”和“混乱的数据”之上构建复杂的AI模型,这就像是在流沙上盖楼。

——CIO必须掌握的“数据备战”清单,别让AI接管了错误的方向

各位CIO和CDO:

当我们在谈论AI雄心时,现实往往是骨感的。

麦肯锡最新的全球调查显示,近三分之二的领导者表示,他们的组织在业务范围内推广AI一直遇到困难。许多项目止步于试点(Pilot),投资回报率(ROI)难以证明。

为什么?软件开发商Aras的CTO Rob McAveney一针见血地指出:

“许多组织假设他们需要AI,但真正的起点应该是:定义你希望AI支持什么‘决策’,并确保你有正确的‘数据’来支持它。”

如果数据孤岛林立、质量堪忧,AI只会放大这些不一致,导致不可靠甚至误导性的结果。

今天,我们为您梳理了一份“数据备战”清单,帮助您在AI接管方向盘之前,先修好路。


一、🛑 战略刹车:确保AI不会“盲目掌舵”


在急于采用AI时,很多企业忘记了最根本的问题:到底要解决什么业务问题?

【睿信咨询顾问建议:COE(卓越中心)筛选机制】

VyStar信用合作社的CTO Anurag Sharma建议,CIO应该“放慢对话节奏”,以便区分哪些是“闪亮的(炒作)”,哪些是“战略的(刚需)”。

企业应建立一个AI COE或专门工作组,成员不仅包括技术人员,还要有业务、法律、合规和安全团队。他们的任务是:

  1. 定义基线要求:在项目启动前,明确AI必须满足的安全和业务标准。

  2. 设定退出机制:建议设立30或45天的检查点。如果结果未达预期,不要犹豫,果断叫停



二、🏗️ 数据治理:没有“非结构化”,只有“未被结构化”


国际特赦组织的CIO Paul Smith提出了一个深刻的观点:

“没有所谓的‘非结构化数据’,只有尚未被应用结构的数据。”

【实战动作:数据血统与所有权】在金融等高信任行业,如果你不能清楚回答“数据从哪来?”以及“它有多可信?”,那你还没准备好。

  • 标准化:通过标准化模式(Schemas)、执行数据合同(Data Contracts),在数据摄取时自动化质量检查。

  • 单一事实源:Reworld公司创建了“单一事实源数据架构”(Single Source of TruthData Fabric),并为每个领域分配了数据管理员(Data Stewards)



三、⚖️ 伦理与偏见:照镜子的时候到了


AI会放大它在数据中发现的任何模式——包括那些组织宁愿摒弃的旧偏见

【睿信咨询顾问建议:人机闭环(Human-in-the-loop)】

Reworld的CIO分享了一个教训:在早期的AI线索资格认证试点中,取消人工审核导致了分类效果不佳。他们迅速调整模型,重新加入了人类反馈

决策不应在没有人工验证的情况下做出。公平性指标(如差别影响)应被纳入模型验证流程。


结语:数据是战略资产


成功的AI采用,始于明确的业务需求、扎实的数据和人类的判断力,而不是让技术发号施令。

在加大投入之前,请先问自己:我的数据治理够强吗?质量标准执行了吗?数据所有权明确了吗?

如果答案是否定的,请先停下来修好地基。因为在流沙上,建不起AI的大厦。



全文:让数据和数据文化为人工智能做好准备


CIO们提醒不要让 AI 主导企业战略。成功的采用始于明确的业务需求、扎实的数据和人类判断,而非技术主导。

图源:Rob Schultz / Shutterstock

在人工智能(AI)的采用方面,雄心与执行之间的鸿沟可能无法弥合。公司试图将技术融入产品、工作流程和战略中,但良好的初衷常常因混乱的数据和缺乏清晰计划而在日常现实的重压下崩溃。

“这是我们合作的全球制造商中最常遇到的挑战,”软件开发商Aras的首席技术官(CTO)Rob McAveney说。“许多组织假设他们需要AI,但真正的起点应该是定义你希望AI支持什么决策,并确保你拥有支持它的正确数据。”

根据麦肯锡最近的一项全球调查,近三分之二的领导者表示,他们的组织在业务范围内扩展AI(scale AI)一直遇到困难。他们往往无法超越试点项目的测试阶段,这一挑战在小型组织中更为明显。试点往往未能成熟,投资决策也变得难以证明合理性。

一个典型的问题是数据还没准备好用于AI。团队试图在零散的源头或混乱的数据上构建复杂的模型,希望技术能“抹平裂缝”。

“从我们的角度来看,实现有意义AI成果的最大障碍是数据质量、数据一致性和数据上下文,”McAveney说。“当数据存在于孤岛中或未被共享标准所治理时,AI只会反映这些不一致,导致不可靠或误导性的结果。”

这是一个影响几乎所有行业的问题。在组织加大投入新型AI工具之前,必须先建立更强的数据治理,执行质量标准,并明确谁真正拥有这些系统所需的数据。

一、确保人工智能不会掌控一切

在急于采用AI的过程中,许多组织忘记了问一个根本性的问题:到底需要解决什么问题。没有这种清晰度,很难取得有意义的结果。

VyStar信用合作社的CTO Anurag Sharma认为,AI只是帮助解决特定业务问题的又一工具,他表示每一项举措都应以清晰、简单的业务成果声明开始。他鼓励团队找出AI可能解决的问题,并敦促高管们在推进任何事情之前,先了解哪些内容将发生变化,以及谁将受到影响。

“CIO和CTO可以通过坚持这种纪律,并适当放慢对话节奏,以便将‘闪亮的(炒作)’与‘战略的’区分开来,从而让举措保持稳固,”Sharma说。

当组织拥有AI卓越中心(COE)或专门工作组专注于识别真实机会时,这种区分会变得更加容易。这些团队帮助筛选想法,设定优先事项,并确保举措扎根于业务需求而非炒作。

该小组还应包括那些工作将受AI影响的人员,以及企业领导者、法律与合规专家以及安全团队。他们可以共同定义AI举措必须满足的基线要求。

“当这些要求在一开始就明确时,团队可以避免追求那些看起来令人兴奋但缺乏真正业务锚点的AI项目,”安全与治理平台Zenity的AI安全与政策倡导总监Kayla Underkoffler表示。

她补充说,COE中应有人对当前的AI风险格局有扎实的理解。该人应准备好回答关键问题,清楚在每个项目上线前需要解决哪些关切。

“一个计划可能存在团队都未察觉的巨大裂缝,”Underkoffler说。“从一开始就必须包含安全措施,以确保护栏和风险评估能从一开始就加入,而不是在举措启动运行后才‘补装’(bolted on)。”

此外,还应有明确且可衡量的业务成果,以确保努力是值得的。“每个提案都必须事先定义成功指标,”云质量工程平台LambdaTest, Inc.的DevOps和DevSecOps副总裁Akash Agrawal说。“AI从不是被探索(explored),而是被应用(applied)。”

他建议公司设立定期的30天或45天检查点,以确保工作持续与业务目标保持一致。如果结果未达预期,组织不应犹豫重新评估并做出诚实决策,他说。即使这意味着要完全放弃该举措。

然而,即使技术前景看好,人类仍需保持在回路中(remain in the loop)。“在我们基于AI的潜在客户资格认证的早期试点中,取消人工审核导致了无效的潜在客户分类,”可持续废弃物解决方案公司Reworld的CIO Shridhar Karale表示。“我们迅速重新调整模型以包含人类反馈,因此它不断精炼,随着时间推移变得更准确。”

当决策在没有人工验证的情况下做出时,组织就有可能基于错误的假设或被误解的模式来行动。目标不是取代人,而是建立人机相互增强的伙伴关系。

二、数据,战略资产

确保数据得到有效管理是让AI按预期运作的一个常被忽视的前提。创造合适的条件意味着将数据视为战略资产:组织它、清理它,并制定正确的政策,以确保其随着时间推移保持可靠。

“CIO应关注数据质量、完整性和相关性,”国际特赦组织(Amnesty International)CIO Paul Smith说。他的组织每天都在处理非结构化数据,通常来自外部来源。鉴于工作性质,数据质量可能不一。分析师筛选文件、视频、图片和报告,这些文件以不同格式和条件制作。管理如此大量杂乱、不一致且常常不完整的信息,教会了他们严谨的重要性。

没有所谓的非结构化数据,只有尚未被应用结构的数据,”Smith说。他还敦促组织从扎实的日常数据治理习惯的基础开始。这意味着要核查数据是否相关,并确保其完整、准确且一致,而过时的信息可能会扭曲结果。

Smith还强调核实数据血统(data lineage)的重要性。这包括建立来源(provenance)——了解数据来自哪里以及其使用是否符合法律和伦理标准——以及审查任何详细说明数据如何收集或转化的现有文档。

在许多组织中,混乱的数据来自遗留系统或手动录入的工作流程。“我们通过标准化模式(schemas)、执行数据合同(data contracts)、在摄取时自动化质量检查以及整合工程部门的可观测性来增强可靠性,”Agrawal说。

当团队信任数据时,他们的AI成果会得到提升。“如果你无法清楚回答数据从哪里来以及它有多可信,那你还没准备好,”Sharma补充道。“与其追逐方向错误或操作上有害的见解,不如一开始放慢脚步,尤其是在金融行业,信任是我们的货币。”

Karale表示,Reworld创建了一个单一事实源数据架构(single source of truth data fabric),并为每个领域分配了数据管理员(data stewards)。他们还维护一个“活”的数据字典,使定义和访问策略通过简单搜索就能轻松找到。“每条记录都包含血统和所有权详情,这样每个团队都能知道谁负责,并且可以信任所使用的数据,”Karale补充道。

三、对组织偏见的严肃审视

AI有一种放大它在数据中发现的任何模式的能力——包括有益的模式,以及组织宁愿摒弃的旧偏见。避免这种陷阱首先要认识到偏见往往是一个结构性问题

CIO可以采取几种措施来防止问题生根。“在AI进入工作流程之前,审查所有用于培训或试点运行的数据,并确认基础控制措施已到位,”Underkoffler说。

此外,尽量详细理解代理式AI(agentic AI)如何改变风险模型。“这些系统引入了新的自主性、依赖性和互动形式,”她说。“控制必须相应进化。”

Underkoffler还补充说,强有力的治理框架可以指导组织进行监控、风险管理和设置防护措施。这些框架明确了谁负责监管AI系统、决策如何记录,以及何时需要人类判断介入,为技术发展速度快于大多数政策的环境提供结构。

Karale表示,公平性指标,如差别影响(disparate impact),在这种监督中起着重要作用。这些指标帮助团队了解AI系统是否公平对待不同群体,还是无意中偏袒某一方。这些指标可以纳入模型验证流程。

领域专家还可以在发现和重新训练产生偏见或偏离目标输出的模型中发挥关键作用。他们理解数据背后的背景,因此通常是第一个发现异常的人。“持续学习对机器和对人同样重要,”Karale说。

国际特赦组织的Smith也表示同意,他说组织需要持续培训员工,帮助他们识别潜在的偏见。“提高对风险和危害的认识,”他说。“第一道防线或风险缓解是人类。”