领导者们过于迅速且过度地转向自动化,却从不质疑幕布背后隐藏着什么。
图源:Yurii Yarema via Alamy Stock
我花了20多年的时间与大型组织合作,识别它们最关键的信息安全和数字化风险,并制定成本效益高、能产生高影响力结果的策略。我目睹了人工智能从一个利基工具崛起为几乎每一个战略对话的中心,幻灯片上赞颂人工智能有潜力提高效率、降低风险并加速增长。
在这种兴奋中,我常常看到一种危险的模式出现:领导人在自动化方面走得过快,而没有质疑幕后隐藏的东西。
风险并非来自技术本身,而是我们对它的过度自信。
许多决策者错误地认为,采用人工智能是一个纯粹的技术决策,事实并非如此。这是一个战略、伦理和治理方面的挑战,当领导层忽视这一点时,系统就会崩溃,信任就会削弱,声誉也会受损。
一、高管过度自信的微妙陷阱
人工智能被包裹在一个极具诱惑力的叙事中。新闻头条庆祝机器学习的突破;供应商承诺提供现成的智能解决方案;内部团队面临着必须取得人工智能成果的压力。在这种氛围下,高层领导很容易陷入我所说的控制幻觉:相信人工智能系统是即插即用、毫无风险的精准引擎。
人工智能并非中立,它反映了其所消耗的数据,并放大了其构建的基础假设。将高风险决策委托给模型,而不质疑它们的工作原理或可能失败的地方,这并不是创新,而这是逃避责任。
从我的咨询工作中,我发现了三个常见的盲点:
1.过度依赖仪表盘
2.误解人工智能的局限性
3.盲目模仿成功
这些盲点并非源于无能,而是源于缺乏质疑。在这种环境中,没有人有动力去说:“这可能行不通。”
二、当治理未能跟上步伐时
在大多数组织中,人工智能治理仍在努力追赶。风险登记册常常遗漏模型失败模式;审计计划很少测试可解释性或数据血统;没有跨职能的监督机构来负责人工智能风险;只有技术团队、法律顾问和过度劳累的合规负责人拼凑而成的体系。
这导致了两个关键的失败:责任不清和运营脆弱。
除非治理框架像对待财务控制或网络安全一样严肃对待人工智能,否则这些风险将持续存在。
三、认清真正的风险:不是模型,而是心态
领导层的偏见是大多数组织忽视的隐藏弱点。在高层,绩效指标奖励确定性和速度,但人工智能要求我们保持谦逊并暂停一下,它迫使我们质疑数据质量、利益相关者影响和长期可持续性这些令人不安的问题。
那些做对了的组织不仅仅是将人工智能接入业务,他们围绕人工智能的风险和局限性调整业务。
这需要转变思维模式:
a.从委派到协作
b.从速度到审查
c.从不透明到可解释
四、构建人工智能韧性始于高层
董事会和高管团队无需成为人工智能工程师,但他们确实需要了解人工智能风险所在以及如何管理这些风险——这始于教育、明确的责任归属以及跨职能协作。
以下是我帮助客户实施的务实步骤:
1.将人工智能纳入企业风险管理
2.将人工智能纳入内部审计范围
3.建立人工智能风险委员会
4.营造心理安全感
最重要的是,以好奇心为引领。我共事过的最优秀的领导者们并不追求确定性,而是提出更好的问题。他们抵制“灵丹妙药”的诱惑,为异议、迭代和路线修正创造了空间。
五、韧性,而非依赖
人工智能有潜力改变我们的运营、竞争和服务方式,但没有自我反思的变革是一种负担。最大的风险并不在于模型本身,而在于我们如何治理这些模型。
在人工智能时代生存并繁荣的组织将是那些保持清醒头脑、构建韧性而不仅仅具备能力的组织。
在下一次董事会会议或季度路线图审查之前,请问自己:我们是否过度信任了一个我们并不完全理解的工具?更重要的是,当规则一夜之间改变时,我们如何保持在游戏中的竞争力?
作者:Maman Ibrahim
译者:木青
睿观:
在AI(人工智能)的热潮中,许多企业高管因过度自信而陷入了一种危险的“控制幻觉”:他们错误地将AI视为一个纯粹的技术决策和即插即用的精准引擎,而忽视了其背后复杂的战略、伦理与治理挑战。这种心态源于对AI局限性的误解和对仪表盘的过度依赖,并因缺乏健全的AI治理框架(如将AI纳入风险登记与内审)而加剧,最终导致责任不清和运营脆弱,侵蚀信任、损害声誉。因此,真正的AI风险并非来自模型本身,而是来自领导层的心态。要构建AI韧性,领导层必须将AI风险正式纳入企业风险管理,并建立跨职能的风险委员会。最重要的是,领导者需要从追求“确定性”转变为以“好奇心”为引领,提出更好的问题,并为质疑、迭代和路线修正创造空间,从而实现从对AI的盲目“依赖”到主动“韧性”的转变。
将高风险决策委托给一个你并不完全理解的模型,这不是“创新”,而是“逃避责任”。