你好,欢迎您来到福建信息主管(CIO)网! 设为首页|加入收藏|会员中心
您现在的位置:>> 新闻资讯 >>
为什么企业导入AI总失败?CIO的头衔该换成“价值设计师”了
作者:CIO.com&睿观 来源:CIOCDO 发布时间:2026年05月08日 点击数:

导语:如今,生成式AI席卷全球,但在许多企业(尤其是日本企业)中,AI的普及却依然停留在“小打小闹”的测试阶段。公立函馆未来大学名誉教授美马由里指出,这根本不是技术能力的问题,而是组织设计思想与制度的脱节。在这个变革的十字路口,CIO(首席信息官)的角色正在发生颠覆性的演变。

一、AI导入缓慢的真相:设计理念的碰撞

为什么大家都在谈ChatGPT,却很难让它真正在业务中扎根?调查显示,美国有47%的劳动者每月在工作中使用AI,但同时也伴随着对失业的恐慌。而在日本,阻碍AI落地的根本原因在于“结构性问题”:

  • 目标模糊与基层抗拒:组织内部没有共享数字化转型的真正目标,基层员工抗拒改变现有流程,供应商也只会“投其所好”。

  • 评价机制的僵化:现有的考核制度变相鼓励了“维持现状”。

  • 设计理念的根本冲突:传统的制造业思维追求“确定性、安全性和高完成度”,必须“完美了才发布”。但AI的本质是“不完美的迭代”,需要通过不断试错来提升精度。这种本质上的冲突,让习惯了“完美主义”的企业举步维艰。



(对比图,左侧展示传统瀑布流开发的“完美交付”模式,右侧展示AI技术“敏捷迭代、不断试错”的螺旋上升模式。)

二、从“技术管理者”到“价值设计师”

面对AI,CIO不能再仅仅是一个懂技术的“修理工”。决定哪些流程要自动化、哪些技能最有价值,这不再是纯粹的技术判断,而是价值判断。亚马逊曾试图用AI进行招聘,但因为历史数据以男性为主,导致AI对女性求职者产生了偏见,最终项目流产。这说明了一个深刻的道理:技术上可行,不代表在组织伦理上合理CIO必须成为“价值设计师”,在“追求效率优化”与“坚持组织理想”之间找到平衡,因为一旦所有事物都被量化,那些无法被数字衡量的人性光辉就会流失。

三、AI时代的人才护城河:技术伦理三层模型

在引入AI时,员工不可避免地会感到焦虑。为了打破这种阻力,美马教授提出了CIO必须掌握的“技术者伦理3层模型”:

  • 第一层:预见责任——提前描绘AI对岗位的影响,让过渡计划清晰可见。

  • 第二层:解释责任——向全员坦诚引入AI的目的、边界和局限性。

  • 第三层:组织性关怀责任——这不是情感上的安慰,而是保护“人力资本”的硬性管理责任。必须通过制度保障受影响员工的平稳转岗和技能提升。



(“技术者伦理三层模型”的金字塔,包括从底部的“预见责任”到中间的“解释责任”,再到顶部的“组织性关怀责任”及“生活者伦理”理论框架。)

此外,美马教授提倡用“技能附加(Upskilling)”代替简单的“重新学习(Reskilling)”,并强调人才培养的KPI应从单纯的“效率”转向“可持续性”(如心理安全感和转岗成功率)。

结语:多问“WHY”,少问“HOW”

今天,我们太热衷于讨论“如何使用AI(How)”和“用AI做什么(What)”,却极少停下来问一句:“我们为什么要用AI(Why)?”以及“哪些领域绝对不能用AI,必须留给人类?

具备这种思考能力,就是企业真正的“AI准备度(AI Readiness)”。当CIO能够带领组织直面这些关于价值和伦理的终极拷问时,AI才能真正成为赋能人类社会的力量,而不是冷冰冰的替代品。


CIO从“技术管理者”向“价值设计者”转变:AI应用进展缓慢的日本CIO需要何种视角?

虽然生成式AI的引入正在全球范围内加速,但在日本企业中的普及程度依然有限。


公立函馆未来大学名誉教授美马由里(YuriMima)指出,这背后的原因并非技术能力的不足,而是组织设计理念和制度存在问题。曾任职于加州大学伯克利分校AI研究机构的美马教授,针对日本企业的AI导入与人才培养敲响了警钟,这为CIO们提出了无法忽视的深刻问题。

一、日本AI导入进展缓慢的真正原因

随着生成式AI在全球范围内的广泛应用,大多数日本企业至今仍未实现真正意义上的全面导入。虽然许多企业有过在业务中试用ChatGPT的经验,但绝大多数未能将其扎根于整个组织。相比之下,美国的情况截然不同。根据美国心理学会2025年发布的“WorkinAmerica”调查,47%的劳动者每月至少在业务中使用一次AI。30%的人觉得“不用就会被时代抛弃”,38%的人担忧“自己的岗位可能会被淘汰”。这项调查结果表明,AI已经深度渗透进日常工作,在带来效率提升期望的同时,也引发了不安和组织内部分化等心理与组织层面的影响。报告得出的结论是:“AI的引入,与基于人类不安和期望所进行的制度设计是不可分割的。

那么,日本AI导入缓慢的背景到底是什么?美马教授通过演讲和与企业的对话发现,这不是能力或技术问题,而是结构性问题。第一,(在导入AI前)DX(数字化转型)的目的未能在组织内充分共享。第二,一线员工不希望改变既定的工作流程,而受此牵制,供应商也形成了“客户不想要的我们就不提案”的行为准则。此外,将“维持现状”视为合理选择的绩效评价制度更是推波助澜。

把统计数据公开为PDF格式、把病历单纯电子化——这种停留在“非本质工作”上的例子不胜枚举。美马教授指出,导致这种状况的根本原因在于“设计理念”。例如,纯电动汽车制造商特斯拉(Tesla),其软件会频繁更新,一夜之间屏幕显示界面彻底刷新也是常有的事。基于在UC伯克利AI研究机构工作时驾驶特斯拉的经验,美马教授表示:“这是在日本很难被轻易接受的规格。”如果日本汽车产业的设计理念是确定性、安全性和高完成度,那么拥有进化速度、持续改善、部署后不断修正等设计理念的特斯拉,可以说是走向了完全相反的方向。“这并非孰优孰劣的问题,单纯是设计理念的差异。”基于此来看,AI的技术特性与日本的土壤并不契合。“AI本质上是不完美的。它是一种不断更新、越试越准的技术。这与日本‘做完美了再导入’的思维方式格格不入,”美马教授说道,并进一步指出日本存在着难以推进AI导入的结构。

二、AI时代的技术判断即价值判断——CIO应成为“价值设计者”

在这种状况下,CIO依然必须推进AI的导入。美马教授认为,在AI的导入过程中,CIO被赋予了新的角色。一直以来,CIO的重要职责之一是进行技术判断。但是,围绕AI的导入,诸如“哪些环节要自动化”、“哪些角色要重新定义”、“哪些技能应被视为有价值”等判断也随之而来。而这些,不再是纯粹的技术判断,而是价值判断。

亚马逊(Amazon)就是一个凸显价值判断重要性的标志性案例。在尝试将AI引入招聘筛选时,由于使用了过往的招聘记录(男性居多)作为训练数据,导致AI对女性给出了不公正的低分评价(该项目最终被叫停)。“选择什么样的训练数据本身,就直接取决于AI导入时的判断。”技术上可行,与作为组织是否妥当,两者并不等同——归根结底,决定这些判断前提的,正是IT技术人员以及下达经营判断的CIO。

美马教授断言:“CIO在作为技术管理者的同时,也是组织的价值设计者。”在思考价值时,美马教授首先聚焦的观点是“最优化与理想状态并不一致”。当效率或削减成本等可量化的指标被优先考虑时,“一旦把能被数值化的东西作为唯一指标,那些无法被数值化的‘优秀特质’就会流失掉。”这就要求我们去审视“究竟把什么视为价值”本身。正因如此,美马教授极力主张将伦理置于核心位置。伦理不是必须死守的规则,而是在价值观发生冲突、没有标准答案的境况下作为判断依据的框架。美马教授认为,将“什么是好的(何为善)”这一追问作为组织的基石——这正是对当前CIO的要求。

三、技术者伦理三层模型

基于上述原因,作为价值设计者的CIO在导入AI时应当思考何种框架?美马教授提出了“技术者伦理3层模型”:第一层是“预见责任”——导入前梳理对现有职务的影响,并使过渡计划可视化。第二层是“解释责任”——在组织内部共享导入目的、影响范围及技术局限性。第三层则是“组织性关怀责任”。


特别是关于第三层,美马教授强调:“关怀责任不是情绪上的抚慰,而是防止人力资本受损的经营责任。”通过制度来保障那些受AI导入影响的人才进行能力转移——这不是“心慈手软”,而是为了保护人才这一经营资源的硬性责任。“在少子老龄化加剧、人才短缺日益严重的当下,将受AI影响的人才转移到其他业务岗位,是组织必须履行的经营责任。”面对担忧自己可能会失去工作的员工,如果只是自上而下地强行命令导入,必定会招致反感。直面受影响人才的不安,由组织明确给出过渡的路径——这才是作为制度设计的关怀责任的本质。这一视角的落地,离不开与人力资源部门的紧密合作。


此外,美马教授指出,技术者应当承担的伦理还需要加入另一个视角。传统上,技术者的伦理主要从“技术对社会的影响”、“作为组织成员的责任”和“作为专业人士的解释责任”三个维度来讨论。但在AI时代,还需要“生活者伦理”的视角。现在,世界各地出现了与AI伴侣结婚的人,甚至出现了通过订阅服务与已故家属“重逢”的服务。开发和导入技术的一方,本身也是受其影响的生活者之一。“作为使用者、作为受影响者的判断,如今已成为不可或缺的第四种伦理。”

四、设计AI时代的人才培养

AI时代在人才层面也必须进行根本性反思。正如前文提及的美国调查所揭示的,员工对导入AI感到不安。除了对就业本身的担忧外,业务方式和内容的改变也伴随着职业生涯断层的风险。因此,人才培养也必须建立在伦理的基础之上。“仅仅依靠传统的‘作业效率’或‘削减成本’等指标,是无法把握其对人才产生的影响的。”美马教授列举了AI时代所必需的新指标:技能转换完成率、重新配置成功率、组织内AI成熟度,以及心理安全感(即员工是否能感受到“即使导入了AI也没关系”)。从效率走向可持续性——这种转变正是重新设计人才培养KPI的核心。“AI时代的人才培养,绝不是教人怎么操作工具,而是设计一种以变化为前提、持续学习的结构体系。”此外,培养勇于承担变化的伦理观同样重要。基于这些考量,美马教授表示,相较于“重新学习(Reskilling)”,不断增加新技能的“技能附加(Upskilling)”视角显得更为重要。

五、持续追问“WHY(为什么)”

如开篇所述,日本AI导入进展缓慢的背后,存在着文化、制度与设计思想等结构性问题。但是,“不导入AI”这个选项是不存在的。该如何找到落脚点?“这是最核心的关键,”美马教授说。她并不悲观,而是认为“希望就存在于这一线之间”。“读懂空气(察言观色)”、“营造氛围”、“体察人心”——深深扎根于日本社会的、重视人际关系的感性,与美马教授提倡的“人性化学习设计(HumaneLearningDesign,HLD)”理念产生了深度共鸣。HLD是一种通过提出问题、开展对话,并根据语境和关系性做出负责任判断的学习思想。“Humane”一词,比“human(人类)”更多了一层人道与体恤的意味。追求的不是个体的最优化,而是调和“人与人之间距离”的伦理感性——这也与关怀伦理的核心不谋而合。

然而,美马教授提醒,这种重视关系的感性与“过度揣度(阿谀)”往往只有一线之隔。“如果过度察言观色,演变成一种不允许失败的文化,那最终就会导致什么都改变不了。”一线人员最清楚问题所在,但声音却传达不上去——这种结构是所有组织共有的病理。要在发挥重视关系优势的同时,对变化保持包容和开放。“允许事物的变化,接受关系的改变,我们需要这种意义上的开放文化。”如果能实现这两者的平衡,美马教授认为日本就能在AI时代发挥出独特的优势。“也许我们可以将日本这种‘关系性的智慧’,作为日本原创的理念向世界输出。”

最后,美马教授向CIO们特别强调的是——“为什么要使用(Why)”这个终极追问。“现在大家都在热烈讨论‘如何使用AI(How)’以及‘用AI做什么(What)’。但是,关于‘为什么要用’、‘什么事情最好不用’、‘什么东西必须保留在人类自己手里’的WHY的讨论,却处于缺失状态。”美马教授将直面这一追问的能力称为“AI Readiness(AI准备度)”。“这不是指熟练使用工具的能力,而是直面各项价值判断的准备状态。”将这种状态植根于组织之中,正是作为价值设计者的CIO所被赋予的最重要职责。“思考使用的意义与影响,以及做出‘不使用’的判断。正是这些判断,将指引我们创造出一个能够让人类绽放光彩的社会。”