
——2025年度AI信任指数发布:为什么造AI的人乐观,用AI的人却夜不能寐?
在AI狂热的背后,一个危险的信号正在闪烁。
连续第三年发布的Thinkers360《AI信任指数》显示,全社会对AI的担忧程度依然维持在高位(307分,满分400为极度担心)。我们正身处一个“信任泥潭”:技术在飞奔,但人心没跟上。
更令人警惕的是一道“认知鸿沟”:
造AI的人(供应商):83%认为利大于弊。
用AI的人(终端用户):仅65%持相同观点。
这18个百分点的落差,就是CIO们面临的最大挑战。如果不能填补这道沟壑,再先进的算法也无法转化为商业价值。
💡 读完本文,你将获得关于构建AI信任护城河的4大战略行动。
用户到底在怕什么?报告引用NIST框架的数据给出了精准画像。 人们并不担心AI“能不能干活”(有效性担忧较低),他们担心的是AI“会不会作恶”。
焦虑排行榜:
隐私增强(63%):我的数据会被滥用吗?
问责与透明度(61%):AI犯错谁负责?黑箱里到底发生了什么?
公平性(59%):AI会歧视我吗?
睿信咨询顾问解读:
CIO的KPI需要变了。单纯提升算法准确率(Accuracy)已经无法换来更多信任。你必须开始考核伦理指标:你的隐私保护机制是否向用户解释清楚了?你的算法是否经过了偏见测试?
报告发现了一个有趣的现象:人们在工作场所对AI的信任度最高(289分),但在媒体和个人生活中信任度最低(339分)。
这意味着员工愿意用Copilot写代码,但不敢相信新闻推送里的AI视频。
战略机会:企业内部是建立信任的“安全沙盒”。CIO应利用员工的高信任度,将企业打造成“负责任AI”的样板间。当员工在内部体验到AI是安全、透明、受控的,他们自然会成为企业AI产品的最佳代言人。
供应商觉得AI很棒,用户觉得AI很慌。解决这个矛盾不能靠发公关稿,而要靠“共创(Co-creation)”。
行动建议:
邀请用户参与训练:如果用户担心偏见,就请他们参与数据的采集和标注。
透明化设计:不要只展示结果,要展示AI的推理过程(可解释性)。
设立首席AI伦理官(CAIEO):这不是虚职,而是一个能直接向董事会汇报、有权叫停高风险项目的“刹车手”。
在2025年,CIO不再只是技术的守门人,而是数字信任的首席架构师。
面对“信任赤字”,我们建议企业采取以下行动:
分级治理:对金融、医疗等强监管场景,设定高于法规的道德标准。
可视化透明:用通俗易懂的语言(而非法律条文)向用户展示隐私政策。
拥抱监管:不要把合规当负担,它是你在混乱市场中赢得用户信赖的差异化武器。
AI的力量不可否认,但没有信任,算力一文不值。
走出“信任泥潭”的唯一路径,是将伦理、隐私和公平置于代码之前。只有这样,你的AI战略才能行稳致远。
原文:首席信息官弥合AI信任差距的四大使命
AI 的力量不可否认,但没有信任,它的潜力将仍然受到危险的限制

图源:Rawpixel.com / Shutterstock
连续第三年,Thinkers360 发布了《AI 信任指数》(AI Trust Index),为全社会对 AI 的态度进行了脉搏监测。结果再次给 CIO(首席信息官)和 CXO(首席级高管)们敲响了警钟:技术创新的曲线依旧遥遥领先于支撑它所需的伦理与治理架构。
2025 年度指数直面“AI 悖论”。AI 综合信任指数在 100(毫不担心)到 400(极度担心)之间,今年的得分为 307,与 2024 年的 308 几乎持平。自 2023 年担忧水平大幅跃升至 224 后,公众情绪出现了停滞,我们陷入了“信任泥潭”。
更深层的剖析揭示了一道关键鸿沟:AI 终端用户的担忧度(312)显著高于 AI 供应商与从业者(301)。简而言之,造 AI 的人比用 AI 的人更乐观。对任何 CIO 而言,这一感知落差是第一道红色预警。虽然 83% 的供应商认同“AI 利大于弊”,但只有 65% 的终端用户持相同观点——这场信心危机必须被组织正视并直接化解。
此外,61% 的受访者“有些”或“强烈”相信 AI 奇点(机器全面超越人类并构成威胁)可能发生。尽管这听起来像科幻桥段,但对商业而言,真正迫在眉睫、触手可及的风险——隐私、问责、公平——才是亟需关注的焦点。
基于 2025 年度 AI 信任指数,每一位 CIO 与 CXO 都应完成以下四项使命,让自己的组织从被动旁观者转变为 AI 信任架构的主动引领者。
数据表明了人们夜间难以入睡的真实原因:当衡量担忧程度与 NIST《AI 风险管理框架》各属性的关联时,隐私增强(63%)、问责与透明度(61%)、管理有害偏见的公平性(59%)构成了“焦虑三巨头”,均落在“非常或极度担忧”区间。
相比之下,可解释性/可诠释性(49%)与有效可靠(53%)等属性引发的焦虑较低——这表明人们基本相信技术能按预期工作,但担心其表现如何(伦理后果)。
对 CIO 而言,这意味着重点要从纯功能性指标转向伦理结果。准确性提高几个百分点不会对信任产生本质影响。就隐私属性而言,终端用户的担忧(69%)远高于供应商(53%)。这个巨大的差距要求您向终端用户解释:在 AI 场景下,他们的隐私具体如何被保护,而非泛泛而谈。
信任并非均匀分布。指数显示,AI 用于媒体场景(339)与个人生活场景(309)时担忧度最高;相反,用于政府场景(291)与工作场所(289)时担忧度最低、信任度最高。
讽刺之处在于:员工普遍接受 AI 助力内部企业运营,却极度担忧 AI 支配他们的公共生活、信息获取与民生服务。
作为 CIO,你必须意识到:公众对 AI 的低信任终将渗入企业内部。如果客户或员工在媒体场景目睹 AI 通过虚假信息和偏见被不道德地使用,或在个人场景遭遇 AI 驱动的网络犯罪,他们的质疑就会蔓延到你企业的 CRM、HR 等系统。
建议是在职场现有的信任基础上进行构建,把企业自身打造成“负责任部署”的样板间。用极致清晰的方式记录并传达你的内部 AI 使用政策,让这份透明度成为你的市场差异化武器。向客户和合作伙伴展示你对内部 AI 所要求的标准,再把同一套标准扩展到外部产品。
信任水平因行业而异,CIO 必须将其纳入风险模型。
对于金融、医疗等强监管行业的 CIO 而言,任务不是维持现状,而是拔高当前的严谨度水平。当下的合规性只是基准线,绝非天花板。一次重大违规或偏见事件就会被市场严厉惩罚,从而抹去多年的消费者信任。
2025 指数最显著的发现是:供应商与终端用户的总体担忧差距顽固地保持在 11 分,对“利大于弊”的乐观差距更达 18 分。这是以人为中心的沟通难题,而非技术难题。
别再空喊“AI 可信”,而要用可感知的体验让用户眼见为实。信任应是一开始就设计进去的功能,而不是事后打补丁。
第一步是把客户拉进来,推行共创项目,让终端用户和客户(而不仅是产品经理)参与新 AI 应用的设计与测试。如果你的客户群体对偏见感到担忧,就邀请他们一起采集、标注训练数据,以确保公平性。
我通常不主张新增 CXO 头衔,但你也可以考虑设立 CAIEO(首席 AI 伦理官)或指定内部合适人选来担任此职位。CIO 需要一位对等的合作伙伴,专门聚焦 AI 的社会与伦理后果。该职位应直接向 CXO 委员会汇报,确保伦理决策与安全、基础设施决策具有同等重要性。
本年度 AI 信任指数表明:AI 革命已达到了其受益者的关注峰值,且这种关注完全集中在技术的人性维度上,例如治理、伦理和公平。
对 CIO 而言,使命是明确的:你不再只是企业技术栈的守门人,而是数字信任的首席架构师。通过解决围绕隐私和偏见的高关注问题,将工作场所作为透明度的榜样,调整治理以符合行业的信任状况,并积极缩小用户与供应商之间的认知差距,方能让企业创新行稳致远。
作者:Nicholas D. Evans (尼古拉斯·D·埃文斯)
译者:木青 编审:@lex