基于Thinkers360 AI信任指数年度调查结果以及AI终端用户和AI提供商的反馈,为首席信息官(CIO)提供的一些关键建议。
1. 利用行业研究……了解不同场景和行业中信任度的差异。
AI信任指数发现,信任水平因场景和行业而异。在场景方面,与媒体相关的场景最为关注,其次是个人、职场和政府。AI终端用户和提供商将网络犯罪(87%)、虚假信息(87%)和偏见(80%)列为他们非常或极度关注的三大领域。关注度最低的是就业(56%)和法律(57%)。
在行业方面,AI终端用户和提供商将国防与情报(82%)、政府(71%)和金融(55%)列为他们非常或极度关注的三大领域。媒体和娱乐(54%)是另一个与当前AI使用相关的关注行业。关注度最低的是农业(13%)、零售(22%)和制造业(28%)。
CIO可以利用这些数据以及其他第三方研究,了解其所在行业在AI信任度方面的现状,以及终端用户最为关注的关键场景。AI在网络犯罪方面的潜在脆弱性显然是CIO在2025年需要密切关注的领域,同时也要关注一些关注度较低的领域,如就业或AI在招聘决策中的使用,这些领域仍有超过50%的受访者表示关注。
2. 密切关注……AI信任的所有属性,因为它们正在不断演变。
AI信任指数考察了由NIST定义的AI可信度的七个属性。研究发现,超过65%的AI终端用户和提供商非常或极度关注AI的责任性和透明度。关注度最低的是AI的可解释性和可理解性,但仍有12%的AI终端用户和提供商表示不关注。总体而言,对AI的关注度在所有七个信任属性中分布相当均匀,超过87%的受访者表示有一定程度的关注。
CIO的关键在于确保解决AI信任的所有属性。这里讨论的七个属性包括:责任性和透明度、隐私增强、有效性和可靠性、公平且有害偏见得到管理、安全性(如生命、健康、财产)、安全性和韧性,以及可解释性和可理解性。它们的相对重要性可能会因媒体关注点、您在AI实施旅程中的位置、您正在实施的具体用例以及终端用户最关心的内容而有所不同。然而,关键是要解决所有属性,因为您的最薄弱环节决定了整体水平。
3. 实施AI治理框架……涵盖从AI/ML到生成式AI再到自主AI的所有方面。
2025年,随着组织继续拥抱AI/ML、生成式AI以及自主AI(或用于自动化手动任务的自主代理),确保您的AI治理框架涵盖这一快速发展的领域的所有方面将变得非常重要。
随着自主AI开始渗透到核心流程和企业工作流中,如软件编程、网络安全、ERP、CRM、BI、供应链、零售等领域,信任方程将从信息信任问题转向交易信任问题。后者包括确保适当程度的人类监督、责任性、决策透明度、异常处理等。尽管自主AI的无代码/低代码特性将简化业务流程重新设计工作,但将节省的时间用于全面测试所有工作流和场景至关重要。即使您的AI现在足够智能来处理异常情况,仔细测试这些情况也同样重要。
4. 制定AI政策……与终端用户保持一致并明确沟通,主动影响实施中的信任水平。
与各种国家和国际协议以及其他形式的标准、政策和协议保持一致,是向终端用户展示对AI伦理承诺的好方法。例如,欧盟AI协议支持“行业在欧盟AI法案正式实施之前自愿承诺采用其原则”。您的AI治理实践可以成为一个关键的差异化因素,因此与内部以及客户和合作伙伴进行沟通非常重要。
除了签署协议和与行业最佳实践保持一致外,您还可以在如何应用AI方面采取直接行动,从而对各种信任属性产生可量化的积极影响。“将LLM与更具确定性的ML模型结合使用可能是有意义的,”Lyzr.ai首席增长官Anirudh Narayan表示。“LLM模型本身存在一些幻觉,准确性较低,但嵌入ML模型后,您可以获得更清晰、更具确定性的输出。这将准确性从67%大幅提高到95%。这种双引擎动力可能对CIO在构建AI基础设施或考虑构建代理的代理框架时非常有帮助。”
5. 确保您的计划涵盖大局……包括AI治理、风险管理、伦理、沟通和变革管理。
随着自主AI在2025年 poised 影响业务的许多领域,CIO需要为组织内部的大规模变革做好准备,类似于网络时代和数字化转型时代。这需要在AI治理、风险管理、伦理、沟通(包括培训和教育)以及变革管理方面采取计划性方法。
“随着公司扩展AI并整合代理,员工和客户的信任至关重要,”KPMG人工智能和数字创新副主席Steve Chase表示。“CIO必须确保AI战略和治理良好一致,并基于对AI当前和新兴能力的深刻理解,并得到现代数据基础的支持。这种基础对于组织引导员工应对变革并最终以负责任和合乎伦理的方式最大化AI价值至关重要。”
CIO应与其首席AI官(CAIO)和其他利益相关者密切合作,作为AI治理的指导灯塔,确保AI以负责任、合乎伦理的方式使用,并与组织的战略目标保持一致,因为您提供了构建AI信任并最大化其收益所需的技术专业知识、数据治理框架和风险管理监督。
【睿观:基于Thinkers360的AI信任指数调查,为CIO(首席信息官)在2025年如何建立和维护AI信任提供了五个关键建议。简单来说,就是告诉CIO们在使用AI时,如何让大家更信任AI。以下是五个建议的概括:
了解不同场景和行业的信任差异: 人们对AI的信任程度因其应用场景和所属行业而异。例如,人们更关注AI在网络犯罪、虚假信息和偏见方面的问题,而对AI在农业、零售业或制造业的应用则不太担心。CIO需要了解自身行业和用户对AI的关注点,并重点解决这些问题。
关注AI信任的所有属性: AI的可信度由多个属性构成,包括责任性、透明度、隐私、有效性、公平性、安全性、韧性和可解释性。CIO需要全面关注这些属性,不能只关注其中一部分。任何一个属性的缺失都可能影响整体的信任度。
建立全面的AI治理框架: 随着AI技术的不断发展,从简单的AI/ML到生成式AI再到自主AI,CIO需要建立一个能够覆盖所有这些类型的AI的治理框架。特别是对于自主AI,需要确保适当的人工监督、责任追究和透明的决策过程。
制定并清晰沟通AI政策: CIO需要制定清晰的AI使用政策,并与用户进行有效的沟通,以增强用户对AI的信任。与国际标准和最佳实践保持一致,并采取具体措施来提高AI的准确性和可靠性,例如将大型语言模型(LLM)与更精确的机器学习模型结合使用。
从全局角度进行规划: CIO需要从更宏观的角度看待AI的应用,包括AI治理、风险管理、伦理、沟通和变革管理。与首席AI官(CAIO)和其他相关人员紧密合作,确保AI的使用符合伦理规范和组织战略,从而建立信任并最大化AI的收益。
总而言之,文章强调CIO需要全面考虑AI应用带来的信任问题,从了解用户关注点、关注AI的各个属性、建立完善的治理框架、制定清晰的政策并有效沟通,以及从全局角度进行规划等方面入手,才能有效地建立和维护用户对AI的信任,从而更好地利用AI技术。】
【睿观:基于AI信任的多个属性,构建一个综合评价指标体系,总分100分。以下是一个示例:
一级指标:AI信任度(100分)
二级指标及权重:
责任性与透明度(25分): 强调AI系统的行为可追溯、可解释,以及相关责任的承担。
隐私与安全(25分): 关注AI系统对个人数据和系统自身的保护。
有效性与可靠性(20分): 评估AI系统完成既定任务的准确性和稳定性。
公平性与无偏见(15分): 衡量AI系统在不同群体中的表现是否公平,是否存在偏见。
可解释性与可理解性(15分): 考察AI系统的决策过程是否易于理解和解释。
三级指标、分值分配、说明和计算公式:
1. 责任性与透明度(25分)
1.1 可追溯性(10分): 记录AI系统的所有操作和决策过程,方便事后审计和分析。(满分10分)
说明:记录数据来源、算法版本、模型参数、决策日志等。
计算公式:可追溯性得分 = (完整记录的操作/总操作数) * 10
示例:一个信贷评分AI系统,如果每次评分都记录了使用的特征、模型版本和评分依据,则可追溯性高。
1.2 决策透明度(10分): 公开AI系统的决策规则和算法逻辑,使用户了解其工作原理。(满分10分)
说明:提供算法文档、模型解释工具等。对于黑盒模型,可使用SHAP值或LIME等方法进行局部解释。
计算公式:决策透明度得分 = (已公开的决策规则/总决策规则) * 10
(对于黑盒模型,可根据解释工具的可用性和解释质量进行主观评分)
示例:一个疾病诊断AI系统,如果能提供诊断依据和相关的医学文献,则决策透明度高。
1.3 责任承担机制(5分): 建立明确的责任归属和追责机制,当AI系统出现问题时,能够及时有效地解决。(满分5分)
说明:制定应急预案、设立投诉渠道、明确责任人等。
计算公式:(采用主观评分,根据机制的完善程度和执行情况进行评估)
示例:一个自动驾驶系统,如果制造商有明确的事故责任认定和赔偿机制,则责任承担机制完善。
2. 隐私与安全(25分)
2.1 数据隐私保护(15分): 采取加密、差分隐私、联邦学习等技术手段,保护用户数据的隐私。(满分15分)
说明:评估数据是否经过匿名化、脱敏处理,是否符合相关隐私法规(如GDPR)。
计算公式:(根据采用的隐私保护技术和合规程度进行主观评分)
示例:一个人脸识别系统,如果使用人脸特征向量而非原始图像进行存储和处理,则数据隐私保护较好。
2.2 系统安全性(10分): 防止AI系统遭受恶意攻击和数据泄露,保障系统的稳定运行。(满分10分)
说明:进行安全漏洞扫描、渗透测试,建立入侵检测和防御系统。
计算公式:(根据安全措施的有效性和系统抵御攻击的能力进行主观评分)
示例:一个金融交易AI系统,如果采用了多重身份验证、数据加密和防火墙等安全措施,则系统安全性较高。
3. 有效性与可靠性(20分)
3.1 准确性(10分): 评估AI系统输出结果的准确程度,例如分类的准确率、回归的均方误差等。(满分10分)
分类任务:准确率 = (正确分类的样本数/总样本数) * 10
回归任务:均方误差(MSE)得分 = (1 - MSE/最大MSE) * 10
说明:使用标准数据集进行测试,计算各项性能指标。
计算公式:根据具体任务类型使用相应的评估指标,例如:
示例:一个垃圾邮件过滤AI系统,如果其准确率达到95%,则准确性较高。
3.2 鲁棒性(10分): 衡量AI系统在面对噪声数据、对抗攻击等干扰时的稳定性和泛化能力。(满分10分)
说明:使用包含噪声的数据集进行测试,评估模型性能的下降程度。
计算公式:(根据模型在不同干扰下的性能下降程度进行主观评分)
示例:一个图像识别系统,即使图像受到轻微的模糊或遮挡,仍能正确识别,则鲁棒性较好。
4. 公平性与无偏见(15分)
4.1 群体公平性(10分): 评估AI系统在不同人口统计群体(如性别、种族、年龄)中的表现是否存在显著差异。(满分10分)
说明:使用针对不同群体的数据集进行测试,计算各项公平性指标,如机会均等、统计均等、预测均等。
计算公式:根据具体的公平性指标进行计算。例如,机会均等要求不同群体在正例上的召回率相等。
示例:一个贷款审批AI系统,如果对不同性别和种族的申请者的审批通过率没有显著差异,则群体公平性较好。
4.2 偏见检测与缓解(5分): 采取措施检测和缓解AI系统中存在的偏见,例如数据增强、对抗训练、公平性约束等。(满分5分)
说明:评估所采用的偏见缓解方法的有效性。
计算公式:(根据偏见缓解措施的有效性和实施情况进行主观评分)
示例:一个招聘AI系统,如果使用了对抗训练来减少模型中存在的性别偏见,则偏见检测与缓解做得较好。
5. 可解释性与可理解性(15分)
5.1 模型可解释性(10分): 评估AI模型的内部工作机制是否易于理解,例如是否使用决策树、规则列表等可解释模型。(满分10分)
说明:对于黑盒模型,可使用SHAP值、LIME等方法进行解释。
计算公式:(根据模型本身的复杂度和解释方法的有效性进行主观评分)
示例:一个使用决策树的风险评估模型,其决策规则清晰易懂,则模型可解释性高。
5.2 输出结果可理解性(5分): 评估AI系统输出的结果是否易于用户理解和接受,例如提供清晰的解释和可视化结果。(满分5分)
说明:提供用户友好的界面和解释文档。
计算公式:(根据输出结果的清晰度和用户理解程度进行主观评分)
示例:一个天气预报AI系统,如果以简洁明了的图表和文字形式展示预报结果,则输出结果可理解性高。
使用方法:
根据具体AI系统的应用场景和目标用户,调整二级和三级指标的权重。
收集相关数据和信息,根据计算公式或主观评分标准,对各项三级指标进行评估。
根据权重计算二级指标得分,最后加总得到一级指标“AI信任度”的总分。
这个指标体系提供了一个框架,可以根据实际情况进行调整和完善。重要的是,要综合考虑各个属性,并根据具体应用场景进行权衡,以建立用户对AI系统的信任。