随着围绕人工智能的伦理考虑逐渐成为人们关注的焦点,IT领导者正在制定治理框架,建立审查委员会,并接受未来的不同讨论和决定。
图源:OLENA YAKOBCHUK(图片上传者,可以译为用户OLENA YAKOBCHUK,或者OLENA YAKOBCHUK) / SHUTTERSTOCK
人工智能激发了几乎所有领域组织的兴趣。随着人工智能试点向生产方向发展,关于道德人工智能需求的讨论越来越多,还有“fairness(公正和公平,人工智能系统在设计和应用中,应该确保对待所有人和群体公平和公正。这意味着AI系统不应该在决策和服务提供中对不同的人群进行歧视,不论是基于种族、性别、宗教、年龄还是其他特征。AI的算法和数据应该避免偏见,以确保决策结果是公正的。)”、“privacy(隐私,在人工智能应用中,个人隐私的保护至关重要。AI系统应该采取必要的措施,保护用户的隐私信息,防止未经授权的数据访问和滥用。隐私保护原则也包括对于用户数据的合法收集和使用,确保数据的安全性和保密性。)”、“transparency(透明度,人工智能系统的决策过程应该是透明的,用户和相关利益方应该能够理解AI系统的运作原理。透明度和可解释性有助于建立用户信任,也能够帮助发现和纠正系统中的偏见和错误。透明度还包括对于数据的来源和使用进行明示,以保障用户隐私和数据安全。)”、“accountability(问责制,人工智能开发者和使用者应该对其系统的行为负有责任,并承担相应的法律和伦理责任。在AI系统出现错误、偏见或者造成损害时,应该能够追溯到责任人,并采取合适的纠正措施。问责制也包括建立法律框架和规范,明确人工智能系统开发和使用的法律责任。)”等术语,以及最重要的一个术语——“bias(偏见,是机器学习算法输出中的异常现象,是由于算法开发过程中的偏见假设或训练数据中的偏见造成的。)”。
但是,随着人工智能成为人们工作和开展业务不可或缺的一部分,确保对这些措施深思熟虑是首席信息官们将要努力解决的一项艰巨任务。
对于许多首席信息官来说,现在还处于起步阶段,但减轻人工智能模型中的偏见、平衡创新与伦理考虑已经是他们面临的最大挑战之一。他们发现,技术进步和确保人工智能不会带来有害结果之间需要平衡。
Christoph Wollersheim(克里斯托夫·沃勒谢姆)是全球咨询公司Egon Zehnder(成立于1964年,总部位于瑞士苏黎世,是一家专业从事高管猎头和人才咨询的猎头公司。公司服务范围涵盖各种行业和地区,以个性化的服务著称。 )的服务和人工智能实践小组的成员,他指出了大多数组织在实施人工智能时需要解决的五个关键领域:准确性、偏见、安全性、透明度和社会责任。
不幸的是,用人工智能实现100%的准确性是“不可能的,”Wollersheim(沃勒谢姆)说,他最近参与撰写了《The Board Member’s Guide to Overseeing AI/董事会成员监督人工智能指南》。“真正的道德问题在于公司如何防范错误信息。如果客户看到错误的数据,或者关键决策是基于不准确的人工智能反应,该怎么办?公司需要一个切实可行的计划和透明的沟通策略来应对。”
他指出,当人工智能根据历史数据进行训练时,偏见可能会在无意中永久存在。
“执行管理层和董事会都必须确保人工智能的公平性,并防止歧视。”目前正在进行研究来纠正偏见,使用合成数据来处理性别、种族和民族等属性,他说,“但始终需要应用以人为中心的视角。”
Wollersheim(沃勒谢姆)说,保护敏感信息的必要性对于合乎道德的人工智能部署至关重要,因为人工智能对数据的严重依赖增加了漏洞和未经授权访问的风险。“公司必须加强防范可能误导人工智能模型并导致决策不明智的攻击。确保敏感信息的安全对于合乎道德的人工智能部署至关重要。”
他说,至于透明度,他认为这不仅仅是算法,而是建立信任。“利益相关者需要了解人工智能是如何做出决策和处理数据的。透明的人工智能框架是遵循道德底线、问责制和维护信任的关键。”
组织还必须考虑指导他们的价值观,以及他们在持续培训、技能提升和就业保护方面的义务。Wollersheim(沃勒谢姆)说:“合乎道德的人工智能就是为我们的员工塑造一个负责任的未来。”
Wollersheim(沃勒谢姆)说,为了解决这些问题,建立人工智能审查委员会和实施有道德底线的人工智能框架至关重要。“合乎道德的人工智能框架为每个内部或外部项目的监控和批准提供了明确的指导。由技术和商业专家组成的人工智能审查委员会确保道德考虑处于决策的首位。”
以下是首席信息官如何在其组织中解决道德人工智能问题。
1.让合乎道德的人工智能成为团队行动
Plexus Worldwide(美国直销保健产品提供商)使用人工智能识别欺诈账户创建和交易的组织,这家价值5亿美元的全球健康公司的首席信息官兼首席技术官Alan McIntosh(阿兰·麦金托什)表示。在McIntosh(麦金托什)看来,偏见从根本上说是一个数据问题。他说:“我们试图通过利用和验证多个完整的数据源来消除偏见和错误的结果。”
Plexus IT也处于在该公司电子商务平台中使用人工智能的分析阶段,“以预测和优化客户体验和增强个性化,”McIntosh(麦金托什)说,“我们还看到了自动化的机会,可以消除许多遗留的手工操作和重复性任务。”
他说,为了确保遵守有道德底线的人工智能实践,Plexus Worldwide成立了一个由IT、法律和人力资源代表组成的团队,负责人工智能治理和政策的发展和演变。该团队建立了公司的风险承受能力、可接受的用例和限制以及适用的披露。
McIntosh(麦金托什)说,即使有一个专注于人工智能的团队,识别风险并理解该组织打算如何在内部和公开场合使用人工智能也是一个挑战。他说,团队成员还必须理解并解决人工智能偏见、错误声明和不正确结果的固有可能性。
“根据使用情况,您的公司的声誉和品牌可能会受到威胁,所以您必须规划有效的治理。”
考虑到这一点,McIntosh(麦金托什)表示,首席信息官们“不要一味冲击终点线”至关重要。在实施和公开该技术之前,组织必须制定一个彻底的计划,专注于制定治理框架和人工智能政策。McIntosh(麦金托什)说,识别适当的利益相关者,如法律、人力资源、合规和隐私,以及IT,是Plexus开始其道德人工智能流程之处。
“然后,我们制定了一份政策(体系)草案,概述了角色和职责、范围、背景、可接受的使用指南、风险承受能力和管理措施,以及治理。”他说,“我们继续迭代和发展我们的政策,但它仍在制定中。我们打算在2024年第一季度实施它。”
McIntosh(麦金托什)建议寻找第三方资源或专家的专业知识。“这将大大有助于加快您的计划和框架的开发和执行。”他解释说,“并且,根据您目前的项目管理实践,为您的人工智能采用计划提供同等水平的严格性,甚至更多。”
2.慢慢走,这样人工智能就不会“横冲直撞”
首席信息官Matt Richard(马特·理查德)表示,代表50多万建筑工人、公职人员和邮件处理人员的The Laborer’s International Union of North America /LIUNA(北美劳工国际联盟,拥有50万名成员。)已经开始使用人工智能,主要用于文件的准确性和澄清,以及撰写合同。
随着LIUNA(北美劳工国际联盟)在2024年扩大了人工智能的用例,“这涉及到我们如何合乎道德底线地使用人工智能的问题,”他说。该组织已开始试行谷歌Duet(是谷歌在2023年推出的一款全新的人工智能助理,它可以覆盖所有Workspace应用,包括Gmail、Docs、Slides、Sheets、Meet和Chat,为用户提供各种智能辅助功能。其中最引人注目的功能之一,就是Duet AI可以作为会议替身,让用户可以摆脱无意义的会议,专注于更有价值的工作。),以自动化承包商协议的编写和谈判过程。
Richard(理查德)说,目前,工会事务并没有使用人工智能来识别成员的愿望和需求,也没有梳理可能敏感的招聘数据,并根据模型的培训方式对人们产生偏见。
“这些都是我关注的地方:当模型告诉我一个人的情况时。我觉得我们还没有准备好进入这个领域,因为坦率地说,我不相信受过公开训练的模型能让我深入了解我想雇佣的人。”
尽管如此,Richard(理查德)还是期待着一种“自然进化”,在未来,LIUNA(北美劳工国际联盟)可能希望利用人工智能深入了解其成员,帮助工会为他们带来更好的利益。就目前而言,“我们想如何做到这一点仍然是一个灰色地带,”他说。
该工会还在努力增加其成员数量,这其中一部分意味着使用人工智能来有效地识别潜在会员,“而不需要识别相同的同质人群,”Richard(理查德)说,“我们的组织正在大力推动,并在赋予少数民族和妇女权力方面做得很好,我们希望发展这些群体。”
这就是Richard(理查德)担心人工智能模型如何使用的地方,为了避免造成刻板印象和防止偏见,我们必须参与其中。“您不只是让模型来做所有的工作,”他说,“您明白您今天的处境,然后我们停下来说,‘好吧,人类需要在这里进行干预,看看模型告诉我们什么。’”
“您不能让人工智能横冲直撞……而没有任何干预。否则你就会让问题永久化。”他还说,组织不应该用人工智能采取“简单的方法”,只研究这些工具能做什么。“我担心的是,人们会购买并实施一个人工智能工具,然后放手,相信它。…您必须小心,这些工具不会知道我们想要什么。”
为此,Richard(理查德)认为,人工智能可以作为一个起点,但IT领导者必须利用团队的直觉,“确保我们不会陷入只相信华而不实的软件工具的陷阱,判断这些工具有没有给我们所需的数据?”他说。
3.将人工智能伦理放在首位
集团首席信息官Jan Cenkr(贾·切克)表示,与LIUNA(北美劳工国际联盟)一样,总部位于捷克的全球消费金融提供商Home Credit(捷信消费金融,成立于1997年。捷信是一家国际消费金融提供商,业务遍及9个国家。捷信专注于向信用记录很少或没有信用记录的人提供负责任的贷款。相比传统银行的抵押贷款,捷信贷款服务简单、方便、快捷。)也处于人工智能之旅的早期阶段,使用GitHub Copilot(微软与OpenAI共同推出了一款AI编程工具,能够基于 GitHub 及其他网站的源代码,可根据上文提示为程序员自动编写下文代码。)进行编程和文档处理。
“它在节省时间方面提供了巨大的优势,这反过来也是有益的成本因素,”Cenkr(切克)说,他也是捷信子公司EmbedIT的首席执行官。伦理人工智能从一开始就一直是Cenkr(切克)的首要任务。
“当我们开始推出我们的人工智能工具试点时,我们在内部也就创建道德治理结构进行了深入的讨论。这意味着我们有真正的检查,以确保我们不会违反自己的行为准则。”
Cenkr(切克)补充说,这些代码会定期进行更新和测试,以确保它们尽可能地健全。
他补充说,数据隐私是最具挑战性的考虑因素。“我们输入人工智能平台的任何信息和数据都必须遵守GDPR(General Data Protection Regulation,《通用数据保护条例》,前身是欧盟在1995年制定的《计算机数据保护法》。2018年5月25日,欧洲联盟出台《通用数据保护条例》。1.对违法企业的罚金最高可达2000万欧元,约合1.5亿元人民币,或者其全球营业额的4%,以高者为准。2.网站经营者必须事先向客户说明会自动记录客户的搜索和购物记录,并获得用户的同意,否则按“未告知记录用户行为”作违法处理。3.企业不能再使用模糊、难以理解的语言,或冗长的隐私政策来从用户处获取数据使用许可。4.明文规定了用户的“被遗忘权”/right to be forgotten,即用户个人可以要求责任方删除关于自己的数据记录。)的规定。”由于捷信在多个司法管辖区运营,IT还必须确保所有这些市场的合规性,其中一些市场有不同的法律,这无疑增加了复杂性。
Cenkr(切克)说,组织应该“以反映您个人道德规范的方式”来发展其的治理结构。“我相信,如果您像对待您在个人日常生活中应用的道德一样,认真发展这些道德结构,这些结构就会更加安全。”
此外,Cenkr(切克)表示,IT部门应该做好定期更新其治理政策的准备。“人工智能技术每天都在进步,无论多么令人兴奋,跟上它的发展步伐都是一个真正的挑战。”
4.设置护栏
聊天机器人等人工智能工具已经在UST(前身为UST Global,是一家数字技术和转型、信息技术和服务提供商,总部位于美国加州亚里索维耶荷,致力于为全球大型私有和公有企业提供先进的计算和数字服务。UST在25个国家和地区设有35个办事处,其业务涉及银行和金融服务、医疗保健、保险、零售、技术、制造、航运和电信。)使用了好几年,但生成式人工智能是一个全新赛道。这家数字化转型公司的首席战略官兼首席信息官Krishna Prasad(克里希纳·普拉萨德)表示,这从根本上改变了商业模式,并使道德人工智能成为讨论的一部分,同时承认“今天这有点理论化了。”
Prasad(普拉萨德)说,道德底线在人工智能实施考虑中“并不总是实现”,“但我们确实谈到了……我们需要有负责任的人工智能,以及一些获得透明度和追溯建议是如何提出的能力。”
UST领导人之间的讨论集中在该公司不想用人工智能做什么上,“以及我们今天所理解的界限在哪里划定;我们如何在不造成伤害的情况下忠于自己的使命,”Prasad(普拉萨德)说。
Prasad(普拉萨德)表示,与其他人一样,这意味着人类必须成为等式的一部分,因为人工智能已经更深入地嵌入到组织内部。
UST提出的一个问题是,如果领导者在机器人监听的情况下就员工表现进行对话,这是否是对保密性的妥协。“(这样的)事情已经开始涌现,”Prasad(普拉萨德)说,“但在这一点上,我们可以继续使用[微软]Copilot(是微软在Windows 11中加入的AI助手,该AI助手是一个集成了在操作系统中的侧边栏工具,可以帮助用户完成各种任务。)来总结对话。”
另一个考虑因素是如何保护公司构建的工具的知识产权。他说:“基于今天软件供应商提供的保护,我们仍然觉得数据包含在我们自己的环境中,没有证据表明数据在外部丢失。”Prasad(普拉萨德)说,因此,他和其他领导人对继续使用某些人工智能工具没有任何疑虑,尤其是因为他们看到了员工生产效率的提高。
尽管他认为人类需要参与进来,但Prasad(普拉萨德)也担心他们的投入。他解释说:“归根结底,由于我们所处环境的性质、我们的经历以及它如何形成我们的思维,人类天生就有偏见。”
他还担心,当不良行为者使用客户的数据为他们开发新的模型时,他们是否会获得某些人工智能工具。
Prasad(普拉萨德)说,随着软件的普及,化他表示,与此同时,首席信息官们必须引领潮流,展示如何利用人工智能,以及它将如何影响他们的商业模式,并将领导层聚集在一起讨论最佳前进道路。
他说:“首席信息官们必须在推动对话中发挥作用,因为他们可以打破神话,也可以执行。”他补充道,他们还必须为这些对话有时变得非常困难做好准备。
例如,如果一个工具提供了某种功能,“我们是希望不择手段地使用它,还是应该因为要防止打破道德底线而选择合规,”Prasad(普拉萨德)说,“这是最矛盾的对话”,但首席信息官们必须指出,在选择提供使用人工智能的新产品和服务之前,我如何对模型进行约束?
作者:Esther Shein(埃斯特·谢恩)
Esther Shein(埃斯特·谢恩)是一名记者,在传统出版与网络出版方面具有丰富的写作和编辑经验,专注于商业、技术、教育和其他方面。