监管机构对人工智能治理应该做什么仍然没有明确的把握,但这并不是IT部门拖延使用AI的理由。企业CIO可以通过从已知领域入手,逐步建立起适合自身特点的治理体系。这不仅有助于企业更好地利用人工智能技术,同时也为整个行业的人工智能治理提供了有益的借鉴。
图源:tashatuvango via adobe Stock
每个公司都知道需要一个人工智能治理政策,但创建一个的政策的指导却寥寥无几。关键问题是什么,您又如何开始呢?
到处都有人工智能治理大纲和模板,但没有人,甚至连监管机构、政府官员或法律专家,都不知道人工智能需要指导和治理的情况。这种缺乏理解被归因于人工智能的新颖性。
由于人工智能治理存在如此多的不确定性,许多公司都在推迟定义治理,尽管他们正在自己的业务中研究和实施人工智能。我想说的是,公司不必等待来定义人工智能治理。他们可以从他们已经从隐私、反偏见、版权和其他法规中了解的内容开始,并首先将这些已知元素纳入人工智能治理政策中。
以下是我们已知内容的总结。
一、隐私
隐私法律可能因州而异,也因国家而异。我们知道的是,个人有个人隐私权,根据美国法律,个人有“不被打扰”的权利。个人数据是高度机密的,特别是在医疗保健和金融领域。如果要共享信息,个人必须签署隐私声明,同意与某些第三方共享他们的信息。隐私政策也解释了公司将保护哪些信息。
将这些基础应用于人工智能,这意味着,以患者数据为例,如果数据被归入有特定疾病或状况倾向的人群,很可能会被匿名化。因此,对于一个用于得出特定患者诊断的医疗诊断人工智能系统,人工智能算法可以调查其档案中的患者汇总数据,但不能深入任何被汇总数据的患者的具体情况,否则将冒着侵犯患者隐私权的风险。
二、反偏见
歧视和偏见是员工法的组成部分,应该在人工智能治理中正式化。
组织已经经历了由于偏见导致的人工智能失误,因为没有用足够无偏见的数据填充他们的系统,以及开发了有缺陷的算法和查询。
结果是严重偏见的系统返回了不准确和令人尴尬的结果。这就是为什么多样性和包容性应该成为人工智能工作团队的组成部分,此外还应审查数据以确保其尽可能无偏见。
多样性适用于人工智能员工的组成,但也适用于公司部门。
例如,财务部门可能想知道如何提高产品利润率,但销售部门可能想知道如何提高客户忠诚度,而工程和制造部门可能想知道如何提高产品性能以减少退货。总的来说,所有这些观点都应该纳入人工智能对客户满意度的分析中,否则您就有得到有偏见和不准确结果的风险。
“人工智能最大的风险之一是复制现有的社会偏见。人工智能系统的好坏取决于它们所训练的数据,如果这些数据反映了有偏见或不完整的世界观,那么人工智能的输出也会随之效仿,”Society of Human Resource Management(SHRM,人力资源管理协会。成立于1948年,是世界上最大、最具实力和影响力的人力资源管理专业协会之一。SHRM拥有超过30万名会员,遍布全球165个国家,影响着全球超过1.15亿工人和家庭的生活。使命是通过提供最前沿和充足的资源,满足人力资源管理专业人士的需求,提升人力资源的关键性和战略性地位,推动人力资源管理专业实践的发展。SHRM拥有强大的专业背景和广泛的影响力,致力于通过其认证项目提升人力资源从业者的专业水平。)的AI+HI的驻场执行官Nichol Bradford(尼科尔·布拉德福德)指出。
三、知识产权
生成式人工智能为收集他人的视觉和文字创作并重新用于其他目的铺平了道路,通常在公司或创作者不知情的情况下。例如,您的公司可能与第三方供应商达成协议,您想为您的人工智能数据存储库购买他们的数据。您无法确定第三方是如何获得他们的数据的,或者他们的数据是否可能侵犯版权或知识产权法。
Harvard Business Review(《哈佛商业评论》,简称HBR,创建于1922年,是哈佛商学院的标志性杂志。建立之初,它的使命就是致力于改进管理实践。发展90年后,HBR已经成为先进管理理念的发源地,致力于给全世界的专业人士提供缜密的管理见解和最好的管理实践,并对他们及其机构产生积极的影响。HBR在全世界有10种语言的11个授权版本,包括在台湾地区发行的繁体字版和2012年7月起在大陆地区出版的简体中文版。)在2023年讨论了这个问题。它它指出:“虽然这些新的人工智能工具似乎可以虚空中变出新素材,但事实并非如此。这个过程伴随着法律风险,包括知识产权侵权。在许多情况下,它也提出了仍在解决中的法律问题。例如,版权、专利商标侵权是否适用于人工智能创作?生成式人工智能平台为您或您的客户创建的内容的所有权是否明确?在企业能够拥抱生成式人工智能的好处之前,他们需要了解风险——以及如何保护他们自己。”
不幸的是,很难理解风险是什么,因为人工智能中的intellectual property/IP(知识产权,也称为智力成果权,是指人们就其智力劳动成果所依法享有的专有权利。它是一种无形财产权,其客体是智力成果或知识产品,通常包括著作权和工业产权两大类。)和版权侵权才刚刚开始在法庭上受到挑战,判例法先例尚未确立。
在法律澄清之前,建议公司最初为知识产权和版权起草治理指南,规定从其购买用于人工智能的数据的任何供应商都必须经过审查,并保证所提供的数据没有版权或知识产权风险。在内部,IT部门还应该审查自己的人工智能数据是否存在任何潜在的知识产权或版权侵权问题。如果有数据可能构成侵权问题,一种方法便是获得许可。
四、在组织中建立人工智能治理
IT团队将开始人工智能治理过程。这个过程必须从与高层管理人员和董事会的对话开始。这些关键利益相关者必须在行动上和言语上支持人工智能治理的理念,因为人工智能治理将影响员工行为以及数据和算法的管理。
必须确定最可能的部门人工智能“着陆点”,因为这些部门将最直接地负责主题专家的输入和人工智能模型的训练,并且他们将需要治理方面的培训。
为此,应该成立一个跨部门的人工智能治理委员会,负责同意治理政策和实践,并有坚定的执行领导支持。
人工智能治理政策的发展将是动态的,因为人工智能监管是动态的,但组织可以从他们已经了解的关于隐私、知识产权、版权、安全和偏见等方面开始。这些初始的人工智能治理政策应该伴随着对将与人工智能一起工作的内部员工的培训。
对于CIO来说,目前重要的是使人工智能治理成为人工智能系统部署的一个组成部分。鉴于我们已经了解的良好数据处理实践,现在有充分的理由这样做。
作者:Mary E. Shacklett(玛丽·E·沙克利特)
Mary E. Shacklett(玛丽·E·沙克利特)是国际公认的技术评论员,也是Transworld Data(一家营销和技术服务公司)的总裁。在创立自己的公司之前,她曾是Summit Information Systems(一家计算机软件公司)的产品研发和软件开发副总裁;以及FSI International(一家半导体行业的跨国制造商)的战略规划和技术副总裁。
Mary(玛丽)在欧洲、日本和环太平洋地区都有从业经验。她拥有威斯康星大学的学士学位和南加州大学的硕士学位,她曾在南加州大学任教数年。她被列入《Who's Who Worldwide/世界名人录》和《Who's Who in the Computer Industry/计算机行业名人录》。
译者:宝蓝
【睿观:人工智能治理:从已知出发,构建基础
本文核心观点:
尽管人工智能治理仍处于探索阶段,企业无需坐以待毙。通过借鉴现有隐私、反偏见、知识产权等领域的法律法规和最佳实践,可以建立起初步的人工智能治理框架。
具体建议:
从已知开始:
隐私:确保个人数据在人工智能应用中得到妥善保护,特别是医疗和金融领域。
反偏见:在数据收集、算法设计和模型训练过程中,积极采取措施避免歧视和偏见。
知识产权:明确数据来源,避免侵犯版权和知识产权。
建立跨部门治理委员会:
各部门共同参与,制定并执行人工智能治理政策。
确保高层管理层的支持。
持续学习和调整:
人工智能治理是一个动态的过程,随着技术和监管的变化,不断调整和完善治理政策。
为何现在就该行动?
规避风险: 及早建立治理框架,有助于防范潜在的法律风险和声誉损害。
提升竞争力: 合规的人工智能应用有助于增强企业形象,赢得客户信任。
促进创新: 完善的治理机制为人工智能创新提供坚实基础。
总结:
人工智能治理虽然充满挑战,但并非遥不可及。企业可以通过从已知领域入手,逐步建立起适合自身特点的治理体系。这不仅有助于企业更好地利用人工智能技术,同时也为整个行业的人工智能治理提供了有益的借鉴。】