最近的进展凸显了人工智能无与伦比的潜力和尚未完全确定的风险,使首席信息官处于困境,以了解如何在业务中最好地利用这种日益有争议的技术。以下是他们对此的看法。比如,一家咨询公司的DevOps IT主管指出了首席信息官(CIO)在使用生成式人工智能时可以减轻风险的几种方法,包括像风险资本家一样思考;清楚地了解技术的价值;在测试之前确定道德和法律风险因素;进行实验,但不要急于投资;以及从客户的角度考虑其影响。
来源:MATEJ KASTELIC / SHUTTERSTOCK
随着人工智能炒作周期和随后的讨论如火如荼地进行,IT领导者发现自己在企业中使用人工智能时正处于一个尴尬的转折点。
在Elon Musk(埃隆·马斯克)和最近离开谷歌并正在广播人工智能风险的受人尊敬的人工智能先驱Geoffrey Hinton发出严厉警告并呼吁后,IT领导人正在联系全球各地的机构、咨询公司和律师,以获得关于企业未来人工智能应用的建议。
Hearst高级副总裁兼首席信息官Atti Riazi说:“埃隆·马斯克等科技首席执行官最近对人工智能的潜在危险的警告言论表明,我们还没有采取充分的准备来减轻创新的风险。”“作为创新者,我们需要负责任地创新,并了解新兴技术对人类生活、社会和文化的影响。”
许多IT领导人也赞同这种情绪,他们认为自由市场社会的创新是不可避免的,应该受到鼓励,特别是在这个数字转型的时代——但必须制定正确的规则和条例,以防止公司可能面临的风险。
Regeneron Pharmaceuticals的首席信息官Bob McCowan说:“我支持暂停一些行业或某些高风险的用例,但在大多数情况下,我们应该向前推进,并快速探索这些工具提供哪些机会。”
“许多董事会成员正在质疑这些技术是应该被采用,还是会带来太多的风险?”McCowan补充说。“我认为两者兼而有之。忽略或终止它,您将错过重要的机会,但在没有控制的情况下给予[员工]不受限制的访问权限也可能让您的组织面临风险。”
虽然人工智能工具已经使用多年,但最近向大众发布的ChatGPT引发了更大的争议,让许多首席信息官及其董事会暂停人工智能的尝试。一些首席信息官非常认真地对待行业和人类面临的风险。
向美国证券交易委员会报告的关键监管机构金融业监管局(FINRA)的首席信息官史蒂夫·兰迪奇说:“我每天都更担心这个问题。”
Randich(史蒂夫·兰迪奇)注意到他最近看到的一张图表,该图表指出,人工智能程序的应用成熟度刚刚超过了鼠标,10年后将超过全人类的能力。他说:“考虑一下我的担忧,特别是如果人工智能程序可能会受到不良行为者的影响,并且能够黑客入侵,例如核心代码。”
麻省理工学院斯隆管理学院高级讲师George Westerman表示,全球企业的高管正在就使用生成人工智能的道德、风险和潜在责任向麻省理工学院斯隆和其他机构寻求建议。尽管如此,Westerman认为,大多数首席信息官已经与他们的高管和董事会进行了接触,生成人工智能本身并没有规定公司及其高管要遵守的新法律责任。
Westerman在谈到首席信息官对人工智能产生的个人隐私问题时说:“我希望像公司所有其他高管一样,自己的工作能够合法合规,”他指出,为了个人利益不恰当地使用该技术是例外。
一、追赶生成人工智能
与此同时,ChatGPT的发布扰乱了监管监督工作。欧盟原计划在上个月颁布其《人工智能法案》,但在ChatGPT发布后选择停滞不前,因为许多人担心这些政策在生效之前会过时。随着欧盟委员会及其相关理事机构努力解决生成人工智能的影响,欧洲和美国的公司高管正在认真对待警钟。
“随着人工智能成为我们景观的关键部分,狭隘人工智能(NAI)变成了通用人工智能(AGI)——谁会承担责任?技术负责人,无生命的机器模型?人类干预者批准/改变培训模式?该技术发展迅速,但围绕它的伦理道德和风险控制却没有发展,”总部位于英国但在美国东北部运营的国家电网集团首席信息和数字官Adriana Karaboutis说。
【注:01、弱人工智能(Weak AI),也被称为狭隘人工智能(Narrow AI)或应用人工智能(Applied AI),指的是只能完成某一项特定任务或者解决某一特定问题的人工智能。苹果公司的 Siri就是一个典型的弱人工智能,它只能执行有限的预设功能。同时,Siri 目前还不具备智力或自我意识,它只是一个相对复杂的弱人工智能体。02、强人工智能(Strong AI),又被称为通用人工智能(Artificial General Intelligence)或全人工智能概述,指的是可以像人一样胜任任何智力性任务的智能机器。人工智能研究人员认为强人工智能需要具备以下几点:(1)思考能力,运用策略去解决问题,并且可以在不确定的情况下做出判断;(2)展现出一定的知识量;(3)计划能力;(4)学习能力;(5)交流能力;(6)利用自身所有能力达成目的的能力。03、超人工智能。哲学家、牛津大学人类未来研究院院长尼克·波斯特洛姆(Nick Bostrom)把超级智能定义为“在几乎所有领域都大大超过人类认知表现的任何智力”。超人工智能(Artificial Super Intelligence,ASI)正是超级智能的一种。首先,超人工智能能实现与人类智能等同的功能,即可以像人类智能实现生物上的进化一样,对自身进行重编程和改进,这也就是“递归自我改进功能”。】
“这个领域正在进行一场追逐比赛。与此同时,管理企业中的人工智能取决于监督公司和组织风险的高管层(CxO)。CIDO(首席信息官和首席数据官)认为,鉴于人工智能的兴起,CTO/CIO/CTO/CDO/CISO不再是信息风险的所有者。“IT依赖于首席执行官和所有高管层(CxO),这意味着企业文化和对人工智能巨大利益以及风险的认识必须被重塑。”
爱立信副总裁兼企业自动化和人工智能主管Rickard Wieselfors表示,总部位于斯德哥尔摩的电信爱立信看到了生成式人工智能的巨大优势,并正在投资创建多个生成式人工智能模型,包括大型语言模型( large language models)。
他说:“人工智能行业内部也在自我检讨,我们非常认真地对待负责任的人工智能。”“在培训中使用的文本或源代码的知识产权方面,还有很多问题没有答案。此外,查询模型时的数据泄露、偏见、事实错误、缺乏完整性、颗粒度或缺乏模型准确性,这无疑限制了您可以将模型用于什么。”
Wieselfors说:“巨大的能力带来了巨大的责任,我们支持并参与了当前关于人工智能可以给世界带来什么的自我检讨和道德反思。”
一些首席信息官,如Choice Hotels的Brian Kirkland,正在监控该技术,但认为生成式人工智能还没有完全做好商业用途的准备。
Kirkland说:“我确实认为,对于行业来说,确保他们意识到使用ChatGPT等生成式人工智能技术的风险、回报和影响非常重要。数据所有权和生成的内容存在风险,必须被理解和管理,以避免对公司产生负面影响。”“与此同时,有很多好处和机会可以考虑。当能够安全可靠地将私人数据集与这些系统中的公共数据合并时,好处将是巨大的。
Choice Hotels首席信息官表示:“从生成的人工智能内容到复杂而有意义的业务分析和决策,人工智能和机器学习在实现业务价值方面将发生巨大变化。”
二、没有人可以完全掌握如此强大和改变生命的技术。
在Gartner最近对2500多名高管进行的民意调查中,45%的人表示,对ChatGPT的关注导致他们增加了人工智能投资。超过70%的人确定他们的企业目前正在探索生成人工智能,19%的人正在进行试点或生产使用,联合利华和CarMax等公司的项目已经显示出希望。
在5月15日开始的麻省理工学院斯隆首席信息官会议上,Irving Wladawsky-Berger将主持一个关于进入生成人工智能领域的潜在风险和回报的小组讨论。最近,他主持了一场关于该技术的会前讨论。
这位前IBM长期研究员、麻省理工学院斯隆现任附属研究员说:“我们今天都对生成人工智能感到兴奋。”他引用了人工智能预计会给基因组学带来的重大进展。
但Wladawsky-Berger指出,对那些采用该技术的人进行尽职调查不会是一项简单的任务。“这需要做很多工作,”他说。“我们必须弄清楚什么有效,什么是安全的,以及要做哪些试验。这都需要时间。”
小组的另一名首席信息官、Zoetis的首席数字和技术官Wafaa Mamilli表示,生成人工智能正在增强制药公司治愈人类慢性疾病的信心。
她说:“由于生成人工智能技术和计算能力在遗传研究的进步,现在在美国、日本和欧洲都在开展治愈糖尿病的试验。”
三、人工智能应用的护栏和指南:生成人工智能基础知识
华尔街非常关注该行业对生成式人工智能的迅速接受。据IDC称,2022年是生成式人工智能初创企业投资创纪录的一年,股权资金超过26亿美元。
根据最近IDC关于生成人工智能的几份报告之一:“无论是使用Jasper.ai创建内容,使用Midjourney创建图像,还是使用Azure OpenAI服务进行文本处理,都有一个生成式人工智能基础模型来促进您业务改善的各个方面。”
Regeneron的McCowan指出,首席信息官已经拥有了安装护栏的方法,以安全地推进生成式人工智能应用。
McCowan说:“至关重要的是,您有政策和指导方针来管理那些计划使用这些技术的人的访问和行为,并提醒您的员工保护知识产权、PII[个人识别信息(personal identifying information)],并重申共享的内容可能会被公开。”
他说:“让你的创新者和律师一起找到一个能承担一定风险的使用工具的模型,并明确你可能会暴露哪些数据,以及你对这些解决方案的输出有什么权利。”“开始使用风险较小的用例的技术,并从每次迭代中学习。人工智能应用早点开始吧,否则你会输的。”
Forrester Research分析师David Truog指出,在企业开始试点并在业务环境中使用生成人工智能之前,人工智能领导者在生成人工智能上贴上警告标签是正确的。但他也相信这是可以做到的。
Truog说:“我不认为停止或暂停人工智能是正确的道路。”“更务实和建设性的道路是明智地选择用例,在这些用例中,专门的人工智能可以提供帮助,嵌入深思熟虑的护栏,并采取有意的隔离策略。那将是一个起点。”
一家咨询公司的DevOps IT主管指出了首席信息官在使用生成式人工智能时可以减轻风险的几种方法,包括像风险资本家一样思考;清楚地了解技术的价值;在测试之前确定道德和法律风险因素;进行实验,但不要急于投资;以及从客户的角度考虑其影响。
总部位于明尼阿波利斯的Perforce首席技术官Rod Cope说:“聪明的首席信息官将成立监督委员会或与外部顾问合作,这些顾问可以指导组织实施,并帮助制定指导方针以促进负责任的使用。”“虽然投资人工智能为企业提供了巨大的价值,但将其实施到您的技术堆栈中需要深思熟虑的考虑,以保护您、您的组织和您的客户。”
虽然生成式人工智能的兴起肯定会影响人类的工作,但一些IT领导者,如托管服务提供商MetTel的首席技术官Ed Fox,认为这种影响可能会被夸大了,尽管每个人都不得不适应或落后。
福克斯说:“有些人会在生成式人工智能的觉醒中失去工作,但不会达到一些人预测的程度。”“我们这些不接受实时百科全书(注:指接受互联网)的人将被忽略。”
尽管如此,如果有一个确定的主题,那就是对大多数首席信息官来说,在开始前谨慎行事有利于行稳致远,参与也是如此。
Wipro的谷歌业务集团总经理Tom Richer说,首席信息官必须在“抑制创新的严格法规和AI应用指导方针之间取得平衡,以确保人工智能的负责任地开发和使用”,他指出,他正在与母校康奈尔及其人工智能倡议合作,谨慎行事。
Richer说:“对于首席信息官和IT高管来说,至关重要的是,要意识到生成式人工智能的潜在风险和好处,并与该领域的专家合作,为人工智能的使用制定负责任的策略。”“这种合作需要让大学、大型科技公司、智库和政府研究中心参与进来,为人工智能技术的开发和部署制定最佳实践和指导方针。”