当被问及时,IT领导者和他们所代表的公司如何能够立即利用生成式AI的力量,并理解和管理潜在的漏洞,偏见和其他风险,以保护敏感数据并保持客户信任的时候,CIO必须回答7个关键问题。
一些公司使用生成式人工智能来编写代码,有些公司使用它来创建营销文本或为聊天机器人提供支持。还有一些像SmileDirectClub这样的公司,他们利用人工智能来创建图像是为了回答如何更好地为客户服务的问题。
总部位于英国的远程牙科公司SmileDirectClub使用生成AI来创建牙齿。或者,更具体地说,帮助人们了解如何矫正牙齿。
“我们有一个名为SmileMaker平台的平台,”首席信息官贾斯汀斯金纳说。“我们用手机拍一张牙齿的照片,然后生成一个3D模型表示,我们可以用人工智能预测矫直计划的样子,需要多长时间,以及完成后会是什么样子。
现有的生成AI平台,如OpenAI的ChatGPT,Google Bard或Stable Diffusion,都没有在牙齿的3D图像上进行训练。当SmileDirectClub开始时,这些甚至都没有。
SmileDirectClub在自己的服务器上使用自己的数据集构建了自己的生成AI,符合HIPAA,GDPR和其他法规。
该公司三年前与外部合作伙伴一起启动了该项目。然后,当合作伙伴不起作用时,公司聘请了自己的团队来构建所需的专有模型。
“没有比这更好的精度水平了,”斯金纳说。“牙齿非常棘手。没有太多的区别标记,因此从手机中获得准确的3D模型是一项艰巨的任务。
第一代工具于去年11月在澳大利亚上线,今年5月在美国上线,到目前为止约有10万人使用它。下一个版本将包括新牙齿外观的逼真投影。
如今,该工具仅为客户提供治疗计划草案,斯金纳说。他们仍然需要去看牙医或在家中使用印模套件进行高清印模。随着技术的进步,这种情况将来也可能发生变化。
但这并不是SmileDirectClub利用生成AI的唯一方式。
“出于降低成本和提高效率的原因,我们正在探索利用ChatGPT和Bard等工具,我们期待与Microsoft Copilot合作,”斯金纳说。
他的公司并不孤单。
根据哈里斯民意调查最近代表Insight Enterprises对高级管理人员进行的一项民意调查,39%的公司已经围绕生成式AI制定了政策或战略,42%的公司正在制定这些政策或战略。另有17%的人计划这样做,但尚未开始。只有1%的公司没有计划制定生成式人工智能的计划。
除了SmileDirectClub如何回答有关客户服务的关键问题之外,首席信息官还需要回答以下七个问题,以帮助他们制定生成式AI战略或政策。
一、商业价值在哪里?
根据哈里斯民意调查,72%的高管表示,他们计划在未来三年内采用生成式人工智能技术,以提高员工的生产力。66%的人表示他们计划使用它来改善客户服务。此外,53%的受访者表示这将有助于他们进行研发,50%的受访者表示将帮助他们实现软件开发或测试的自动化。
就生成式AI的企业用例而言,这只是冰山一角,而且变化很快。
首席信息官必须努力工作才能掌握发展,Skinner说。更重要的是,首席信息官必须了解生成式人工智能的可能性通常如何具体应用于他们的业务。
“这是第一个问题,”他说。“我真的明白这些事情吗?我是否深刻理解如何将它应用于我的业务以获得价值?”
鉴于变化的快速步伐,理解生成式人工智能意味着对其进行试验,并且要大规模地进行试验。
这就是Insight Enterprises正在采取的方法。这家位于Tempe的解决方案集成商目前有10,000名员工使用生成式AI工具并分享他们的经验,以便公司能够找出好的和坏的。
“这是我所知道的最大的生成式人工智能部署之一,”Insight的首席企业架构师兼首席技术官David McCurdy说。“我的任务是了解模型做得好的地方,模型做得不好的地方。”
他说,生成人工智能的新颖性可能很酷,但它并不是特别有用。
“但我们坐下来给模型提供训练,并向模型提出细致问题:负债在哪里,风险在哪里,”他说。这是真正的肉和骨头在一起训练,它是100%有效的。这将成为全世界的第一个用例。
另一位仓库工人员工提出了使用生成式人工智能来帮助他编写SAP脚本的想法。
“他不必开票或问任何人怎么做,”麦柯迪说。“这就是我所追求的那种东西,这太不可思议了。
他说,每个首席信息官都应该问自己的第一个问题是,他们的公司计划在未来一两年内如何使用生成式人工智能。“那些说它不在计划中的人,这是一个糟糕的错误,”他补充道。“有些人觉得他们会拭目以待,但他们会失去生产力。他们的董事会,他们的首席执行官会问,'为什么其他公司喜欢这项技术?我们为什么不呢?
但是,以生成式人工智能今天能够提供的准确性水平和商业价值机会来看,生成图片只是一小部分。
二、我们的部署策略是什么?
希望进入生成式人工智能应用的公司有多种方法可以做到这一点。
例如,他们可以微调和运行自己的模型。每周都有新的开源模型可用,每个模型都比上一个更强大。数据和人工智能供应商正在提供可以在本地或私有云中运行的商业替代方案。
然后,传统的SaaS供应商,如Salesforce,当然还有微软和谷歌,正在将生成AI嵌入到他们的所有服务中。这些模型将针对特定的业务用例进行定制,并由已经知道如何管理隐私和风险的供应商进行维护。
最后,还有公共模型,如ChatGPT,小公司可以通过其面向公众的界面直接访问,大公司可以通过安全的私有云使用。例如,Insight运行OpenAI的GPT 3.5 Turbo和GPT 4.0托管在私有云中。
对于有非常特殊要求但对训练自己的模型没有兴趣的公司来说,另一种选择是使用 ChatGPT 之类的东西,然后通过矢量数据库让它访问公司数据。
“价值在于使用现有模型并在它旁边暂存自己的数据,”McCurdy 说。“这才是创新和生产力的真正所在。
通过将文档粘贴到 ChatGPT 中以供它在提出问题之前进行分析,这在功能上是等效的,只是不必每次都粘贴文档。例如,Insight已经把它写过的所有白皮书,所有的采访记录,加载到一个矢量数据库中,供生成AI参考。
三、我们能否确保数据、客户和员工的安全?
根据普华永道(PricewaterhouseCoopers)五月的一份报告,几乎所有的商业领袖都表示,他们的公司将在短期内优先考虑至少一项与人工智能系统相关的举措。
但只有35%的高管表示,他们的公司将在未来12个月内专注于改善人工智能系统的治理,只有32%的风险专业人士表示,他们现在正在参与生成式人工智能应用的规划和战略阶段。
毕马威(KPMG)6月发布的一项针对高管的类似调查显示,只有6%的组织拥有专门的团队来评估生成式人工智能的风险并实施风险迁移策略。
只有5%的人制定了成熟的负责任的人工智能治理计划,尽管19%的人正在制定一个,近一半的人表示他们计划创建一个。
这对于使用外部生成AI平台而不是从头开始构建自己的平台的公司尤其重要。
例如,SmileDirectClub的斯金纳(Skinner)也在关注像ChatGPT这样的平台,以获得潜在的生产力优势,但担心数据和隐私风险。
“在首先进入之前,了解数据是如何受到保护的非常重要,”他说。
该公司即将启动一项内部沟通和教育活动,以帮助员工了解正在发生的事情,以及生成式人工智能的好处和局限性。
“你必须确保你在公司中设置安全策略,并且你的团队成员知道这些策略是什么,”他说。“目前,我们的政策是你不能将客户数据上传到这些平台。
该公司也在等待有哪些企业级选项将上线。
“由于与Office 365的集成,Microsoft Copilot可能会首先大规模利用,”他说。
根据安永美洲新兴技术负责人马特·巴林顿(Matt Barrington)的说法,与他交谈的公司中,约有一半担心对ChatGPT和类似平台采取一站式方法的潜在风险。
“在我们理解它之前,我们是在阻止它,”他说。
另一半人则希望了解如何建立正确的框架来培训和支持人员。
“你必须谨慎,但你必须启用,”他说。
此外,他补充说,即使是50%的人已经对ChatGPT踩了刹车,他们的人仍然使用它。“火车已经离开车站了,”他说。“这个工具的威力如此之大,以至于难以控制。这就像云计算的早期。
四、我们如何防范偏见?
对于传统的机器学习系统来说,处理偏见已经够难的了,在传统的机器学习系统中,公司正在使用明确定义的数据集。但是,对于大型基础模型,例如用于代码、文本或图像生成的模型,此训练数据集可能完全未知。此外,模型的学习方式非常不透明——即使是开发它们的研究人员也不完全了解这一切是如何发生的。这是监管机构特别关注的问题。
“欧盟正在引领潮流,”安永的巴林顿说。“他们提出了一项人工智能法案,OpenAI的Sam Altman正在呼吁制定核心法规,这还有很多事情要做。
奥特曼并不是唯一的企业。根据波士顿咨询集团对 13 000名商业领袖、经理和一线员工的调查,79% 的人支持人工智能监管。
他说,公司收集的数据的敏感性越高,公司就越要谨慎。
“我们对人工智能在商业的影响持乐观态度,但同样对负责任和合乎道德的实施持谨慎态度,”他说。“我们将非常依赖的一件事是负责任地使用人工智能。“
他说,如果一家公司率先学习如何不仅有效地利用生成式人工智能,而且确保准确性、可控制和负责任的使用,即使技术和法规不断变化,它也会有优势。
这就是为什么转录公司 Rev 在将生成 AI 添加到其提供的工具套件之前花时间研究的原因。
该公司已经经营了近 12 年,最初提供人力转录服务,并逐渐增加了人工智能工具来增强其雇佣人工的能力。
现在,该公司正在探索使用生成式人工智能来自动创建会议摘要。
“我们正在花一点时间进行尽职调查,并确保这些事情按照我们希望的方式工作,”Rev的研发和人工智能主管Migüel Jetté说。
他补充说,摘要不像生成AI的其他应用那样危险。“这是一个定义明确的问题空间,很容易确保模型的行为。这不是一个完全开放式的事情,就像从提示生成任何类型的图像一样,但你仍然需要护栏。
他说,这包括确保模型是公平的、公正的、可解释的、负责任的,并符合隐私要求。
“我们还对一些最大的用户进行了非常严格的alpha测试,以确保我们的产品按照我们预期的方式运行,”他说。“我们现在的使用非常有限,以至于我不太担心生成模型行为不端。“
五、我们可以与谁合作?
对于大多数公司来说,部署生成式人工智能的最有效方法是依靠值得信赖的合作伙伴,Forrester Research分析师Michele Goetz说。
“这是最简单的方法,”她说。“内置的。”
她说,公司可能至少需要三年时间才能开始推出自己的生成式人工智能功能。在此之前,公司将在安全区研究这项技术,进行试验,同时依靠现有的供应商合作伙伴进行即时部署。
但她说,企业仍然需要尽职尽责。
“供应商说他们正在将人工智能作为服务运行,但它被隔离了,”她说。“但它仍然可能正在训练模型,并且可能仍然有知识和知识产权进入基础模型。
例如,如果员工上传敏感文档进行校对,然后人工智能接受该交互培训,那么人工智能模型可能会学习该文档的内容,并使用该知识回答其他公司用户的问题,从而泄露敏感信息。
她说,首席信息官可能还想问他们的供应商,比如原始训练数据来自哪里,以及如何验证和管理这些数据。此外,模型如何更新以及如何随时间推移管理数据源。
“首席信息官必须相信供应商在做正确的事情,”她说。“这就是为什么你有很多组织还没有准备好允许更新的生成人工智能进入他们的组织,在他们无法有效控制的领域。她说,在受到严格监管的地区尤其如此。
六、要多少钱?
嵌入式AI的成本相对简单。企业软件公司将生成式人工智能添加到他们的工具集中——像微软、谷歌、Adobe和Salesforce这样的公司——使定价相对清晰。然而,当公司开始构建自己的生成式人工智能时,情况变得更加复杂。
在对生成式AI的所有兴奋中,公司有时会忘记大型语言模型可能具有非常高的计算要求这一事实。
“人们希望开始看到结果,但没有考虑大规模这样做的影响,”麦肯锡公司高级合伙人Ruben Schaubroeck说。“由于隐私、安全和其他原因,他们不想使用公共 ChatGPT。他们希望使用自己的数据,并使其可以通过类似ChatGPT的接口进行查询。我们看到组织在自己的数据上开发大型语言模型。
与此同时,较小的语言模型正在迅速出现和发展。“这里的变化速度是巨大的,”Schaubroeck说。他说,公司开始进行概念验证,但关于总拥有成本的讨论还不多。“这是一个我们听得不多的问题,但你不应该天真。
七、您的数据基础架构是否为生成式 AI 做好了准备?
嵌入式生成式 AI 对于公司来说很容易部署,因为供应商将 AI 添加到其运行所需的数据旁边。
例如,Adobe正在为Photoshop添加生成AI填充,它需要处理的源图像就在那里。当Google将生成AI添加到Gmail或Microsoft将其添加到Office 365时,所需的所有文档都将随时可用。然而,更复杂的企业部署需要坚实的数据基础,这是许多公司仍在努力的方向。
“很多公司还没有准备好,”数据和分析咨询公司DAS42的首席执行官Nick Amabile说。他说,数据必须针对人工智能应用进行集中和优化。例如,一家公司可能将数据分布在不同的后端系统之间,从人工智能中获得最大价值将需要提取并关联这些数据。
“人工智能的最大优势在于,它能够以人类无法做到的规模分析或合成数据,”他说。
当谈到人工智能时,数据就是燃料,Genpact副总裁兼AI/ML服务全球负责人Sreekanth Menon证实。
他说,这使得为企业提供人工智能比以往任何时候都更加紧迫,使用正确的数据、清洗过的数据、高效工具、数据治理和合规护栏,并补充说“我目前的数据管道是否足以让我的生成人工智能取得成功。
他说,这只是让企业为生成式人工智能做好准备的开始。例如,公司希望确保他们的生成式人工智能是可解释的、透明的和合乎道德的。他说,这将需要可观测性平台,而这些平台才刚刚开始出现在大型语言模型中。
这些平台不仅需要能够跟踪结果的准确性,还需要能够跟踪成本、延迟、透明度、偏见以及安全性和及时监控。然后,模型通常需要一致的监督,以确保它们不会随着时间的推移而衰减。
“现在,你需要设置护栏和指导原则,”他说。然后,公司可以开始孵化生成式人工智能,一旦它们成熟,就将它们普及到整个企业。