你好,欢迎您来到福建信息主管(CIO)网! 设为首页|加入收藏|会员中心
您现在的位置:>> 新闻资讯 >>
生成式AI:企业数字化转型的“加速器”还是“绊脚石”?
作者:Fjciow 来源:CIOCDO 发布时间:2024年10月11日 点击数:

盲目跟风生成式人工智能的潮流可能会适得其反,但行动太慢也不明智。生成式人工智能是一把双刃剑,用得好能带来巨大的好处,用不好就会给自己带来麻烦。公司应该谨慎地探索,找到适合自己的使用方式。

图源:Gorodenkoff / Shutterstock


在人工智能领域,fear of missing outFOMO错失恐惧症。特指那种总在担心失去或错过什么的焦虑心情,也称“局外人困境”。具体表现为无法拒绝任何邀约,担心错过任何与有助人际关系的活动。)是真实存在的。根据Coleman Parkes research(成立于1984年,总部位于英国伦敦,拥有丰富的市场研究经验和专业的团队。公司擅长通过问卷调查、深度访谈等方式,为各类企业提供定制化的市场研究解决方案。代表Riverbed(是一家专注于广域网分发系统解决方案的公司。成立于20025月,Riverbed的旗舰产品专注于在广泛的区域网络提供解决方案,帮助企业优化广域网、存储基础设施和应用程序,巩固私有云的信息技术基础设施、公共云计算和分支机构。其产品包括分支机构解决方案、移动工作者、私人数据中心、私有云和云计算,旨在提高全球连接性企业的总性能情况。进行的一项研究,大公司中91%的决策者担心如果他们在人工智能方面落后,竞争对手将获得优势。因此,毫不奇怪,每位受访者都表示,在接下来的18个月内,他们将使用、测试生成式人工智能,或计划与之相关的项目。

S&P Global Market Intelligence(标普全球市场财智,收集、清理、解读和分析海量内容,将金融和行业数据、研究和资讯整合到多种工具中,帮助客户跟踪绩效、产生超额收益、确定投资理念、了解竞争和行业动态、执行估值以及评估风险。全球各地的投资专业人士、政府机构、企业和高校均可使用这种关键情报,自信地做出商业和财务决策。9月份发布的一项调查显示,新技术的前所未有的应用率使生成式人工智能现在超越了企业中的所有其他人工智能应用。近四分之一(24%)的组织已经在整个组织中集成了生成式人工智能的能力,37%的组织已经在生产中使用了它,但尚未完全规模化。

“错失恐惧症(FOMO)绝对是真实存在尤其是当每个组织看起来都有某种人工智能战略时,”Forrester Research(弗雷斯特市场咨询,是一家独立的技术和市场研究公司,针对技术给业务和客户所带来的影响提供务实和具有前瞻性的建议。公司已经被公认为思想的领导者和可信赖的咨询商,通过所从事的研究、咨询、市场活动和高层对等交流计划,帮助那些全球性的企业用户建立起市场领导地位。的分析师Alla Valente(阿拉·瓦伦特)说,“而且发展太快也有危险,包括糟糕的公关、合规或网络安全风险、法律责任,甚至集体诉讼。

即使生成式人工智能的失败没有上升到重大公共尴尬或诉讼的程度,它仍然可能降低公司的风险承受力,使其在启动更多人工智能项目时犹豫不决。

那些不在生成式人工智能方面冒险的组织,他们将无法快速成长或创新,从长远来看会失败。即使在中期,他们也会将市场份额输给竞争对手。”Valente(瓦伦特)说。

但这并不意味着立即在所有地方推出生成式人工智能。

公司真的需要考虑GoldilocksGoldilocks一般指金凤花姑娘。由于金凤花姑娘喜欢不冷不热粥,不软不硬的椅子,总之是刚刚好的东西,所以后来美国人常用金凤花姑娘/Goldilocks来形容刚刚好。后来这个典故延伸出了两个方面,第一个意思就是形容不偏向某个极端,刚刚好的状态。在经济上的应用就是用金发女孩经济/Goldilocks Economy来形容某个经济体内高增长和低通胀同时并存,而且利率可以保持在较低水平的状态。另一个则是金发女孩效应/Goldilocks Effect,意思是人在面对三个选择时,总是会选择偏向中间的哪一个。很多公司都会利用这个效应让消费者选择他们想让消费者选择的东西。原则她说,“对他们来说‘恰到好处’,这意味着要考虑他们的风险偏好、风险管理成熟度和生成式人工智能治理框架。

一、让人工智能远离公众

公司在应用生成式人工智能提供面向公众的服务项目时应谨慎行事。

2022年底ChatGPT(是人工智能技术驱动的自然语言处理工具,它能够通过理解和学习人类的语言来进行对话,还能根据聊天的上下文进行互动,真正像人类一样来聊天交流,甚至能完成撰写邮件、视频脚本、文案、翻译、代码,写论文等任务)推出以来,许多公司因过快部署而陷入困境。一家航空公司的聊天机器人给了客户一个不应该给的折扣,法院判定该公司承担责任。谷歌的人工智能告诉用户在披萨上涂胶水以防止奶酪滑落。最近,Elon Musk(埃隆·马斯克Grok AI(是马斯克旗下xAI团队开发的一款超大规模的人工智能模型,旨在通过海量数据的训练,实现更加智能、高效的处理能力。该模型集成了深度学习、自然语言处理、图像识别等多项先进技术,旨在通过海量数据的训练,实现更加智能、高效的处理能力‌。被发现散布选举错误信息,迫使五名国务卿向其母公司X(是埃隆·马斯克于2023年创建的空壳公司,将自己拥有的推特、SpaceX、特斯拉、Neuralink等所有公司打包加入其中。)发出公开信,要求修复聊天机器人。

这种行为让一些公司对将他们的生成式人工智能公之于众感到犹豫。相反,他们专注于将技术用于内部运营,在出现问题时,它仍然可以产生有意义的影响,而不会引起巨大的公关灾难。

例如,财富1000强技术咨询公司Connection(是一家专注于为企业提供全面优化解决方案的咨询公司。自成立以来,公司始终坚持以客户需求为导向,以专业知识和经验为基础,致力于帮助客户实现全面优化。公司成立于2001年,本着以顾客为中心的理念,帮助客户发掘、理解和保留他们的客户‌。主要业务范围涵盖了企业发展的多个方面,包括战略规划、组织设计、流程优化、人力资源管理和市场营销等。公司通过运用精益管理和六西格玛等方法论,帮助企业优化业务流程、降低成本、提高质量。在战略规划方面,Connection可以帮助企业进行市场分析、制定长远发展目标和战略计划,确保企业发展的正确性和有效性。在组织设计方面,公司提供高效的组织架构、管理制度和流程体系,提高企业的运营效率和管理水平。此外,公司还提供专业的薪酬体系设计、绩效管理和培训发展计划,激发员工的潜力和创造力‌。正在内部为一些项目使用生成式人工智能,例如,使用Fisent的流程自动化解决方案BizAI支持的工作流,用于比较客户采购订单和销售记录,并建议是否应该批准该订单。

Connection使用Pega Platform根据业务规则和逻辑管理公司几个领域的工作流程,以智能地推动工作。随着BizAI的加入,Connection现在可以数字化并进一步自动化关键业务流程。

Connection流程优化和转型的高级总监Jason Burns(杰森・伯恩斯)说:我们每年从许多中小型企业那里收到大约5万到6万个不同的客户采购订单,这些企业没有设置与我们进行电子集成。

例如,这些客户可能会在电子邮件中附加PDF、电子表格、图像文件或其他类型的文档,或者将采购订单直接粘贴到电子邮件正文中。

在有人工智能之前,审查是手动的,员工手动比较采购订单拷贝和我们系统中的条目,”他说。大约有十几个人在做这件事,由于文件堆积,从订单进来到有人能够查看并做出决定典型周转时间长达四个小时。有了生成式人工智能进行初步比较和推荐,周转时间现在只有两分钟。

例如,生成式人工智能可以帮助确定订单是否Connection;有时客户会错误地将采购订单发送给错误的供应商。生成式人工智能还会检查地址是否匹配,这是旧类型的人工智能很难做到的事情。但生成式人工智能还将客户对所需产品的描述与Connection的内部SKUsStock-Keeping Units,库存量单位,是电商领域用来标识和跟踪库存产品的唯一编码。每一个不同的产品,无论其颜色、尺寸、款式等属性如何变化,都会有一个与之对应的SKU。这使得商家能够精确地管理库存,确保产品信息的准确无误。)进行匹配。

我们的客户不知道我们的内部SKUsBurns(伯恩斯)说,“他们可能以一种方式描述这些产品,我们也可能以另一种方式描述它们,我们的人工智能能够非常有效地将它们关联起来。

他补充说,人工智能被设置得格外保守,比人类更加保守。如果有任何不清楚的地方,它默认回退到人类审查。人工智能只处理呈现给它的信息,不生成新内容,只是给出简单的建议,发生的可能性hallucinations(幻觉,指模型生成不基于实际数据或与现实显著不同的内容的现象。)也最小化了。

Burns(伯恩斯)说:到目前为止,还没有出现人工智能建议订单向下游推进而人类员工不同意的情况。更有可能的情况是,人工智能暂停订单以供人工审查,而人类说可以继续进行。我们发现可靠性比最初预期的更高,甚至正在考虑如何让人工智能放松一点,对文件的审查不要那么严格。

Connection接下来计划在十几个其他类似的内部用例中部署生成式人工智能,以及帮助代码生成、写信和会议总结。潜在的生产力提升是显著的,我们需要探索这一点,”Burns(伯恩斯)说。

但鉴于额外的风险,Connection目前还没有在面向客户的人工智能上努力当涉及到人工智能时,风险承受力真的是当务之急,”他说,“我们认识到有巨大的潜力,但我们的首要任务是我们的客户、他们的数据和安全,以及提供卓越的成果。技术将随着时间的推移而发展,我们也会随之发展。

二、让人类参与其中

拥有约5万名员工的业务流程外包商TaskUs(提供数字外包服务。它提供客户体验、后台支持和咨询解决方案。它为社交媒体、电子商务、游戏、流媒体、送餐和拼车提供服务。TaskUsBryce MaddockJaspar Weir2008年创立,总部位于加利福尼亚州圣莫尼卡。)也将生成式人工智能限制在公司内部。但它也专注于有人类在场以发现任何问题的用例。

“我们不希望人工智能随意自行其是。”TaskUs的首席信息官Chandra Venkataramani(钱德拉·文卡塔拉马尼)说。

该公司构建了一个名为TaskGPT(是一款由TaskUs公司推出的应用程序,旨在为客户提供客户服务。其利用生成式人工智能技术,为客户提供自动化客户服务解决方案。它还与TaskUsTaskVerse集成,这是一个在“零工经济”中寻找人才的通用平台。)的内部平台,帮助其员工支持客户,并已经看到效率提高了15%35%人工智能也开始用于内部自动化和其他提高生产力的方面。

Venkataramani(文卡塔拉马尼)说,加拿大航空公司的例子——他们的聊天机器人向客户承诺了一个折扣,公司拒绝了但后来被迫兑现——是一个警示性的例子,说明了为什么面向公众的人工智能如此危险。相反,这些工具被用来帮助人们提出建议和推荐。

这样,团队成员可以控制它,”他说,“他们可以说,这听起来不对。我不会把它发给我的客户。人类的干预非常重要。”因此,他正在推动内部团队更多地使用它,但只是为了提高他们的效率。“我们正在推动我们的客户采用它,但我们不会鲁莽地使用它,”他补充说,“如果我们能得到20%的改进并且100%安全,或者30%或40%的改进并且不安全,我们会选择20%的改进和安全。安全和保障是我们的头号关注。

事实上,许多人工智能问题可以通过人类监督来避免。会出现幻觉,”Champlain College(是一家位于佛蒙特州伯灵顿市的私立学院,成立于1878年。该学院提供独特的创业精神、专注的职业培养和享有盛誉的核心课程,融合了关注个人的传统,创造出了独一无二的教育模式。学院提供多种专业课程,其中最热门的专业包括商业、游戏设计和酒店管理。学院的课程设置注重专业培养,学生从大学一年级开始就可以接触专业课,这种“倒置课程”的设置能够使学生对所学知识进行更深入的理解,并比其他学校的同龄人更早地进入实习阶段。在线运营副总裁Christa Montagnino(克里斯塔·蒙塔尼诺)说,“人工智能被训练来取悦我们,它并不一定都是准确的。该学院一直在使用生成式人工智能来帮助教学设计师和主题专家创建在线课程。她说,在过去,这个过程很麻烦。教职员工不一定接受过教学设计方面的培训,他们与教学设计师配对。一门为期七周的课程过去需要大约15周才能创建,但有了生成式人工智能,时间框架缩短了一半。

不过,人类因素仍然是流程的关键部分。我们现在从生成式人工智能开始,然后引入主题专家与教学设计师合作,”她说,“他们是这些信息的编辑;他们引入对学生有意义的内容以及需要包含的其他资源。

她说,加入人工智能还减少了一些常规的行政任务和负担,使教职员工能够有更多时间与学生在一起。

然而,帮助公司处理工作场所伤害的Company Nurse(是一家专注于医疗保健领域的公司,致力于通过技术创新提高医疗服务的质量和效率,以满足不断变化的医疗保健需求。)却以艰难的方式学到了教训。该公司使用人工智能自动化了其质量保证流程,为客户组织的员工提供医疗建议的护士立即收到了关于他们在这些电话中做错了什么的反馈。

我们认为,如果我们能给员工更多关于他们做错了什么的反馈,他们会犯更少的错误,该公司的首席技术官Henry Svendblad(亨利·斯文布拉德)说。相反,护士们开始辞职。离职率从百分之十几上升到百分之三十多。其中一些与疫情的开始和the great resignation(大辞职,2021年,美国德克萨斯农工大学管理学副教授安东尼·克洛茨/Anthony Klotz最先提出了这个词,用以描述新冠疫情期间某些行业发生的大规模工人辞职现象。)有关,但部分原因是员工很快就收到了如此多的负面反馈。

我们的工作人员响亮地告诉我们,告诉他们在每一次互动中犯的每一个错误,并没有带来积极的工作满意度,他说,“我们看到了给新员工发送设备的情况,而当他们收到设备时,他们已经不想干这份工作了。这在以前从未发生过。

为了解决这个问题,TaskUs让人类员工重新参与进来,聘请了一位人类发展经理,并开始更多地关注护士们所做的积极方面,而不仅仅是消极方面。而且我们肯定在自动化质量保证方面放缓了脚步。”他说。

【睿观:公司原本以为多给员工反馈能减少错误,结果适得其反,员工纷纷辞职。CTO(首席技术官)Henry认为,如果多告诉员工哪里做错了,他们就会犯更少的错误。于是公司就开始频繁地给员工反馈,尤其是新员工,甚至在他们刚入职时就指出很多问题。

但没想到,这种做法却导致了严重的后果:

  • 员工满意度大幅下降: 员工们觉得被频繁批评,工作压力很大,对工作失去了热情。

  • 离职率飙升: 很多员工,尤其是护士,都选择了辞职。

  • 新员工流失严重: 甚至有些新员工在收到公司设备的时候就已经打定主意要离职了。

公司意识到问题后,开始进行调整:

  • 重新重视员工: 公司聘请了一位专门负责员工发展的人,开始关注员工的优点,而不是一味地挑毛病。

  • 减少自动化: 公司放慢了自动化质量保证的步伐,也就是减少了系统自动给员工反馈的频率。

总结来说, 这家公司原本想通过严厉的反馈来提高员工的工作质量,结果却适得其反,导致员工大量流失。后来公司意识到,过多的负面反馈会打击员工的积极性,因此调整了策略,开始重视员工的感受和发展。

这个故事告诉我们:

  • 员工不是机器,他们需要被尊重和肯定。

  • 过多的批评会打击员工的自信心,降低工作效率。

  • 有效的管理应该关注员工的成长,而不是仅仅关注错误。】

三、避免敏感信息

ChamplainMontagnino(蒙塔尼诺)表示,学院愿意使用生成式人工智能来帮助开发课程内容或营销材料,因为这并不涉及让人工智能访问敏感信息。

但在处理涉及学生数据的项目时,情况并非如此,她说,所以这类举措将在以后进行。她补充道:我觉得我们现在拥有的最佳机会就在于产品开发和吸引未来的学生方面。

临床试验公司Fortrea是一家后期合同研究组织/CRO,提供全面的I期到IV期临床试验管理、临床药理学和患者访问解决方案。‌公司与新兴大型生物制药、医疗器械和诊断公司合作,作为功能服务提供商和全方位服务提供商来运行它们的临床试验,并提供混合试验。成立于2023年,由LabCorp剥离其临床开发业务后成为一家独立的公开上市公司。公司在90个国家拥有19,000名员工,并在全球范围内提供临床开发解决方案,服务足迹遍布90多个国家。)最近从LabCorp(徕博科,是一家全球领先的生命科学公司,提供创新和全面的实验室服务,帮助医生、医院、制药公司、研究者和患者做出明确和有信心的决策。公司总部位于美国北卡罗来纳州的伯灵顿,在全球拥有65,000多名员工,服务的客户遍布100多个国家和地区。公司参与研发了2022FDA批准的超过80%的新药,并为全球患者开展了超过6亿次检测。公司通过其国家主要临床实验室和专业测试实验室网络提供尖端的医学实验室测试和服务,面向医生及其病人、医院和管理医疗计划、私人雇主、军事和执法机构以及制药和生物技术公司。公司业务遍布全球,拥有精湛的研发能力和强大的人才资源,奠定了其在医药研发行业的领先地位。分拆出来,也非常谨慎地选择提供最少隐私风险的项目。我们有一个巨大的机会将临床试验提升到一个新的水平,首席信息官Alejandro Galindo(亚历杭德罗・加林多)说,“我们最近启动了一个机器学习和人工智能工作室——一个我们用来推动创新的领域。

例如,Fortrea正在为其技术栈部署微软的Copilot(是微软在Windows 11中加入的AI助手,该AI助手是一个集成了在操作系统中的侧边栏工具,可以帮助用户完成各种任务。)助手。它开始像野火一样蔓延,因为我们在组织中取得了一些有趣的结果,他说,“这是我们带给组织的智能层。

该公司在收集提案请求信息所需的时间上已经减少了 30%这给了我们极大的生产力,他说,“而且产品的质量比过去有了实质性的提高。他说这是因为人工智能从多个孤立的来源获取信息。但是,作为一家医疗保健组织,Fortrea在部署技术时也必须非常小心,以避免任何合规问题。

我们必须在创新速度与合规性和安全性之间取得平衡,他说,“我们是快速跟随者。”例如,临床试验非常费纸,他说。当临床研究助理去现场时,有很多信息可以收集。但该公司在选择人工智能首先处理的信息时非常有选择性。

我们需要从隐私部门那里获得许可,以确保我们正在构建的一切都将符合合规,”他说,“我的首席安全主管在我们的选择中有很大的发言权。

例如,能够帮助扫描文档并带有过滤器以确保患者信息不会意外泄露的技术可能会在未来部署。但在目前,当涉及到临床试验现场访问方面,该公司首先关注非敏感类型的信息,例如正在使用的物理设备。

我们可以拍摄冰箱的照片,并扫描维护完成的时间,以及它设定的温度,”他说,“我们想确保设施中所有正确的条件都到位。

四、花时间好基础

除了不适宜的AI公众服务、失去客户或员工,或法律和合规责任之外,过快采用生成式人工智能还有其他更技术性的风险。

例如,在推出人工智能之前没有做好适当基础工作的公司可能没有正确的数据基础或适当的防护措施,或者他们可能过快地将所有信任都放在一个供应商身上。

有很多风险,组织可能会锁定自己多年的支出或承诺,而一两年后可能会发现有更便宜、更好的做事方法,”EY(安永,成立于1989年,是一家总部位于英国伦敦的跨国性专业服务公司,全称是安永会计师事务所,为国际四大会计师事务所之一。)美洲生成式人工智能负责人David Guarrera(大卫·瓜雷拉)说。还有一些组织在没有考虑其企业范围技术战略的情况下就跳入人工智能领域。

“在很多地方发生的情况是,组织正在推出数十个或数百个原型,”他说,“他们可能有一个由技术部门制作的合同分析器,还有一个由首席财务官办公室制作的单独的合同分析器,而且他们甚至可能都不知道彼此。我们可能会有大量的原型被启动但无处可去,所以它们就消亡了。”

然后还有浪费金钱的问题。假设一个组织有FOMO,在没有询问是否真的需要的情况下就购买了一堆图形处理器,”他说,“存在这样的风险,在这里的投资可能会占用你在数据领域实际需要的资源。也许你真正需要的是更多的数据治理或数据清洗。

急于推出试点项目并做出仓促的支出决定是由每个人的恐慌以及希望尽快掌握生成式人工智能所驱动的。但是有一些方法可以处理这种技术,以最大限度地减少未来的遗憾,他补充说。

快速行动,打破常规”可能是一个小型初创公司的好口号,但对较大的组织不起作用。你不想把你的数十亿美元和你的市场置于风险之中,”Guarrera说(瓜雷拉)。

作者:Maria Korolov(玛丽亚·科洛洛夫)


Maria Korolov(玛丽亚·科洛洛夫)是一位报道人工智能和网络安全的获奖科技记者。她还写科幻小说,编辑一本科幻和幻想杂志,并主持一个YouTube节目。

译者:宝蓝

【睿观:生成式人工智能:一把双刃剑

想象一下,你有一把神奇的锤子,它能帮你快速盖房子。你迫不及待地想用它,但又担心敲歪了钉子。这就是公司对待生成式人工智能的态度。

为什么大家这么兴奋?

  • 效率提升: 生成式人工智能就像一个超级能干的助手,能帮你快速完成很多工作,比如写报告、分析数据、甚至创作艺术。

  • 竞争压力: 如果大家都用上了这把锤子,你不跟上就会被落下。

为什么大家又这么谨慎?

  • 风险重重: 生成式人工智能很强大,但它也可能出错,比如给出错误的信息、产生歧视性的内容,甚至泄露隐私。

  • 成本高昂: 购买和维护这把锤子需要不少钱,而且你还要花时间学习怎么用它。

  • 伦理问题: 生成式人工智能可能会带来一些伦理问题,比如失业、虚假信息。

聪明公司怎么做?

聪明的公司就像在玩游戏,他们一边小心翼翼地探索,一边不断学习。

  • 内部使用: 他们先把这把锤子用在内部,比如自动化一些流程,提高工作效率。

  • 逐步推广: 他们不会一下子把锤子给所有人,而是先给一小部分人使用,看看效果如何。

  • 人工干预: 他们让员工和人工智能一起工作,人类负责监督和纠错。

  • 关注隐私: 他们特别注意保护用户的数据隐私。

总结

这个故事告诉我们:

  • 新技术既是机遇也是挑战。

  • 谨慎探索,才能找到最佳路径。

  • 人类的智慧和经验仍然不可替代。】