你好,欢迎您来到福建信息主管(CIO)网! 设为首页|加入收藏|会员中心
您现在的位置:>> 新闻资讯 >>
睿观:大多数CIO并不需要按部就班的AI计划
作者:CIO.com&睿信咨询 来源:CIOCDO 发布时间:2024年02月22日 点击数:

编者荐语:

对于你的人工智能战略,忘掉“计划”这一部分。自由漫步可能会为您服务得更好。AI战略不应该过度规划,而是应该实验和学习。尽管高层建议一系列标准化的AI战略步骤,但我们建议:从小处开始,做实验,不过度重视ROI,而是关注有效性和人性结合的AI。


以下文章来源于CIOCDO ,作者CIO.com&睿信咨询


对于你的人工智能战略,忘掉“计划”这一部分。自由漫步可能会为您服务得更好。AI战略不应该过度规划,而是应该实验和学习。尽管高层建议一系列标准化的AI战略步骤,但Dr. Yeahbut建议反其道而行之:从小处开始,做实验,不过度重视ROI,而是关注有效性和人性结合的AI。还强调了组织文化是和AI部署一起演化的,而且伦理应该保持与过往一致,而不是对AI设定新的框架。


来源:BalanceformCreative / Shutterstock

有时了解历史(也就是“记得发生了什么”)可以让你避免麻烦。在AI的推出中,一个可以借鉴的范例正是人工智能。为了成功实现AI,你的推出可能会从使用后视镜中受益。


例如,看看IT的战略计划过程是如何为在整个企业顺利部署个人电脑铺平道路的。


哦,没错。它没有。IT坚定不移地忽视了这项新技术。令人惊讶的是,是商业用户,尤其是会计和财务分析师领先,他们引入了个人电脑和电子表格,而IT转过头去别处看。


几年后,因特网出现了。许多IT商店认为这超出了他们的范围。所以没有人注意到一群独立的爱好者和营销部门的叛逆者们发现学习HTML相当简单。


接下来大家知道的是,整个世界广泛的网络上充满了宣传册,而这些宣传册实际上正在产生业务。营销敲打IT的门,IT弄清楚如何将基于网络的订单输入公司的订单处理系统,宣传册让位于电子商务。


而现在,我们正面临下一个浪潮。


AI及其不断爆炸的能力组合。专家们告诉我们要从计划开始。


是的,但根据PC和互联网的无计划成功,一个AI应用计划正是我们不应该浪费时间的东西。


因此,我请Dr. Yeahbut对一些专家关于如何定义、构建和执行AI计划的建议进行了批评:


一、专家1号说:“确定你需要人工智能解决的问题。”


Dr. Yeahbut说:你还没有足够的了解去做这件事。你应该做的是选一个广泛的问题类别来指导人工智能的应用——范围要足够广,以便选择一个有前景的人工智能工具来开始工作。


睿观:要是把问题比作建筑工地上的一栋房子,专家1号的建议就像是在说,在你动手建造之前,你需要确定要建造的是哪种类型的房子。而Dr. Yeahbut则认为,你可能还不了解足够多的建筑知识和工艺技能来决定具体建造细节。他建议的是,先决定是想建造住宅、商业大楼或者其他某种大类的建筑,这样的范围足够宽泛,能让你选择一种有潜力的建筑工具或方法,开始动工并逐步深入了解并细化你的建设计划。简而言之,专家1号强调精确定义问题,而Dr. Yeahbut更建议聚焦问题的广泛类别,并通过实践学习进一步细化目标。


二、专家2号说:“从小处着手。”


Dr. Yeahbut说:“啊,我本想说那个的!是的,从小处着手。然后迭代。”


睿观:用种植树木来比喻,如果我们的目标是造一个庞大的森林,那么专家2号的建议就像是说,不要一开始就试图种下整个森林,而是应先种一棵小树苗。Dr. Yeahbut 表明他也想提出这样的建议,并强调在种下小树苗之后,要不断地照料和调整(迭代),让树苗成长为茂盛的树木,然后重复这个过程,最终形成一个繁茂的森林。也就是说,他们都赞同以小规模项目开始,然后通过不断尝试和改进,逐步扩大规模和影响力。


三、专家3号说:“利用人工智能帮助做出基于数据的决策。”


Dr. Yeahbut说:“‘帮助’这个词稍微挽救了这个建议,但仅仅是挽救了一点点。可解释的人工智能还处于初期阶段,直到AI能够回答后续问题——‘你为什么这么认为?’——并且能够避免陷入众所周知且通常被忽略的谬误,比如误把相关性当作因果关系以及平均值回归现象,否则对你的AI得出的结论持怀疑态度。”


睿观:想象我们在用一个高科技的罗盘来导航,这个罗盘就是人工智能。专家3号的意思就是要用这个罗盘来帮助我们制定路径,以便我们可以根据海上的风浪和天气数据来调整航向。


Dr. Yeahbut则相当于在警告我们,虽然这个罗盘可以指示方向,但它还不够聪明,不能告诉我们为什么要走某个方向,或者它是否考虑到了所有可能影响航行的因素。就像我们不能仅仅因为看到了风向就认定它会一直持续下去一样,我们不能仅仅依赖于人工智能目前的判断。Dr. Yeahbut让我们对人工智能得出的方向持谨慎态度,直到它能够不仅指出方向,而且能够解释为什么这条路是正确的,确保我们不会仅因为几个相互关联的数据点就做出错误的判断。


四、专家4号说:“通过用人工智能增强人类工作来开始。”


Dr. Yeahbut说:“我可以支持这个建议,并且还能增强它。关于人工智能,组织将面临一个选择,要么将人类降级为照顾和喂养组织的AI的工作,要么是AI增强人类能力。人工智能可能导致两种截然不同的商业文化——一种是去人性化的,另一种是赋能的。”


睿观:专家4号的建议就像是在建议一个机器人助手加入到厨师的团队里来帮忙,来加速准备食物和处理重复任务,而不是让机器人完全接管厨房。


Dr. Yeahbut进一步解释说,机器人的加入就像是站在一个岔路口,我们可以选择不同的道路。一条路可能将厨师降级成为仅仅监督和维护机器的角色,这样可能会使他们失去烹饪的乐趣和人性的触摸。另一条路允许厨师利用机器人来做辅助工作,从而释放他们的时间和精力,创造更加美味和创意的菜肴,从而提升他们的技能和客人的就餐体验。这是关于是否让技术变得去人性化还是赋能人性的选择,决定着将来的工作环境是剥夺还是提升我们的人性。


五、专家5号说:“根据每个部门制定计划。”


Dr. Yeahbut说:“不,我不这么认为。组织通过创建一个跨职能的人工智能智囊团,其成员尝试各种东西并相互分享,将会获得更多收益。重塑公司的组织结构图来组织公司的人工智能努力,将会鼓励基于孤岛的功能障碍而不是别的。”


睿观:想象一家公司就像一栋大房子,而每个部门相当于房子里的一个单独的房间。专家5号的建议就像是给每个房间的住户独立计划他们自己的装修,这样可能会造成每个房间风格迥异,整体上看不协调。


Dr. Yeahbut则提出了一个不同的方案,他建议该公司不应该单独地逐个房间装修,相反,应该成立一个携带各种装修工具的小组,这个小组由来自不同房间的代表组成,他们一起在整个房子里尝试各种装修方法,并且分享他们的发现和创意。这样,不仅能确保整栋房子的装修风格保持一致和谐,还能促使任何一个房间的好点子都能及时分享给其他房间,从而避免形成各自为战的孤岛,提升房子装修的整体效率和效果。


六、专家6号说:“考虑人工智能如何能提高生产效率。”


Dr. Yeahbut说:“不,不,不,不,不!考虑人工智能如何能提高效能。”


效率是效能的一个子集。它适用于流水线。人工智能增强的人类(如上所述)是关于更好地运用人类的知识和判断力来应对我们自己无法完全解决的复杂挑战。不管是在流水线上工作还是被数据包围的办公桌旁工作,人工智能增强的人类都能更有效率。


睿观:专家6号的意见是像一个教练建议运动员只关注跑步机上的速度一样,而Dr. Yeahbut则像另一个教练,他不仅仅考虑速度,而是更关心运动员参赛时的整体表现。


Dr. Yeahbut的观点是,不要只盯着跑步机的数字,这就像只看工作的数量而忽略了质量。他认为人工智能应该像一个高科技的训练器材,不仅帮助提高运动量(生产效率),而且提高运动质量(效能)。这就像一个运动员使用最新科技来分析自己的身体表现,并通过精确的反馈来优化他的训练,从而在比赛中表现得更好,不仅仅是跑得更快,而是跑得更聪明。


在工作场所,这意味着使用人工智能来辅助人类处理更复杂的问题,而不仅仅是加快工作进度。AI辅助下的工作人员可以更好地利用他们的知识和判断力,即使是那些围绕着大量数据的工作,也能做出更有效的决策,并非仅仅是做得更多更快。


七、专家7号说:“专注于消除瓶颈。”


Dr. Yeahbut说:“嗯,好的,也许吧。回到最开始,首先确定你希望人工智能解决的问题类别。如果当前状态的流程存在瓶颈,而你需要的是流程优化,那就去做吧。鸡,见蛋。”


睿观:想象一条水管,水流在通过的时候遇到了一个狭窄的地方,这就是瓶颈。水流量突然减小,因为水都挤在一起过不去了。在工作流程中,瓶颈就是那些导致工作进度减慢的拥堵点。


专家7号建议要找出这些拥堵点并消除它们,让整个工作流程变得更加顺畅。Dr. Yeahbut赞同这一点,但他提出了一个前置问题。他像是在说:“在你急着去解决瓶颈问题之前,先按暂停键,想想你究竟想要人工智能帮你解决什么问题。如果你的流程确实有瓶颈,而你需要的是流程优化,那么去解决它是对的。”这里他用了“鸡,见蛋”的比喻,意味着在问题和解决方案之间,哪个先来的问题就像是“先有鸡还是先有蛋”的经典问题一样,没有绝对的答案。重要的是理解问题本身,然后解决它;这样,不管是先有的鸡还是先有的蛋,最后问题都能得到解决。


八、专家8号说:“确保计划中包含了安全控制措施。”


Dr. Yeahbut说:“说‘安全控制措施’是简单的。但是弄清楚如何以及在哪里部署基于人工智能的对策来应对基于人工智能的威胁?这将难上一个数量级。”


然后我们的专家补充说:“利用人工智能的力量在于能够移交一定级别的控制权,允许高级学习技术发现模式并在没有人类监督的情况下做出决策。”这已经超出了鲁莽。我们还远未准备好去使用无监督的人工智能,更不用说它很容易变成的“有意愿的人工智能”。


睿观:想象有人提议给一群孩子一整间玩具屋,而这里的“安全控制措施”就好比确保所有玩具都是安全合格的,房间的插座都配有保护盖,门窗有防护栏。专家8号的建议就是要确保我们打扫好家里,把所有潜在的风险都锁在门外。


但是Dr. Yeahbut像是房子外面的警长,他提醒我们并不仅仅是要确保门锁好。我们还需要制定计划,应对一些孩子可能做出的小淘气行为,比如将玩具变成梯子去摸高处的东西。在AI的情况下,这意味着我们需要预测和准备针对AI可能引发的威胁的战略,这不仅比建立初步安全措施要困难得多,而且更为复杂。


接下来,当我们的专家提到“移交控制权”和“无监督AI”时,他实际上是在说,给AI这些权力就像是让孩子们自己照顾自己,没有大人在场来看着他们。在现实生活中,我们不会让孩子们在没有成年人监督的情况下自由活动。同样地,Dr. Yeahbut表达的担忧是,我们现在还没有准备好让AI在没有我们监督的情况下自行运作,因为我们无法预测AI将如何应对某些情况,尤其是当它开始变得像具有自己意志似的时候。这就像让无人监管的“聪明”的孩子去操作一整个玩具屋,而我们还没有确保他们能安全地这么做。


九、专家9号说:“找一个容易解决的问题(以及容易解决它的方法)。”


Dr. Yeahbut说:“参见上文的‘从小处着手’。”


睿观:设想你是一个想要整理一个杂乱无章的房间的人。专家9号给了你一个小贴士:先找一个简单的任务来开始,比如先整理桌子上的东西,而不是试图一次性打理整个房间。基本上,就是挑一个小而易于解决的问题,这样你可以很快地看到成果,而且会感到振奋,这样就为处理更复杂的任务奠定了基础。


Dr. Yeahbut说“参见上文的‘从小处着手’”时,他是在提醒你,先前已有类似的建议,意思是在处理大问题前先处理些小问题,这样可以慢慢地建立信心和能力,一步一步地向处理更大和更复杂问题迈进。用一个更形象的比喻来说,这就像学骑自行车-你开始时会用带辅助轮的自行车,直到你有足够的信心和平衡感去尝试两轮骑行。通过小步骤去实现更大的目标,每次成功可以帮助你建立信心,为下一个挑战做好准备。


十、专家10号说:“利用‘群体的智慧’。”


Dr. Yeahbut说:“这条建议的完整内容是建议利用你的员工、合作伙伴、供应商以及其他人所知道的东西。是的,我同意。去做这件事,而且要一直做。”


这与人工智能毫无关系,但还是要去做。


睿观:想象一下,你是一位建筑师,试图设计一栋既美观又实用的新大楼。专家10号的建议就像是提醒你,不要只依靠你自己的知识和直觉,而是应该去问问工地上的工人、使用将来大楼的人,甚至是材料供应商他们的意见。这就是所谓的“群体的智慧”,通过汇集大量人的见识、经验和洞察,你可能会获得一些你独自工作时根本想不到的想法和解决方案。


Dr. Yeahbut补充说,虽然这个做法和人工智能没有直接联系,但这种集思广益的方法是非常有价值的,应该持续不断地去做。这像是在说,即使在这个数字化、高科技的世界里,人类的知识和经验仍然是无价的资源。求助于周围的人,并利用那些经验丰富老司机”的智慧,可能会为你的项目带来你从未想象过的收获和改进。这种多元化的观点聚集一起,就像为那栋大楼添加了许多不同的窗户,每扇窗户都提供了不同的视角和光线,使得整个结构更加丰富和完善。


十一、专家11号说:“首先解决公司文化中需要改变的部分。”


Dr. Yeahbut说:“如果你能做到这一点会很好。但你做不到。文化是‘我们在这里是如何做事的’。这意味着由人工智能驱动的文化变革只能与人工智能的部署同时发展。它不能先行,因为,它怎么能先行呢?”


睿观:假设你的公司是一艘大船,而公司文化是指船上的航行规则和习惯。专家11号建议的是,在这艘大船启航前,先确认并调整这些规则和习惯,以确保船只能够顺利航行。


然而,Dr. Yeahbut指出了一个现实问题:就好比你无法在不了解新船只特性的情况下,预先完全规划好如何航行。随着人工智能技术在船上的安装和使用,船的运行方式将会改变,因而航行规则和习惯也需要适应性地变化。因此,真正的文化变革往往是在人工智能技术逐步融入公司运作的过程中,与之同步发生的。


形象地说,你无法事先完全计划好如何驾驭一头你从未骑过的马。你需要登上马背,随着时间了解它的步伐和习性,然后调整你的骑术和指挥方式。人工智能部署的过程可以看作是你与“技术坐骑”共舞的过程,你需要随着彼此的适应过程,逐渐形成一种全新的“骑术文化”。


十二、专家12号说:“确保每个预期的用例都有价值。”


Dr. Yeahbut说:“不,不要这么做。为了实现这一点,你需要建立一个监管机构,这个机构对主题的了解比我们之前介绍的跨职能团队(见上文;部门人工智能)还要少。这是一个糟糕透顶的解决方案,比问题本身还要糟糕。”


睿观:将公司的项目想象成饭店里的菜品。专家12号建议像菜单设计者一样对每一道菜品进行评估,确保它们全部都对顾客有吸引力,即每个人工智能的使用场景都能带来价值。


然而,Dr. Yeahbut则认为,这种做法就像是为了确保菜单上每一道菜都是上乘选择,你决定成立一个食品品质监督团队,但这个团队对食品的了解还没有厨师和服务员多。最终,过度的监管可能会导致决策流程变得繁复缓慢,扼杀创新和效率,好比多加的调料破坏了原本美味的菜肴。


换言之,Dr. Yeahbut建议应该相信那些直接参与项目的跨职能团队,而不是通过额外的监管和层级来确保每个使用场景都具有价值。因为额外的监管层可能会因为缺乏直接参与和具体知识,而阻碍了项目的进展和优化,就像一个不了解菜肴的品酒师试图负责调味,可能会使原本美妙的食物失去风味。


十三、专家13号说:“在实施项目之前,概述项目的价值和投资回报率(ROI)。”


Dr. Yeabut说:“不不不不不!不要这么做。或者,至少忽略掉关于投资回报率的部分。坚持财务回报会导致只做战术性努力,产生监管官僚,并且在辩解中花费的时间比实际行动还多。


组织必须通过实践来学习如何成功应用人工智能。如果每个项目都必须在财务上有所说服力,那么只有很小一部分的学习将会实际发生。”


睿观:如果把公司的项目比作种植花园,专家13号建议你在播种前先计算并预测每一朵花的价值和你的投资回报。这就像是计划中的每棵植物都需要先保证它们未来能带来多少果实或观赏价值。


但是,Dr. Yeabut指出这种方法实际上会阻碍花园的整体成长。强调投资回报率就像是在花园每个角落都设立了一个严格的会计师,他们在每棵植物旁盘点它们可能带来的净益。这样会导致专注于短期的、容易衡量的成果,而非长期的、可持续的成长。同时可能会花费太多时间对每个决策进行财务审查,而不是去种植和培育。


同样,Dr. Yeabut强调当涉及到人工智能技术时,组织应该更注重学习和实验,而不是单纯追求立即的财务回报。如果每个项目在开始前都需要证明其经济效益,那么那些可能在未来创造巨大价值但在早期阶段看起来不那么有利可图的AI探索和尝试就会被忽略。这好比你拒绝种植花朵,因为它们起初可能不会开花结果,但实际上它们长期的成长和繁盛可能远远超出你的预期。


十四、专家14号说:“定义你的商业模式并以此为出发点。”


Dr. Yeahbut说:“是的,商业领袖应该知道他们的业务是如何运作的。如果他们不知道,人工智能将是公司面临的最小问题。


睿观:想象一家公司就像一辆车。专家14号的建议就好比是在你决定开车上路之前,你需要了解你的车是如何运作的,它的功能以及它可以带你去哪里。你的商业模式就是车辆的操作手册,告诉你哪个是油门,哪个是刹车,以及如何根据交通规则来驾驶。


Dr. Yeahbut则强调,如果作为司机的商业领袖连基本的驾驶技能都不具备,那么车上是否装有最先进的导航系统(在这里比喻为公司的人工智能技术)并不重要,因为如果连基本的驾驶都做不好,其他所有高级功能都是无关紧要的


在这种情况下,Dr. Yeahbut认为,了解你现有的商业模式并且能够有效运作是最关键的。如果领导层不清楚自身的商业模式和业务运作方式,那么引入人工智能技术可能不会有任何帮助,反而可能会增加更多的复杂性和混乱。简而言之,首先要把车开好,然后再考虑是否要装上最新的技术让它更好地运行。


十五、专家15号说:“制定一种既能带来渐进式变革又能尊重人类因素的策略。”


Dr. Yeahbut说:“渐进式变革?我们已经讨论过这个了。尊重人类因素?听起来不错。我希望这意味着要专注于通过人工智能增强人类。”


睿观:假设公司就像一艘大船,船上的船员代表公司的员工,船长代表公司的决策者。专家15号所说的发展渐进式变革策略,就像船长指导船员们慢慢调整航向,让巨轮一点一点地转向新的方向,而不是一下子进行急剧的转变,这样可以减少船员因变化太快而产生的晕船感。


而谈及尊重人类因素,就好比船长在做出和执行决策时,要考虑船员的舒适度、工作状态,以及他们对这艘船的情感联系。Dr. Yeahbut提到的“通过人工智能增强人类”则像是为船员配备先进的工具和设备,这些技术让船员们的工作更为高效,同时他们的技能也得到提升,让整艘船的性能更强。


这样,就形成了一种平衡,既能不断前进,又能确保所有人都与变革同步,并从新技术中获益,而不是被其边缘化或取代。


十六、专家16号说:“包含使用人工智能的伦理原则。”


Dr. Yeahbut说:“我支持伦理。我不太支持为了人工智能单独制定一个新的、不同的伦理框架。”


想象一下:在网络钓鱼攻击出现之前,盗窃就被认为是不道德的。当有人发明了网络钓鱼攻击之后,盗窃仍然是不道德的。伦理与工具无关。它关乎你决定如何使用这些工具,以及你是如何做出这个决定的。


Dr. Yeahbut是否对这个专家小组太苛刻了呢?可能是这样。但他非常确信一件事:现在人工智能发展还处于初期阶段——如此之早,以至于还没有真正的专家。


【睿观:假想有一个宇宙中的星球,这个星球刚刚发现了一种新的能量——我们称它为“AI能量”。星球上的领袖们知道这种能量很强大,可以用来提升他们文明的生活质量。


专家16号就好比是星球上的一个智者,他提醒说,“在我们开始使用这种新能量之前,让我们确保我们有一套伦理规则来指导我们,这样我们能在不伤害别人的情况下使用它。”


Dr. Yeahbut就像是另一个经验丰富的智者,他认同伦理的重要性,但是他认为,“我们不需要为这种AI能量制定一套全新的规则;我们已有的伦理观念——像是不盗窃、不伤害他人——这些在新能量出现之前有效,现在仍然有效。”


Dr. Yeahbut还指出,“我们正处在学习和探索AI能量的初期阶段,目前还没有真正成为专家的人。我们需要做的是,使用我们已有的伦理知识来指导我们探索这个新世界。”


所以,Dr. Yeahbut认为宇宙伦理是通用的,无论我们使用的是旧工具还是刚发现的AI能量,我们应当保持我们的核心原则不变,并且做出明智、道德的选择。简单来说,无论工具怎样变化,我们的道德指南针应当始终指向“善”。】


睿观综述:

文章主张AI战略不应该过度规划,而是应该实验和学习。高层建议一系列标准化的AI战略步骤,但Dr. Yeahbut建议反其道而行之:从小处开始,做实验,不过度重视ROI,而是关注有效性和人性结合的AI。还强调了组织文化是和AI部署一起演化的,而且伦理应该保持与过往一致,而不是对AI设定新的框架。


想象AI就像是一款新上市的复杂的乐高套装。一些专家告诉你,开始之前你需要一套完整的图纸(计划)。但是历史告诉我们,有时候没有图纸,边建边学(迭代)反而可能更有效。就像早期计算机和互联网的普及,并不是IT部门一开始就有详细计划的结果,而是业务用户和其他部门的积极探索和创新带动的。


Dr. Yeahbut质疑了许多常规的建议,比如定义问题、部门化计划和重视安全性控制等。他认为,应该更加关注于选择一类问题让AI去尝试解冰,从小处着手,通过迭代来逐步改进,并强调AI应该增强人类的能力,而不是仅仅提升生产力。应该避免建立只依赖于财务回报的监管官僚体系,而是通过涵盖多个职能的团队来推动AI项目。


总的来说,就像是建议你不要过度依赖预先的蓝图,而是像打乱拼图一样,让团队自行摆弄乐高块,通过实践、尝试和交流来搭建最终的成品。在这个过程中,安全性、效率、实用性和伦理性是需要考虑的方面,但它们应该在摆弄的过程中自然而然地被纳入,而不是成为刚性的、限制性的计划的一部分。