长期以来,我们一直把所有的新兴技术都视为一种进步。如今,除非数字化领导者开始复盘检讨,否则这种迷信新兴技术的想法可能会给企业造成伤害。
图源:JACOB LUND(图片上传者,可以译为用户JACOB LUND,或者JACOB LUND) / SHUTTERSTOCK
作为首席信息官和技术领导者,我们几乎总是扮演着技术传播者的角色,将主流或新兴技术带入组织中,以实现商业价值。
在与同行的合作中,我们保持充分的商业意识,能够仔细权衡创新和风险,以获得有价值的投资回报,同时保护组织避免与项目相关的各种形式风险。
多年来,这对我们很有帮助,但由于(新兴)技术的采用率、应用规模和影响力的提高,现在是提高风险管理意识的时候了,包括研发和创新相关新兴技术应用项目。这不是一个成为Luddite(勒德分子,又称卢德分子,是19世纪英国工业革命时期,因为机器代替了人力而失业的技术工人。现在引申为持有反机械化以及反自动化观点的人。)或技术反对者的呼吁,而是一个提示新兴技术可能带给组织风险的警讯,可以增强您的风险管理意识——尤其是与变革性新兴技术相关的意识——并在开(应用)绿灯之前提出更难的问题。
今天的生成式人工智能与以往的数字化应用有什么新的和不同的呢?
新兴技术总会产生积极或消极的影响。今天的不同之处在于,我们看到越来越大胆的雄心,以及技术迅速的采用和广泛的影响。随着技术采用曲线在几个月甚至几天内达到数亿的规模——ChatGPT在两个月后获得了超过1亿的月活跃用户,(Chat Generative Pre-trained Transformer,是人工智能技术驱动的自然语言处理工具,它能够通过理解和学习人类的语言来进行对话,还能根据聊天的上下文进行互动,真正像人类一样来聊天交流,甚至能完成撰写邮件、视频脚本、文案、翻译、代码,写论文等任务)然后Threads(Facebook 母公司 Meta 推出对标 X,即原推特的全新社交应用。)在短短五天内就以1亿的用户超过了它——在被完全理解之前它以创纪录的应用部署速度来到全球受众面前。
人工智能才刚刚起步,现在我们需要提出一些尖锐的问题。Thinkers360(是面向B2B思想领袖、分析师和影响者的世界顶级B2B服务市场和社区。)的《AI Trust Index 2023/人工智能信任指数2023》衡量了人工智能终端用户和人工智能提供商的年度观点,发现超过75%的受访者对人工智能应用的信任度感到担忧或非常担忧。最终,问题是我们信任哪些组织来推进这项技术,我们信任他们为我们做什么,以及我们如何监管其使用,以尽可能快速、安全地进行创新。
当然,其中一些考虑因素涉及国家和全球影响,但随着创新开始影响您的组织,您也要对利益相关者和最终用户负责。以下四个步骤可能有助于您的计划,以及您如何有效提出新兴技术应用的预算和方案。
一、从您的核心价值观开始
组织的核心价值观阐明了组织对自身和所有员工的期望行为,也建立行动指南并明确什么是不该做的行为。Google(谷歌公司,美国跨国科技企业。成立于1998年9月4日,被公认为全球最大的搜索引擎公司。业务包括互联网搜索、云计算、广告技术等,同时开发并提供大量基于互联网的产品与服务,其主要利润来自于关键词广告等服务。)的“Don't be evil/不要做恶”改为“Do the right thing/做正确的事情”(做正确的事——遵守法律、行为端正,相互尊重),旨在为混沌中创新的组织提供指引。
这是一个起点,但我们也需要审查每一项拟议的未来行动和倡议,无论是内部还是外部,以探索每一个良好的意图可能带来的结果。常见的建议是,从规模较小、复杂性较低、风险较低的项目开始,为采取更大、更有影响力的举措积累经验。你也可以借鉴Amazon(亚马逊公司,简称亚马逊,网络电子商务公司。是美国最大的一家网络电子商务公司,位于华盛顿州的西雅图。是网络上最早开始经营电子商务的公司之一,亚马逊成立于1994年,一开始只经营网络的书籍销售业务,现在则扩及了范围相当广的其他产品,已成为全球商品品种最多的网上零售商和全球第二大互联网企业,在公司名下,也包括了AlexaInternet、a9、lab126、和Internet Movie Database/互联网电影数据库,IMDB等子公司。亚马逊及其它销售商为客户提供数百万种独特的全新、翻新及二手商品,如图书、影视、音乐和游戏、数码下载、电子和电脑、家居园艺用品、玩具、婴幼儿用品、食品、服饰、鞋类和珠宝、健康和个人护理用品、体育及户外用品、玩具、汽车及工业产品等。)的技术,询问某个决策或行动是否可以退回(可逆)。如果是可退回的,那么风险显然更小。
二、质疑变革技术
这意味着超越与项目相关的典型业务和技术问题,在需要的时候,还要提出法律和伦理问题。虽然创新经常因内部政治而受到非生产性的抵制,例如,这里Not Invented Here Syndrome(译:非此创造,NIH综合症,指的是社会、公司和组织中的一种文化现象,人们不愿意使用、购买或者接受某种产品、研究成果或者知识,不是出于技术或者法律等因素,而只是因为它源自其他地方。在国家范围内的NIH综合征是民族主义的一种形式,比如中国历史上曾经出现的抵制日货运动。),但一种自然的讨论也提出了一些探索性的问题,比如人工智能可能产生错误的影响是什么?什么程度的谨慎试点或真实世界的测试可以帮助解决未知问题同时降低风险?当涉及到网络安全、社会公平和商业机会时,可接受的风险水平是多少?
Future of Life Institute(生命未来研究所,是2014年由Skype联合创始人让·塔林、麻省理工学院物理学教授马克斯·泰格马克在在内的五位成员创立于美国波士顿的研究机构。成立该研究所的目的一方面是为了促进对“未来乐观图景”的研究,一方面则是为了“降低人类面临的现存风险”。其中,在开发与人类相当的人工智能技术过程中出现的那些风险,将是该所关注的重点。)等非营利组织的工作着眼于人工智能和生物技术等变革性技术,其目的是引导其造福生命,远离极端大规模风险。这些组织可以成为提高人们对当前风险认识的宝贵资源。
三、在组织层面建立护栏
虽然护栏可能不适用于全球人工智能军事军备竞赛,但在特定的用例和行业中,它们可能在更微观的层面上更有益。负责任的采购实践、指导方针、有针对性的建议和监管举措为形式的护栏已广泛存在。立法机构也在加强对最近欧盟《AI Act/人工智能法案》提案研究,以针对不同的风险水平提出不同的规则,目的是在今年年底前达成协议。
组织层面的一个简单护栏是制定自己的企业应用政策,并酌情签署各种行业协议。对于人工智能和其他领域,企业应用政策可以帮助教育用户了解潜在的风险领域,从而管理风险,同时仍然鼓励创新。
四、持续改进您的风险治理
随着技术的快速发展,重要的是要不断监测创新和风险方面的发展,并进行相应的调整。这意味着要根据需要进行调整,甚至取消产生重大风险或担忧的项目。例如,Google(谷歌公司)由于各种日益严重的隐私担忧,在消费者市场仅8个月就撤下了谷歌眼镜产品。不过,在十多年后,该产品在更有针对性的企业场景中赢得了商机。
随着越来越多的组织接受像人工智能这样的变革性技术,在创新风险等的安全和风险治理方面投入更多时间和精力,以平衡技术不断增长的力量,显得至关重要。
用Future of Life Institute(生命未来研究所)的话来说,“只有当我们能够赢得日益强大的人工智能技术力量与我们设计和管理AI的智慧之间的竞赛时,文明才会繁荣。有了人工智能,赢得这场竞赛的最佳方式不是阻碍前者,而是通过支持人工智能安全研究和风险治理来加速后者(文明的繁荣)。”
有时您必须放慢速度才能行稳致远。
作者:Nicholas D. Evans(尼古拉斯·D·埃文斯)
Nicholas D. Evans(尼古拉斯·D·埃文斯)是全国性设计和专业服务公司WGI(WGI是一家国家级设计和专业服务公司,在公共基础设施建设和房地产开发的技术解决方案方面处于领先地位。)的首席创新主管。他是Thinkers360的创始人,Thinkers360是全球首屈一指的B2B思想领袖和影响者市场,也是Innovators360的创始人。