你好,欢迎您来到福建信息主管(CIO)网! 设为首页|加入收藏|会员中心
您现在的位置:>> 新闻资讯 >>
人工智能(AI)能否兑现其承诺?
作者:CIO&睿观 来源:CIOCDO 发布时间:2025年03月05日 点击数:

人工智能领域长期以来一直是富有想象力的故事的来源,现在已经转变为一门强大且不断发展的学科。它正在成为社会转型的主要催化剂。

来源:Supplied Art

【睿观:人工智能(AI)的演变从科幻小说的猜测转变为现实中的强大学科,成为社会转型的主要催化剂。其发展经历了从理论到实践的飞跃,特别是在生成式AI和基础模型领域取得了显著成就。然而,AI的整合是一把双刃剑,既有可能解决气候建模、医疗等复杂问题,也引发了监控、工作流失等伦理和社会问题。因此,建立道德框架和治理结构至关重要。

AI的变革潜力不仅在于技术进步,还在于其作为通用技术的能力,几乎涵盖所有人类活动领域。然而,其发展面临信息过载、价值观冲突等挑战。科技因素如数据悖论、可持续性等也可能成为障碍。尽管如此,AI在科学爆炸中的作用,如自主多代理系统、量子计算等,预示着加速发现和知识进步的可能性。

长期愿景中,AI的开发和应用应有利于集体福祉和全球进步,需平衡技术进步与道德承诺。教育也应培养下一代批判性与AI互动的能力。总之,AI的变革潜力巨大,但其发展需在技术进步与伦理框架之间找到平衡,以确保其为社会带来积极影响。】

这是每次我们阅读有关人工智能(AI) 的最新进展和承诺时,我们都会想到的问题之一。关于 AI 进展的信息轰炸是持续的,并且来自多个方面,具有不同的目标;要么传达过度的乐观主义(例如超级智能、有意识的 AI 等),要么相反,描绘反乌托邦的场景(例如,将消灭人类的 AI)。无论哪种情况,通常与现实相去甚远的观点或信息,并且目标混乱,这往往会让我们对 AI 及其真正的变革潜力产生错误的想法。 Tecnalia 最近发表的一篇题为“Can transformative AI shape a new age for our civilization?: Navigating between speculation and reality”《变革性人工智能能否塑造我们文明的新时代?在推测与现实之间导航》的论文旨在阐明和澄清这个问题。

一、从猜测到现实:AI 的演变

人工智能及其能力自诞生以来一直是猜测的主题,仅限于科幻小说。今天,我们可以肯定地说,它已经成为一门成熟的学科,正在发展成为对我们的文明具有最大变革潜力的力量之一。近几十年来,AI的演变已经从理论猜测走向了有形的成就。基于基础模型的最新系统,尤其是基于生成式 AI 的系统,不仅展示了卓越的功能,在策略游戏、自然语言处理和图像识别等特定领域的表现也超过了人类。

然而,人工智能对我们文明的影响超出了其技术和算法成就。将其整合到从医疗保健到治理的关键社会职能中可能是一把双刃剑。一方面,人工智能有望解决气候建模、个性化医疗和经济优化等复杂问题。另一方面,它引发了对监控、工作流失、算法偏见或危害民主价值观等问题的担忧。这凸显了为AI 建立道德框架和坚实治理结构的紧迫性。

我们正处于文明水平可能向前飞跃的边缘;尽管这一飞跃可能已经迈出了第一步,但它对我们社会的影响仍然不确定。它是否会导致前所未有的繁荣、灾难性的结果,还是另一个将破裂的泡沫,不仅取决于技术进步,还取决于我们的文明如何决定利用和监管这一具有无与伦比的变革潜力的强大工具。

变革性进步的想法并不新鲜。历史上提供了催化划时代变化的创新例子,例如工业革命期间蒸汽机的发明或信息时代互联网的兴起。然而,AI与以前的进步的不同之处在于它有可能作为一种通用技术,其能力几乎涵盖人类活动的所有领域。随着研究的进步,人们越来越多地关注人工智能是否不仅代表着一项重大的技术进步,而且代表着文明本身的重大变化。尽管围绕 AI 的兴奋是显而易见的,但它带来的道德、社会和生存挑战也是如此。

二、以道德为基石:塑造 AI 的发展

要评估人工智能是否真的代表了我们文明的转折点,我们必须提高我们的观点,否则,我们就有可能将其视为另一种技术,失去当前环境所要求的视野。在这个愿景中,道德必须是一个关键工具,从一开始就是人工智能设计和实施不可或缺的一部分,而不是事后才想到的。道德如何看待人工智能对于它发展成为一种真正的变革性技术并随后融入我们的文明至关重要。这种看法不仅影响其采用和监管,还影响几乎所有人类方面关键领域的应用开发。

此外,它还帮助我们了解我们的行为和决定的影响和后果,以及我们的利益、道德价值观和我们文明的未来。在一个不断变化的世界中,我们人性的某些方面,我们的本质,必须保持不变,而人工智能会改变我们周围的一切。要知道应该保持哪些方面以及如何维护,我们必须将道德作为帮助我们权衡变革的工具。我们需要符合我们价值观的AI,而不仅仅是由经济利益驱动。如果拥有一个触手可及的多功能工具,有可能克服我们文明面临的一些最紧迫的挑战,而只剩下它赚钱的能力,那将是一种耻辱。

然而,将道德应用于AI 并非没有挑战。首先,在试图建立统一的道德框架时,道德方法的多样性可能会产生冲突,因为不同的方法可能在同一情况下建议不同的甚至相互矛盾的行动。此外,道德不是普遍的,可能会因文化和社会背景的不同而有很大差异;在一种文化中被认为是道德的东西在另一种文化中可能并不道德。

这种可变性使全球道德标准的制定和实施变得复杂,因为有必要考虑并尊重这些文化和社会差异。正是在这里,我们发现《欧洲人工智能法案》旨在调和其监管框架中的不同道德观点。这是主要监管机构对AI 的首次全面监管,可以看作是政府、开发者、公司和公众之间社会契约的正式化。

“机器是否会思考的问题与潜艇是否会游泳的问题一样重要”——Edsger W. Dijkstra

三、人类与机器:重新思考智能

尽管几乎每个月都在发生巨大进步,但人工智能在很大程度上仍然依赖于人类,缺乏完全的自主性和人类能力,例如完全理解其行为或完全感知其环境的复杂推理。实现人工智能的精髓,无论是以通用人工智能(AGI) 的形式,还是以有意识或类似实体的形式,是大型科技公司和全能实验室一段时间以来一直在向我们展示的竞赛。这是短期或中期销售的产品,但我们担心随着这种 AI 的功能被构思出来,它将不得不等待或部分排除;这一次更接近小说而不是科学。

如果可能的话,一些稀释的版本将作为最终成就出售给我们,就像OpenAI 公司为自己设定的目标一样:“高度自主的系统,在最经济成本的工作中超越人类”;尽管这仍然是一个了不起的进步。今天,对于这种精髓的定义和范围还没有达成共识,因此我们将受到任何出售给我们的东西的摆布。此外,我们可能不需要这种精髓来拥有改变我们文明的 AI。飞机不像鸟那样飞,潜艇不像抹香鲸那样游泳或潜水,但尽管它们与生物学不同,但两者都是里程碑。

因此,关于真正变革性 AI 的争论可能不在于它是否能像人类一样思考或有意识,而是关于它能够自主有效地跨不同领域(“通用”)执行复杂任务的能力。重要的是要认识到,机器的价值和有用性并不取决于它们精确复制人类思想和认知能力的能力,而是取决于它们通过不同方法获得相似或更好结果的能力。尽管人脑在很大程度上启发了当代 AI(例如神经网络)的发展,但它不一定是设计高级 AI 的决定性模型。也许通过将 AI 的开发从严格的神经仿真中解放出来,研究人员可以探索优化不同目标、约束和能力的新型架构和方法,从而有可能克服人类认知在某些情况下的局限性。这种概念上的灵活性凸显了人工智能作为一项创新的潜力,它不受生物学的限制,而是会借鉴它。

在我们甚至能够在短期内考虑这种变革性的AI 之前,还面临着许多挑战。在实现变革性 AI 的道路上,一些可能成为绊脚石的人为因素包括:我们收到的信息过载、可能与我们的人类价值观不一致、我们可能获得的负面看法、将 AI 视为我们的竞争对手、对人类经验的过度依赖、可能认为 AI 中的道德是徒劳的, 例如,信任的丧失、过度监管、研究和应用的努力被稀释、人类过时的想法或“人工智能统治”的可能性。然而,这也意味着科技因素可能成为我们在实现真正变革性的人工智能之前必须克服的障碍,例如:数据悖论、难以识别人工智能新功能的出现、“世界建模”(World Modeling)、可持续性和物理限制方面的挑战,或者计算的理论基础对拥有人类水平人工智能的可能性缺乏共识, 以及其他因素。

然而,确实有一些“绿芽 ”表明它可能成为可能;而且可能不是通过单独观察它们,而是通过它们中的许多之间的交集,仿佛这是一个连锁反应,相互反馈。

“问题不在于10 年后的 AI 会是什么样子,而在于我们希望它变成什么样子”— Peter Norvig

四、AI 在科学爆炸中的作用

从科学技术的角度来看,我们有自主多代理系统、神经计算的进步、交互式人工智能、专用硬件的进步、高度复杂的虚拟环境、因果建模、开放世界学习、自我改进学习和自我学习,或量子计算等。如果我们从非科学技术的角度来看,我们可以谈论跨学科方法的整合、全球合作的进步、对人工智能的重大投资,或者数据生成和处理(学习)新方法的出现。但真正表明通过AI 在文明层面进行转变的是可能的“科学爆炸”,或者正如 Dario AmodeiAnthropic 的首席执行官兼联合创始人)最近所说,“压缩的 21 世纪”。人工智能开始在科学中发挥越来越广泛的作用,跨越众多领域,既是科学进步的催化剂,也是研究过程中的重要工具(例如 AlphaFoldLucaProt、“人工智能科学家”等)。这一发展可能标志着一个新时代的开始,其特点是加速发现,推动知识前沿的进步,并取得克服当前方法局限性的成果。这种加速有可能应对关键的社会挑战,例如气候变化、公共卫生以及绿色和数字化转型等。

五、重新定义意识和身份

最后,我们想关注我们认为相关的一个方面:实现具有此类特征的AI 后会发生什么?指导我们与这种颠覆性技术互动的伦理和哲学框架可能会出现深刻的变化,这可能需要新形式的哲学思考。这一事实可能会挑战当前的意识和身份概念。例如,功能主义理论认为,意识可以由过程定义,而不是由生物基础定义,这意味着重新解释笛卡尔二元论,并根据非生物实体的理性和自我意识将“人格”的概念扩展到非生物实体。从道德的角度来看,人工智能是否能成为道德主体会受到质疑。根据责任理论,那些拥有权力的人对他们所影响的生命形式负有道德义务。因此,具有变革能力的 AI 可以承担起对人类和自身存在的责任。更极端和未来主义的立场,例如尼克·博斯特罗姆 (Nick Bostrom) 领导的超人类主义运动,将人工智能视为人类进化的逻辑阶段,如果它们与人类价值观不一致,就会面临生存风险。哲学家尤瓦尔·诺亚·赫拉利 (Yuval Noah Harari) 等作家认为,可能会出现一种“人工智能宗教”,它将赋予这些实体近乎神圣的地位,重新定义当前的宗教和哲学体系。在这种情况下,可能会出现一种“元哲学”或“元宗教”,以调和人类与合成智能,改变我们对目标和道德的观念。

六、长期愿景:AI 促进集体福祉

最后,我们想强调在AI 开发和应用中采用长期愿景的相关性。我们提出了一种战略方法,确保 AI 系统的设计和使用有利于集体福祉和作为一个文明的全球进步。实现这一目标需要平衡技术进步与坚实的道德承诺,并培养一种教育,使子孙后代能够批判性地、有效地与这些技术互动。

Jesús López Lobo拥有计算机工程学位(德乌斯托大学,2003 年)、高级人工智能硕士学位(UNED2014 年)和移动网络信息和通信技术博士学位(巴斯克大学 UPV/EHU2018 年)。 他目前是 TECNALIA 应用研究中心的科学研究员,也是加泰罗尼亚开放大学 (UOC) 的合作教授。他的使命是探索、开发和转移人工智能领域的科学技术解决方案,为社会和组织创造价值。他的专业领域倾向于自适应 AI,它解决了机器学习系统的动态和不断变化的环境所带来的挑战。 他还对 AI 的伦理、AI 的治理以及 AI 与人类价值观的一致性等主题感兴趣。最后,他参与了多个研究和创新项目,在高影响力期刊和会议上发表了多篇科学文章,并为人工智能在国内和国际层面的传播做出了贡献。

Javier del Ser Lorente是一名电信工程师(巴斯克大学 UPV/EHU2003 年)、控制工程和工业电子学博士(纳瓦拉大学,2006 年)、信息和通信技术博士(阿尔卡拉德埃纳雷斯大学,2013 年)。 他目前是 TECNALIA 的人工智能科学和技术主任,也是巴斯克大学 (UPV/EHU) 的杰出教授。他的研究兴趣集中在工业、医疗保健、交通和移动出行等众多领域新兴范式的应用人工智能(特别关注值得信赖和负责任的人工智能、在开放世界中学习和可解释的人工智能)。 他在期刊和会议上发表了 470 多篇文章,指导了 19 篇博士论文,编辑了 本书,发明了 项专利,并指导了多个应用研究项目。 他是 IEEE 的高级会员,并因其研究生涯而获得多个奖项。他被斯坦福大学列入全球最具影响力的人工智能研究人员前 2% 名单(自 2021 年起),并且一直是为西班牙政府制定人工智能研发和创新战略的团队的一员(2019 年)。