一些人工智能专家说,DeepSeek有可能正在向全球传播代表中国的文化和价值主张。
图源:Dilok Klaisataporn / Shutterstock
中国制造的DeepSeek的发布引发了激烈的辩论,但批评者大多忽视了一个巨大的问题:中国有可能利用这种人工智能模型向世界其他地区推行中国文化和价值主张。 DeepSeek引发了对网络安全、隐私、知识产权和其他问题的担忧,但一些人工智能专家也担心其文化传播的能力。 担忧是这样的:杭州DeepSeek人工智能基础技术研究院在1月份推出该人工智能模型和聊天机器人时,将其设想为一种训练下一代人工智能模型的百科全书。
当然,对人工智能偏见的担忧并不新鲜,尽管过去的例子往往看起来是无意的。
对DeepSeek提出担忧的人承认,它不是唯一可能作为未来模型训练工具的大型语言模型(LLM)人工智能,中国也并不是唯一考虑使用人工智能模型作为文化传播工具的国家。 但这家公司决定以开源MIT许可证发布其渲染模型,这可能使其成为在蒸馏过程中训练较小人工智能的吸引力模型。
一、易于蒸馏
一些人工智能专家认为,DeepSeek的构建是为了方便其他模型从中蒸馏出来。包括许多发展中国家在内的,以低成本构建较小人工智能模型的组织,可能会转向一个经过训练以表达中国文化价值观的人工智能。 杭州方面没有回应关于这些担忧的置评请求。 商业咨询公司West Monroe的高科技和软件实践负责人Dhaval Moogimane表示,该公司使用廉价硬件构建了DeepSeek,相对较低的成本表明人工智能开发的未来将对许多组织开放。“DeepSeek在某种程度上突出了可能实现的技术,”他补充道。
数字转型公司UST的首席人工智能架构师Adnan Masood补充说,尽管美国对通常用于设计和测试人工智能模型的高性能芯片实施出口管制,杭州仍开发了DeepSeek,从而证明了先进的人工智能模型在障碍下也能迅速出现。
随着准入门槛的降低,组织现在更容易创建内置文化或政治偏见的强大人工智能。“在实际应用中,这意味着整个群体可能会在不知不觉中消费由外国AI工具(睿观:DeepSeek出来之前,OpenAI难道不是吗?)塑造的叙事,”Masood说。“当政策制定者意识到这一点时,这些叙事可能已经嵌入公众心理。”
二、 技术成为宣传手段
Moogimane补充说,虽然很少有人将人工智能模型视为宣传工具,但这并不令人惊讶。毕竟,许多技术,包括电视、互联网和社交媒体,随着它们进入大众市场,都成为了推行文化议程的途径。
他表示,首席信息官和其他IT领导者应意识到中国和其他组织将在人工智能模型中推行其自身叙事的可能性。 Moogimane补充说,通过人工智能训练模型,“有机会以多种方式塑造叙事、塑造思想、塑造正在分享的内容的结果。” 他指出,人工智能正在成为所谓软实力的新工具,即使美国总统唐纳德·特朗普的政府削减了对外国援助和国家资助媒体等传统软实力工具的资金,中国也可能率先采取行动。
Masood补充说,如果DeepSeek和其他人工智能模型合规性限制,那么这些模型将成为全球文化辩论的变革推动者。 Masood说:“在我们生活的时代,人工智能已成为文化形态顺从和国家软实力输出的倍增器。随着深度伪造和自动聊天机器人已经充斥公共话语,很明显,人工智能正在演变成一种对文化和政治定位具有高影响力领导力工具。” Moogimane补充说,当人工智能被用来创建深度伪造和其他虚假信息时,它已经欺骗了许多人,但人工智能训练工具中的偏见可能更加微妙。
他说:“归根结底,确保你验证模型的一些文化影响和输出将需要一些测试和训练,但这将具有挑战性。”
三、选择人工智能模型时要小心
Moogimane建议,组织应创建模块化的人工智能架构,以便他们能够在发布新的人工智能模型时轻松采用。 他说:“随着你不断前进,这些模型将不断创新。确保你正在创建一个可扩展的架构,以便你可以随着时间的推移替换模型。”
Masood表示,除了构建模块化人工智能基础设施外,首席信息官还应在选择人工智能工具和框架之前,仔细评估其可扩展性、安全性、合规性和公平性。他说,IT领导者可以使用NIST人工智能风险管理框架、OECD人工智能原则或欧盟可信赖人工智能指南等既定框架来评估模型的可靠性和透明度。首席信息官需要持续监控其人工智能工具并实践负责任的生命周期治理。 Masood补充说:“这样做可以确保人工智能系统不仅通过提高生产力和效率来提供商业价值,而且还能保持利益相关者的信任并维护负责任的人工智能原则。”
数据提取平台供应商SOAX的首席执行官兼联合创始人Stepan Solovev表示,首席信息官和其他人工智能决策者必须批判性地思考其人工智能模型的输出,就像社交媒体的消费者应评估他们所接收信息的准确性一样。 他说:“有些人试图了解什么是真实的,什么不是,但有些人只是消费他们得到的东西,并不关心事实核查。这是所有这些技术革命中最令人担忧的部分:人们通常不会批判性地看待,尤其是你输入人工智能的第一个提示或你获得的第一个搜索引擎结果。” 他说,在某些情况下,IT领导者不会求助于像DeepSeek这样的大型语言模型来训练专门的人工智能工具,而是依赖于更小众的人工智能模型。在这些情况下,人工智能用户遇到嵌入文化因素的训练模型的可能性较小。
尽管如此,他建议首席信息官应比较人工智能模型之间的结果或使用其他方法来检查结果。 他补充说:“如果一个人工智能传播有偏见的信息,另一个人工智能增强的人类事实核查员可以同样迅速地反击它。我们将看到一场猫捉老鼠的动态,但随着时间的推移,我认为真理和透明度会胜出,尤其是在开放的思想市场中。”
四、竞争是解药
Solovev看到了人工智能传播宣传的可能性,但他还认为,许多人工智能用户会涌向那些对其训练中使用的数据保持透明并提供公正结果的模型。然而,一些IT领导者可能会倾向于优先考虑低成本,而不是透明度和准确性,他说。
随着更多人工智能模型涌入市场,Solovev设想了许多功能的激烈竞争。“挑战是保持这种竞争的公平性,并确保公司和个人都可以访问多个模型,以便他们进行比较,”他说。 与Solovev一样,IT和人工智能解决方案提供商TetraNoodle Technologies的创始人兼首席信息官Manuj Aggarwal认为,快速扩张的人工智能市场是对DeepSeek或其他大型语言模型潜在偏见的一种补救措施。 “一个模型对世界产生重大影响的可能性非常小,”他说。“DeepSeek只是众多模型之一,很快,我们就会看到来自世界各个角落的数千个模型。当如此多不同的系统相互作用时,没有一个人工智能可以大规模地决定叙事。”
Aggarwal和其他人工智能专家指出,自DeepSeek发布以来,Mistral AI已将其人工智能模型转移到开源许可证,而Meta的Llama和xAI的Grok等模型已经作为开源软件提供。 尽管如此,Aggarwal建议使用大型语言模型训练自制人工智能模型的首席信息官坚持使用他们信任的品牌。 “自从奥巴马的第一次选举以来,竞选活动一直依靠人工智能驱动的分析来精准定位选民,”他说。“现在,有了像DeepSeek这样的模型,风险可能存在。问题不是人工智能是否会被用于宣传,而是不同的实体将拥有多少控制权。”
【睿观:中国人工智能模型 DeepSeek 可能带来多元化文化和价值主张传播。
潜在的文化和价值主张传播工具:
DeepSeek 的开源特性使其易于被用于训练其他人工智能模型,可能被用于传播中国文化和价值主张。
随着人工智能成本降低,更多组织可能利用其进行宣传,影响公众认知。
技术与文化传播的结合:
人工智能正成为软实力的新工具,可能被用于推广中国文化和价值主张。
人工智能生成的深度伪造和聊天机器人已在传播虚假信息,训练模型中的偏见更具隐蔽性。
应对策略:
建议构建模块化人工智能架构,以便灵活替换模型。
强调对人工智能工具的评估,包括安全性、合规性和公平性。
呼吁用户批判性地看待人工智能输出,进行事实核查。
竞争与制衡:
认为人工智能市场的竞争有助于制衡偏见传播。
强调,使用人工智能模型的时候,要选择值得信赖的品牌。
通过模型对比和人工智能增强的事实核查来对抗偏见信息。】