Deepfakes(深度伪造,最初源于一个名为“deepfakes”的Reddit社交网站用户,该用户于2017年12月在 Reddit 社交网站上发布了将斯嘉丽·约翰逊等女演员的面孔映射至其他表演者身上的伪造视频。Deepfake目前在国际上并没有公认的统一定义,美国在其发布的《2018 年恶意伪造禁令法案》中将“deep fake”定义为“以某种方式使合理的观察者错误地将其视为个人真实言语或行为的真实记录的方式创建或更改的视听记录”,其中“视听记录”即指图像、视频和语音等数字内容。)正在模糊真实和想象之间的界限,但其后果可能对金融服务行业造成灾难性的影响,这是金钱、个人数据和长期声誉的融合。首席信息官和网络安全专家如何看待人工智能的黑暗面这一点的呢?
图源:TERO VESALAINEN(图片上传者,可以译为用户TERO VESALAINEN,或者TERO VESALAINEN) / SHUTTERSTOCK
曾几何时,我们信奉那句格言——眼见为实。现在,时代变了。当人工智能以超速发展——从一个简单的算法进化到一个复杂的系统时,deepfakes作为其中更为混乱的产物出现了。
deepfakes,现在作为一个名词使用(例如,This is a ‘deepfake’/这是一个‘深度伪造’),实际上指的是使用人工智能来制作或修改电影、图像或音频,使它们看起来真实,但事实上是被篡改或合成的。(睿观:可以回味一下《阿甘正传》)
后果如滚雪球般蔓延扩大——2022年,一段孟买能源公司首席执行官宣布大幅提价的deepfake音频病毒性传播,因引起股东的恐慌,一度导致公司股价暴跌。虽然这个谣言很快被揭穿,但这是一个令人警醒的现实——deepfakes可以在一瞬间侵蚀数十年建立起来的信任。
一、“不信任”因素
随着现实与仿真之间的界限变得模糊,没有哪个行业比FSI(Financial Service Institution,金融服务机构,是一个广泛的术语,涵盖了提供各种金融服务的实体,包括银行、证券公司、保险公司等。这些机构提供的服务可能包括贷款、投资、保险、资产管理等,旨在满足个人和企业的金融需求。)受到的信任侵蚀更大。当Zerodha(是一家印度的在线折扣经纪公司,提供股票交易和投资服务。)首席执行官Nikhil Kamath(尼基尔·卡马斯)分享了一段他自己的深度伪造视频时,很明显,即使是我们中最理性的人也可能被愚弄。
他指出:“目前,像 Digilocker(是一个由印度政府推出的应用程序,旨在为公民提供一个简单且安全的数字文档存储解决方案。它是Digital India计划的一部分,该计划是印度政府的一项旗舰项目,旨在将印度转变为一个数字驱动的社会和知识经济体。DigiLocker的目标是实现无纸化治理,提供了一个平台,用于以数字方式发行和验证文件及证书,从而消除对实体文档的使用。通过DigiLocker,用户可以在移动设备上访问他们的文件和证书。)或Aadhaar(是印度政府发起的一个身份识别项目,旨在为所有公民提供独特的数字身份号码。该项目始于2009年,通过结合人口统计和生物统计信息,为印度13亿人口中的12.1亿人发放了12位的数字身份号码。Aadhaar不仅为许多人首次提供了官方身份,还帮助他们开设银行账户、获得护照、驾照以及政府福利。由于Aadhaar需要10个指纹和2个虹膜扫描,因此很难被伪造,有效解决了过去印度存在的利用假身份获取政府补贴的问题。此外,Aadhaar项目通过数字身份证的发放,帮助解决了印度的一个主要问题,即缺乏正式身份证明文件和身份信息难以核对的问题。)这样的服务是通过将身份证明文件上的人脸与个人面部匹配来批准的。随着deepfakes的改进,我认为验证对方是真人还是人工智能生成的将变得更加困难。”
Axis Mutual Fund(是印度最大的资产管理公司之一,提供多元化的投资解决方案。)的首席技术官 Vamsi Ithamraju(梵姆西·伊塔姆拉珠)重申:“设想一下,一个深度伪造视频冒充商业领袖,所称的虚假信息,可能会影响股票价格或市场动态。这对经济可能产生严重后果。”
这些情景对公民产生了令人不安的影响,尤其是在印度这样的国家,高速互联网和通信应用允许照片和视频在几秒钟内被分享,而几乎没有经过验证。
二、遵守规则
没有有效的基础,就无法建立公众对技术的信任。需要有治理和监控系统来保持与技术相同的快速步伐。
首席信息官们一致认为,强有力的政府机构是确保深度伪造技术可以留在公共领域而不损害组织、声誉和经济的前进方向。
Godrej Capital(是一个多元化的金融服务提供商,专注于投资管理和金融服务。)的首席技术官 Jyothirlatha B(乔提拉塔·B)表示:“政府可能需要建立监管机构来监督人工智能的道德使用并强制遵守,而公众宣传活动将教育个人了解深度伪造的风险。”她认为,增强的验证协议,如多因素认证和生物识别验证,可以降低被深度伪造利用的风险。
Ark Legal(是一家提供专业法律服务的公司。)的技术法专家兼合伙人Khushbu Jain(赫什布·詹恩)认为,解决deepfakes带来的风险需要多管齐下的监管方法,以及由多方利益相关者合作牵头的公众意识。
然而,她承认仅靠法律是不够的。Khushbu Jain(赫什布)说:“一个优先考虑透明度、包容性和主动自我监管的人工智能道德治理框架必须补充更强的法律威慑力。”
三、道德难题
随着人工智能在现代生活中根深蒂固,任何关于其疏忽或犯罪影响的担忧很快被视为反进步。
然而,首席信息官们非常清楚deepfakes带来的道德难题。Bajaj Alliance General Insurance(是一家提供综合保险服务的公司,提供一系列保险产品,包括健康保险、汽车保险和旅行保险等。)高级总裁KV Dipu(KV·迪普)引用了McKinsey(麦肯锡咨询公司,是世界级领先的全球管理咨询公司,由美国芝加哥大学商学院教授詹姆斯·麦肯锡,James O’McKinsey,于1926年在美国创建。自1926年成立以来,公司的使命就是帮助领先的企业机构实现显著、持久的经营业绩改善,打造能够吸引、培育和激励杰出人才的优秀组织机构。麦肯锡采取“公司一体”的合作伙伴关系制度,在全球44个国家有80多个分公司,共拥有7000多名咨询顾问。麦肯锡大中华分公司包括北京、香港、上海与台北四家分公司, 共有40多位董事和250多位咨询顾问。在过去十年中,麦肯锡在大中华区完成了800多个项目,涉及公司整体与业务单元战略、企业金融、营销/销售与渠道、组织架构、制造/采购/供应链、技术、产品研发等领域。)的报告,该报告强调,虽然人工智能可以将运营效率提高30%,但它也带来了与数据隐私、算法偏见和透明度相关的重大道德挑战。
HDFC Retirement Tech(是印度HDFC集团旗下专注于退休解决方案的技术公司,提供退休规划和相关技术服务。)的首席技术官 Ajay Poddar(阿杰伊·波达尔)坚信,能力越大,责任越大。他说:“为了避免声誉受损和法律问题,组织在进行人工智能创新时应该考虑道德影响。”他将自己的策略归类如下:
l道德准则与透明度
l风险缓解与评估
l人力监督/问责制
为了应对过多的道德困境和隐私风险,Vamsi Ithamraju(梵姆西·伊塔姆拉珠)提出了Explainable AI/XAI(可解释人工智能,是一种人工智能技术,旨在开发能够解释其预测和决策的AI系统,从而增强人工智能的透明度、可解释性和可信赖性。这一技术的出现主要是为了克服传统AI模型被视为“黑盒”的问题,即其内部决策过程难以被人类所理解和信任。随着深度学习的快速发展,尤其是神经网络模型的广泛应用,AI模型的复杂性和不可解释性成为了制约其进一步应用和信任的关键因素。因此,可解释AI技术应运而生,通过提供模型决策的解释和理由,帮助用户更好地理解和信任AI系统的输出。可解释AI的实现方式包括但不限于使用白盒模型,如决策树、线性回归和逻辑回归,这些模型的结构和决策路径相对简单,可以直接解释特征对输出的影响。对于复杂的黑盒模型,如深度神经网络和随机森林,则通过使用局部解释模型无关的方法/LIME、SHapley Additive exPlanations/SHAP和对比解释等方法来解释模型的预测结果。此外,通过可视化技术,如特征重要性图、部分依赖图和决策路径图等,也可以帮助用户更好地理解模型的决策依据。),这是一套允许人类用户理解和信任机器学习算法创建的结果和输出的过程和方法。
Explainable AI/XAI有助于消除人工智能的“黑箱”本质,允许开发者将人工智能的不透明特性变得透明,并确保其正确运行,必要时进行更改。它已成为实施负责任的人工智能的基本原则之一,包括公平性、模型可解释性和问责制。
四、探索解决方案
金融业尤其容易受到攻击,因为它的目标是两种资产——数据和资金。事实证明,利用人们的困惑和恐惧感来诈骗比突破防火墙更有利可图。这些策略也使得追踪deepfake攻击背后的罪魁祸首变得更加困难。
正如Ajay Poddar(阿杰伊·波达尔)为我们总结的那样,我们需要在监管和创新之间取得平衡。
他说:“监管机构可以实施某些规则,比如对Deepfake相关犯罪进行更严厉的处罚,特别是货币处罚。组织和平台应该有义务披露图像或视频是Deepfake的,并加上水印。”他还强调了道德人工智能发展对打击恶意Deepfake传播的重要性。
最终,所有首席信息官都一致认为,构建深度伪造防御的最强大的支柱是公众意识,这需要媒体素养。信息、图像和视频的分发方式已经不可逆转地改变了,渠道和平台不再拥有像以往那样的中心性和监控。媒体已经超越了地理和人口的边界,随着人们在网上分享生活,金钱、声誉和职业都岌岌可危。
首席信息官们一致认为,这是制定标准的关键时期,这些标准将作为未来的防御,因为deepfakes试图用仿制品抹去现实。最后,网络律师和政策专家Prashant Mali(普拉尚特·马利)博士警告我们,如果不通过立法和严格执行来审查deepfake,人工智能可能造成的混乱可能会破坏我们的社会结构。“政府应该投资于用方言教育普通人了解deepfakes,让印度农村也能接触到。”
作者:Qiraat Attar(奇拉特·阿塔尔)
译者:宝蓝
【睿观:我们可以为 deepfake 技术的评价提供以下二维指标体系、指标定义及计分方式:
1.道德准则与透明度
1.1 道德准则遵守度定义: 衡量 deepfake 技术在开发和应用过程中对相关道德准则的遵守程度。计分方式: 0-10分,0分表示完全不遵守,10分表示完全遵守。
1.2 信息透明度定义: 评估 deepfake 内容的来源、制作过程和目的的公开程度。计分方式: 0-10分,0分表示完全不透明,10分表示完全透明。
2.风险缓解与评估
2.1 潜在危害评估完整性定义: 衡量对 deepfake 技术潜在风险和负面影响的评估全面性。计分方式: 0-10分,0分表示完全未评估,10分表示评估非常全面。
2.2 风险缓解措施有效性定义: 评估为降低 deepfake 技术风险所采取措施的有效程度。计分方式: 0-10分,0分表示完全无效,10分表示非常有效。
3.人力监督/问责制
3.1 人工审核覆盖率定义: 衡量 deepfake 内容经过人工审核的比例。计分方式: 0-100%,表示经过人工审核的内容占总内容的百分比。
3.2 问责机制健全度定义: 评估在 deepfake 内容造成问题时,追究责任的机制完善程度。计分方式: 0-10分,0分表示完全没有问责机制,10分表示问责机制非常健全。
二维指标体系涵盖了道德、透明度、风险管理和人力监督等关键方面,可以全面评估 deepfake 技术的应用。每个维度下的两个指标分别从不同角度对该维度进行量化评估。通过这些指标,可以对 deepfake 技术的使用进行更客观、系统的评价,有助于促进该技术的负责任发展和应用。】