随着数据集蓬勃发展,那些思维方式不同的人的参与仍然稀缺。然而,为了减少偏见和缺陷,正在朝着代表性方面取得进展。
图源:Roman Samborskyi / Shutterstock
在如今这个时代,我们每天都会谈论或听到AI——它为何强大,又为何存在潜在危险。我们早已度过了对其大肆炒作的阶段,如今生活在一个人工智能已成为生活中更长久存在的世界。
在此背景下,对于如何让人工智能更具包容性和道德性,以及谁该为无数用户的安全负责,每个人都有自己的看法。鉴于新模型构建和推向市场的速度,安全和道德同样至关重要,还需要进行监督,以确保模型公平、无偏见且公正。
有许多重大问题亟待探讨,上个月在巴黎举行的首届国际安全与道德人工智能协会会议上就提出了不少。学术界、民间社会、行业、媒体和政府的专家们讨论并辩论了人工智能安全与道德方面的最新进展,但并未审视神经多样性视角在人工智能开发中的体现。这是一个重大疏忽,尤其是考虑到仅在美国就有7000万人的学习和思维方式不同,其中包括许多科技行业人士。
技术应该为所有人服务,那么,如果在开发阶段不考虑神经多样性,我们如何确保未来的人工智能模型易于使用且无偏见呢?这都始于开发阶段。
人工智能的易用性:不再是新鲜事物
好消息是我们并非从零开始,但要让易用性成为道德且具包容性的人工智能开发的代名词,仍有很长的路要走。在过去的几年里,我们看到像苹果和谷歌这样的公司做出了有意识的努力,它们推出了诸如苹果的实时语音和眼动追踪,以及谷歌的引导框架和 Lookout 等移动应用。但科技领域的易用性仍被视为小众需求。
这就是为什么Understood助手被开发和训练的原因,该助手由专注于学习和思维方式有差异人群的专家打造,目标是让我们庞大的内容库更易于使用。例如,它具备语音转文本功能来提问,其清晰简洁的回复是按照八年级的阅读水平编写的。
但还有很多工作要做,对一些组织来说这将是一场艰苦的战斗。围绕包容性的讨论仍充满争议,而与此同时,人工智能继续在内容、商业以及人们的生活方式等方面占据主导地位。不过,我们必须优先考虑并尊重每个人大脑构造不同这一事实。以下是具体做法:
人工智能开发背后的数据和团队必须反映认知多样性:如果聊天机器人和人工智能模型一直被输入有偏见和缺陷的数据,那么结果也必然会有偏见和缺陷。确保这些数据集可靠、具包容性且无偏见的最佳方法是纳入认知多样的开发者。一个神经多样性的团队也更容易探索更广泛的用例以及应用相关的风险。在开发阶段让神经多样性群体参与进来,就能够打造一个理解并重视不同思维、学习和工作方式的团队。这对所有用户都有益。
公司应从多样化的人才库中招聘:根据Gartner的研究,75%的组织,其决策团队若体现出多样化和包容性的文化——尤其注重认知多样性,在生产力、创新和财务状况方面都取得了积极成果。Accenture的一份报告也支持这一观点,该报告发现,如果美国劳动力中残疾人士比例再增加1%,美国的经济产出最高可提高250亿美元。
用户需要能帮助他们生存和发展的技术:EY的新数据发现,85%的神经多样性员工认为生成式人工智能创造了一个更具包容性的工作场所,因此更多公司有责任扩大招聘范围,吸纳更多员工,并提供他们发展所需的工具,从而打造公平竞争环境,生成更准确、更完善的数据集。生成式人工智能在帮助神经多样性员工完成生产力、质量保证和时间管理等简单任务方面也能发挥很大作用。安永的同一份报告还发现,由于生成式人工智能,65%的受访者对工作更有信心,64% 的人在工作中思路更清晰,61%的人因人工智能有助于消除工作中的困扰障碍而感到宽慰,30%的人在工作中感受到更多接纳。
随着领先公司逐步接近在2027年实现AGI,尽早从战略层面介入塑造人工智能领域的格局至关重要。但我们必须谨记,人工智能的快速发展需要我们谨慎对待。在很多情况下,问题远比答案要多。不过,至关重要的是,我们要关注并优先处理人工智能在安全和包容性方面的问题,确保这项技术能够满足那些学习和思维方式存在差异的群体的需求,不辜负他们的期待。
作者:Rahul Rao(拉胡尔·拉奥)
纽约大学毕业生Rahul Rao(拉胡尔·拉奥)是总部位于纽约的非营利组织Understood.org的联合主席兼首席技术官。
译者:宝蓝