AI如成长的孩童,生态理论揭示其发展受多层环境影响。需多元参与和强治理框架,防范偏见延续,确保AI公平向善发展。
图源:Credit: Ron Guerrier / Save the Children
人工智能不再是科幻小说中的虚构内容,它已经成为现实,影响着从医疗保健到招聘实践的各个领域。像ChatGPT这样的工具使人工智能的使用更加普及,让个人和组织能够以前所未有的方式利用其潜力。
但正如任何一种变革性技术一样,人工智能也伴随着风险,其中最主要的是偏见和系统性不公的延续。为了负责任地引导人工智能的发展,我们需要将其视为一个成长中的孩子,而不仅仅是一个工具——它会被其成长环境所塑造,或好或坏。
这个类比可能看起来有些奇怪,但它很有启发性。人工智能就像一个孩子一样,会从周围的人那里学习。开发者、工程师、政策制定者,甚至终端用户都在为其成长做出贡献。为了确保人工智能发展成为一股向善的力量,而不是伤害的延续者,我们必须解决塑造它发展的社会和系统性因素。
帮助我们理解这种动态的框架是Dr. Urie Bronfenbrenner(尤里·布朗芬布伦纳)博士的生态系统理论,该理论最初是为研究人类发展而设计的。当应用于人工智能时,布朗芬布伦纳博士的理论揭示了引导其发展的相互关联的层次结构,并强调了对人工智能进行负责任治理的迫切需要。
一、影响力系统
在最直接的层面是微观系统——与人工智能直接互动的开发者、工程师和用户。这些人编写算法、选择训练数据,并决定人工智能系统的运行方式。问题是,这些系统往往反映了其创造者的偏见。例如,当我要求一个人工智能工具优化一张我自己的照片(一个50岁的海地裔美国黑人男性)时,它生成的图像却是一个年轻白人、蓝眼睛的男性。这并非偶然,而是系统中嵌入的偏见数据和决策的结果。如果没有开发者的多样化视角,人工智能将继续错误地代表并排斥边缘化群体。
接下来是中观系统,它代表了关键参与者之间的关系——科技公司、政府和研究人员。这些群体决定人工智能的部署和监管方式。如果这些关系优先考虑利润而非公平,或者优先考虑创新而非包容,那么整个群体可能会被排除在人工智能带来的利益之外。被边缘化的群体,特别是黑人和拉丁裔群体,已经面临获取数字技术的系统性障碍。当人工智能的设计和治理没有他们的参与时,这些障碍将更加难以克服。
外层系统包括企业政策、媒体叙事和经济压力等外部力量。这些力量通常决定行业的优先事项,而最近的趋势令人担忧。许多公司正在缩减多样性、公平性和包容性计划,这些计划对确保人工智能系统的设计考虑公平性至关重要。如果没有这些项目,就很难问责人工智能是否公平地服务于每个人,还是仅仅服务于少数特权阶层。
宏观系统反映了更广泛的文化背景——我们的集体价值观、规范和信仰。在科技领域,创新的速度经常与公平和包容的价值观之间存在脱节。例如,尽管人工智能的发展正在加速,但在STEM(科学、技术、工程和数学)领域的多样性却停滞不前。黑人专业人士仅占计算机科学毕业生的8.6%,而在领导职位中所占的比例更是少之又少。这种代表性不足不仅仅是多样性问题,而是一个系统性失败,它可能会将偏见嵌入我们技术的基础之中。
最后,时序系统捕捉了时间的影响——历史事件和技术里程碑如何塑造人工智能的发展轨迹。2022年ChatGPT的发布标志着一个关键转折点,使生成式人工智能工具广泛地向公众开放。尽管这种民主化令人振奋,但它也带来了风险。如果没有伦理约束,这些系统可能会加剧现有的不平等。今天做出的决定——是规范人工智能还是任其无约束地发展,将对社会产生长期的后果。
二、践行责任
那么,我们能做些什么呢?首先,我们必须认识到,人工智能的发展并非处于真空之中。它是由人、政策和文化规范共同塑造的。为了确保其能够负责任地发展,我们需要让不同声音参与其中——开发者、政策制定者以及能够代表所有用户需求(而不仅仅是少数特权阶层)的社区领袖。
其次,我们需要更有力的治理框架,强调透明度、公平性和问责制。这包括强制进行偏见测试、使数据集多样化,以及让公司为其技术的社会影响负责。
最后,我们需要一场文化转变。人工智能不应仅被视为一项技术成就,更应被视为一项社会成就。其发展必须优先考虑公平、包容和责任。只有这样,我们才能利用人工智能的潜力来弥合差距、创造机会,而不是延续伤害。
将人工智能比作一个成长中的孩子这一类比提醒我们其中的利害关系。就像养育一个孩子一样,塑造人工智能的未来需要关怀、合作和远见。有了正确的引导,人工智能可以成为一股向善的力量——一项提升人们福祉而非排斥他人的创新。但如果忽视我们的责任,我们就有创造出一种反映并放大社会最糟糕缺陷的技术的风险。选择权在我们手中。
作者:Ron Guerrier(罗恩·格里耶尔)
译者:木青