Dana-Farber Cancer Institute(丹娜法伯癌症研究院成立于1947年,是美国哈佛大学医学院的癌症专科附属医院,美国联邦政府指定的综合性癌症治疗中心,产生了1位诺贝尔医学奖获得者。)的终端用户在该技术出现后不久就看到了生成式人工智能用例的可能性。但应用它需要仔细考虑安全、隐私,特别是治理。
图源: SHUTTERSTOCK
【睿观:Dana-Farber Cancer Institute通过建立严格的治理框架、开发内部使用工具GPT4DFCI、管理供应商集成以及提供员工教育和培训,成功在控制风险的同时利用生成式人工智能提升工作效率。这些举措不仅确保数据隐私和安全,还使生成式人工智能成为员工工作的强大助手。
背景
Dana-Farber Cancer Institute(DFCI)已成立于1947年,是哈佛大学医学院的附属癌症专科医院。首席执行官Naomi Lenane(娜奥米·莱娜)在面对生成式人工智能技术的兴起时,决定在治理、安全和隐私方面做出严格考虑,以便在研究院内部安全、有控制地部署此技术。
一、主动治理
建立治理框架:
组成生成式人工智能治理社区,包含安全隐私主管、商业领袖、各部门代表等关键利益相关者。
发布声明,限制员工使用未经批准的生成式人工智能工具。
针对有需求的员工,开发培训计划和隐私安全政策。
第一步是发布一份声明,界定在临床工作中使用明确批准的工具。
随着时间推移,员工提出了各种生成式人工智能的实际用例,如工作描述综合、提高工作效率等。
二、内部发展
开发GPT4DFCI:
用于非临床用途,去年开始测试,今年全面部署。
旨在提高文档处理、一般研究等工作效率。
基于OpenAI的GPT-4 Turbo,并托管在Azure私有云中,确保数据不外泄。
鼓励员工在非临床工作中使用GPT4DFCI,如重写电子邮件、合并工作描述等。
特定用例:
Lenane自己使用GPT4DFCI进行文档和邮件修订。
研究团队在NEJM-AI上发布报告,详细描述GPT4DFCI的应用。
三、生成式人工智能作为盟友
当前使用情况:
DFCI有约5000名直接员工和其他合同员工,目前有约700人已积极使用GPT4DFCI。
使用规范:
严格的隐私和信息安全审查。
用户需经过必要培训并亲自验证生成的结果。
四、供应商管理
第三方软件集成:
审核生成式人工智能在现有软件中的集成情况。
例如,Microsoft Copilot的试点测试。
治理小组负责新供应商合同的审查,并确保符合生成式人工智能的使用政策。
教育和意识提升:
教育员工了解生成式人工智能对于知识产权的影响,并确保合规。
五、展望未来
持续优化:
多学科治理委员会和高管赞助确保生成式人工智能部署的持续优化。
培训课程:
开设关于prompt engineering(提示工程)和生成式人工智能伦理的培训课程。
技术发展:
随人工智能技术的发展,团队将继续改进其内政策并适应最新法规。】
去年,生成式人工智能的过度炒作是不可避免的,但尽管存在所有分散注意力、未经证实的好处和潜在的缺陷,Dana-Farber Cancer Institute首席执行官Naomi Lenane(娜奥米·莱娜)并不想彻底禁止这项技术。不可否认,这是一个开创性的项目,研究所的员工可能会用它做一些有趣的事情。
但允许自由、不受约束地使用公共的生成式人工智能平台并不是一个好选择。因此,DFCI采取了三个主要步骤,以可控的方式部署了生成式人工智能。这包括建立一个治理框架,建立一个让员工可以安全使用的内部工具,以及开发一个审查嵌入第三方系统的生成式人工智能的流程。
一、主动治理
首先是治理框架。
“一年多前,炒作四处喧嚣。”Lenane(莱娜)说,“因此,作为一个组织,我们开始与我们的首席法律顾问、高级临床领导人和一些运营领导人交谈。我们的员工能使用这个吗?我们对他们有什么指导?”
这些领导人和其他利益相关者组成了一个生成式人工智能治理社区,包括研究所的隐私主管、商业领袖、沟通、人力资源、临床部门的成员——“从医生到慈善机构的每个人,”她说。
第一步是在整个组织内发布一份声明,关于使用明确批准的临床工作的工具,或其他任何东西,但不是那些免费工具。从一开始,用户很快就开始提出生成式人工智能的用例。
“大多数部门都有他们试图解决的具体问题,或者是一个工作效率可以成倍提高的例子。”她说,“实际的终端用户来自质量和安全、慈善事业和人力资源部门,他们说,‘我们想把七种不同的工作描述综合成一种’,并有明确的用例。其中一些我未曾想过。”
这些都是为了让生成式人工智能可以更快、更高效地完成的任务,在某些情况下,甚至更好或更有说服力。“我感到惊喜的是,人们有关于如何让工作变得更好的可靠用例。”她说,“没有人走进来说,‘如果我们这样做,我可以削减FTEs(Full Time Employees,全职员工)数量。’但他们可以做得更多,把更多的时间花在以人为中心的任务上,而不是重写工作描述或建议。”
该治理小组为那些想要使用生成式人工智能的员工开发了一个培训计划,并制定了隐私和安全政策。与此同时,该研究所的人工智能支持小组开始开发一个名为GPT4DFCI(Dana-Farber Cancer Institute的研究团队最近在NEJM-AI上发布了一份关于他们引入OpenAI的“GPT-4”技术的报告。该报告指出,该机构的员工正在利用名为“GPT4DFCI”的技术进行工作合理化和研究实施,这是首个为学术医疗中心和医院员工准备的通用LLM。团队将包括“GPT-4 Turbo”在内的5种GPT-4模型集成到GPT4DFCI中,并在Microsoft的“Azure OpenAI Service”上实施。GPT4DFCI具有ChatGPT风格的简单用户界面设计,并且实施私密且符合HIPAA标准,满足HIPAA的审计要求。)的生成式人工智能项目,该项目将在组织的网络内运行,并研究如何与将生成式人工智能添加到其系统中的供应商合作。
二、内部发展
Lenane(莱娜)说,GPT4DFCI被设计用于非临床目的,并于去年首次在用户中进行测试,于2023年底到2024年初全面发布。现在,它在整个组织中应用,包括在IT内部。例如,Lenane(莱娜)说,人们被鼓励将其用于文档,因为这是许多技术人员不喜欢或不想做的事情。人们也将其用于一般研究。“我们鼓励人们在需要时使用它来理解他们不知道的东西。”她说,“但我们还没有全面批准或鼓励它作为更快编码的一种方式。相反,GPT4DFCI基于OpenAI(大规模生成式AI模型,能够提供超强的自然语言理解、分析、推理能力,帮助企业客户根据不同的行业需求和业务场景,构建出各种前所未有的创新应用和业务场景。)的GPT-4 Turbo(是OpenAI发布的最新语言模型,相比之前的GPT-3.5和GPT-4.0模型,它更为强大。GPT-4 Turbo不仅在技术上有所突破,还在功能上进行了显著的增强,为用户提供了更多的便利和灵活性。),托管在该研究所的Azure(Microsoft Azure是微软基于云计算的操作系统,主要目标是为开发者提供一个平台,帮助开发可运行在云服务器、数据中心、Web和PC上的应用程序。云计算的开发者能使用微软全球数据中心的储存、计算能力和网络基础服务。)私有云中,因此不会将数据泄露回OpenAI,它更像是一个改进的搜索引擎,可以帮助人们更好地理解一些东西。”
Lenane(莱娜)自己也用它来帮助重写电子邮件或文档。她说:“如果我想向我的老板,即首席财务官解释一些事情,我有时会选择使用技术段落,并使用生成式人工智能工具来确保措辞正确或更清晰。”她还使用GPT4DFCI更新或合并工作描述,并添加了用于内容过滤和审核的额外人工智能模型。
“我前几天用它来公示别人的晋升,”她补充道,“但这对我来说有点太华丽了。整个部门都会知道这不是我的文风,所以我肯定做了一些编辑。”
三、生成式人工智能作为盟友
DFCI拥有大约5000名直接员工,另有5000名员工通过赞助商或其他合同安排租赁给DFCI,或是提供家政等服务的供应商的员工。当今,Lenane(莱娜)说,大约有700人正在积极使用GPT4DFCI。
“们已经开放并提供了它,人们需要在经过一些必要的培训后注册使用它。”她说,“为了从工具中获得好的内容,你必须正确地提出问题,并思考你在其中投入了什么,才能得到一个可靠的答案。”虽然GPT4DFCI不允许被用于临床目的,但正如治理委员会所规定的那样,它已经过隐私和信息安全团队的安全性和有效性审查。
她说,对于那些希望为员工提供更高效的工具,但又不想让组织面临更大风险的其他组织来说,这是一种有用的方法。
它还有一个Dana Farber前端,因此员工不会直接与OpenAI聊天机器人互动。这使该研究所能够跟踪使用情况和查询,并全面了解人们如何使用该工具。它允许在其周围建立安全性、合规性、PII(个人身份信息,是与特定个人相关且可用于揭露其身份的任何个人信息,例如社会安全号码、全名、电子邮件地址或电话号码。有两种类型:直接标识信息和间接标识信息。直接标识信息对于个人是唯一的,包括护照号码或驾驶执照号码等。单个直接标识信息通常足以确定某人的身份。间接标识信息不具有唯一性。其中包括种族和出生地等更一般的个人信息。虽然单一的间接识别信息无法识别一个人,但将之组合却可以。)检查和其他护栏。
Dana Farber的人工智能运营和数据科学服务总监Renato Umeton(雷纳托·尤里顿)表示,由于GPT4DFCI运行在符合HIPAA(Health Insurance Portability and Accountability Act/1996,Public Law 104-191,尚没有确切的正式中文名称,国内文献一般直接称为HIPAA法案,有的称为健康保险携带和责任法案,也有取其意为医疗电子交换法案;中国台湾地区有文献翻译为义务型可携带式健康保险法案。其目的是:Administrative Simplification /简化管理,以降低日益增长的医疗费用开支。起源于1991年。)的云环境Azure上,一些合规问题也得到了解决。
他说,根据HIPAA,保护患者隐私和数据的义务使该研究所无法使用ChatGPT等公共生成式人工智能服务。而且从零开始训练LLM(大型语言模型。是使用深度学习算法处理和理解自然语言的基础机器学习模型。这些模型在大量文本数据上进行训练,以学习语言中的模式和实体关系。LLM可以执行多种类型的语言任务,例如翻译语言、分析情绪、聊天机器人对话等。)的成本太高了。
他说:“虽然人们考虑了开源LLM,但它们需要在基础设施上进行大量投资,而且可能无法提供与GPT-4等商业模型相同的多功能性。”
在选择使用哪个特定的商业LLM时,该研究所研究了来自LMSYS Arena(由开放研究组织 LMSYS Org/Large Model Systems Organization发布的Chatbot Arena。LMSYS Org 是一个开放的研究组织,由加州大学伯克利分校的学生和教师、加州大学圣地亚哥分校、卡耐基梅隆大学合作创立。虽然主要人员出自高校,但LMSYS的研究项目却十分贴近产业,他们不仅自己开发大语言模型,还向业内输出多种数据集、评估工具,此外还开发分布式系统以加速大模型训练和推理,提供线上 live 大模型打擂台测试所需的算力。)的基准测试。“GPT-4一直是卓越的模型组,”他补充道,“没有对所有用户都可以访问的通用版本进行微调。然而,我们已经成功地在各种项目中实现了retrieval-augmented generation(即检索增强生成,是一种自然语言处理模型,旨在改进各种NLP任务的表现,包括问答、摘要生成等。)。”
检索增强生成(RAG)使用矢量数据库或其他知识库为单个查询提供额外的上下文,从而允许更准确和定制的结果。
Umeton(尤里顿)说:“例如,我们与康奈尔大学合作,利用RAG合成了数百份手稿,为即将发布的工具包提供了重要信息。”
GPT4DFCI的API(应用程序编程接口,是一些预先定义的函数,目的是提供应用程序与开发人员基于某软件或硬件的以访问一组例程的能力,而又无需访问源码,或理解内部工作机制的细节。)可供初始技术测试人员使用,许多人正在探索RAG技术,以实现可靠的信息提取和聚合,他说。来自运营、基础研究和临床研究的人员正在使用它来探索他们自己感兴趣的用例,同时帮助进一步增强GPT4DFCI API。他说,在过去的几个月里,团队中的GPT4DFCI API讨论渠道已经从三名开发人员增加到了一百多名。但为了确保信息安全,该应用程序是在该机构的Azure范围内构建的,安全实践包括专用IP(指网际互连协议,Internet Protocol的缩写,是TCP/IP体系中的网络层协议。)地址、VPN(指虚拟专用网络。功能是:在公用网络上建立专用网络,进行加密通讯。在企业网络中有广泛应用。VPN网关通过对数据包的加密和数据包目标地址的转换实现远程访问。VPN可通过服务器、硬件、软件等多种方式实现。)路由、服务对服务身份验证和HTTPS强制执行。
他说:“内容过滤也被实施了,以最大限度地减少有害内容,并报告不遵守规定的用户。”
DFCI人工智能治理委员会还专门针对GPT4DFCI发布负责任的使用政策。
他补充说:“作为政策护栏的一个例子,所有劳动力都必须对他们的工作产品负责,无论他们的生产方式如何。”因此,人们只能将GPT4DFCI用于他们可以亲自验证的结果,并且必须注意有偏见或不完整的信息。在大多数使用情况下,还需要披露工具的使用情况。
Umeton(尤里顿)将人工智能在实际临床护理中的使用比作一种新药。他说,药物需要进行临床试验来评估安全性和脆弱性。“我们应该使用类似的临床试验框架来评估临床人工智能的各个方面。”但该研究所能够将资源集中在其他应用上,如研究和运营。Umeton(尤里顿)补充说,在这些领域,人工智能可以以相对较低的风险提供较高的投资回报。
四、供应商管理
生成式人工智能不仅仅是在免费、不安全的公共聊天机器人和私人的受控聊天机器人之间做出选择。对于许多公司来说,员工与生成式人工智能的主要互动将通过他们已经使用的企业和生产力软件进行。Dana-Farber也不例外。
Lenane(莱娜)说:“所有的人力资源供应商,以及我们的供应商,都在发布或准备发布生成式人工智能集成,”。例如,AI可以查看文档或创建草案消息。
“也有一些商业供应商,比如Microsoft Copilot(是微软旗下所有GPT-4加持的Copilot功能。2023年9月26日,“Microsoft Copilot”开始通过Win11免费推送。该AI助手是一个集成了在操作系统中的侧边栏工具,可以帮助用户完成各种任务。Copilot依托于底层大语言模型/LLM,用户只需说几句话,做出指示,它就可以创建类似人类撰写的文本和其他内容。)式的解决方案,”她说,“我们是否可以用它来让我们成为一个更漂亮的PowerPoint(Microsoft Office PowerPoint,是指微软公司的演示文稿软件。),或者重写一封电子邮件,使其更清晰或更不细致严谨吗?”
在某些情况下,生成式人工智能的功能是对现有软件系统的免费升级,这些软件系统已经是与Dana Farber签订现有合同的供应商批准的工具。
她补充说:“如果有额外的成本,我们可能会试用一个工具来了解额外的成本是否值得,并看看人们会用它做什么。”因此,第三方软件的试点过程于今年早些时候开始,目前正在进行Copilot试点,以测试该工具用于帮助人们写电子邮件的情况。
Data Farber正在仔细研究第三方软件的生成式人工智能附加组件问题。它已成为治理小组的一部分,该小组确保关键利益相关者参与与人工智能相关的供应商决策,包括供应链领导者、技术领导者或隐私官员。例如,供应商合同可能需要添加新的语言来涵盖生成式人工智能用例。这些工具需要遵守一些具体的要求。
“我们强烈认为,人工智能产生的任何东西都需要人工审查,许多供应商都以这种方式构建。”她说,“困难的部分是有人在流程之外购买的工具。”
为了应对这种可能发生的情况,治理委员会还参与为该组织提供教育。
“我们不能失去对我们的知识产权的所有权,也不能允许这些供应商使用我们的内容来学习其他工具或产品。”她说,“些概念很难在10000人中分享,但我们正在努力实现。”
有了治理委员会的领导团队,这有助于让人们知道,生成式人工智能需要成为法律和信息安全部门关注的问题。“我们了解他们对我们的数据做了什么吗?”她说。
五、展望未来
Umeton(尤里顿)说,高管赞助和多学科治理委员会是该研究所生成式人工智能部署的关键因素。对于GPT4DFCI来说,谨慎的推出过程也是关键,从一小群高级用户开始,逐步扩大访问范围。
他说:“GPT4DFCI为我们的员工提供了相当于一名优秀实习生的能力,该实习生能够根据在线信息起草高质量的工作成果,但由于他们没有工作经验,因此需要监督。”
接下来,该研究所将开设关于prompt engineering(提示工程,是一种LLM使用技术,通过设计和改进 LLM的 prompt 来提高 LLM的表现,其目标是创建有效和可控的LLM系统,使其能够准确、可靠地执行特定任务。)技术和使用生成式人工智能的伦理学的培训课程。在治理方面,Dana Farber将继续完善其人工智能政策,与社区沟通,审查使用情况,讨论伦理考虑,并随时了解外部法规和行业知识。
他承认,保持更新并不总是那么容易。随着人工智能的快速发展,包括多模式模型和智能体,需要掌握的信息激增。Umeton(尤里顿)自己说,他有一个机器人,可以监控新闻媒体和社交媒体,并为他的评论编写每周的摘要。
“ChatGPT的出现只是一个开始,”他说,“随着延迟减少和视频流处理的进步,我们即将迎来人工智能代理在我们的物理世界中无处不在的未来。”
他说,这些代理可以帮助他们完成日常工作和工作效率。但对企业来说,最重要的是设计和部署人工智能,以帮助其临床和研究运营。“我们最终的专业使命是支持Dana-Farber在世界范围内减轻癌症负担的使命。”
作者:Maria Korolov(玛丽亚·科洛洛夫)
Maria Korolov(玛丽亚·科洛洛夫)是一位报道人工智能和网络安全的获奖科技记者。她还写科幻小说,编辑一本科幻和幻想杂志,并主持一个YouTube节目。
译者:宝蓝