你好,欢迎您来到福建信息主管(CIO)网! 设为首页|加入收藏|会员中心
您现在的位置:>> 新闻资讯 >>
CIO在人工智能治理的4个基本教训
作者:CIO.com 来源:CIOCDO 发布时间:2024年07月05日 点击数:

虽然一些IT领导者对新兴技术措手不及,但其他人则有远见地建立了AI治理框架来控制事情。在这里,一些人分享了他们的积极策略和经验教训。【睿观:AI治理行动路线图:1.建立共识: 召集相关方讨论组织的风险承受能力和目标。2.制定策略: 涵盖技术、数据、伦理等方面策略。3.实施策略: 将策略传达给全体员工并提供必要的培训和支持。4.监控和改进: 定期评估有效性并进行调整。】


奥斯汀based软件公司PlanviewPlanview是一家总部位于美国德克萨斯州奥斯汀的软件公司,专注于提供项目管理和资源优化解决方案。该公司成立于1989年,提供多种基于云的管理平台,适用于不同规模的企业。Planview的产品和服务旨在帮助组织更有效地管理项目、资源和战略计划,以提高效率和成效。近期,Planview推出了一些新的平台创新,包括Universal Connector,这是一项使企业能够将其第三方或自制软件开发工具直接自动化并无缝集成到Planview平台中的功能。此外,Planview还推出了Planview.Me™,这是一个易于使用的个性化平台体验,旨在将数据、洞察和工作整合到单一视图中,以提高用户体验和工作效率。Planview还利用人工智能技术,如Planview Copilot,提供可操作的人工智能洞察和专家指导,以提高工作效率。这些创新实现了双向可见性和治理,使战略和团队之间更加紧密地保持一致,利用人工智能提高可预测性和战略决策,并提供个性化的用户体验以提高生产力)在大约18个月前开始使用生成式AI来提高生产力。在同一时期,他们开始将生成式AI生成式AI,即生成式人工智能(Generative Artificial Intelligence),是一种专注于创造新的内容、图像、文本、音频或视频的人工智能技术。与传统的、专注于识别和分析现有数据的AI不同,生成式AI能够基于学习到的模式和特征来创建全新的数据实例。】整合到他们的产品中,构建了一个用户可以与之互动的co-pilotPlanview Co-Pilot利用了其他人工智能助手无法访问的大量操作数据源,包括来自Planview的产品组合规划、企业敏捷规划和交付解决方案的独家战略到交付数据,以及通过Flow Fabric中的60多个Planview连接器整合的来自各种团队工具的更广泛数据。此外,它还能访问组织过去和现在的计划数据,并通过将这些数据与Planview的流程方法和敏捷原则等方法相结合,指导用户,帮助其识别和解决整个战略到执行过程中的瓶颈),以进行战略投资组合管理和价值流管理。该co-pilot创建计划场景,帮助经理实现产品发布目标,并建议在路线图中移动可交付成果,在团队之间共享工作以及重新分配投资的方法。


作为早期采用者,Planview很早就意识到,如果他们真的想向AI靠拢,他们需要制定政策和治理,以涵盖他们在内部所做的工作,以及他们为增强产品供应所做的工作。根据公司和其他首席信息官的经验,可以总结出四个经验教训,以帮助组织开发自己的人工智能治理方法。


一、利用现有框架


人工智能治理与任何其他治理没有太大区别。事实上,根据Planview首席技术官Mik Kersten(米克·克尔斯滕)的说法,由于大多数AI策略都是关于数据的,因此利用现有框架应该很容易。Planview采用了他们已经用于开源和云的指南,并根据AI治理的需求对其进行了调整。


Mik Kersten(米克·克尔斯滕),Planview 首席技术官

佛罗里达州立大学(FSU佛罗里达州立大学(FSU)是位于美国佛罗里达州塔拉哈西的一所公立研究型大学,是佛罗里达大学系统的一部分。FSU提供广泛的本科和研究生课程,并在艺术、人文、社会科学、自然科学、工程和医学等多个领域进行研究。该校以其学术卓越、研究贡献和校园生活而闻名。】是一个非常不同的组织,它从现有的IT治理委员会中发展出AI治理,该委员会定期召开会议,确定投资和风险的优先级。“我们对投资进行排名,包括财务和价值以及整个校园的影响,”该大学的首席信息官Jonathan Fozard(乔纳森·福扎德)说。“人工智能项目成为讨论的一部分,这就是我们建立人工智能治理的方式。”


佛罗里达州立大学(FSU)的用例范围从科学研究到办公生产力——他们将人工智能作为课程的一部分来教授,从工程和法律到所有其他专业,学生在加入劳动力市场时可能会使用人工智能。Fozard(福扎德)说,平衡成本和风险与潜在附加值的行为就像一种摇摇欲坠的方法。在第一轮讨论中,某些项目名列前茅。然后,理事会开始关注这些高优先级项目,以确保它们能够保护大学需要保护的一切,包括知识产权、研究愿望、用户隐私和敏感数据。


Jonathan Fozard(乔纳森·福扎德),佛罗里达州立大学(FSU)首席信息官

Fozard(福扎德)说道:“无论是在高等教育领域还是在企业环境中,首先要关注生产力。超越表面的华丽,思考你试图实现的目标。探索如何利用技术在整个组织各个层面上推动创新。然后要保护好你的数据和人员。


二、明确内部工作以及您的合作伙伴在哪里


“我们必须制定一个非常明确的政策,规定我们建造什么和购买什么,”Kersten(克尔斯滕)说。“我有相当大的人工智能和数据科学团队,我们的客户成功组织希望这些团队建立客户支持能力。但我们需要这些专家来开发产品功能。为了让他们继续从事核心工作,我们的政策明确了我们建造什么和购买什么。”


Kersten(克尔斯滕)认为,制定明确的开源政策也很重要。Planview选择仅将开源模型集成到研究和内部用例中。至于他们销售的功能,该公司建立在具有明确使用条款的LLM"LLM" 通常是指 "Large Language Model",即大型语言模型。这些模型是在大规模数据集上进行预训练的,能够理解和生成人类语言。它们在多种任务上表现出色,如文本生成、翻译、摘要、问答等。随着人工智能技术的发展,越来越多的企业和研究机构开发了自己的大型语言模型,以推动自然语言处理领域的进步。)之上。“我们政策的一部分是确保大型语言模型提供商的使用条款满足我们的隐私和合规性需求。”他说。


在完全不同的行业中,位于香港的华尔街英语(Wall Street English华尔街英语(Wall Street English)是一家全球性的英语教育机构,成立于1972年,总部位于英国。该机构在全球多个国家和地区设有分中心和学习中心,为成人提供英语学习服务。华尔街英语采用沉浸式教学方法,通过个性化课程和多媒体教学材料帮助学生提高英语水平。该公司在香港设有分中心和学习中心,为当地的英语学习者提供服务。】,这所国际英语语言学院开发了自己的AI技术栈,以实现对其业务至关重要的技术的精通。“我们追求更快的创新,更好的成果以及完美匹配学生和教师需求的定制解决方案,”公司首席产品和技术官Roberto Hortal(罗伯托·霍尔塔尔)表示。“我们保持积极的态度。我们的政策之一就是紧跟最新发展、最佳实践以及潜在风险。”


Roberto Hortal(罗伯托·霍尔塔尔),华尔街英语首席产品和技术官

作为一家教育机构,华尔街英语将人工智能整合到他们的自学计划中。他们将其用于语音识别,以提供有关发音的反馈,以及对话代理的基础,让学生通过模仿现实生活中的场景来练习对话技巧。该公司建立了一个治理框架,不仅包括技术、财务和法律方面的考虑,还包括多元文化环境中的道德规范。


三、在整个价值链中保护正确的事物


由于Planview使用代码生成工具,因此PlanviewAI治理包括确保它们不侵犯版权的规则和指南。它还保护自己的软件,因此没有一个代码生成工具会选择它并在其他地方重用它。Kersten(克尔斯滕)表示,该公司的AI治理不仅明确了这些要点,还告诉用户如何配置工具。


GitHub CopilotGitHub Copilot 是由 GitHub 开发的一个基于机器学习的代码补全工具,它能够提供编程建议来帮助开发者更快地编写代码。GitHub Copilot 利用了深度学习技术,特别是自然语言处理和机器学习模型,来分析大量的开源代码仓库,学习编程语言的语法和常用的代码模式。GitHub Copilot 的主要功能是在开发者编写代码时提供智能提示。它可以预测开发者可能要输入的代码,并显示相关的代码建议。这些建议可以帮助开发者减少打字时间,减少错误,提高编程效率。GitHub Copilot 还能够根据项目中的上下文提供代码建议,这意味着它能够理解开发者的工作流和项目的特定需求。)有一个设置,可以检查以确保它不会给你提供受版权保护的代码,”Kersten(克尔斯滕)说。“然后,另一个设置会让它检查你的最终代码,以确保它不会太接近其存储库中的某些内容。还有一个设置可以告诉GitHub Copilot不要保留你的代码。”


当然,需要保护的内容取决于业务范围。Planview关注的是保护知识产权,而华尔街英语则关注文化敏感性。他们调整课程内容以避免冒犯学生,他们的人工智能工具也需要这样做。Hortal(霍尔塔尔)说:“正如我们通过培训教师来保证线上课程的安全,确保不会说出任何不适当的话一样,我们必须确保AI不会表达出无意的观点或不适当的内容。我们采用诸如输入净化、上下文跟踪和内容过滤等技术来降低风险和漏洞。所有这些都是我们AI治理的一部分。”


无论您正在保护什么,规则都不应该只停留在您自己的组织内部。应努力确保在外包工作时能够保证同样的保护。“世界上一些最复杂的公司内部拥有惊人的人工智能治理结构,”LogicGateLogicGate 是一家专注于治理、风险管理和合规程序管理的平台,它提供了无代码界面、图数据库和实时可见性等功能。这个平台旨在帮助企业简化和自动化其内部控制流程,确保符合各种法规要求,并提高整体运营效率)的首席执行官Matt Kunkel(马特·昆克尔)说,LogicGate是一家提供整体治理、风险和合规性(GRC)平台的软件公司。“但随后他们将所有数据发送给第三方,这些第三方将这些数据用于他们的大型语言模型。如果你的第三方不同意你的人工智能使用政策,那么在这一点上,你就失去了对人工智能治理的控制。”


四、立即开始


来自已经实施AI治理的IT领导者最常见的建议是立即开始。从IT领导层开始致力于AI治理到他们在整个组织中传达规则可能需要几个月的时间。举个例子,Planview从他们开始考虑他们的政策到他们在学习管理系统中向整个公司提供它,大约花了六个月的时间。


作为AI的早期采用者之一,Kersten(克尔斯滕)经常公开谈论Planview的经验。“等待的组织将落后,”他说。“现在就把你的政策拿出来。这并不像你想象的那么难。一旦它们在那里,它将真正帮助你如何在内部构建东西,以及你如何为外部市场提供什么。”


Matt Kunkel(马特·昆克尔),LogicGate 首席执行官

Kunkel(昆克尔)对此表示赞同。“影子使用案例(AI影子通常指的是在没有组织监督的情况下部署或使用人工智能系统的现象,这种做法可能会给企业带来风险。)已经形成,因此首席信息官必须尽快掌握人工智能政策,”他说。“开始的一个方法是围绕组织对人工智能的风险承受能力建立共识。人们需要就他们在快速行动和保护客户数据之间想要达到的平衡进行坦率对话。”


一旦您制定了治理策略并将其传达给整个组织,人们就可以自由地专注于增加价值。


作者:Pat Brans(帕特·布兰斯),自由撰稿人、作家


Pat Brans(帕特·布兰斯)是Grenoble Ecole de Management格勒诺布尔高等商学院(Grenoble Ecole de Management),简称GEM,是欧洲知名的商学院之一,位于法国格勒诺布尔市中心,被誉为欧洲“硅谷”。该校是法国精英教育系统大学校(Grandes Écoles)的成员,由高等商业学院(ESC Grenoble)、商业研究生院(GGSB)、信息管理学院(EMSI)和博士生院(Doctoral School)组成。】的副教授,也是《掌握当下:五十位CEO教你时间管理的秘密》一书的作者。Brans(布兰斯)是公认的技术和生产力专家,曾在Computer Sciences CorporationComputer Sciences Corporation (CSC) 是一家成立于1959年的全球信息技术服务公司,提供外包服务、系统整合和咨询等服务。CSC 曾是全球领先的 IT 服务公司之一,但在 2017 年与 Hewlett Packard Enterprise (HPE) 的 Enterprise Services 业务合并,成立了 DXC Technology Company。】HPHewlett Packard (HP) 是一家知名的全球信息技术公司,提供广泛的硬件产品和服务,包括个人电脑、打印机、服务器、存储设备以及 IT 服务。HP 在个人电脑市场中占有重要地位,并且在企业级解决方案方面也有显著的市场份额。】SybaseSybase 是一家专注于数据库管理系统和中间件软件的公司,曾经是全球领先的数据库解决方案提供商之一。Sybase 的产品被广泛用于企业级数据仓库平台,并在金融服务、电信和政府等行业中有广泛的应用。不过,需要注意的是,Sybase 在 2010 年被 SAP AG 收购,因此目前是 SAP 的一部分)担任高级职位。他的大部分企业经验都集中在应用技术来提高员工效率上。现在,他通过写作和教学将同样的想法带给更多的观众。


译者:小知  @lex


【睿观:本文介绍了CIO如何利用人工智能提高生产力,并从四个方面总结了司制定人工智能治理策略的经验教训:

  1. 利用现有框架:可以参考现有的IT治理框架或其他组织的经验,制定适合自身情况的人工智能治理策略。

  2. 明确内部工作以及您的合作伙伴在哪里:要明确哪些人工智能技术由内部团队开发,哪些由外部合作伙伴提供,并制定相应的策略和指南。

  3. 在整个价值链中保护正确的事物:要制定措施保护知识产权、数据隐私和文化敏感性等重要事项。

  4. 立即开始:不要等到拥有完善的策略后再开始实施,要从现在就开始积累经验并逐步完善。

(一)行动路线图建议:

  1. 建立共识: 召集来自不同部门的利益相关者,讨论组织对人工智能的风险承受能力和目标。

  2. 制定策略: 根据组织的具体情况,制定涵盖技术、数据、伦理等方面的人工智能治理策略。

  3. 实施策略: 将策略传达给全体员工,并提供必要的培训和支持。

  4. 监控和改进: 定期评估人工智能治理策略的有效性,并根据需要进行调整。

(二)其它附加建议:

  • 关注人工智能技术的最新发展,并及时更新治理策略。

  • 建立透明和问责的治理机制,确保所有利益相关者都能参与其中。

  • 将人工智能治理纳入组织的整体风险管理和合规框架。


通过采取这些措施,组织可以确保人工智能技术以安全、合乎道德和负责任的方式得到开发和使用。】