你好,欢迎您来到福建信息主管(CIO)网! 设为首页|加入收藏|会员中心
您现在的位置:>> 新闻资讯 >>
面对快速变化的AI,日本企业应建立何种治理体系?
作者:CIO.com&睿观 来源:CIOCDO 发布时间:2025年07月07日 点击数:

为了应对AI使用中日益高级化的风险,仅仅“注意使用方法”是不够的,构建新的治理体系至关重要。

图片来源:VideoFlow / Shutterstock

生成式AI是企业在推进数字化转型(DX)中迅速引入的一项技术。在各种业务中,它不仅能生成文本,还能应用于图像、音频等媒体内容的创作,以传统IT系统所不具备的速度创造商业价值。然而,其背后存在着因处理海量数据而产生的风险。隐私侵犯、违反法规、知识产权问题等,企业必须认真面对的课题多种多样。 在EY(安永)日本株式会社担任风险咨询合伙人的川胜健司先生也表示:“正因为是生成式AI,其引发的风险问题比以往的IT系统波及范围更广。”他特别强调,“图像和音频等多样化的生成物,有可能助长欺诈、诽谤等犯罪行为,这是以往所没有的重大担忧。” 为了应对这样日益高级化的风险,仅仅“注意使用方法”是不够的,构建新的治理体系至关重要。在紧跟技术进步和监管动态的同时,企业应如何引入适当的制衡机制?本文首先将从组织体系和策略制定的角度,探讨应如何推进生成式AI的风险管理。

一、传统的“合规部门主导”模式无法覆盖的广泛风险

在传统的企业治理中,引入新技术时,通常由法务和合规部门主导制定规则。然而,生成式AI不仅涉及安全和隐私,还同时包含了“数据学习过程”、“模型选型”、“输出的可靠性/虚假内容生成”等需要技术知识的风险。

帝国数据银行在2024年夏季对4705家公司进行的调查显示,在利用生成式AI的企业中,风险应对负责部门“尚未确定”的企业高达45.1%。 川胜先生指出:“法务合规人员在监管方面有深厚知识,而IT部门则理解技术层面的风险。”但他强调,在使用生成式AI时,仅靠“法务”或“IT”都是不充分的,“由两者合作的‘全公司范围的跨部门团队’是必不可少的”。

二、需要一个能翻译并实施AI风险的“1.5线”

此外,川胜先生以金融机构为例,提出了一个被称为“1.5线”的风险管理框架。在普通企业中,有“一线(现场部门)”和“二线(审计、合规等部门)”,但金融机构有时会在IT部门内设立“系统风险管理职能”,作为一线和二线之间的中间环节。 “理想的做法是设立一个具有‘1.5线’角色的部门,并在IT部门内安排负责风险管理的成员。因为我们需要一个‘翻译者’,将高层讨论的策略,落实到实际的系统需求和服务规格中。”川胜先生说。 如果缺少这个“翻译者”,高层的策略将停留在抽象层面,无法在现场有效执行。为了应对AI特有的复杂风险,连接法务、合规、IT各个领域,并将其分解为具体实施需求的“1.5线”机制至关重要。

三、跨部门委员会与1.5线合作的优势

在考虑组织体系时,关键在于跨部门委员会(或小组委员会)与1.5线的IT风险部门的合作。据川胜先生说,以下流程是理想的:

  • 跨部门委员会

    • 成员示例:法务、合规、IT、总务、经营企划等。

    • 角色:制定AI使用的全公司方针(策略),确保与公司内部规定的一致性,判断如何应对各种法规和法令。进行包括“个人信息能处理到什么程度”、“在海外经营网点如何运作”等在内的全面讨论。

  • IT部门内的1.5线团队

    • 角色:将跨部门委员会决定的方针落实到实际的系统和服务中,必要时提出技术性建议和修改。在员工使用的生成式AI服务中,实施防止信息泄露的功能或集成日志监控。进行诸如“如何设置阻止个人信息输入的机制”、“在限制特定模型使用时如何构建访问控制”等实务层面的判断。

如果这个体系得以建立,就能减少“有策略但未执行”、“法务制定的规则与现场设想的运作不匹配”等不协调的情况。

四、策略制定与运作要点:“最高层基本规定”与“技术别指南”的双层结构

根据前述帝国数据银行的调查,在利用生成式AI的企业中,制定了方针或指南的企业不到两成。

川胜先生建议,在制定策略时的要点是“将宏观方针与实务指南分开制定”。具体来说,例如在最高层的“基本规定”中,参考OECD的AI原则等国际标准,将伦理和隐私保护的理念作为公司内部规定明文化。另一方面,针对不同的使用模型和技术设立“指南”,整理出更具体的禁止事项和推荐事项。 “例如,‘禁止向AI输入个人信息’在理念上是正确的,但在业务上,有时不得不处理个人信息。在这种情况下,‘确认本人同意的范围’、‘引入数据匿名化机制’等指南层面的定义是必不可少的。”(川胜先生)

五、需要一个能实现灵活更新的机制

AI技术日新月异,各国的监管也在加强。因此,建立一个能够灵活更新已定内部规程和指南的体系非常重要。川胜先生警告说:“如果在策略中加入过于严格的审批流程,将跟不上变化。”

为此,最好通过定期召开跨部门委员会会议、专设AI治理负责人等方式,确保能够快速决定规则的更新。 此外,为了熟练使用生成式AI并创造新价值,“什么都禁止”并非最佳选择。另一方面,如果无限制地使用,隐私泄露、违反法规、信誉受损的风险很大。川胜先生表示,“设定护栏,并承认一定程度的自由度”的方法是合理的。 “如果事无巨细地全部检查,会导致引入过程变得繁琐,损害创新。反之,如果放任不管,则可能引发重大事故。作为填补这两者之间空白的护栏,策略和指南是必需的。”

六、如何解释AI治理的成本?

对管理层来说,一个棘手的问题是AI治理的成本在多大程度上是正当的。但是,考虑到万一发生事件可能面临的来自当局的制裁或信誉受损,事后风险可能导致远比这高昂的损失。 “最近,参考同行业其他公司的案例,以‘那家公司已经做到这个程度了’的看齐意识来做决策的情况并不少见。”川-胜先生说。虽然理想情况是,在考虑了“事件发生时的处罚或诉讼成本”、“品牌受损导致的销售额减少”等因素后,定量地考虑风险效益,但能做到这一点的企业并不多。 实际的数据泄露成本逐年上升。根据日本IBM在2024年9月发布的报告,国内企业遭受数据泄露的平均成本达到6.3亿日元(同比增长5%),创下历史新高。

加强治理需要一定的投资,但像这样一旦发生大规模事件,就可能导致数亿日元规模的损失。在向管理层说明时,这类数据可以作为“事后成本 > 事前投资”的有力定量依据。 生成式AI时代的治理构建,不仅仅是合规应对,更是企业为了能安心利用AI并创造创新的“基础建设”。通过跨部门委员会与1.5线的合作,并建立能在全公司策略与具体实施指南之间自由切换的组织设计,无疑可以在不过度限制的前提下,将风险降至最低。



睿观:


1、核心挑战与应对框架。生成式AI带来了超越传统IT范畴的广泛而复杂的风险(如隐私、法律、伦理),单纯依赖法务或IT部门的传统治理模式已无法应对。专家建议构建一种新的治理体系:由法务、IT、业务等多方组成的“横断委员会”负责制定全公司范围的高阶策略与原则;而IT部门内的“1.5线团队”则扮演“翻译者”的角色,将这些策略具体化为系统需求和技术实现。

2、策略与执行要点。这种“策略层”与“执行层”联动的模式,能有效避免顶层设计与底层实施的脱节。在策略制定上,应采用“基本规定+技术指南”的双层结构,确保原则性与实践性的统一。在管理上,应设置灵活的“护栏”而非全面禁止,在不扼杀创新的前提下,将AI风险降至最低,并通过引用数据泄露的巨大事后成本来向管理层证明事前投资的必要性。

3、最终目标。通过这种新的治理体系,企业的目标是建立一个既能敏捷响应技术与法规变化,又能有效管控风险的框架,从而安全、负责任地利用AI,并将其作为驱动创新的核心引擎。

金句:AI时代的治理艺术:在高阶策略的“顶层设计”与具体代码的“底层实现”之间,需要一个既懂法律又懂技术的“翻译官”。