你好,欢迎您来到福建信息主管(CIO)网! 设为首页|加入收藏|会员中心
您现在的位置:>> 新闻资讯 >>
大型计算机的 AI 焕新:为什么“人”比“技术”更关键?
作者:CIO.com&睿观 来源:CIOCDO 发布时间:2026年01月30日 点击数:

摘要:70% 的财富 500 强企业仍依赖大型计算机。想让这些核心系统接轨 AI 自主智能体?如果忽略了技能差距、治理框架和团队信心,您的现代化之路可能会直接“抛锚”。

大型计算机(Mainframe)常被误认为是过去的遗物,但数据显示,它依然是全球商业心脏的起搏器。然而,当我们将最前沿的 AI 自主智能体(Agentic AI)引入这些关键任务环境时,一个严峻的现实浮出水面:我们的开发人员准备好了吗?

最近的报告显示,35% 已在大型计算机上使用 AI 的企业表示,技能差距正在严重阻碍进展。作为技术领导者,我们必须认识到:在大型计算机上部署 AI,不仅是技术升级,更是一场人才与文化的重塑。

一、 治理先行:制定“交通规则”

AI 驱动的威胁正在快速增长,而治理往往滞后。在处理敏感数据的大型计算机环境中,缺乏监管是致命的。

  • 风险现状:仅仅依靠技术监督是不够的,AI 系统对数据的依赖使得合规性变得极其复杂。

  • 战略举措:必须建立最新的组织护栏。这不仅是为了合规,更是为了保护系统完整性,避免因 AI 失控导致的财务或声誉损失。


二、 安全基石:为 AI 系好“安全带”

引入 AI 自主智能体意味着赋予系统“行动权”。这需要比以往更严格的安全措施。

  • 权限控制:实施基于角色的访问控制(RBAC),严格限制 AI 代理的权限。

  • 人机回环:尽管是“自主”智能体,但对高影响力操作必须保留人类监督层。

  • 提示工程规范:防止结构不良的提示导致 AI 做出不可预测的操作。


三、 信心与技能:从“维护者”到“驾驶员”

许多企业面临的问题不是缺乏培训资源,而是缺乏信心。开发人员往往对“动”这些核心遗留系统心存畏惧。

  • 打破认知偏见:大型计算机技能并非过时。事实上,“COBOL + AI”的复合型人才在市场上供不应求。

  • 建立安全区:通过导师制度和模拟环境(Sandbox),让开发人员在不破坏生产环境的前提下安全试错。


结语

AI 的兴起不是要取代大型计算机专家,而是要赋予他们新的能力。当有了正确的治理、安全框架和技能培训,开发人员将不再只是系统的“维护者”,而是能够自信驾驭 AI 驱动的大型计算机的“驾驶员”。


原文:为AI优先的未来培训核心系统开发人员

如果开发人员没有做好准备,AI就无法使大型计算机现代化。技能差距、治理不力和信心不足将迅速阻碍进展。

图源:Credit: PeopleImages.com / Shutterstock

大型计算机通常被视为过去的技术,但超过70%的财富500强公司仍然依赖它,因为它能够现代化并适应新的环境,以满足行业日益增长的技术进步。然而,随着大型计算机进一步深入这些混合环境,开发人员不能仅仅依赖大型计算机的专业知识。在人员和流程准备就绪之前,在大型计算机环境中整合AI——尤其是AI自主智能体——可能会创造或加剧现有问题。最近的一份报告发现,尽管公司正在投资技术和技能以使大型计算机开发人员为未来做好准备,但35%已经在大型计算机上使用AI的人表示现有的技能差距正在阻碍进展,这强调了采用更多种技能方法的需求。

开发者需要掌握最新的AI部署规则,提升其现有技能和技术熟练度,并培养在新技术进入企业环境中时安全进行实验的信心。

就像学习驾驶一样,在大型计算机上部署AI不仅仅需要了解其机械原理,还需要信心、实际操作和对系统的信任。

一、了解道路规则

企业安全团队越来越关注AI驱动的威胁,Gartner将其识别为增长最快的攻击类别。然而,治理和合规工作尚未跟上AI发展的快速步伐。有限的理解、低优先级和技术监督的差距正在造成重大风险,尤其是因为AI系统依赖敏感数据和不断演变的代码。与任何变革性技术一样,围绕AI的规则和法规正在不断演变,开发人员必须保持最新知识,特别是在受监管的环境中。

通过更好地了解和掌握最新信息,开发人员将能够使用最新组织护栏来监控大型计算机,这些护栏旨在保护系统和脆弱的数据。有效的护栏和治理框架确保员工负责任地使用AI,帮助组织避免监管违规、法律风险、安全风险以及可能导致的财务或声誉损害。

随着经验丰富的专业人退休,围绕“遗留”系统的误解持续存在,组织面临着日益增长的技能差距投资大型计算机教育不仅仅是一项技术需求,还是一种战略举措,旨在保护关键业务应用程序和基础设施,确保连续性并在快速变化的环境中保持竞争力。

二、安全是AI的安全带

与任何重大技术变革一样,安全性必须是采用AI自主智能体的基石。这些系统需要强大的保障措施,以确保安全可靠的运行。一项关键措施是基于角色的访问控制,它根据其特定功能限制代理权限,降低未经授权操作的风险。这通过安全的凭据存储、加密和多因素认证得到加强,以保护系统完整性和用户授权。

同样重要的是控制代理与数据交互和执行任务的方式。输入验证、输出监控和行为约束等技术有助于防止语言模型组件的滥用,而对高影响力行动的人类监督则增加了额外的保护层。提示工程同样至关重要,因为结构不良的提示可能导致AI智能体采取不可预测或不安全的操作。通过应用严格的提示设计和输入验证,组织可以确保AI驱动的过程保持准确、安全并符合业务目标。这确保了在执行之前对敏感或破坏性操作进行仔细审查。

最后,持续监控、可观测性和审计在整个系统生命周期中提供了透明度和问责制。这些实践增强了信任和完整性,使组织能够在保持合规性和控制的同时自信地部署AI。

三、通过核心技能整合推动驾驶准备

要在AI时代取得成功,开发人员需要具备核心技能未来准备的技能,并以基础培训为支撑。负责任深思熟虑地使用时,AI工具可以缩小这一差距并加速现代化努力——前提是它们有意部署。

大型计算机熟练度为AI部署奠定了深厚系统知识的基础。AI素养和AI智能体熟练度使开发人员能够构建、训练和管理与业务逻辑和企业目标一致的AI智能体

问题并不在于缺乏教育资源——目前有大量的培训可供选择。真正的障碍在于认知:大型计算机技能常常被认为过时或“不流行”然而,这些技能仍然具有很高的价值。事实上,像COBOL这样领域的专业知识往往比像Java这样更常见的语言获得更高的薪酬,因为合格的专业人员供不应求。

Futurum Group的一项研究表明,尽管教育机构正在培养更多具备大型计算机技能的毕业生,但仍有61%的受访者报告称,教学内容与实际需求之间存在显著的技能差距。这表明需要持续的技能整合,而不仅仅是基础培训。

四、掌握驾驶的信心

就像驾驶员可以了解道路规则,没有信心在道路上行驶一样,开发人员在部署像AI这样的新技术时也面临同样的风险。

导师指导、模拟工具和社区学习都可以通过为大型计算机开发人员提供安全的实践区域来帮助缩小信心差距,使他们可以在不担心影响生产的情况下探索AI的部署。

组织可以通过创建支持实验和技能发展的基础设施和文化来成为关键的推动者。建立信心与建立强大的技能集同样重要两者都是从谨慎的试点阶段迈向自信的规模生产部署所必需的。

驾驶不仅仅是向前移动,还包括为意外情况做好准备,知道何时加速以及信任你的工具。

AI的兴起不仅仅是关于自动化任务,更是关于赋予人们与他们曾经觉得令人生畏的系统进行互动的能力。对于许多人来说,大型计算机现代化的进展并非由于缺乏远见而放缓,而是由于缺乏信心,对从何处开始、可能会破坏什么以及如何填补退休专家留下的空白存在不确定性。但当AI智能体成为日常工作流程的一部分时,这种恐惧开始消散开发人员开始对自己的立足点充满信心团队开始以清晰而不是谨慎的方式做出决策。

有了正确的基础,大型计算机不再仅仅是开发人员维护的对象,而是他们可以驾驭的对象。

作者:Richard Baird(理查德·贝尔德)

译者:木青

原文链接:https://www.cio.com/article/4121590/skilling-mainframe-developers-for-an-ai-first-future.html


数据中心 IT技能和培训  职业  人工智能