你好,欢迎您来到福建信息主管(CIO)网! 设为首页|加入收藏|会员中心
您现在的位置:>> 新闻资讯 >>
IT领导者看到小型AI模型的巨大商业潜力
作者:CIO&睿观 来源:CIOCDO 发布时间:2025年05月09日 点击数:

小型语言模型(SLM)更适合交付特定于业务的AI应用,凭借其敏捷、成本效益高、任务针对性强的特点,可能很快在企业应用方面超过大型语言模型(LLM)。

图片来源: Rob Schultz / Shutterstock / Unsplash

小型语言模型(SLM)为首席信息官(CIO)提供了更多机会来开发专门的、针对特定业务的AI应用程序,这些应用程序比依赖通用大型语言模型(LLM)的应用程序运行成本更低。

根据Gartner最近的一份报告,到2027年,更小、特定于上下文的模型将在使用量上超过其对应模型,至少是LLM的三倍。该报告还声称,对于需要特定业务上下文的任务,LLM的响应准确性会下降。

Gartner分析师、该报告的作者之一Sumit Agarwal表示:“业务工作流程中任务的多样性以及对更高准确性的需求,正在推动向针对特定功能或领域数据进行微调的专业模型的转变。这些更小、任务特定的模型提供更快的响应,使用更少的计算能力,从而降低了运营和维护成本。

印度Wipro的技术人员Magesh Kasthuri博士表示,他不认为LLM比SLM更容易出错,但同意LLM的幻觉可能是一个问题。“对于以领域为中心的解决方案,例如在银行或能源领域,SLM因其敏捷性、成本效益、快速原型设计和开发、安全性以及组织数据的隐私性而成为首选,” Kasthuri说。

尽管人们的注意力集中在执行广泛功能的通用LLM上,如OpenAI、Gemini、Claude和Grok,但一批小型、专门的模型正作为任务特定应用的成本效益替代方案而兴起,包括Meta的Llama 3.1、微软的Phi和谷歌的Gemma SLM。

例如,谷歌声称其最近推出的Gemma 3 SLM仅需一个Nvidia GPU即可运行。

一、SLM吸引企业关注

Avery Dennison的首席信息官Nicholas Colisto认为,代理式AI(agentic AI)的兴起是如今CIO对SLM兴趣增加的原因之一。

为生成式AI和代理式AI应用选择合适的基础模型是CIO和首席AI官(CAIO)如今面临的更复杂的决策之一。这不仅仅是关于性能基准——而是关于平衡成本、安全性、可解释性、可扩展性和价值实现时间,” Colisto说。“格局正在从大型通用模型转向更小、特定领域的模型,这些模型能更好地满足行业需求,同时降低风险和成本。”

Gartner认为,SLM可以增强对敏感业务数据的控制,同时降低运营成本并提高特定领域的性能。Gartner声称,这种更具针对性的AI方法——用于客户服务自动化、市场趋势分析、产品创新和情感分析——还提供了隐私和版权保护方面的好处。

“这100%准确,” IBM旗下公司Hakkoda的首席创新官Patrick Buell说。“在防火墙后运行的经过调整的开源小型语言模型解决了许多安全、治理和成本问题。”

前CIO、Intelagen创始人Tom Richer表示,Gartner的报告与他在实践中看到的情况一致。Intelagen是一家开发和部署专业垂直AI解决方案的谷歌合作伙伴。

“通用LLM有其用武之地,但对于特定的业务问题,更小、经过微调的模型能以更高的效率提供更好的结果,尤其是在受监管的行业,” Richer说。“推动向SLM转变的主要驱动力是LLM的幻觉风险。通用LLM产生不准确或无意义信息的倾向,尤其是在处理特定或细微的业务上下文时,是一个重大障碍。

Richer补充道:“对于准确性和可靠性至关重要的企业应用程序来说,这种固有风险使得在许多情况下完全依赖通用LLM是行不通的。这是一个根本原因,说明为什么更具针对性、专业化的方法通常是更审慎、更可靠的解决方案。在医疗保健用例中不能冒出现幻觉的风险。”

二、流动的未来

去年秋天,微软宣布利用其Phi SLM产品组合调整AI模型,以扩展其行业能力,并使企业能够更准确、更有效地满足定制需求。该公司宣布正在与拜耳、罗克韦尔自动化、西门子数字工业软件等企业合作伙伴开发经过微调的模型,这些模型使用特定行业的数据进行预训练,以适应常见的业务用例。

微软首席执行官萨提亚·纳德拉最近在东京的一次演示中称赞了一家大型航空公司开发的SLM。“借助我们的SLM Phi,日本航空的空乘人员在文书工作上花费的时间更少,而有更多时间陪伴乘客,” 纳德拉在LinkedIn上发帖称。

微软还声称,其Orca和Orca 2展示了使用合成数据对小型语言模型进行后训练,使其能够在专门任务上表现更好。

谷歌的Gemma 3基于Gemini 2.0,是一系列轻量级、最先进的开放模型,旨在快速运行,直接在设备上——从手机、笔记本电脑到工作站。“Gemma SLM模型利用业务领域特定的智能而非广泛的泛化能力,并针对医疗保健、法律和金融等行业量身定制,在各自领域表现优于LLM,” 公司向CIO发布的一份声明中提到。

Gartner表示,企业可以通过使用检索增强生成(RAG)或其他微调技术来自定义LLM以完成特定任务,从而创建专门的模型。但Gartner关于SLM将在两年内超过LLM的预测,说明了整个行业正在加速向使AI更具任务特定性并遵守治理和监管合规性的趋势发展,Cognizant副总裁兼AI与分析全球主管Naveen Sharma说。

“随着组织寻求更有效地扩展AI,更小、任务特定的模型被证明更快、更高效,并且更容易集成到实际的业务工作流程中,” Sharma说。“在AI模型方面,更小可能更智能,但未来不是非此即彼:而是协同编排,大型模型提供基础,更小、有针对性的模型满足精确的业务需求。”

Sharma还表示,SLM开发的增加并不意味着大型基础模型会消失。

“如果说有什么不同的话,那就是它们的作用变得更具战略性。它们不再是最终产品,而是成为起点——提供核心能力,团队可以在此基础上构建、调整和微调以适应特定的用例,” Sharma补充道。“我们正在从将它们用作通用工具转变为将它们用作更量身定制、更高效、能更好地服务于业务的AI系统的核心基础设施。”

作者:Paula Rooney CIO.com的高级撰稿人,专注于CIO如何部署AI、云和数字技术来转变其组织。作为一名资深的IT记者,她拥有哥伦比亚大学新闻学硕士学位,最近凭借其企业新闻报道《AI走向核能?数据中心交易表明这不可避免》和案例研究《洛杉矶公设辩护人CIO通过数字化将人们引导至项目而非监狱》获得了ASBPE地区银奖和地区铜奖。


睿观:小型语言模型 (SLM) 因其在特定业务应用中的高效、低成本和高准确性,正迅速获得企业青睐,预计其使用量将很快超过通用的大型语言模型 (LLM)。

(一)论据 (Supporting Arguments):

  1. 针对性与准确性:

    SLM 针对特定任务或领域进行训练/微调,能够提供比通用 LLM 更准确、更可靠的结果,尤其是在需要具体业务上下文或处理敏感信息的场景(如医疗、金融),显著降低了“幻觉”风险。

  2. 成本效益与效率:

    SLM 的计算需求远低于 LLM,运行和维护成本更低,响应速度更快,部署更灵活(甚至可以在设备端运行,如 Google Gemma)。

  3. 安全性与隐私性:

    SLM 可以部署在企业防火墙内,更好地控制敏感业务数据,满足隐私保护和合规性要求,解决了使用外部通用 LLM 可能带来的数据安全和治理担忧。

  4. 敏捷性与易用性:

    SLM 更小、更专注,使得企业能够更快地进行原型设计、开发和部署针对特定需求的 AI 应用,更容易集成到现有工作流程中。

(二)支撑细节与例证 (Evidence & Examples):

  • 市场预测:

    Gartner 预测到 2027 年,SLM 的使用量将至少是 LLM 的三倍。

  • 行业专家观点:

    • CIO (Colisto, Richer) 认为 SLM 更适合特定行业需求,平衡了性能、成本、安全和价值实现时间,并强调了 LLM 的幻觉风险是转向 SLM 的主要驱动力。

    • 技术专家 (Kasthuri, Buell) 指出 SLM 在特定领域(银行、能源)的优势,以及开源 SLM 在安全、治理和成本方面的益处。

    • 分析师 (Agarwal) 指出业务任务多样性和准确性需求推动了专业化模型的发展。

  • 技术发展与应用:

    • 各大科技公司 (Meta, Microsoft, Google) 纷纷推出 SLM (Llama 3.1, Phi, Gemma, Orca)。

    • 微软利用 Phi 为特定行业(如航空业 JAL)定制解决方案,并探索用合成数据训练 Orca。

    • 谷歌的 Gemma 强调可在单个 GPU 或设备上运行,并针对特定行业进行优化。

  • 未来趋势:

    未来并非 SLM 与 LLM 的二选一,而是两者的协同编排 (Orchestration)。LLM 可能作为基础架构提供通用能力,而 SLM 则在此基础上针对具体业务需求进行构建和微调 (Sharma观点)。