将"新云"(neoclouds)视为云计算领域中聚焦专业领域的新兴细分玩家——只要你为智能连接做好规划,它们就能提供高性价比的AI功能。

图源:Shutterstock.com - Shutterstock AI Generator
在过去两年里,我注意到技术领导者谈论AI基础设施的方式发生了显著变化。一年前,讨论的焦点还集中在GPU的可用性和成本上;但如今,提出的问题不再那么绝对。无论是首席信息官还是首席技术官都在询问那些被称为"新云"的专业化AI云服务提供商是否真的已经足够成熟,以支撑企业的长期增长战略。他们希望了解这些新兴提供商与亚马逊云科技(AWS)、微软Azure和谷歌云等超大规模云服务商之间的关系定位,以及它们在一个均衡、具有韧性的云环境中能够扮演何种角色。
"新云"通过摒弃传统超大规模云服务商"样样通、样样松"的模式迅速崛起,转而专注于一项专业化定位:以低于通用云服务商的价格提供面向AI工作负载的GPU算力。这一细分市场使它们得以极速扩张。根据Synergy Research Group的数据,2025年"新云"收入突破230亿美元,同比增长200%,预计到本年代末将达到1800亿美元。但快速增长本身并不能回答企业决策者最关心的问题:这些平台的可持续性和企业级就绪程度究竟如何?
在我看来,正确的态度不应是将"新云"视为超大规模云服务商的替代品,也不应将其当作实验性的边缘项目。它们是响应真实市场需求而涌现的专业化基础设施提供商。对首席信息官而言,更相关的问题是如何将其智能地整合到一种始终保持可移植性、韧性并符合监管与性能要求的架构之中。
一、训练关乎算力容量,推理关乎用户体验
当我与考虑采用"新云"的企业团队交流时,我通常会先问一个简单的问题:你们主要是在训练模型,还是在大规模运行推理?这个答案几乎决定了后续的一切。
AI训练通常是集中式的。大规模数据集被迁移到算力充沛且成本效益高的地方,往往是那些电力、土地和冷却资源更容易获取的地点。在这种环境下,原始算力容量和每GPU小时的价格理所应当地主导讨论。连接性依然重要,尤其是在使用新数据进行模型微调时,但很少成为决定性因素。工作负载可以容忍一定的距离,因为核心目标是吞吐量。
推理则完全颠覆了这一理念。一旦模型部署完成并开始为用户提供服务,响应速度就成为成败关键。每一次与AI智能体或应用的交互,无论是机器对机器还是用户对机器及其反向交互,都取决于请求传输到模型的速度以及响应返回的快慢。尽管我们谈论的是数字系统,但物理学的原理并没有消失。从很多方面来看,这是一个"物理+数字"的生态系统,必须达到恰到好处的平衡。如果基础设施距离用户太远,体验就会变得缓慢而笨拙,导致许多AI应用场景完全失效。我们大多数人都还记得,当年在线视频需要盯着缓冲图标等待内容加载;AI推理现在正处于同样的境地,只不过负责管理自主工厂或解读自动驾驶汽车信号的AI系统无法容忍任何网络延迟。
这就是我说的评估标准需要与技术同步演进。当推理成为优先事项(现在往往如此),仅仅比较GPU规格和标价已经不够了。你需要了解提供商的地理位置、分布广度以及它与你的用户、合作伙伴和数据源之间的连接效率。推理奖励的是邻近性、韧性和架构精良的连接性。随着更多AI应用场景投入生产,这些因素开始直接影响业务成果,从客户满意度到员工生产力。
二、平衡成本与风险
"新云"之所以吸引如此多的关注,原因之一在于其定价易于比较。GPU小时费率公开透明,基准测试数据共享,采购团队可以快速计算出相对于超大规模云服务商的潜在节省。某些成本节省空间极具吸引力——据Uptime Institute数据。例如,2025年从超大规模云服务商购买Nvidia DGX H100的平均成本为每小时98美元;但从"新云"购买同等实例时,成本降至34美元,总节省约达66%。在AI预算承压之际,这种底线明晰性颇具吸引力。但在早期评估中不那么明显的是提供商的连接能力态势。对于推理密集型工作负载,连接性决定了延迟、韧性,最终影响用户体验。当我审视这一领域的提供商时,我的关注超越了硬件规格和价格。我希望了解它们的物理位置、分布广度以及与接入网络、企业网络和其他云环境的互联程度。
如果知道该关注什么,企业可以务实应对。公共路由和对等互联数据能够揭示一个平台的真实互联程度,以及它是否依赖狭窄的上游提供商集合。地理覆盖范围、互联节点的多样性以及与用户的邻近性都会影响性能和连续性。我还建议应用许多组织已在多云策略中使用的相同原则。很少有企业将所有关键工作负载置于单一提供商,同样的准则也应指导AI基础设施决策。最佳实践设想的是提供商的多样性,故障转移机制和网络冗余设计是基础设施设计的核心。在这方面,"新云"可以成为这一组合中的额外组成部分,在特定区域内提供技术专业化和潜在的强大地理覆盖。无论选择哪些提供商,从一开始就面向可移植性和互操作性进行架构设计,可以降低风险敞口并保持敏捷性和韧性。
三、主权正在成为架构考量
除了性能和韧性,我还看到数据主权正从政策讨论转变为基本设计要求。数据保护法规已经重塑了企业对存储和处理的思考方式。欧盟《通用数据保护条例》(GDPR)的出台迫使许多组织重新审视个人数据的存储位置、跨境流动方式以及哪些第三方可以访问。对某些企业而言,这意味着重构云部署、重新谈判合同或将某些工作负载本地化。随着AI更深入地嵌入决策流程,类似的问题现在也被问及模型的训练地点、托管地点以及哪些司法管辖区管辖对其的访问。
不同之处在于,主权不再仅仅是合规问题,它现在影响着运营控制权。如果AI模型支撑客户体验或欺诈检测等服务的自动化,企业需要确信该模型不会被以损害组织利益的方式篡改、限制或访问。这使得数据流和基础设施位置的透明度成为绝对必要。因此,在评估"新云"提供商时,我鼓励决策者询问数据在何处处理、流量如何在区域间流动以及围绕司法管辖控制存在哪些保障措施。"新云"作为更年轻、更具区域性或本地化的云服务商,可以被利用来确保这一点。随着监管框架成熟和地缘政治紧张局势持续塑造技术政策,这些早期架构决策将产生深远影响,而AI越是深入嵌入流程和系统,这种影响就越显著。
四、成熟度的体现
"新云"已在市场中站稳脚跟,但若要在超大规模云服务商的激烈竞争风浪中实现可持续发展,它们需要以新的方式演进和差异化。它们早期的吸引力建立在成本效益和快速获取GPU容量的基础上。但随着AI持续崛起,领导者需要就性能、韧性、可见性和控制提出更深入的问题。在我看来,这些问题被提出本身就意味着成熟而非不确定。当前最有效的策略是将"新云"视为超大规模云格局的补充,而不是二选一的决策。当用于合适的工作负载时,它们可以与成熟的超大规模云服务商并存,增加灵活性、选择权和数据主权。它们是响应真实需求的专业化基础设施提供商,组织应以对待任何新技术或提供商的方式对待它们——深思熟虑,并充分考虑它们如何作为支持可移植性、透明度和韧性的更广泛架构的一部分发挥作用。
AI将在未来几年继续重塑连接策略,随着这一进程,曾经感觉纯粹技术性的基础设施决策将越来越多地影响客户体验、监管态势和运营连续性。以这种更广阔的视角评估"新云"的决策者,将是那些能够超越炒作、为其企业创造持续优势的人。
睿观:“新云”崛起:企业如何将专业AI算力融入现代云架构?
随着AI基础设施的演进,企业IT领导者的关注点正从单纯的GPU获取成本,转向对“新云(Neoclouds)”成熟度的审视。这类摒弃了传统超大规模云服务商(如AWS、Azure)“大而全”模式的新兴玩家,凭借为AI工作负载提供极具性价比的专业GPU算力迅速崛起,2025年其市场收入已破230亿美元。
面对这一迅猛趋势,企业决策者不能仅被低价所吸引,而应以全局视角评估并整合“新云”。其核心考量主要集中在以下三个维度:
一、区分业务场景:训练看算力,推理看连接
AI训练是集中式的,对地理位置容忍度高,核心是算力容量与成本;但AI推理直接决定了用户体验,对网络延迟“零容忍”。因此,在推理主导的场景下,评估“新云”绝不能只看GPU标价,更要考量其物理节点的分布广度、以及与用户和企业网络的连接效率。
二、平衡成本与风险:坚持多云策略与可移植性
“新云”在价格上极具杀伤力(例如同等实例成本可比巨头低66%),但在享受成本红利时必须兼顾风险控制。企业应将现有的多云策略延伸至AI基础设施,考察“新云”的网络冗余度和对等互联能力。从第一天起就以“可移植性”和“互操作性”为核心进行架构设计,避免被单一供应商绑定。
三、考量数据主权:从合规升级为运营控制
随着AI深度嵌入企业核心决策,数据与模型存放在哪里、受何种法律管辖变得至关重要。相比全球化的超大云巨头,更具区域化、本地化特征的“新云”反而能更好地契合GDPR等严苛的数据隐私法规,帮助企业实现敏感工作负载的本地化,确保对AI模型的绝对控制权。
面对“新云”的浪潮,在此奉上一句: “将‘新云’视为超大规模云服务商的颠覆者是一种误解,它们实则是构建高韧性、高性价比且数据自主的现代AI架构中不可或缺的专业拼图。”
总而言之,“新云”不应是巨头的完全替代品,也不应是边缘实验项目。CIO们唯有跨越价格炒作,将其智能地融入现有的多云生态中,兼顾性能、合规与连续性,才能在AI时代为企业构筑持久的战略优势。