Anthropic反超OpenAI,AI竞争从模型发布打到企业交付和基础设施

Anthropic反超OpenAI,企业AI的胜负手变了

Ramp数据显示,Anthropic企业市占率达到34.4%,首次超过OpenAI的32.3%。这条消息之所以重要,不只是因为榜首换人,而是它把企业AI采购的真实偏好摆到了台面上:模型能力仍然关键,但稳定交付、代码能力、工作流整合、权限管理和成本可预期性,正在成为企业客户更愿意掏钱的理由。

Anthropic反超OpenAI,AI竞争从模型发布打到企业交付和基础设施

过去两年,OpenAI一直占据大众认知里的中心位置,ChatGPT的用户规模、品牌声量和生态扩张都足够强。但企业市场不是单纯比谁更会发布新模型,客户更关心AI能不能嵌进研发、客服、数据分析、销售支持等具体流程,并且在长期使用中保持可控。Anthropic企业采用率过去一年增长近4倍,年化营收约440亿至450亿美元,说明Claude已经不只是“好用的模型”,而是在不少公司内部变成了工作系统的一部分。

入口之争从聊天框移向操作现场

Google在Android Show推出Magic Pointer,也让AI入口的变化更直观。它依托Gemini让光标理解屏幕内容,用户不一定要先把问题整理成完整提示词,再复制到聊天窗口里,而是可以在网页、应用、文档和系统界面里直接触发AI能力。聊天框不是消失,而是从唯一入口变成众多入口之一。

这会影响产品形态。过去的AI助手像一个独立窗口,用户需要主动把任务搬进去;新的AI入口更像贴在操作系统、浏览器和办公软件上的智能层,能感知上下文,也能减少来回切换。对普通用户来说,这意味着AI会更像“功能增强”,而不是一个需要学习使用方法的新软件;对开发者和企业来说,入口越靠近真实操作现场,数据、权限和自动化边界就越重要。

Kimi、国产GPU与Cerebras把基础设施推到台前

Kimi K2.6背后的TiDB Cloud案例,展示了AI应用对数据库和云基础设施的新要求。它提出“人手一个独立数据库”的AI建站能力,能够快速创建实例、动态调整表结构,并承载高并发场景。换句话说,当AI开始替用户生成应用、网页和业务系统时,后台不只是调用模型,还要自动准备数据表、权限、存储、部署和扩缩容。

国产GPU开源链路也在加速。摩尔线程主办SGLang × MUSA Meetup,联合SGLang、TileLang等开源项目核心开发者,打通国产GPU到大模型推理的工程链路,并向SGLang主线提交大量PR。它的意义不在于单点性能宣传,而在于国产算力能否真正进入主流推理框架、开发工具和部署栈。只有当框架适配、算子优化、模型服务和社区反馈形成闭环,算力替代才有可能从新闻走进生产。

Cerebras则从另一条路线切入基础设施竞争。其计划以480亿美元估值IPO,并向OpenAI授予价值50亿美元的认股权证,未来三年为OpenAI提供750兆瓦算力。对大模型公司来说,算力供应链已经不是后台采购问题,而是战略合作、资本结构和模型迭代速度共同绑定的核心资源。

Agent和自动化开始进入精细计费时代

Anthropic宣布Claude套餐将不再把自动化任务完全包含在原有使用方式里,而是把可自动调用的任务拆分为单独额度。这看起来像一次产品规则调整,本质上却说明Agent能力的成本结构已经无法按传统聊天次数简单覆盖。手动问答和自动化任务消耗的资源不同,后者可能持续调用工具、读取上下文、执行多步骤操作,并带来更高的不可控成本。

Cursor上线Claude Opus 4.7“极速模式”也传递了类似信号:同一模型通过API配置换取2.5倍速度,但价格上涨6倍,官方甚至建议多数任务不要使用。这说明AI产品正在从“统一套餐”走向更细颗粒度的性能档位。未来用户可能像选择云服务器规格一样选择模型服务:便宜但慢、标准均衡、极速昂贵、长上下文专用、自动化任务专用,各自对应不同业务场景。

MiniMax发布桌面端Agent产品Mavis,推出可协作的Agent Teams功能,也把Agent从单助手推向团队式协作。多Agent并行分工、相互核验、统一订阅,解决的是复杂任务里的上下文隔离和结果校验问题。企业愿不愿意使用Agent,不只看它能不能回答问题,更看它能不能把任务拆开、按角色执行、最后给出可靠交付。

递归进化、长上下文Bug与安全边界同场出现

Recursive Superintelligence由八位顶级AI研究员创立,获GV、英伟达等投资6.5亿美元,估值46.5亿美元,目标是让AI自动化完成整个训练流程。这个方向代表了前沿AI实验室的一个新焦点:不只是让模型完成任务,而是让模型参与改进模型、构建数据、设计训练流程、评估输出,并逐步缩短研发闭环。

但另一边,Claude Code被发现会混淆自身输出与用户指令,尤其在百万上下文场景下可能把系统事件误当用户输入。这类问题提醒行业,长上下文并不等于长期可靠记忆。上下文越长,模型越容易被历史内容、工具输出、日志文本和伪指令干扰,安全边界也越难维护。企业部署Agent时,不能只盯着上下文长度,还要设计消息来源标记、权限隔离、工具调用审计和异常回滚。

这也是企业AI市场进入深水区后的共同难题:能力越强,边界越要清晰。模型能读屏、能写代码、能操作工具、能调用数据库之后,错误不再只是回答不准,而可能变成错误执行、错误授权或错误决策。真正成熟的AI产品,必须把安全机制做进系统层,而不是只靠用户自己判断。

具身智能和应用侧继续扩大AI战场

机器人方向的消息也很密集。索塔无界押注“机器人大脑”出海,聚焦欧美商超等场景;灵初智能累计采集10万小时人类操作数据,走以人类数据为核心的具身智能路线;灵御智能两个月内再获近亿元资本加注,计划一年内构建百万级高质量真机数据集。这些进展说明具身智能正在从概念验证转向数据、订单和工程交付。

应用层同样在扩张。百度秒哒让普通人可以在手机上通过自然语言生成可安装APP,高德与阿里千问团队开源A2UI框架,让AI生成跨端原生界面;腾讯微信支持把聊天记录转发给元宝整理信息;阿里健康发布面向医生的医学AI“氢离子”,强调低幻觉和循证出处。这些产品都在把AI带进更具体的人群和场景:开发者、商户、医生、普通手机用户、企业员工,每类人都需要不同的AI入口。

综合来看,AI竞争的主线已经不再是单个模型发布就能定义全局。企业市占率变化、系统入口迁移、算力供应链绑定、Agent计费重构、具身智能融资和应用落地同时发生,说明行业进入了更复杂的系统战。接下来真正有优势的公司,可能不是某一项指标最高的公司,而是能把模型、算力、数据、工具、权限和场景一起打通的公司。

© 版权声明
THE END
喜欢就支持一下吧
点赞10 分享
评论 抢沙发

请登录后发表评论

    暂无评论内容