极悦平台=微软 Build 2025:马斯克、奥特曼、黄仁勋齐亮相,Agent成主战场
极悦平台“我们已经进入了AI Agent时代,正在见证AI系统如何以全新方式帮助我们解决问题。”
昨晚,微软2025年Build大会上,微软正式亮出其面向未来的AI战略蓝图。
AI不再只是一个工具,而正在成为拥有自主感知与执行能力的“数字代理”,重塑软件开发、工作流程乃至整个商业逻辑。
除了微软 CEO 纳德拉和 CTO Kevin Scott 齐上阵,“AI三巨头”也以连线形式齐聚:OpenAI CEO山姆·奥特曼、英伟达CEO黄仁勋,以及xAI创始人埃隆·马斯克。
极悦平台以“开放的 Agentic Web”为核心议题,微软试图讲述一个关于AI未来的完整叙事——一个由模型、算力、工具链和开发者共同构成的,针对未来AI代理(Agent)的未来格局。
纳德拉与奥特曼的对话,集中落在AI Agent生态系统的进展上。
“现在是做开发者的绝佳时机,”纳德拉表示,“这些工具正在变得越来越强大,但真正重要的,是它们能彼此协作,构建出前所未有的创造力。”
纳德拉特别提到 OpenAI 刚刚于上周五发布的 Codex Agent:一个能理解自然语言指令、操作系统和开发工具的智能体,正是开发者工具从“助手”向“协作者”演进的标志。
值得一提的是,微软自家的 Coding Agent 也首次亮相,它让GitHub上的Issue分配逻辑直接“智能化”:开发者只需像分配任务给队友一样,直接指派任务给Copilot。背后则是230,000家企业已在使用Copilot Studio定制自家代理,微软预计到2028年,这一数字将达到13亿个AI代理。
从对话式助手,到可执行任务的Agent,再到能多智能体协作的系统级产品,微软在以一种更强悍的方式定义“Copilot”。
纳德拉:Sam,你一直在关注软件开发中各种交互形式的演变,从命令行,到聊天界面,再到今天的编码代理。你能和我们谈谈,你对软件工程未来的发展方向有怎样的设想?以及,开发者如何在不同交互方式之间自由切换、高效协同,来充分利用这些智能工具?
Sam Altman:这其实是我们早在2021年推出初版 Codex 时就在设想的路径。当时我们与 GitHub 团队合作,最初的目标之一,就是希望有朝一日能构建出一个多模态、可协作的开发平台,让 AI 成为每位开发者真正意义上的“虚拟搭档”。
今天我们终于迈出了这一步,能实现这样的编码代理体验,对我来说依然有些不可思议。我认为这是我所见过的编程方式中最具变革意义的一次。开发者如今可以真正拥有一个能接收任务的“虚拟队友”——你可以让它继续处理你刚才在做的工作,也可以让它着手更复杂的任务。甚至未来有一天,你可以对它说:“我有个大胆的想法,你去花几天把它实现出来。”
而且这只是开始,未来只会越来越强大。最令人兴奋的是,它已经和 GitHub 深度集成。你可以授权它访问特定的代码库和运行环境,然后,它就能完成一些真正令人惊叹的工作。现在,开发者可以在保持完整思维流的状态下,与 AI 编程代理自然协作,就像与人类搭档一起开发一样。而整个开发流程和生命周期,也因此被大大加快了。
纳德拉:你们团队还在同步推进很多模型的研发,而且表现非常出色。我们也有机会在第一时间体验你们构建的各种模型。能不能和大家分享一下接下来模型路线图上有哪些值得期待的新进展?
Sam Altman:我们的模型已经非常聪明了,而且还会持续进化。但我觉得最值得期待的一点是:它们将变得越来越易用。未来你不需要在一堆模型中挑来选去,它们会自动做出合理决策,更加可靠,适用范围也会更广。
同时,模型还会具备更多能力,比如更自然的多模态交互、更强的工具调用能力、更丰富的集成方式。我们希望它越来越接近“开箱即用”的体验。你可以直接和它对话,让它完成复杂的编程任务,并且真正值得你信任。我相信大家会对我们在这些方向上的推进速度感到惊喜。
纳德拉:对于正在构建大规模、高可用、状态持久的代理式应用的开发者来说,你有什么建议吗?毕竟你们已经在这个领域走在了前面。
Sam Altman:我觉得最大的挑战是如何应对技术进化的速度。你回头看两年前、一年前能做的事情,再看看今天已经实现的,再想象一下未来一年、两年还能做到什么——这是一次真正意义上的能力跃迁。
我们需要为这种飞跃做好规划,重新思考人们将如何构建产品、开发软件、创办公司,并积极拥抱新的工具和工作流。像这样深刻的技术变革在历史上并不常见,但每一次,当你越早全力投入其中,就越有可能收获最大的回报。
如果说奥特曼讲的是技术演进,那么马斯克讲的,是AI代理构建的“哲学基础”。
纳德拉与马斯克的对话,围绕xAI旗下 Grok 3模型在Azure平台的部署展开。Grok 3及其轻量版本Grok 3 Mini,如今已纳入 Azure AI Foundry,将为微软客户提供与自研模型等价的SLA保障。
但马斯克没有止步于合作内容,他在连线中强调,xAI正加快推进Grok 3.5的开发,准备在反馈驱动下持续迭代,这也呼应了他一直强调的“工程真实感”和“用户场景反馈优先”。
值得注意的是,微软将其与马斯克的合作定位为“开放智能体网络”中的一环——不同模型厂商之间的Agent将逐渐打破孤岛,互相通信、协作执行任务。这正是“Agentic Web”的最本质内涵。
纳德拉:非常感谢你,埃隆,来到 Build 大会。我记得你最初是在微软实习,还是一位 Windows 开发者。现在你依然是个 PC 游戏迷吧?能跟我们分享一下你当年在 Windows 平台上的经历,还有你当时开发的一些项目吗?
埃隆·马斯克:其实在接触 Windows 之前,我是从 MS-DOS 开始的。我有一台早期的 IBM PC,最开始只有128K 内存,后来我自己加到256K,当时觉得这已经是巨大的升级了。我用 DOS 写过一些小游戏。然后进入 Windows 时代——你还记得 Windows 3.1吗?那是一个令人难忘的阶段。
纳德拉:我还记得我们上次聊天时,你还在聊 Active Directory 的那些复杂机制。你今天能来我们的开发者大会,真的太好了。对我们来说,最令人兴奋的事情之一,就是 Grok 即将在 Azure 上发布。我知道你对 AI 的未来有着深刻的理解,而这也是你打造 Grok 的初衷。这个模型家族兼具响应和推理能力,并且你们还有一个非常激动人心的发展蓝图。能和我们分享一下你的愿景,以及你们是如何提升模型能力和效率的吗?
埃隆·马斯克:有关 Grok,尤其是即将发布的 Grok 3.5,我们正在尝试让模型从“第一性原理”出发进行推理——也就是说,借助物理学的思维方式去构建 AI。比如,在探索真理时,我们会尝试将一个问题拆解成最基本、最可靠的公理化元素,然后从这些出发进行推演,最后再用这些原理去验证结论。
就像在物理学中,如果你提出了一个违反能量守恒或动量守恒定律的理论,那你要么准备拿诺贝尔奖,要么就是你搞错了——而且大概率是后者。
所以我们希望通过引入这些物理学的方法论,让 Grok 更接近于一种“误差最小化的推理系统”。我们知道 AI 不可能完美,但我们努力在每一次推理中,尽可能接近事实,同时也能够在发现偏差时快速纠正。我一直高度关注 AI 安全,而“诚实是最好的策略”这句话,在这个领域依然成立。
我们非常重视开发者社区的反馈。我们想知道你们真正需要什么,我们哪里还可以改进。Grok 的目标是成为一个开发者愿意使用、也能推动他们效率的工具,而这个过程,需要你们的参与。
纳德拉:我们非常期待看到开发者社区如何使用 Grok,以及它会怎样融入他们的产品和工作流。所以,感谢你今天抽时间加入我们,埃隆。我们对这次合作充满期待,欢迎 Grok 加入 Azure。
马斯克:我也是,非常感谢邀请我参加这次活动。我想再强调一下,我们非常欢迎开发者的反馈。你们希望模型具备什么能力?哪些地方需要改进?告诉我们,我们会尽最大努力把它实现出来。
相比其他两位更关注AI智能体的软件维度,黄仁勋的登场带来的是底层算力支撑的“暴力美学”。
他在连线中提到,英伟达的最新AI芯片系统GB200已进入大规模部署阶段,其中大部分部署都将在微软Azure 平台上完成。
黄仁勋表示Hopper架构过去两年性能提升了40倍,而所有这些都不是硬件单打独斗的胜利,而是软硬协同的成果。
纳德拉:Jensen,说到底,我们的共同目标就是为这个世界带来更多“智能”。某种程度上,我们追求的是——每花一美元、每用一瓦电,能带来尽可能多的计算能力。我很想听听你对这个方向的看法,也许可以从我们的老话题“摩尔定律”谈起。
黄仁勋:其实就在两年前,我们刚刚在 Azure 上合作打造了全球最大规模的 AI 超级计算机。这代表了计算方式的一次飞跃。你们在 Azure 上打造的新一代 AI 基础设施,加上我们在 CUDA 算法、模型架构方面的最新突破,让这套系统的性能相比过去的 Hopper 架构提升了40倍。这么大的提速,在短短两年内实现,真的非常惊人。
如果说硬件是“肌肉”,那软件的协同效应才是让整个系统跑起来的“神经系统”。我们仍然需要统一的架构和稳定的生态系统,这样开发者的投入才不会浪费——无论是训练模型的研究者,还是部署系统的企业客户。
纳德拉:你能不能谈谈在 Azure 上,如何通过任务的多样性和更高的资源利用率,进一步把价值发挥到极致?
黄仁勋:CUDA 的一个优势是它已经有庞大的用户群,另一个是它既可以加速,也具备高度通用性,适合各种工作负载。我们正在努力把像视频转码、图像处理这些任务的效率提升20倍甚至50倍。我们要做的,是确保整个数据中心的每一个任务、每一项资源都能被充分利用,真正实现物尽其用。
所以,这不仅仅是看“能生成多少 tokens”,更是看“在单位成本和功耗下,我们能加速多少种不同的AI任务”。而这一切,都离不开我们在硬件和软件两方面持续的协同创新。
感谢你们的合作、你们的领导力,也感谢我们共同的愿景——打造世界上最先进的 AI 基础设施。我相信,真正令人激动的时代,还在前面。
纳德拉:谢谢你,Jensen。实际上,我们正在 Azure 上部署全球最大规模的 GB200超级计算机,这将是我们在性能和规模上的又一次飞跃。我们也非常期待将这些能力带给全球的开发者。
三场连线只是Build大会的一部分。从整场大会来看,微软正在构建这样一个未来:AI 智能体不仅服务于个人用户的日常任务,更能够在组织、团队乃至整个企业流程中充当“数字员工”,协同决策、自动执行,成为全新生产力引擎。
微软的愿景是推动一个“开放智能体网络”的形成。这个网络不仅强调跨平台、跨场景的互通性,也依托统一标准与协议(如 MCP),实现智能体之间的安全协作与资源共享。通过这一架构,AI 智能体将能够代表用户在数字世界中进行深度互动和操作,重构信息获取与问题解决的方式。
为了实现这一愿景,微软正在将智能体能力全面嵌入其核心平台:
GitHub Copilot 正从“辅助写代码”进化为具备协同理解与决策能力的“编程伙伴”;
Microsoft 365 Copilot 日益深入企业日常工作流程,成为知识工作者的“业务副驾驶”;
Azure AI Foundry 则作为智能体开发与部署的统一底座,赋能开发者构建企业级智能体系统。
与此同时,微软还推动智能体开发方式的变革——从模型训练、部署到协同编排、安全治理,开发者无需从零构建,即可使用平台化、模块化能力灵活组装智能体,并确保其在企业内部安全运行。
可以说,微软不仅在重构软件开发,也在重塑数字世界的基本运行逻辑。其最终目标是:让每一位开发者、每一家企业,都能拥有可控、可信、可协作的AI智能体。