Meta、微软掌门人巅峰对话:大模型如何改变世界?

日期:2025-05-08 15:19:13 / 人气:2

"大模型的竞争远远没有结束。
  就在刚刚过去的4月,大模型再度经历了新一轮诸神之战。
  先是有阿里在4月29日凌晨发布开源模型Qwen,并官宣登顶全球开源模型榜首;
  后又有Meta在4月30日举办首届LlamaCon开发者大会,大会上不仅发布了 对标ChatGPT的Meta AI App,还面向开发者推出了Llama API预览版。
  Meta的Llama 4系列模型,则是在4月6日抢先对外发布。
  也是在首届 LlamaCon开发者大会上,Meta创始人扎克伯格请来了现任微软CEO萨提亚·纳德拉进行了一场半小时的现场对话。
  
  在这场对话中,小扎摇身一变,成了主持人,对这位曾经挽救微软于水火,推动微软巨额投资了OpenAI,如今在推动微软进行又一次改革的传奇CEO进行了一场精彩访谈。
  纳德拉说,我们正处于一个可以构建“深度应用”的阶段;
  纳德拉说,一些项目中,我们代码库里的代码可能有20%-30%是由AI编写。
  扎克伯格则指出,到2026年,预计会有一半的应用开发工作会由AI完成;
  扎克伯格还指出,未来每个工程师都会是技术领导,带领一个自己的智能体小队。
  我们将这次两大科技巨头值得回味的对话内容整理如下:
  01 “深度应用”,即将到来
  扎克伯格:你曾多次谈到,当前科技领域所处的时刻,尤其是人工智能高速发展,让你想起了过去的技术转型时刻,你能具体谈谈吗?
  纳德拉:我加入微软时,正值Windows 3发布,所以我见证了客户端-服务器架构的诞生,然后是互联网、移动互联网、云计算的浪潮相继兴起。
  你可以把现在的AI浪潮看作第四次或第五次技术转型,每次技术转型,技术栈都面临着结构性调整,你需要回到第一性原理重新进行梳理。
  以我自己的经历来看,我从07、08年开始构建云基础设施,主要用于Hadoop之类的数据处理,但后来我们发现,这与为AI训练工作负载构建的核心存储系统完全不同。
  数据并行、同步工作负载的需求让我们重新自上而下思考技术栈的重构,这种挑战在每次平台转型时都会出现。就像互联网虽然诞生于Windows,但后来互联网的发展已经远远超越了Windows。
  
  扎克伯格:微软在企业业务方面表现非常出色,你如何看待AI模型的效率提升对企业的影响?
  纳德拉:几年前,我们还在担忧摩尔定律是否已经终结,大家都在问:“接下来该怎么办?”但现在,我们进入了又一个技术大爆炸的时代。
  技术平台转型从来不是单一的S曲线,而是多个S曲线的叠加。
  首先,芯片性能在持续提升,像Jensen(黄仁勋)或Lisa(苏姿丰)等人推动的芯片技术革新,缩短了芯片的研发周期,这可以看作是摩尔定律的延续。
  但更重要的是,系统软件优化、模型架构优化、推理内核优化、应用服务器,乃至提示缓存,我们在这些方面都取得了显著的进步。
  把这些进步叠加起来,每6-12个月,我们就能看到10倍的性能提升。
  当技术以这种速度增长,价格又以同样的速度下降时,消费必然会大幅增长。
  所以我非常乐观,我们正处于一个可以构建“深度应用(deep applications)”的阶段,现在,我们已经进入了多模型应用阶段,可以进行编排、智能体和多个模型协同工作。
  
  早期应用高度依赖单一模型,但现在我们能构建确定的工作流,让基于某个模型的智能体与其它智能体对话,我们甚至有了像MCP或A2A这样的协议,这些都是很好的技术演进。
  人工智能技术如果能进一步标准化,我们就能开发出更灵活且充分利用人工智能技术的应用。
  我认为,开源在这一过程中将发挥巨大的作用。
  02 大模型颠覆平台型企业
  扎克伯格:你认为开源生态会如何发展?为什么这对你的客户很重要?你在构建基础设施时又是如何考虑的?
  纳德拉:我早期在微软的一个重要工作是确保Windows NT与各种Unix系统之间的互操作性,这让我明白了一件事:客户首先需要互操作性,如果你在这方面做得很好,这对你的业务会很有益,这是我思考开源的起点。
  我对闭源或开源并不教条,世界需要两者并存。
  事实上,客户也要求两者共存,即使有人固执己见也没关系,因为需求会推动世界朝这个方向发展。
  例如,我们现在有SQL Server,也有MySQL和Postgres;有Linux,也有Windows,甚至Windows上还有Linux。
  我最喜欢的是Windows上的WSL,因为它让许多开发工具在Windows上部署变得简单。
  
  总体来说,拥有一种能混合搭配这两种模式的能力非常有用。
  事实上,我们很多企业客户希望提炼他们拥有的模型,形成他们自己的知识产权。在这种情况下,开源模型相较闭源模型有着巨大的优势。
  所以,现在的世界能更好地同时服务于优秀的闭源模型和开源模型,作为超大规模云提供商,这对于我们来说是一件好事,我们的工作是为这些模型开发商提供服务。
  例如在Azure上,你可以使用Postgres、SQL Server,或者Linux和Windows虚拟机。
  同样,我们希望可以为大家提供各种模型支持。
  
  扎克伯格:你认为微软在开源方面扮演着怎样的角色?对于刚起步的开发者,微软能为他们提供哪些差异化能力?
  纳德拉:首先,AI工作负载不仅仅是在推理时有个AI加速器和一个模型,实际上,任何AI工作负载的底层都有存储、计算资源和网络资源。所以核心基础设施对Azure来说很重要。
  我们希望基于计算、存储、网络加上AI加速器打造世界级基础设施,并作为服务提供给那些想要构建下一代智能体的开发者。
  此外,我们还在与芯片代工厂一起构建一个应用服务平台,每次技术转型都会出现一个应用服务平台。
  
  如何将搜索、内存、安全在内的所有开发者需要的服务封装起来,这些都是现在每个开发者在尝试做的事情,如何将这些封装到标准框架中,为开发者提供相应的工具,这是我们在思考的问题。
  我们专注在做的另一件事情是将GitHub Copilot作为工具,它的进展令我们非常兴奋。
  优秀的工具、优秀的应用服务器和优秀的基础设施的结合,是加速AI应用开发的关键。
  03 生产模式将加速转变
  扎克伯格:你提到智能体和生产力提升,这显然是整个生态系统的一个重要话题。我很好奇,微软内部是如何看待这一点的?你看到的最有趣的例子是什么?
  纳德拉:我们最直观的感受来自软件开发领域的变化。
  以GitHub Copilot的演变为例,它最初只有代码补全能力,后来我们加入了聊天功能——让开发者可以直接在工作流中解决问题,不用再去Reddit或Stack Overflow,然后,我们又引入了智能体工作流,可以直接分配任务。
  
  现在,我们还有像SWE Agent这样的Demo,你可以给它一个高级提示词,或者把代码审查分配给它。
  这四个方面——代码补全、聊天、智能体工作流和SWE Agent,共同为我们带来了生产力的提升。
  这其中,我们获得最重要的经验是,你必须把这些工具整合到现有的代码库和开发者工作流中。
  构建全新的应用是一回事,但我们很少能完全从零开始,通常我们需要在一个大型代码库基础上工作,面对复杂的代码工作流,需要整合各种工具链。
  这是每个工程团队都要做的系统性工作,只有这样才能真正提升生产力。
  这种变化同样适用于其它知识型工作,例如在销售领域,微软内部在准备企业客户会议时,以往的流程(我从1992年加入微软以来就没变过的流程)是:
  有人写了一份公告,然后通过邮件或共享文档发送我,我会在会议前一晚读这封邮件。
  现在,我可以用Researcher和Copilot实时获取网络、公司内部甚至CRM中的综合信息,这种改变不再需要有人提前做任何准备,但这需要改变工作方式、工作产物和工作流。
  这种转变一开始会很慢,然后会突然加速。
  
  我在PC时代已经看到过类似的转变,那时,人们用传真和办公室备忘录做信息记录和传递,后来有人说:“我们用邮件发个电子表格吧。”数字化的引入改变了信息记录和传递的方式。
  我认为,我们现在正处于类似转变的起点,客户服务、营销资料创作、内容创作等领域都在发生变化,我们已经看到了实实在在的进展和生产力提升。
  扎克伯格:你有统计过现在微软内部有多少代码是AI写的吗?
  纳德拉:事实上我们在追踪关于AI的两项指标:
  一是大家对AI的接受率,目前大概在30%到40%,而且这个数字还在稳步上升,具体取决于编程语言。
  我们现在很多代码还是用C++写的,但是C++语言的代码补全效果不太好,C#还不错,Python则表现得很棒。
  随着语言支持率的提升,代码补全的质量也在提高。
  AI写代码还处于早期阶段,对于新项目来说,AI写的代码比例会很高,但我们的项目并不是全新的项目,我估计,在一些项目中,我们代码库里的代码可能有20%-30%是用AI写的。
  
  二是代码审查,代码审查的比例也很高,我们用AI审查代码的使用率在不断增加。
  你们那边呢?
  扎克伯格:我没有现成的数字,但我们有很多团队在研究Feed排名和广告排名,这些领域可以通过变更历史进行调整,这是个有趣的方向。
  我们更关注打造AI和机器学习工程师,推动Llama开发本身。
  我们预计,明年(2026年)可能有一半的开发会由AI完成,之后比例还会增加。你有类似的看法吗?
  
  纳德拉:是的,我们也在尝试用SWE Agent解决一些任务,比如内核优化,这种任务更有可能实现。
  但提出全新的模型架构变化可能还不行,关键还是要看任务的性质。
  扎克伯格:优化和安全改进确实是很大的机会,我们也在解决不同的问题。
  你们服务于很多开发者,那是你们的核心业务。而我们更多是改进内部开发流程,然后优化Llama模型供人们使用。我们不像你们那样做意图工作流,所以听你的想法很有趣。
  纳德拉:微软创始人比尔·盖茨是以工具公司起家的,所以对我来说,现在有趣的是,我们该如何概念化工具和基础设施,尤其是给智能体用的工具和基础设施。
  即使是SWE Agent也需要一堆工具,它们该是什么形态?基础设施该是什么?沙盒该是什么?
  所以我们要做的事还有很多,基本上是改进GitHub代码库架构,看看对SWE Agent来说是什么样。
  扎克伯格:这很有趣。
  我认为,未来每个工程师最终都会更像是技术领导,带领着自己的智能体小队。
  
  你提到你个人用AI的工作流,我想知道它为你带来了怎样的改变?如果你今天作为一个开发者开始构建智能体,你会如何考虑用AI工具的使用?
  纳德拉:比尔反复向我们所有人提出的一个问题是:文档、应用和网站有什么区别?
  现在如果你用Meta AI、ChatGPT或Copilot,我不清楚聊天会话和页面有什么区别。
  例如,我在使用Llama 4时,实际上我只是与它进行了一堆聊天对话并将它们添加到文档中,然后可以用代码补全把它做成应用。
  这些想法,你可以从一个高级意图开始,最终得到一个应用。
  过去你会将它称作应用,我认为这会对工作流有着深远的影响,我们正处在这个转变的起点。
  作为基础设施和工具的构建者与使用者,那些因软件工作方式而形成的限制,也许你可以超越它。
  例如,我们过去常常在想,为什么Word、Excel、PowerPoint是分开的,为什么它们不能是一个东西?我们试了很多次。
  但现在你可以想象,从文字开始,可视化成像Excel那样的东西,然后展示出来,它们都可以作为一个永久的数据结构。
  以前没能实现的灵活性,现在可以实现了。
  04 造一座“蒸馏工厂”,让模型能混合应用
  扎克伯格:你曾指出,如果AI能够带来生产力提升,最终会反映在GDP上,但这需要很长时间才能实现。你认为未来3-5年会有怎样的体现?
  纳德拉:世界需要一种新的生产要素来应对挑战。例如,发达国家想要以10%的速度增长,甚至是工业革命时期的峰值增速。
  要实现这一点,医疗、零售、工业等各行各业都将需要生产力的提升。
  我认为AI有这个潜力,但需要在软件和管理上进行变革。
  人们要用不同的方式与AI合作,就像电力发展一样,电力存在50年后,人们才通过改变工厂来真正利用它,福特就是一个很好的例子。
  我希望AI不会花50年,但单纯把AI看作“无马马车”并不是解决之道。
  技术需要进步,同时需要融入系统,我们需要有新的工作方式、工作产物和工作流。
  
  扎克伯格:接下来,我想回到“蒸馏工厂”的话题。你是怎么把为开源构建的AI模型组合起来的?需要什么样的基础设施?
  纳德拉:我认为这是开源的最大的魅力之一。
  例如,在Llama家族中,你可以将一个大型模型蒸馏成更小的模型,甚至保持同样的模型形态,这是很重要的用例。我们希望构建工具,希望将它作为服务来降低使用门槛。
  启动大型模型需要大量基础设施,不是每个人、每个企业都有这样的能力,但如果由云提供商来做,围绕它提供工具,就会有突破性应用。
  例如,对Microsoft 365的每个用户来说,如果他们能有一个特定的蒸馏模型,创建成智能体或工作流,然后从Copilot里调用,这就会变得很强大,因为它们现在都已经支持MCP协议。
  所谓“蒸馏工厂”,是指一个大型模型与多个蒸馏模型之间的一对多或多对多关系,这些蒸馏模型再与GitHub Copilot或其它工作流进行组合。
  扎克伯格:我一直对此很着迷,我认为蒸馏是开源模型最强大的部分之一。
  我们训练初始的Llama模型,但没有建造大部分开发者需要的基础设施,像你们这样的公司会构建复杂的基础设施,而我们有大模型,除非蒸馏成更合理的形式,否则真的很难直接使用。
  Maverick就是从Llama蒸馏出的一个多模态模型,文本性能与DeepSeek这样的领先模型相当,但在图像和多模态上有很大的优势。
  
  大模型预训练完成后,我们通过后训练和蒸馏,从20倍大的模型中提取90%到95%的智力,蒸馏出更高效的模型。
  这其中的问题在于,如何让那些没有强大技术能力的人也能用上,现在能操作这种规模模型的实验室数量还很少。
  等这个愿景实现时,全世界的开发者都能用上不只从单一模型蒸馏,还能混搭不同模型的智能部分,这将是最酷的事情之一。
  纳德拉:是的,我认为这其中的另一个问题是评估和认证蒸馏模型,我们可以在这方面做更多工具和基础设施来降低大模型的使用门槛。
  好消息是,这些减少智能体构建障碍的工作已经有人开始做了。
  此外,模型更新很快,你不能被过去的产品拖住,这也是我们需要擅长的。
  扎克伯格:确实,开发者需要不同形态的模型。
  Llama的每个专家是170亿参数,设计时考虑了H100的效率。但开源社区想要更小的模型,比如Llama 3的8b版本最受欢迎。
  我们也在做更小的版本,内部代号是Little Llama,能从大模型提取智能,蒸馏成适合笔记本电脑或手机的形态,这是最重要的方向之一。
  纳德拉:是的,如果我们能做到混合模型,比如MOE组合加上推理模型,然后你就可以灵活地调整延迟或思考时间,那会是我们都想达到的目标。
  "

作者:杏悦2娱乐




现在致电 8888910 OR 查看更多联系方式 →

杏悦2娱乐 版权所有