Meta发布2025财年第一季度未经审计财报:总营收为423.14亿美元,同比增长16%;净利润为166.44亿美元,同比增长35%;每股摊薄收益为6.43美元,同比增长37%。
Meta第一季度营收和每股摊薄收益均超出华尔街分析师预期,对第二季度营收作出的展望也超出预期,从而推动其盘后股价上涨逾5%。
详见:
财报发布后,Meta首席执行官马克·扎克伯格(Mark Zuckerberg)、首席财务官苏珊·李(Susan Li)等高管召开了分析师电话会议,回答了相关业务的问题。
以下是电话会议实录:
分析师Brian Nowak:我的第一个问题有关Meta的大型语言模型Llama。据我观察,目前全球的大语言模型(LLM)领域不断发展,竞争相当激烈。马克,能请您为我们介绍一下,随着新一代Llama以及Llama 4 Behemoth的推出,在LLM方面您最关注、最感兴趣的关键发展领域有哪些?
我的第二个问题有关Meta AI。目前Meta AI在全球的用户数已经接近10亿。从目前的趋势来看,能否请您为我们介绍一下Meta AI在美国地区的使用情况?从早期数据来看,您观察到哪些常见的用户行为?
马克·扎克伯格:我可以回答有关LLM的问题。关于你第二个有关Meta AI的问题,我不确定我们是否有足够多的数据能与大家分享,这个问题交给苏珊来回答吧。
LLM方面,我们在多个方面都取得了非常大的进展。我们之所以要打造Meta自己的大语言模型,原因之一是我们认为LLM对Meta的业务至关重要,我们需要掌握自己的命运,而不是在如此关键的技术上去依赖其他公司;原因之二是我们希望能够根据自身的基础架构以及用例,对LLM进行深度的开发与优化。
因此,以Meta Llama 4模型为例,每次调用会激活16个专家模型中的170亿个参数,专为我们现有的基础架构设计,能够为用户提供低延迟(low latency)的语音体验。想象一下,如果用户想和人工智能进行语音对话,低延迟是不是非常必要?如此一来,用户在对话的时候,你停止讲话与AI开始语音回复之间的间隔就不会很久。无论是模型设计,还是我们目前正在进行的研究,抑或是模型背后的技术支持,我们都希望能与Meta自身的基础架构、用例相适配。
除了关注低延迟外,我们同样关注的另一个方面是上下文窗口的长度(context window length)。我们的一部分模型在上下文窗口长度方面处于行业领先的地位。在我们看来,上下文窗口长度非常重要,一部分原因在于我们认为其能帮助我们为用户提供更加个性化的体验。当然,想要为用户提供个性化的体验方法有很多,其中之一就是将部分上下文包含在上下文窗口中。随着上下文窗口长度的增加,我们可以将更多用户提供的背景信息整合至应用程序,实现更加个性化的用户体验。
我相信以上这些分享能够让大家更深入地了解我们希望构建的产品,以及为此我们所做出的一系列技术架构决策与研究。如果时间允许的话,其实我还有更多内容与大家分享。
在我看来,能够推出像Llama 4 Behemoth这样的大模型非常重要——并不是说我们一定要大批量使用它,而是要从中提炼关键技术。目前我们发布的Llama 4大语言模型、Meta内部使用的模型以及未来将要打造的一系列模型,它们背后的技术大多都是从Llama 4 Behemoth模型中提炼出来的。我们希望未来的新模型能够在保留原有95%的智能基础上,变得更低延迟、更高效率。
总而言之,以上这些方面对我们来说都非常重要,新技术的提炼也无法从封闭模型中得到。我希望我的回答能让大家大致了解我们对LLM领域的研发思路。我也相信,现阶段我们所构建的模型与基础设施将持续为我之前所提到的各种机会提供支持。
苏珊·李:关于你的第二个问题,有关Meta AI。
从用户检索的角度来看,目前Meta AI的主要用例主要集中在信息收集,用户会通过Meta AI来搜索、理解、分析信息;其次是社交互动,包括闲聊、深度讨论甚至辩论。此外,我们还观察到用户会使用Meta AI来辅助写作、生成视觉内容或是寻求帮助。
从使用端口来看,目前WhatsApp仍然是Meta AI使用率最高的应用程序。其次是Facebook,我们看到用户非常欢迎动态消息(Feed)中的Deep Dives功能,用户互动表现非常不错,通过Deep Dives功能,用户可以就平台推荐给他们的内容向Meta AI提问。
总而言之,我们对将要推出的独立Meta AI应用感到非常兴奋与期待。
(持续更新中。。。)