∞ “全民公敌”阿莫迪
2026年春天,达里奥·阿莫迪(Dario Amodei)突然变成了硅谷讨厌鬼。黄仁勋就差直接点名阿莫迪了,猛烈批评那些不断预言AI将大规模消灭工作的CEO是患上了“上帝情结”:一旦成了CEO,就很容易以为自己什么都知道。奥特曼说阿莫迪用“恐惧”做营销,杨立昆干脆说他不懂技术革命如何影响就业。

就连媒体也开始追问:一个不停警告世界末日的AI大佬,为什么自己还不停下?
阿莫迪得罪人,当然不仅仅是因为他道德感太高而情商又太低。
微妙的是,他确实长期相信AI风险,也确实把这种信念变成了Anthropic最锋利的商业武器。
这家从OpenAI出走后成立的公司,已经不再只是一个打着“AI安全”旗号的研究型团队。Claude Code成了企业AI市场最凶猛的产品之一,年化收入跑到数十亿美元级别。更夸张的是,据Business Insider报道,Anthropic在私募二级市场的估值已突破1万亿美元。
当一个人一边站在道德高地上提醒所有人慢一点,一边又在赛场中央下注,而且越下注越大,他就很难不变成靶子。
01
全民公敌
阿莫迪正在成为AI行业里最让人不爽的人。
最新一个开火的人,是黄仁勋。
在一档播客里,黄仁勋把那些动辄预言AI将造成大规模失业、甚至带来人类灭绝风险的科技CEO,称作患上了“上帝情结”。
他的大意是,一旦坐到CEO的位置上,人就很容易开始以为自己什么都懂。可关于AI的公共讨论,应该回到事实,而不是被夸张的末日叙事牵着走。

这番话没有点名,但很难不让人想到阿莫迪。
而这已经不是黄仁勋第一次被阿莫迪的AI风险叙事惹到。
阿莫迪一直支持更严格的芯片出口管制,还专门写过长文呼吁加强限制。今年在达沃斯论坛上,他把向中国出口先进AI芯片,类比成“卖核武器”。
黄仁勋当然不会接受这个说法。
在另一档播客里,黄仁勋被问到这个类比时,直接说这实属“荒唐”。他认为,把AI芯片和核武器相提并论,是一个很差,也不合逻辑的类比。

如果说黄仁勋的反击,来自英伟达和Anthropic在芯片政策上的直接利益冲突,那么OpenAI的攻击就更像是老对手之间的正面交锋。
在一次播客对谈中,奥特曼称Anthropic正在用“恐惧”做营销。
他用了一个颇为刻薄的比喻:这就像有人说,我们造了一颗炸弹,马上要扔到你头上,然后我们可以卖你一个一亿美元的防空洞。

这句话很明显指向Anthropic刚刚发布的Claude Mythos Preview。按照Anthropic自己的说法,这个网络安全模型能力太强,暂时不会对公众开放,而是先放进一个名为“玻璃之翼”的项目里,为合作机构做防御性安全工作。
来自OpenAI的“攻击”还不止这一次,4月13日,The Verge披露了OpenAI首席营收官丹妮丝·德雷瑟(Denise Dresser)发给员工的一份四页内部备忘录。备忘录主题是如何赢下企业AI市场,但其中专门拿出一段讨论Anthropic,几乎是在逐条拆对手的台。

其中写道,Anthropic的故事建立在“恐惧、限制,以及少数精英应该控制AI的观念”之上。
她还说,Anthropic过度依赖代码场景,算力储备不足,并质疑其年化收入说法,称Anthropic把与亚马逊、谷歌的收入分成按总额计入,导致其300亿美元年化收入被高估了大约80亿美元。
阿莫迪和奥特曼是老冤家,OpenAI和Anthropic是直接竞争对手;黄仁勋的芯片生意,也直接被阿莫迪的政策主张波及。他们的反击看起来都有迹可循。
但这还没完。
杨立昆(Yann LeCun)也在X上公开怼过阿莫迪。这一次,争议来自AI对就业的影响。
2025年,阿莫迪接受Axios采访时说,AI可能在未来一到五年内消灭一半初级白领岗位,并把失业率推高到10%到20%。他还说,AI公司和监管机构不能继续粉饰、不能把即将到来的冲击说得太轻。
针对阿莫迪关于就业的判断,杨立昆在X上说:“达里奥是错的”“他对技术革命如何影响劳动力市场一无所知”。他甚至说,这类问题应该多听经济学家的,而不是AI圈的任何人的,包括杨立昆自己在内。

就连舆论也开始出现一些质疑的声音。
仅就来自知名媒体的评论举例:《泰晤士报》质疑警告世界末日的AI大佬为什么自己不停下来,TechCrunch则点出,Anthropic限制Mythos开放,表面是保护互联网安全,但这种选择性开放也可能帮助它锁住大企业客户、阻止小公司通过蒸馏复制能力,从而保护自己的商业利益。

很明显,阿莫迪带领着Anthropic,占领了某种道德高地。但越是站在高地上,就越成为了被攻击的靶子。
问题在于,仅仅是因为阿莫迪太有原则、太坚持“安全”,不惜得罪人,所以才被反过来攻击吗?
阿莫迪越是用力地当“道德标兵”,他身上的一个道德悖论就越刺眼——他站在赛场中央,一边下注,一边提醒所有人这场比赛可能有毒。
这实在太别扭了。
02
“安全大王”的来时路
备忘录里,OpenAI首席营收官丹妮丝提到了一个词:“精英”。
这确实是阿莫迪身上最醒目的标签之一。
他那场站在道德高地上的对决,也几乎成了他声望的巅峰——面对美国战争部的要求,Anthropic拒绝放宽Claude的使用边界,坚持不允许其被用于大规模监控,也不允许用于没有人类参与决策的完全自主武器。

阿莫迪当时说,他们“出于良心不能答应”这个要求。那一刻,公众的欢呼里,多少带着一种久违的释放,硅谷精英终于又一次站出来,对更大的权力说了“不”。
要搞懂这个“安全大王”从何而来,还是得往回看他的来路。
阿莫迪1983年出生在旧金山。父亲是意大利裔皮革匠,来自托斯卡纳,长期受健康问题困扰,在阿莫迪年轻时去世;母亲是出生于芝加哥的犹太裔美国人,曾做图书馆项目经理。
阿莫迪从小就是标准的理科尖子生。他读的是旧金山最有名的公立精英高中之一,2000年入选美国物理奥林匹克队。上大学后,他先进了加州理工学院——也就是美国最顶尖的理工科名校之一,后来转到斯坦福,拿到物理学本科,最后又去普林斯顿读完了生物物理博士。
他是物理、神经科学、AI研究多维融合的技术型人物,这也决定了他的复杂视角。

2014年,吴恩达把阿莫迪招进百度在硅谷的人工智能实验室,参与语音识别系统的研究。后来他成为Deep Speech 2论文作者之一,这套系统主打端到端语音识别,覆盖英语和普通话,也试图用更大规模的数据、算力和训练重走传统语音识别流程。也就是在这段时间里,阿莫迪开始形成对“规模化”的早期直觉。他后来在访谈中回忆,当时发现,当模型更大、数据更多、训练时间更长时,效果会持续变好。对他来说,后来贯穿GPT、Claude这一代大模型的Scaling信仰,在百度做语音识别时就已经埋下了伏笔。
丹妮拉·阿莫迪(Daniela Amodei)也是一个重要角色。她同样从OpenAI出走,兄妹俩共同创办Anthropic。
兄妹俩形成双核结构。阿莫迪更像技术路线和安全叙事的代表,丹妮拉则更多承担公司运营、组织建设和商业推进。Anthropic今天这种奇特气质——一边像安全研究机构,一边又是高速融资、高速扩张的AI公司——很大程度上就来自这组搭档。

这种家族纽带也给Anthropic带来一种特别的稳定感,使这家公司更像一个从旧组织里分裂出来的小团体,带着强烈的自我认同,认为自己要用另一种方式做AI。
2020年底,OpenAI发布了一篇非常客气的组织更新,宣布时任研究副总裁阿莫迪即将离开。文章感谢他近五年的贡献,提到他参与GPT-2、GPT-3,并与苏茨克维(Ilya Sutskever)等人共同设定研究方向。
最微妙的是,OpenAI还写道,阿莫迪和几位同事计划开启一个新项目,这个项目“可能会更少关注产品开发,更多关注研究”。而其他大部分篇幅,用来表明OpenAI自己在安全领域的决心。

多年后,当Anthropic和OpenAI的矛盾公开化之后,人们回溯当年的友好“分手”,不难看出双方对于AI能力增长和安全边界应该如何排序,早已存在分歧。
几个月后,Anthropic成立。此后,安全从阿莫迪的个人立场,慢慢变成了这家公司的骨架。
它有RSP,也就是《负责任扩展政策》(Responsible Scaling Policy),用ASL等级给不同能力阶段的模型设置风险要求,有点像AI版的生物安全等级;它通过一套“宪法”原则引导模型行为;它还持续投入可解释性研究,试图打开模型黑箱。
阿莫迪当然在利用“安全”,但前提是,他也确实长期相信安全。从OpenAI出走,到创立Anthropic,再到RSP、AI“宪法”、可解释性、模型风险分级、国防合同边界,他的行为颇具长期一致性。
这也是阿莫迪复杂的地方。
他身上有一种很强的精英自信——我看见了更大的风险,所以我有资格提醒所有人慢一点、严一点、怕一点。可同样是这种自信,让他显得居高临下。
而当阿莫迪开始经营一家商业公司,当“道德”遇上商业,精妙的平衡更加难以维持。
03
当“安全”变成公司主线
“安全”既是Anthropic的生意,也是筛选机制。
Anthropic的特殊之处在于,它从一开始就是一群人从OpenAI出走后组建的新组织,出走的理由里有技术路线,也有安全理念,还有对“谁应该定义AI未来”的分歧。
所以文化在Anthropic显得格外重要,更像一套操作系统。

阿莫迪是一个带着研究员气质的组织设计者。他曾在访谈里说,自己大概三分之一,甚至40%的时间,都花在确保Anthropic的文化是好的上。
Anthropic表面上总在讲谨慎、克制、边界,但内部并不是一种温吞水文化。相反,Anthropic公司内部有一种类似个人公开笔记本的Slack频道,员工会在里面写自己的想法、工作进展,甚至直接和阿莫迪展开辩论。
可以想见,不管是Anthropic的准入门槛还是内部文化的不断塑造与碰撞,都形成了对人才的某种筛选机制。
过去一年,Meta为了补强AI团队,到处挥舞支票本挖人。AI行业的人才价格被抬到夸张程度,顶尖研究员和工程师几乎变成了自由市场上的超级球星。面对这种挖角,一些公司本能地“跟价”,至少是明确地表示要提高员工薪酬,先把人留下来再说。

阿莫迪没有这么做。他公开解释过,Anthropic不会因为外部公司给某个人开了天价offer,就立刻打破自己的薪酬原则。他说,如果扎克伯格像扔飞镖一样随机击中某个人的名字,那并不意味着这个人就应该比旁边同样优秀的同事多拿十倍。
更有意思的是,阿莫迪表示,有些Anthropic员工面对Meta的挖角,甚至连扎克伯格都不愿意聊。这句话里当然有炫耀的成分。但它真正想传递的是Anthropic员工的“共识”是存在且牢固的。
阿莫迪必须让员工相信,Anthropic不是另一家只想跑得更快的AI公司;同时,他又必须带着这家公司真的跑得足够快。否则,安全叙事再漂亮,也只会变成赛场边上的道德评论。
“安全”作为生意,成绩斐然。
Anthropic从一开始就天然吸引那些对可靠性、可控性要求更高的客户。Claude刚推出时就强调可靠性、可预测性和可引导性,早期合作伙伴就是Notion、Quora、DuckDuckGo、Juni Learning这类知识生产、搜索、教育和工作流工具。
Anthropic卖的不是“最便宜的模型”。企业、政府、代码、金融、医疗、教育、公共部门——这些客户更在意稳定性、合规性、安全边界和长期责任。价格上也能看出来,Claude并不是低价路线。Claude Opus 4.7的价格是每百万输入tokens 5美元、输出25美元;Claude Sonnet 4.6是输入3美元、输出15美元。相比之下,xAI的Grok 4.20是输入2美元、输出6美元,明显更激进;OpenAI的GPT-5.5则是输入5美元、输出30美元,和Claude Opus处在同一高价区间。

Reuters此前也报道,Anthropic拥有超过30万商业和企业客户,这些客户贡献约80%的收入。企业客户按用量付费,留存更稳定,扩张空间也更大,一旦进入代码、办公流、云平台和政府系统,收入就不是普通订阅产品能比的。
与之相比,OpenAI靠ChatGPT在C端打出了最大的声量,也确实把大众用户教育到了前所未有的规模;但C端用户多,不等于收入结构最好。
OpenAI自己最新说法是,企业收入已经超过总收入的40%,并希望到2026年底追平消费端。换句话说,即便是OpenAI,也正在拼命往企业市场努力。

Anthropic和美国战争部DoW的合作更是典型例证,很长一段时间里,Anthropic都是DoW在“机密领域”唯一合作的AI公司。Claude被用于情报分析、建模与仿真、作战规划、网络行动等任务。
顺着这个思路,回看Anthropic与DoW之间的激烈“斗争”,足见阿莫迪将安全作为生意的功力——通过对“大规模监控”“自主武器”底线的强调,即便丢了与DoW之间的合作,却让Anthropic的公众知名度与“可靠度”更上一个台阶,在资本市场获得了前所未有的青睐。
Anthropic的年化收入从2025年底的90亿美元,冲到2026年4月的300亿美元量级;今年2月,它以3800亿美元估值完成300亿美元融资,随后Google又计划最高向其投入400亿美元。更有报道指出,其在二级市场的估值已经达到了1.1万亿美元的规模。
安全听起来像一种克制,但在Anthropic它最后变成了一种更高级的商业语言。
但这套治理术当然有它危险的一面。
当一家公司把“安全”变成组织信仰,它就会天然获得一种道德优越感,也更容易把竞争对手衬托成不负责任的人,把商业选择包装成价值选择。
这也是为什么Anthropic越成功,阿莫迪越让人不舒服。
04
“安全”的两面
如果仅仅将阿莫迪看作一个因为有理想有底线但情商低、因此总是说大实话得罪人的“理工男”,未免有点天真。
《华尔街日报》曾有一篇文章,回溯阿莫迪和奥特曼之间的10年恩怨。
阿莫迪在OpenAI的故事远不是一句“安全理念分歧”能解释。

2018年,马斯克退出后,阿莫迪同意留下的条件是布罗克曼(联创之一)和苏茨克维不得掌权——他先谈的是权力分配,而非技术路线。
随后在关键的模型项目里,他和妹妹丹妮拉联手,把想加入的布罗克曼挡在门外,理由之一是某位核心研究员“不想与之共事”。这位研究员事后形容自己被高管当成“代理人武器”,可见阿莫迪非常懂得借人结盟。
随着GPT-2/3走红,他对功劳归属和曝光度愈发敏感:不满布罗克曼在播客里“抢风头”,发现奥特曼和布罗克曼准备去见奥巴马却没带自己,更是当场发火。
次年他要求升任研究副总裁,奥特曼同意,并在董事会邮件中附带一句“阿莫迪承诺不再贬低他不认可的项目”,俨然一项停火条款。
这些细节说明,安全是阿莫迪的信条,也是一把锋利的组织武器。他会谈条件、争项目、抢夺话语权,把“风险”话术用来界定谁能留在核心。
最终离开OpenAI创办Anthropic,与其说是理想出走,不如说是内部夺权失利后,将战场外移。
当他掌舵Anthropic之后,情况变得更加复杂。Anthropic不再是研究室里的理想实验场,而是一艘高速增长的商业战舰。这个时候,安全就从纯原则,变成了实打实的产品卖点。
Anthropic越是高调强调AI风险,越能凸显自己的存在必要;越是点名别人跑得太快,越能把自己包装成企业、政府和监管者最可靠的伙伴。
它的叙事天然带着一种道德比较,即选Claude,不只是挑了个模型,也是在选择一条更负责、更可控的路线。
对竞争对手来说,这就很烦人了。你卖产品也就罢了,还顺手把别人衬得像不负责任的赌徒。安全成了差异化护城河,也成了营销利器。企业客户愿意为“安心”多付钱,政府部门也更容易把敏感项目交给“最安全”的那一家。
在这个过程中,安全也同时变成了一种政治筹码。
Axios报道,2026年第一季度,Anthropic联邦游说支出达到160万美元,超过OpenAI的100万美元,也创下自身最高纪录;此前它还宣布向一个主打AI透明度和安全护栏的两党倡议组织投入2000万美元,并计划扩充政策团队、在华盛顿设立长期办公室。
说白了,阿莫迪已经在争夺AI时代的游戏规则。
阿莫迪的复杂性,正在于这两件事可能同时成立:他确实相信AI安全,也确实把AI安全变成了Anthropic最锋利的商业武器。安全既是他的信仰,也是他的权力杠杆。
原则和利益并非简单对立,而是互相喂养、互相强化。正是这种真假交织的状态,才让他既被捧为“安全大王”,又被一些人视为精明的操盘手。
Anthropic越会解释风险,越有机会定义风险;越有机会定义风险,越能把自己放进AI时代的规则中心。
这是属于阿莫迪的“安全魔法”,而“全民公敌”,就是玩魔法的必备副作用。
也许他甘之如饴。
∞ 汉莎航空削减2万架次航班 受伊朗战事影响额外燃油成本近20亿美元
德国最大航空公司汉莎航空预计,受中东局势带来的 “巨大挑战” 影响,今年将产生 17 亿欧元(近 20 亿美元) 额外燃油成本。汉莎航空周三发布一季度财报称,公司已锁定 80% 航空燃油对冲头寸。预计 2026 年新增 17 亿欧元燃油成本,计划通过成本管控及提高机票营收来对冲这笔开支。

2026 年 5 月 4 日,德国黑森州法兰克福机场,一架汉莎航空客机掠过会展塔大楼降落。该航司于 5 月 6 日公布季度财报。
一季度财报显示,汉莎航空调整后息税前经营亏损为6.12 亿欧元;营收升至87 亿欧元(折合 102 亿美元),同比去年一季度的 81 亿欧元增长 8%。净利润为 6.65 亿欧元,上年同期为 8.85 亿欧元。
汉莎航空首席执行官卡斯滕・施波尔表示:“一季度我们较去年同期财务业绩已有明显改善。但持续的中东危机、燃油成本上涨叠加运营受限,给全球、民航业以及公司自身都带来巨大挑战。不过我们具备抵御冲击的韧性与能力。”
受霍尔木兹海峡航运封锁持续影响,欧洲正陷入航空燃油紧缺。国际能源署署长法提赫・比罗尔上月警告,欧洲距离燃油供应耗尽仅剩数周时间。
国际航空运输协会数据显示,3 月底航空燃油价格较上月飙升103%。
为节约 4 万吨航空燃油、砍掉亏损航线,汉莎航空已削减2 万架次短途航班。
与此同时,欧洲其他航司同样遭受燃油涨价冲击。英国廉价航空易捷航空表示,3 月新增燃油成本达2500 万英镑(3400 万美元);截至 3 月 31 日的半年税前主营亏损介于 5.4 亿至 5.6 亿英镑之间。
易捷航空称,旅客购票周期延后,今年剩余时段订票需求弱于去年。公司已锁定夏季 70% 燃油对冲比例,剩余 30% 敞口易受油价剧烈波动影响。
国际能源署署长比罗尔指出,随着旅游旺季临近,航空燃油需求将较 3 月高出40%。欧洲约 75% 的航空燃油依赖中东炼油厂供应。
“剩余部分原本来自部分亚洲大国,但这些国家现已出台出口限制。欧洲正转而从美国、尼日利亚寻求进口补给。若欧洲无法及时从上述国家追加进口,燃油供应将陷入困境。” 比罗尔表示。
∞ AMD:代理式AI时代 单节点CPU数量或将反超GPU
在公布强劲的 2026 年第一季度财报后,AMD 首席执行官苏姿丰在财报电话会上谈到,随着 Agentic AI(代理式人工智能)时代的到来,数据中心中 CPU 的使用量正被推向前所未有的高度。 她表示,在这一新趋势下,单个计算节点中 CPU 与 GPU 的数量正在从过去的一对多,逐步逼近一比一,未来甚至可能出现 CPU 数量多于 GPU 的情况。

苏姿丰在回答分析师提问时指出,传统 AI 训练与推理集群通常采用“一颗 CPU 搭配四到八颗 GPU”的配置,CPU 更多扮演“宿主”角色,负责调度并发起 GPU 计算任务。 而在 Agentic AI 模式下,大量具备自治能力的智能体需要依托主机 CPU 持续进行状态更新、任务编排和协同,这正在根本性地改变算力节点的形态。
根据苏姿丰的说法,随着智能体数量的快速增加,CPU 与 GPU 的比例正向 1:1 靠拢。 她甚至提出,如果未来集群中运行“数量极其庞大”的智能体,则完全可以想象单节点里 CPU 数量多于 GPU 的配置。 这意味着,过去几年由 GPU 主导的加速计算扩张浪潮,正被一股由“智能体工作负载”驱动的 CPU 需求浪潮所叠加。
所谓 Agentic AI,本质是在大语言模型(LLM)之上运行多个自治“智能体”,由其自动完成复杂任务流程。 例如,在软件开发场景中,智能体可以自行审阅代码、实施修改、等待编译完成,并在发现新 Bug 时继续修复,全流程几乎无需人工干预。 然而,为了协调、调度和编排这些并行运行的智能体任务,系统必须依赖 CPU 提供持续的控制与管理能力。
在这类工作负载下,CPU 不再只是“启动 GPU 训练或推理”的配角,而是成为驱动整个 Agentic AI 系统运转的核心枢纽。 当越来越多任务被拆分并委派给智能体时,即便当前仍处于 GPU 加速计算快速扩张的时代,CPU 利用率依然被推高到极高水平。 报道援引 AMD 的表态称,公司目前几乎“将所有能提供的 CPU 都卖给了 AI 实验室和超大规模云服务商”,以满足这波由智能体任务带来的新增需求。
这也意味着,在未来 AI 基础设施的设计中,CPU 与 GPU 的关系可能会从“主从”走向更为对等甚至 CPU 更加密集的形态。 对芯片供应商而言,Agentic AI 不仅继续拉动 GPU 需求,也有望在服务器 CPU 市场打开新一轮增长空间。
∞ iPhone Ultra 折叠机模型再曝光 上手视频展示接近定型外观
近日又有一枚疑似 iPhone Ultra 的模型机在 YouTube 频道 Unbox Therapy 的最新视频中亮相,以上手形式从多角度展示了这款传闻中折叠形态 iPhone 的外观设计。 此前,iPhone Ultra 模型机已经多次泄露,包括与华为 Pura X Max 真机的并排对比等,这次视频进一步让外界对其造型有了更直观的认识。
从视频来看,这枚 iPhone Ultra 模型机采用非常“非传统”的机身比例,与同样走“窄长折叠平板”路线的华为 Pura X Max 十分相似。 虽然这次模型机的具体尺寸尚未完全吻合此前泄露的参数,但综合多轮爆料信息,可以大致确定 iPhone Ultra 量产版在整体形态上会与此次展示接近。
iPhone Ultra 展开后的整体尺寸略小于 iPad mini,但同样采用接近平板的横向形态,而非更趋近正方形的折叠比例。 这一设计选择被认为与系统层面的交互体验密切相关:在展开状态下,设备有望调用类似 iPad 的横向平板 UI,而不是在折叠设备上常见的“接近方形”的界面布局。 这或意味着苹果在为 Ultra 规划一套更偏向横屏、多任务和大屏内容展示的专属交互逻辑。

这也是苹果选择这种独特折叠形态的关键原因之一:在保持机身可折叠便携的同时,最大化展开后的可用面积,并提供更符合平板使用习惯的横向 UI,而不是在折叠形态与平板形态之间做过多妥协。 在这一思路下,iPhone Ultra 将更像是一台“可折叠的迷你 iPad 手机版”,而不仅仅是现有直板 iPhone 的可折叠变种。
在产品定位方面,iPhone Ultra 几乎可以确定会成为苹果史上价格最高的 iPhone 机型。 按照当前供应链与爆料节奏,该机预计会在今年 9 月正式发布,并在年末前陆续上市开售。 随着更多模型机与配件曝光,iPhone Ultra 的设计轮廓已经逐步清晰,接下来外界关注的重点将转向其折叠铰链方案、屏幕耐用性以及与现有 iPhone 产品线之间的功能区隔。
∞ OpenAI版“豆包手机”细节曝光 最快一年内量产 预计出货3000万台
OpenAI版“豆包手机”,正在开足马力前进。郭铭錤发布最新动态表示,OpenAI智能体手机已进入加速研发模式。他指出,该手机的量产时间,可能从2028年提前到2027年上半年。


郭明錤认为,提速的潜在原因之一,是配合OpenAI年底的IPO计划。
如果进展顺利,这款手机2027-2028年的合计出货量,将达到约3000万部。
OpenAI的“豆包手机”是啥样?
这是一部从底层逻辑重新设计的Agent手机。
今年初上市的豆包手机,做的就是类似的事情。
不过,豆包手机的思路,是在现有Android生态上加一层GUI Agent,让AI看懂屏幕、模拟点击,替用户跨App完成任务。
但OpenAI的设计是,把AI助手从一个App变成手机的操作核心,同时控制硬件和操作系统,让Agent成为系统本身。

硬件层面,处理器由联发科基于天玑9600深度定制,采用台积电N2P工艺,预计2026年下半年投产。
这款手机将采用双NPU异构架构,支持视觉理解和语言推理并行运行。
实际工作中,日常轻量任务在本地完成,复杂推理推送至云端。
存储方面,这款手机将采用LPDDR6加UFS 5.0的内存存储组合,目的是为了缓解Agent持续推理过程中的数据吞吐瓶颈。
此外,pKVM加inline hashing的安全方案也在规格列表之中,ISP则搭载了增强型HDR pipeline,成像能力同步得到强化。
根据爆料,这款手机的整机制造,将由立讯精密独家完成。
若研发进度顺利,这部手机2027至2028年的合计出货量将达到约3000万部。
全球高端智能手机市场每年出货量约在3至4亿部之间,OpenAI若能拿下这一份额,意味着以全新品牌直接切入存量竞争最激烈的市场段位。
预计出货3000万台
这部手机第一次出现在公众视野,是今年4月。
当时,郭明錤发布供应链报告,披露OpenAI正在与联发科、高通合作开发智能体手机处理器,立讯精密为独家制造合作方,量产时间定在2028年。
时隔不到一个月,他又发出这次更新,量产时间直接提前到2027年上半年。

OpenAI真正入场硬件,要从2025年5月说起。
当时,OpenAI以65亿美元收购了Jony Ive(苹果前首席设计官)的硬件初创公司io。
这是OpenAI史上最大的一笔并购,Jony Ive正是设计出初代iPhone、iPod、iPad的那个人。
收购完成后,外界的目光大多落在Jony Ive主导的无屏幕设备上。
但现在,OpenAI认为,手机是唯一能实时捕捉用户全状态的设备,是Agent推理最重要的输入来源。
只有同时控制硬件和操作系统,才能完整交付Agent体验,永远寄居在苹果和Google的平台规则之下,Agent能做的事就永远有天花板。
OpenAI的优势也不言而喻,ChatGPT坐拥数亿日活用户,这是任何硬件厂商都没有的起点。
从供应链的角度看,这部手机的轮廓也在逐渐浮出水面。
处理器最终锁定联发科,高通出局;制造合作方是立讯精密,对立讯而言,这个项目的意义不亚于富士康之于苹果。
不过,规格和供应商的最终确认,预计要到2026年底至2027年一季度。
按郭明錤的预测,若进度不变,这部手机2027至2028年的合计出货量将达到约3000万部。
对处于IPO前夕的OpenAI来说,这场智能手机仗,赢的是谁来定义下一代移动计算的交互方式。
参考链接: