∞ 美媒炮轰苹果谷歌CEO是“懦夫”:害怕马斯克不敢下架X
1月11日,美国科技网站TheVerge记者伊丽莎白·洛帕托(Elizabeth Lopatto)周六发文,抨击苹果CEOTim Cook(Tim Cook)、GoogleCEO桑达尔·皮查伊(Sundar Pichai)是“懦夫”。文章称,社交媒体X上的深度伪造色情功能明显违反了苹果、Google应用商店指导方针,但是库克和皮查伊却因为害怕埃隆·马斯克(Elon Musk)不敢将X下架。

库克、皮查伊与马斯克
以下是文章主要内容:
自从X用户开始利用Grok技术,通过深度伪造图像对女性及儿童进行“脱衣”以来,我一直在等待一个自认为必然会发生的结果:X被苹果和Google的应用商店下架。但此事至今仍未发生,这让我对硅谷领袖们有了深刻的认识:库克和皮查伊都是没有脊梁的懦夫,他们害怕马斯克。
苹果App Store开发者指导方针中的相关条款规定:“App不应包含具有冒犯性、麻木不仁、令人不适、意图引起厌恶、品味极其低劣,或者纯粹令人毛骨悚然的内容。”呵呵,这可真够讽刺的。
Google应用商店也有类似的规定,其立场更为明确:“对于未禁止用户制作、上传或传播助长剥削或虐待儿童内容的应用程序,Google将立即从Google Play下架该应用。此规定涵盖所有儿童性虐待材料。”
然而,如果苹果、Google因X公然违反政策而将其从应用商店下架,这意味着他们将触怒马斯克及其通过X掌控的整个右翼媒体生态,进而直接得罪当前掌控美国的、追逐流量的“内容吸血鬼”们。库克领导的苹果对中国市场存在巨大依赖,而智能手机、计算机和芯片目前仍享受对华关税豁免。库克可以向特朗普呈上无数黄金厚礼,但这些关税政策随时可能生变。
Google的皮查伊同样软弱。特朗普曾多次因其在搜索结果中的排序问题威胁Google,而迄今为止YouTube的内容审核政策大多能避开严格审查,正是因为皮查伊乐于用“您的一切行动都是Google搜索史上最大事件”这类奉承诺言讨好特朗普。在AI政策仍存深刻争议的当下,Google同样不敢冒险得罪特朗普。如果再让一个不高兴的马斯克去影响相关政策,那简直就是一场腐败噩梦。
这就是他们为自己设下的陷阱:为权力出卖原则后,如今他们连自己的公司都无法掌控。欢迎来到黑帮式科技监管时代!
不到五年前,我曾全程旁听那场冗长的Epic诉苹果反垄断案。真正懂行的人都会记得,苹果的律师曾强烈暗示,赤身裸体的Peely香蕉人形象( 《堡垒之夜》中的角色)在法庭上属于不当内容。在此前一周的庭审中,苹果还声称用户可通过Epic安装的独立游戏商店存在风险,理由是平台上含有色情游戏,并指责Itch.io上的游戏“具有冒犯性和性化内容”。
你们知道什么是“具有冒犯性和性化”吗,你们这些不中用的懦夫?是那些未经同意生成的AI图片:穿着比基尼张开双腿的女性,以及面部被AI加上某种性化涂抹物的儿童。顺带一提,这些图片正以每分钟一张的速度被生成。我同样会称其为“具有冒犯性、麻木不仁、令人不安、意图引起厌恶、品味极度低劣”,尤其是“纯粹令人毛骨悚然”!你们是否需要背托才能站直?因为在我看来,你们早就脊梁骨全无了。
还有人记得当年轻博客Tumblr因涉及儿童色情图像被应用商店下架的事吗?我猜真正的问题不是它违反了App Store政策,而是Tumblr不是马斯克的。
这真让我难以置信。我竟然在现实生活中耗费数小时旁听一场法庭案件,而苹果在本案的核心论点竟是:需要完全掌控其应用商店以保护用户。苹果坚称,公司对App Store的垄断控制对用户可安装内容至关重要,只有这样,它才能打造一个“围墙花园”,保护儿童免受不安全内容的侵害。
Google应用商店Google Play有没有同样的问题?当然有,而且它也提出了和苹果完全一样的论点,即便Android允许侧载应用。但它仍然没有执行规则,也没有将X推向其他应用商店。为什么?嘿,Google,给我看看皮查伊在特朗普就职典礼上和马斯克偷笑的照片吧!
这件事唯一值得安慰的是,Meta CEO马克·扎克伯格(Mark Zuckerberg)现在一定气得七窍生烟。还记得当年苹果因为Meta收集过多数据而吊销其企业证书的事吗?啊,那可真是段“美好”的回忆。现在看来,在法庭上公然作伪证的苹果证人,恐怕不止亚历克斯·罗曼(Alex Roman)一个。
我再也不想听这些家伙满口仁义道德了。下次库克再说“隐私是基本人权”时,唯一的回应就是当面嘲笑他。苹果和Google居然心安理得地分发着一个能生成“深度伪造脱衣图像”的App,而受害者雷妮·妮可·古德(Renee Nicole Good)正是那位在明尼阿波利斯被美国移民及海关执法局(ICE)枪杀的母亲。你们一边下架那些抗议ICE的App(比如ICEBlock),一边却允许X肆意生成对这位被ICE杀害女性的侮辱性图像,这到底要怎么自圆其说?
难道除了“股东利益最大化”之外,苹果和Google已经找不出其他价值观了吗?你们这场荒唐的戏码,到底打算演到什么地步?
∞ 2026款比亚迪宋Pro DM-i新车发布:220km纯电续航,限时11.98万元起
1月11日,比亚迪推出2026款宋Pro DM-i 220km长续航版本,新车CLTC纯电续航达220km,满油满电综合续航最高1600km,官方称其NEDC百公里亏电油耗为3.2L。全系限时超级优享价9.98-12.78万元。

此次推出的220km版本搭载大容量插混专用功率型刀片电池。比亚迪表示,该续航可满足城市用户多数场景下“一周一充”甚至“两周一充”的纯电通勤需求。
新车在智能化与舒适配置方面也有所升级。车内配备与好孩子联合开发的智能儿童安全座椅、支持语音控制的智能颈部按摩仪及眼罩。同时,一体式智能冷暖冰箱、前排座椅通风加热、感触式广角全景天窗等配置也均为新增。

智能驾驶方面,2026款宋Pro DM-i 220km版搭载“天神之眼C-辅助驾驶系统”,支持高快领航辅助(HNOA)及全场景泊车功能。安全配置上新增高速爆胎稳定控制系统,车身采用73%高强度钢并配备6安全气囊。
∞ GPT-5.2考赢人类 OpenAI警告:大模型能力已过剩,AGI天花板不是AI
刚刚,GPT-5.2刷新了一项新纪录!OpenAI联合创始人Greg Brockman发帖称使用GPT-5.2在ARC-AGI-2基准测试上,表现超过了人类基线水平。在基准测试时技能爆表,但一到实际应用就“掉链子”,OpenAI前首席科学家Ilya Sutskever提到的这种大模型“性能悖论”我们并不陌生。

这也是AGI评估领域一个长期存在的难题——如何区分大模型“真正的推理能力”与“刷题型能力”。
而ARC-AGI-2的出现正好打破了这一难题。
ARC-AGI-2的全称为“Abstraction and Reasoning Corpus for Artificial General Intelligence-Version 2”,是ARC系列基准的最新升级版本。
该基准由François Chollet(Keras之父、前Google Brain研究员)及其团队在2025年推出,其设计初衷十分明确:
测试AI是否具备AGI所必需的抽象、归纳与迁移推理能力,而非记忆或统计模式匹配。
ARC系列与传统NLP或多模态benchmark最大的不同在于:它没有大规模训练集,每道题目都是从未见过的新任务,因此不存在通过“刷数据”获得高分的可能。
它要求AI像人类一样具备真正的推理和举一反三的能力。
Chollet曾多次公开表示,如果一个系统只能在见过的数据分布上表现良好,那它并不具备AGI所需的能力。
因此,ARC基准测试刚好直击大模型的“软肋”。
从“及格”到“优等生”
一次关键跨越

新纪录的刷新者,并非单一模型,而是一个名为Poetiq(GPT-5.2X-High)的系统。
Poetiq是一家专注于元系统(Meta-System)架构的AI公司。
其核心理念并不是训练一个更大的模型,而是通过软件层面的系统设计,自动构建“会调用模型的系统”。
Poetiq(GPT-5.2X-High)在ARC-AGI-2数据集上实现了75%准确率,每问题成本不到8美元,超越前SOTA 15个百分点。
在Poetiq(GPT-5.2X-High)系统出现之前,GPT-5.2(X-High)已经非常接近人类平均水平。
ARC-AGI-2榜单中,人类平均准确率约为60%,GPT-5.2X-High的成绩与之几乎持平,代表了当时AI在该基准上的最强推理能力。
但Poetiq的加入,使GPT-5.2(X-High)的得分从60%直接拉升到了75%,从勉强及格(人类平均水平)迈入了优等生的行列(显著超越人类平均水平)。
在同一榜单上,还能看到Gemini 3 Deep Think(Preview)的身影。
该模型主打“深度思考(Deep Think)”技术,在ARC-AGI-2上的成绩约为46%,明显落后于GPT-5.2系列,并且成本相对后者也略高。

Poetiq表示,整个过程没有对GPT-5.2进行任何训练或者特定优化。
这正是Poetiq元系统的初衷,旨在自动构建完整的系统,通过调用任何现有的前沿模型来解决特定任务。

从15%的提升数据来看,Poetiq对于基础模型性能的提升幅度还是非常明显的。
它的存在证明了不需要堆算力,通过优秀的软件架构也能大幅提升AI性能。
从这个角度上,它也验证了接下来OpenAI的一个判断——
当前大模型,正逐渐进入“能力过剩”阶段。
大模型“能力过剩”时代

就在同一天,OpenAI官方也在X平台发布了一项关于2026年的预测。
在这条推文中,OpenAI明确提到一个关键词:Capability Overhang(能力过剩)。
核心意思是:
当前模型“能够做到的事情”,与人们“实际使用AI的方式”(产生效果)之间,存在巨大的断层。
OpenAI认为,未来AGI的进展将不再仅取决于模型本身的突破,还将取决于:
人们是否知道如何有效使用AI
AI是否真正融入现实工作与生活
系统是否能将模型能力转化为实际价值
因此,在2026年,OpenAI将继续前沿研究,同时重点投入于应用层、系统层、人机协同,尤其强调医疗、商业和日常生活场景。
人机协同
AGI的另一半拼图
OpenAI这篇官方推文涉及一个人机协同的问题。
实现AGI,是需要模型和人协同发挥作用:AGI不只靠模型升级,更要“教人用AI”。
通过正确的使用AI,充分发挥出AI的潜能,这样才能让AI开始从“炫技”转向“普惠”,真正影响亿万人生活。
这一观点也得到了社区的强烈回应。
于是,乐观的网友称“直接把我整个人自动化吧”!

也有网友提到,真正的挑战在于如何将AI融入工作流程中:见过太多组织买了“AI”,却从未改变任何一个流程。

大模型真的“能力过剩”了吗?
那么,是不是真如OpenAI所说的,大模型的能力已经过剩了呢?
通过上面Poetiq所公布的Poetiq(GPT-5.2X-High)在ARC-AGI-2上的表现,75%的得分超过了人类平均水平(60%)15个百分点。
此前OpenAI官方在介绍GPT-5时强调其在解决复杂跨学科问题上达到了专家级基准,后被外界引申为“博士级智能”。
这说明GPT-5等大模型在某些专业任务中表现类似于人类博士的专业水平。
从模型本身来说,也许并未完全过剩,但从“未被充分释放的能力”角度来看,已经严重过剩。
其中,有模型设计者方的原因,比如他们没有紧跟用户的使用场景,“不再与用户并肩同行了”。

也可能由于前沿模型在推理和创新上缺乏根本性的突破。

还有模型本身迭代得太快,用户不得不在日常生活中不断弃用已经“成功上手”的模型。

Poetiq 的出现,以及OpenAI对“能力过剩”的判断,共同指向了未来AI领域的一个新方向:
下一阶段的AI竞争,不再只是模型参数之争,而是系统、流程与人机协同的竞争。
∞ xAI员工竟用Claude写代码?这回Anthropic反手拔了马斯克的网线
一封内部信揭开了AI巨头们之间最尴尬的秘密。2026年1月8日,一则消息在社交媒体上炸开了锅。根据内部Slack泄露的消息,xAI联合创始人Tony Wu向全体员工发布了一则紧急通知:各位同事,相信很多人已经发现,Cursor中的Claude(Anthropic)模型已无法响应。据Cursor反馈,这是Anthropic针对所有主要竞争对手实施的新政策。


这既是坏消息,也是好消息。
我们的生产力会受到影响,但这确实会倒逼我们开发自己的编程产品/模型。
我们正处在AI成为自身生产力关键技术的时代。接下来这一年,对我们所有人都将是无比激动人心的。
这意味着什么?
马斯克的AI公司xAI,其内部工程师竟然长期依赖竞争对手Anthropic的Claude模型来写代码。
更讽刺的是,这种依赖是通过第三方编程工具Cursor实现的。
而现在,Anthropic一刀切断了这条暗线。
消息一出,AI圈一片哗然。
而且,Claude不仅切断了xAI的供给,它还切断了opencode等第三方的访问。

而反观“竞争对手”OpenAI,直接倒反天罡。
OpenAI立刻与OpenCode合作,把Codex的订阅/能力接入OpenCode,OpenCode也光速升级到1.1.11支持OAuth登录Codex。
现在,已经可以在OpenCode里面用上了Codex了。

OpenAI的Codex工程负责人Thibault Sottiaux(网名Tibo)更是不失时机地推销起自家agentic coding tools(智能代理编码工具)生态系统的开放性。
并呼吁开发者直接去GitHub上用OpenAI的Codex仓库进行开发。

有网友评论说,这一次Anthropic在Agent生态上的封闭策略,从长远来看是一次战略性的误判。
这直接导致其错失了定义Agent时代底层标准的窗口期。
尽管Claude在Agentic Workflow(智能体工作流)的技术表现上曾短暂领跑,但其封闭的生态围墙却成为了推广的最大阻碍。
对于企业级客户而言,安全与可控是核心红线——没有任何一家成熟的企业愿意将核心业务系统构建在一个不可审计、不可控的“技术黑箱”之上。
这迫使企业转向拥抱更开放的第三方架构。
Anthropic的Claude本有机会成为这一代AI应用的“通用基座”,但如今却因封闭而面临被边缘化的风险。
Anthropic为何痛下杀手?
商业竞争的残酷逻辑
在对xAI采取行动之前,Anthropic就已在服务范围上进行过一次大规模的调整,显露出其构建“封闭生态”的战略意图。
2025年9月5日,Anthropic更新了其服务条款,对特定区域的API调用权限进行了严格限制,尤其是国内。
穿透式合规管理:与以往仅基于IP地址的地理围栏不同,新的限制策略更加深入资本结构。
规定要求:对于特定地区实体持股比例较高的企业,即便其注册地位于新加坡、美国等海外市场,也可能面临服务暂停的风险。 这意味着,企业试图通过海外架构调用API的门槛被大幅提高。
不惜代价的战略收缩:市场分析指出,为了执行这一高标准的合规策略,Anthropic不惜放弃了部分海外市场的营收增长,显示出其在核心技术控制权上的强硬态度。
这一先例表明:Anthropic正在系统性地清理其认为存在“竞争风险”或“合规隐患”的用户群体。
对于xAI而言,此次被切断服务并非孤立事件,而是Anthropic收紧技术出口、构建排他性竞争优势的必然一步。
那么,Anthropic为什么要封杀竞争对手?
表面原因
条款违规
Anthropic的官方立场很明确——他们的服务条款明确禁止:
使用Claude构建竞争性产品或服务
对其技术进行逆向工程或复制服务
这是一条很清晰的红线组合:不允许竞争对手使用Claude去做竞品或服务;不允许把Claude拆开/仿造/复制。
这两条限制指向Anthropic的竞争对手或第三方。
早在2025年8月,Anthropic就曾以类似理由封杀过OpenAI的开发者级API访问权限。
当时Anthropic指控OpenAI的工程师使用Claude的开发者API接入内部工具来对GPT-5的组件进行基准测试或训练,这被视为违反了商业条款。

去年6月,有报道称Windsurf正考虑出售给OpenAI后,Anthropic限制了 Windsurf对其模型的访问。
Anthropic联合创始人Jared Kaplan谈到此次限制访问时表示:我觉得我们把 Claude卖给OpenAI会很奇怪。
这种“奇怪的感觉”主要源自双方日益升温的竞争关系。
在编程工具/编码智能体(coding agents)赛道上,OpenAI和Anthropic的竞争在2025年以来日趋激烈,而且战火已经从“模型谁更强”烧到了“谁能更深地占领开发者工作流”。
2026年1月,Anthropic进一步收紧政策,开始阻止第三方应用(受影响包括OpenCode)通过用户订阅伪装成Claude Code来获取更优惠的定价和使用额度。
此外,Anthropic还加强了对“逆向工程”的防范。
它不希望第三方把Claude Code的客户端能力、调用接口以及限额与风控机制被第三方拆解并标准化,从而变成任何人都能复用的“通用方案”。
深层逻辑
技术护城河的战略性构建
但如果我们跳出表面原因,Anthropic的真实意图其实更加深远:
1. 数据资产的保护
每一次API调用,都可能让竞争对手间接获取Claude的思维方式——它如何理解问题、如何组织代码、如何处理边界情况。这些都是Anthropic通过海量数据和精细调优积累的核心资产。
2. 技术差距的维持
当xAI的工程师使用Claude来辅助开发自己的AI模型时,他们实际上是在站在巨人的肩膀上——用Anthropic的技术来加速超越Anthropic。
这种“为竞争对手递刀子”的逻辑,显然是任何一家头脑清醒、追求技术领先的公司所不能够容忍的。
3. 计算资源的战略锁定
值得注意的是,Anthropic在过去一年中完成了数轮巨额融资,大量资金投入到计算资源的锁定上。业内分析指出,这种策略的一个重要目的就是阻断竞争对手获取同等技术的能力。
4. 市场格局的重新定义
通过封杀竞争对手,Anthropic实际上在向市场传递一个明确信号:AI工具不再是中立的基础设施,而是具有明确阵营归属的战略资产。
但这种技术保护策略并非万全之策。如果杀死不了对手,就可能让竞手更强大。
正如一位Twitter用户犀利评论的:
Claude和Claude Code确实优秀,但还没有达到十倍领先的水平。
这次封杀只会加速其他实验室推进自己编程模型的研发进程。
xAI的困境与反击
被迫的独立之路
对于xAI来说,这次封杀无疑是一记重击。
依赖的代价
xAI作为2023年成立的AI新贵,其核心使命是构建最大程度好奇的AI,深入理解宇宙的本质。
公司拥有20万GPU组成的巨型集群Colossus,Grok系列模型也在快速迭代——从Grok 3到Grok 4.1,每一代都在持续进化。
但即便如此,在编程辅助工具这个关键环节上,xAI的工程师们仍然选择依赖Claude。
这说明了什么?
说明AI开发已经进入了一个深度分工的时代。
即使是最顶尖的AI公司,也不可能在每一个细分领域都保持领先。Claude在编程领域的基础设施地位,已经到了连竞争对手都不得不依赖的程度。
危机中的转机
然而,Tony Wu的内部信中透露的态度却耐人寻味:
这确实会倒逼我们开发自己的编程产品/模型。我们正处在AI成为自身生产力关键技术的时代。
事实上,xAI已经在2025年8月推出了grok-code-fast-1——一个精通TypeScript、Python、Java、Rust、C++和Go的编程模型,并且已经通过Cursor等平台开放使用。
被Anthropic封杀后,xAI显然会加速这一方向的投入。正如Tony Wu所说:团队正在快速开发我们自己的模型/产品。很快就会有成果与大家分享。
行业的连锁反应
这场封杀不仅仅影响xAI一家。消息曝光后,立刻有人指出:
传闻DeepSeek V4即将发布,其编程能力将超越Claude和GPT。Whale Code是否也蓄势待发?
竞争,才是用户的福音。
Anthropic的封杀,实际上可能加速了整个行业在编程AI领域的军备竞赛。
启示录
这件事告诉我们什么
1. 核心能力不能外包
这可能是这次事件最直接的教训。
一个以AI为核心竞争力的公司,其核心开发工具链却依赖竞争对手——这本身就是一个战略性的安全漏洞。
无论是在国家层面还是企业层面,关键技术自主可控已经不再是一句口号,而是生死攸关的现实。
当Anthropic一纸禁令下来,xAI的生产力受到影响——这种脆弱性,对于任何一家志在长远的科技公司来说,都是不可接受的。
2. AI工具正在从中立基础设施变成阵营武器
过去,我们习惯于将云服务、开发工具视为中立的基础设施——只要付费,人人可用。
但Anthropic的这次行动,打破了这种幻觉。
AI工具,尤其是最前沿的AI编程助手,正在成为具有明确商业和战略边界的阵营武器。谁能使用什么、不能使用什么,不再仅仅取决于商业合同,而是取决于你在这场AI大战中站在哪一边。
3. 竞争倒逼创新,危机催生突破
短期来看,xAI确实会经历一段阵痛期。
但长期来看,这种被逼上梁山的局面,往往能够激发出最强的创造力。历史上有太多例子:当外部供应被切断,内部研发反而加速成熟。
Tony Wu的那句话说得很好:我们正处在AI成为自身生产力关键技术的时代。
未来的AI公司,必须是吃自己的狗粮的公司——用自己的AI来开发AI,用自己的模型来训练模型。这不仅是技术自信的体现,更是商业安全的保障。
4. 开发者生态的价值正在被重新定义
Cursor、OpenCode等第三方工具的尴尬处境,也值得深思。
这些工具原本扮演着模型聚合器的角色——让开发者可以无缝切换不同的AI模型。但当模型提供商开始对使用者选边站队,这种中立聚合的定位还能维持多久?
我们可能正在见证一个AI开发工具分裂的开始——不同的工具链,对接不同的模型生态,服务不同的开发者群体。
刀,还是得自己造
这次事件的核心启示,其实可以用一句话概括:
在AI时代,没有谁能用别人的刀,打赢自己的仗。
马斯克创立xAI时曾豪言要挑战OpenAI和Anthropic的霸权。但现在看来,单纯的模型能力已经不够——你还需要一整套自主可控的工具链、一个不依赖任何对手的开发生态。
Anthropic的这一刀,切的不只是xAI一家。它切的是整个AI行业对技术中立的幻想,切的是拿来主义在AGI时代的可行性。
Tony Wu说得好:接下来这一年,对我们所有人都将是无比激动人心的。
是的。激动人心的,还有残酷。
∞ NVIDIA RTX 60系列显卡曝光:首发GR200系列GPU 6090性能或提升30%
本届CES 2026消费电子展上,NVIDIA罕见未发布新显卡,但有关新一代RTX 60系列的消息依然引发外界关注。知名硬件爆料达人@kopite7kimi 表示,NVIDIA将在RTX 60系列显示卡上采用Rubin架构,内建面向游戏的“GR20x”芯片。
就如过去Ampere的GA、Blackwell的GB一样,没有太大意外的话,RTX 60系列会使用GR为代号,分别有GR202、GR203、GR205、GR206以及GR207等一系列GR200系列为Rubin GPU产品命名。
Rubin是NVIDIA下一代数据中心架构,将取代Blackwell。相较Blackwell,Rubin的晶体管数量仅增加1.6倍,AI峰值效能却提升5倍。
从Rubin CPX GPU规格来看,未来若移植到RTX 6090等产品上,性能提升幅度可能达约30%。同时,下一代RTX 60系列显卡将更加依赖AI图像生成。
据悉,RTX 60 系列不会在2026年登场,至少要到2027年下半年才会亮相。
至于 RTX 50 Super系列是否会在2026 年见到,目前仍是个谜。毕竟,现阶段内存供需失衡问题仍无法获得解决。
