∞ Anthropic宣布其用户现在可以让Claude控制自己的电脑
美国人工智能公司 Anthropic 宣布,其大模型助手 Claude 现已具备直接控制用户电脑、代为执行各类操作的能力,进一步强化了自身的“代理型”功能,以应对今年以来开源代理框架 OpenClaw 带来的竞争压力。

根据 Anthropic 公告,只要用户订阅符合条件的付费方案(如 Claude Pro 或 Claude Max),便可授权 Claude 接管电脑,完成诸如从本地硬盘中查找并发送文件等具体任务。 在这一新功能背后,是行业内代理型 AI 能力的全面升温,其中今年早些时候爆红的开源框架 OpenClaw 已催生出一个完整生态,众多被称为“claw”的工具可以根据简单指令,在用户电脑或连接的系统中相对自主地执行操作。 上周,英伟达发布了 NemoClaw 框架,旨在简化 OpenClaw 代理的部署与安装,同时加入一定安全设置,进一步推动这一生态发展。
Anthropic 表示,Claude 在接到任务后会优先通过与各类应用的“连接器”寻找合适工具,例如整合 Google 日历或 Slack 等服务。 若相关工具或连接器不可用,Claude 也可以直接模拟用户操作,通过键盘输入与鼠标移动来执行任务,包括使用浏览器、开发工具以及打开本地文件等。 在执行过程中,Claude 会像普通用户一样进行滚动、点击等操作,但每一次实际操控前都需获得用户许可,且用户可以在任何时间中止 Claude 的行为。
不过,让聊天机器人掌控电脑虽然在效率上颇具吸引力,却也引发安全与风控方面的担忧。 专家指出,所谓“代理型 AI”的一大风险在于,它可以在极短时间内执行规模较大、潜在影响深远的操作,而用户未必能及时察觉。 此外,类似 OpenClaw 这类“claw”工具若被恶意攻击者劫持,对方便可能利用用户的个人数据与系统做出未经授权的行为。 针对这些风险,Anthropic 称,已在新功能中加入多重安全机制,以尽量减少诸如“提示注入”(prompt injection)等攻击手段的威胁,系统会自动扫描相关风险,并在新漏洞出现时持续更新防护。
尽管如此,Anthropic 仍在产品页面中对用户发出明确警示,强调这项电脑操控功能仍处于研究预览阶段,可能存在错误或异常表现,建议用户避免将其用于处理高度敏感数据的应用。 实际上,公司已默认禁用部分涉及敏感信息的应用,以降低误用风险。 目前,该功能的研究预览仅向 macOS 电脑开放,且仅面向 Claude Pro 与 Claude Max 订阅用户开放试用。
Anthropic 还强调,这一电脑操控能力与其“Dispatch”功能的组合使用,将显著拓展 Claude 的应用场景。 Dispatch 允许用户通过手机等终端向 Claude 分派任务,例如每天早晨检查电子邮件,或开启 Claude Cowork、Claude Code 等特定工作会话。 在电脑操控与 Dispatch 同时启用的情况下,Claude 可以在用户不在电脑前的情况下完成更多自动化流程,例如生成早间资讯简报、运行测试任务等。
鉴于电脑操控能力与 Dispatch 皆属新近推出的功能,Anthropic 也承认,某些复杂任务在当前阶段可能无法一次成功完成。 公司表示,之所以以“研究预览”的形式提前开放,正是为了尽早从真实用户那里获取反馈,了解系统在实际使用中最需要改进之处,以便将 Claude 打磨成更为强大、可靠的生产力工具。
∞ 前Ai2首席执行官及核心研究团队加入微软“超级智能”部门
微软正从位于西雅图的艾伦人工智能研究院(Allen Institute for AI,简称Ai2)以及华盛顿大学(UW)引进一支重量级人工智能研究团队,其中包括前Ai2首席执行官阿里·法哈迪(Ali Farhadi)。
法哈迪、汉娜·哈吉希尔齐(Hanna Hajishirzi)和兰杰·克里希纳(Ranjay Krishna)预计将加入微软首席执行官穆斯塔法·苏莱曼(Mustafa Suleyman)所领导的AI组织,同时保留他们在华盛顿大学保罗·G·艾伦计算机科学与工程学院的教职;前Ai2首席运营官索菲·勒布雷希特(Sophie Lebrecht)也将一同赴任。

这一系列加盟发生在法哈迪刚刚宣布从Ai2卸任之后,他在3月12日对外公布离职决定,结束了超过两年半的非营利研究机构掌门人生涯。 上周,苏莱曼刚刚调整在微软内部的职责,从此前负责面向消费者的Copilot产品,转而专注领导微软的“超级智能”(Superintelligence)团队。
在全球AI算力与大模型竞争日趋激烈的背景下,此次招募凸显微软希望降低对OpenAI在前沿大模型方面依赖的战略考量,同时在与亚马逊、Google等巨头的较量中进一步强化自研基础模型能力。 成立于去年11月的“超级智能”团队,是微软在先进基础模型研发方面更大动作的一部分。 微软此前已从Google DeepMind、Meta、OpenAI以及Anthropic等机构网罗研究人员,如今再加上来自Ai2和华盛顿大学的这批学者,将显著补强微软在开源模型开发和训练效率优化等领域的实力——这些领域正是Ai2长期“以小博大”的优势所在。
对Ai2而言,这些离职构成了一次显著的人才流失。 Ai2由已故微软联合创始人保罗·艾伦于2014年创立,长期致力于开放科学和开放源代码的人工智能研究。 哈吉希尔齐是Ai2开源语言模型项目OLMo的联合负责人,也是由美国国家科学基金会(NSF)与英伟达(NVIDIA)共同支持的一项总额1.52亿美元、为期五年的国家级AI计划的共同首席研究员,该项目旨在构建面向科学研究的开放AI模型。 上周在圣何塞举行的英伟达GTC大会上,她以Ai2代表身份出席多场活动,并与英伟达首席执行官黄仁勋同台参与关于开源模型未来的讨论。
克里希纳则主导了Ai2多模态模型Molmo等多个关键项目,同样在刚刚结束的GTC大会上代表研究院发表演讲。 法哈迪本身是计算机视觉专家,曾共同创立Ai2孵化的初创公司Xnor.ai;该公司于2020年被苹果以约2亿美元收购。 随后他在苹果负责机器学习相关工作,并于2023年7月回归Ai2出任首席执行官。
Ai2临时首席执行官彼得·克拉克(Peter Clark)在声明中证实这些离职,并强调机构仍将坚持既定使命以及与NSF和英伟达在包括OMAI在内的项目合作。 他表示,这些项目背后有一支经验丰富、构成广泛且具备连续性的团队,足以在既有基础上延续并扩大相关工作的影响力。 克拉克同时对法哈迪、哈吉希尔齐和克里希纳等人的领导力与贡献表示感谢,并祝愿他们在新岗位上取得成功。
苏莱曼随后在LinkedIn发布动态,对这一批新同事的加盟给予高度评价。 他特别提到,在法哈迪领导下,Ai2曾在一年时间内发布逾百个模型;他还称哈吉希尔齐是“全球自然语言处理领域被引用次数最多的研究者之一”。 在评价勒布雷希特时,苏莱曼指出,她推动了Ai2在运营规模和开源工作上的扩张,同时还是AI公司Neon Labs的联合创始人,并拥有布朗大学认知神经科学博士学位。 苏莱曼表示,这支团队将助力微软推动其所谓“人本主义超级智能”的使命,即打造更加安全、可控、更为强大的AI系统,为人类及其面临的重大问题服务。
早在本月初法哈迪离职消息刚刚传出时,Ai2董事会主席比尔·希尔夫(Bill Hilf)就对GeekWire表示,法哈迪希望在AI的“极限前沿”开展研究,而在这一层级上,营利性公司正投入数十亿美元训练最先进的模型。 他坦言,董事会必须权衡:在与科技巨头争夺最大规模模型的赛道上,非营利机构是否应该、以及是否有能力用慈善资源硬拼算力和资金。
与此同时,Ai2的资金环境变化也被认为是促使部分研究者离开的重要背景因素。 Ai2最初由艾伦旗下的Vulcan Inc.资助,之后转由其遗产管理。 目前机构的主要支持者是“科学与技术基金”(Fund for Science and Technology,FFST),这是根据艾伦的指示设立、规模达31亿美元的基金会,于去年8月正式对外宣布成立,重点扶持在人工智能、生物科学与环境等艾伦关注领域中,将科学与技术用于现实问题的项目。
据知情人士透露,FFST更青睐AI的应用导向研究,而非高成本的前沿大模型开发。 虽然Ai2 2026年的各项项目经费已经完全落实,但FFST正从“整体年度拨款”模式转向“按项目申报”机制,未来的资助将更偏向现实世界应用场景,而非开源基础模型的建设,这在一定程度上解释了那些专注模型研发的研究者为何选择离开。 FFST一名发言人表示,Ai2的“工作和使命保持不变”,基金会更宏观的项目战略仍在制定之中。
对于法哈迪、哈吉希尔齐和克里希纳而言,他们的研究工作核心在于构建和推进AI模型本身。 得到数十亿美元算力投入支持的微软“超级智能”团队,为他们提供了在更大规模上持续这一方向探索的资源与空间,也让他们能在商业环境中延展此前在开源与基础研究领域的经验。
∞ 美国国务院新设“新兴威胁局”应对伊朗等国网络攻击与AI风险
美国国务院近日正式启动一个新机构,专门负责预判并应对伊朗及其他美国对手在先进技术领域(包括人工智能)上的“武器化”动向,据知情官员向美国广播公司新闻网(ABC News)透露。该机构名为“新兴威胁局”(Bureau of Emerging Threats),其任务是防范针对美国国家安全的网络攻击、外层空间军事化以及其他类似的恶意行动。除伊朗外,官员们还点名中国、俄罗斯、朝鲜以及外国恐怖组织是重点关注的“新型威胁”来源。

根据报道,国务卿马尔科·鲁比奥(Marco Rubio)早在近一年前公布对国务院进行大规模重组时,就宣布将设立“新兴威胁局”,但直到此次才披露其职责与架构的具体细节。国务院首席副发言人汤米·皮戈特(Tommy Pigott)表示,该局将不仅应对当前在网络空间、外层空间、关键基础设施领域面临的威胁,以及人工智能、量子计算等“颠覆性技术”的滥用问题,还要着眼美国在未来数十年将遭遇的挑战。
领导该局的高级官员安妮·武(Anny Vu)曾在特朗普政府中担任美国驻华临时代办。她表示,其领导的专家团队将“致力于运用外交政策以及一切国家力量工具”来维护美国利益。据介绍,新兴威胁局将下设五个处室:网络安全办公室、关键基础设施安全办公室、颠覆性技术办公室、空间安全办公室和威胁评估办公室,分别从不同方向承担具体职能。
报道指出,伊朗政权及其附属势力长期以来频繁利用网络攻击手段,打击美国及其相关利益。美国网络安全公司CrowdStrike表示,自今年2月下旬美国与以色列对伊朗采取军事行动后,亲伊朗黑客势力的活动明显增多。美国网络安全与基础设施安全局(CISA)目前正在调查至少一起疑似由亲伊朗黑客实施的重大攻击事件,目标是美国医疗技术企业史赛克公司(Stryker)。
美国国务院于上周五正式致函国会,通报新兴威胁局的设立事宜。同一天,白宫发布了全国人工智能政策框架,就联邦层面对人工智能的治理提出指导原则。这份长约四页的蓝图呼吁国会通过“监管负担最低”的相关立法,以在联邦层面统一人工智能规则、取代更为严苛的州级立法。文件还明确表示,立法者不应试图设立新的联邦机构专门监管人工智能,而应在现有机构体系内进行调整与协调。
从时间上看,国务院新兴威胁局的正式落地与白宫在人工智能治理方面的全国性政策发布几乎同步,显示现任美国政府试图在技术安全与制度规范两条战线上同时发力,以应对来自伊朗等对手国家及非国家行为体在网络战、空间安全及人工智能等前沿领域日益凸显的挑战。
∞ 黄仁勋再提“AGI已实现”:言辞激进 案例却暴露现实差距
英伟达首席执行官黄仁勋近日在公开场合再度抛出重磅言论,宣称“我们已经实现了通用人工智能(AGI)”,但他在不同访谈中的表述和举例,又同时暴露出现阶段人工智能能力与“人类水平智能”之间仍存在不小鸿沟。

3月22日,黄仁勋在播客主持人 Lex Fridman 的访谈节目中被问及何时能实现 AGI。按照 Fridman 的定义,AGI 应当是“能够完成你的工作,包括从零开始创办、经营并发展一家市值超过 10 亿美元科技公司的系统”。在被要求给出 5 年、10 年甚至 20 年的时间表时,黄仁勋毫不犹豫地回答“我认为就是现在”。不过他随即补充说,对方提到的是“10 亿美元”,但没有说“可以持续多久”,等于将 AGI 理解为一种阶段性的商业成就门槛,而非一个长期稳定、具有人类般认知能力的“心智”。
黄仁勋在同一场访谈中明确表示:“我认为我们已经实现了 AGI。”他把当前一类被寄予厚望的 AI 代理系统视为例证,认为这些系统在开办社交类应用、进行创意实验等方面已展现出强大的创业潜力。他提到,包括 OpenClaw(正在被 OpenAI 收购的一款开源 AI 代理平台)在内的开源项目,正在催生一波利用数字代理打造虚拟网红、自动化数字社区的“创业浪潮”,似乎在佐证 AGI 已经“到来”。
但在强调这股浪潮的同时,黄仁勋也坦言,目前这些系统的成功是高度偶然的。他指出,许多项目“火上两个月就冷却”,并直言“十万个这样的代理里能真正做出一个英伟达的概率是零”。这一表态在事实上承认,目前的 AI 代理距离真正具备系统性构建和长期经营超大规模科技企业的综合能力仍非常遥远,也从侧面削弱了他先前“已实现 AGI”的激进判断。
围绕“AGI是否已实现”的表态,也触及了业界长期存在的分歧。通用人工智能这一概念本身早已高度“政治化”与“资本化”,在 OpenAI、微软等公司与合作方的合同条款中,是否“达到 AGI”往往直接绑定巨额资金和战略方向,因此任何宣称“已经实现 AGI”的言论,都极易激化争论。科技领袖与研究者多年来一直在争论,目前的大模型体系究竟体现了“真正的通用智能”,还是只是对人类智能碎片的高度拟态。
值得注意的是,就在 Fridman 访谈发布前三天的 3 月 19 日,黄仁勋在英伟达 GTC(GPU 技术大会)期间做客 All-In Podcast 时,对 AI 的实际应用给出了截然不同的强调。他在那场对话中并未着墨 AGI 是否“已实现”,而是集中谈人类工程师是否充分利用了现有 AI 工具,甚至以强烈措辞警告,如果高薪工程师没有在 AI 上花出足够多的钱,他会“深感震惊”。
“如果一个年薪 50 万美元的工程师,一年没有至少消费 25 万美元的 AI 代币,我会非常警觉。”黄仁勋说。他将“代币”(token)解释为大模型处理和生成语言的基本计量单位,也是 AI 计算成本和工作能力的直接体现。在他看来,代币使用不足,就意味着工程师没有充分调用 AI 的能力,相当于在浪费潜在的生产力。
黄仁勋甚至将这种行为类比为芯片设计师拒绝使用 CAD 等电子设计自动化工具,而“回到纸笔时代”画电路图。他透露,英伟达目前正尝试为工程团队预留约 20 亿美元的代币预算,并考虑将代币直接纳入员工薪酬方案中。他设想,一名工程师除了每年数十万美元的基础工资之外,还会再获得约相当于基本工资一半价值的“代币配额”,以便通过大量调用 AI 工具,把自身工作效率“放大 10 倍”。
将这两场相隔数日的公开露面放在一起看,黄仁勋一方面用极具煽动性的语言宣称 AGI 已经“到来”,满足某种以商业成就为导向的“通用智能”定义;另一方面,又在谈及内部管理与工程实践时强调,当前的 AI 系统仍高度依赖人类主动调动和密集使用,且在真实世界的创业实践中成功概率极低。前后言论之间的张力,恰好反映出当下 AI 行业在“炒作前沿”和“现实能力”之间的微妙摆动:通过夸大前景争夺资源的同时,又不得不承认技术在很多关键维度上仍远未达到理想中的“人类水平智能”。
∞ iOS漏洞攻击工具DarkSword泄露至GitHub 未更新设备面临高风险
一款名为 DarkSword 的 iOS 攻击工具现已在 GitHub 上公开流传,安全专家警告称,这将使大量尚未更新系统的 iPhone 和 iPad 暴露在实战攻击之下。DarkSword 主要针对 iOS 18.4 至 iOS 18.7,但更早版本的 iOS 也同样存在漏洞。该工具最初被认为与此前在黑市出现、可能由美国政府开发的 Coruna 攻击工具属于同一类,如今同样经历了从地下流通到公开泄露的过程。

DarkSword 的攻击链以 Safari 和 WebKit 为入口,通过浏览器实现初始代码执行,随后逐层逃逸沙盒限制,最终完全接管受害者的 iPhone 或 iPad。在这一过程中,攻击者可以绕过多重安全隔离,获取系统级访问权限。泄露版本的代码中包含大量开发者注释,详细描述了该利用工具的技术原理、执行流程以及可实现的能力。
苹果方面已经通过多轮系统更新对相关漏洞进行了修补。官方指出,iOS 26.3 和 iOS 18.7.3 已封堵 DarkSword 所利用的全部安全缺陷,而更老的设备也分别收到了 iOS 15.8.7 和 iOS 16.7.15 等安全更新。然而,并非所有用户都及时升级到各自设备所支持的最新版本,这正是当前风险所在。
据 TechCrunch 报道,目前在 GitHub 上出现的 DarkSword 版本,使用门槛相对较低,能够较为轻易地攻击运行旧版 iOS 的设备。安全创业公司 iVerify 联合创始人 Matthias Frielingsdorf 直言,这一情况“很糟糕”,并指出这些利用“开箱即用”,几乎不需要任何 iOS 专业知识即可操作。他预期,犯罪分子以及其他恶意行为体将迅速开始部署这一工具,Google方面的发言人也赞同这种评估。
苹果发言人则重申,公司已经通过软件更新修复了 DarkSword 相关漏洞,并再次强调及时更新系统的重要性。苹果发言人 Sarah O'Rourke 表示,“保持软件最新是确保 Apple 产品安全性的单一最重要举措”,同时补充称,iOS 的“锁定模式”(Lockdown Mode)对 DarkSword 也具有防护效果。
从泄露代码可以看到,DarkSword 被描述为一款可通过 HTTP 协议,从 iOS 设备中读取并外传具有取证价值文件的工具。在“后渗透活动”的说明部分,代码详细列出了攻击完成后可能执行的步骤,包括获取用户通讯录、通话记录、短信消息以及 iOS 钥匙串中的敏感数据,并将这些信息上传至远程服务器。这意味着,一旦成功入侵,攻击者就能够全面掌握用户的通信和账号等核心隐私信息。
在 DarkSword 已经脱离原始控制范围、并免费向公众开放的情况下,安全专家与媒体一致呼吁用户立即采取防护措施。目前已知的最有效应对方式,是将设备更新至包含修补程序的系统版本:iOS 26.3 及以上,或 iOS 18.7.3,以及适用于老设备的 iOS 15.8.7 和 iOS 16.7.15。只要仍停留在更旧版本,用户就仍可能成为这一公开利用工具的潜在目标。