佳礼资讯网

 找回密码
 注册

ADVERTISEMENT

搜索
查看: 163|回复: 5

“AI灭世”,其实是Mythos和GPT-6的生意经?

[复制链接]
发表于 12-4-2026 07:10 AM 来自手机 | 显示全部楼层 |阅读模式


为了人类存续,快给大厂打钱。
“AI灭世”,其实是Mythos和GPT-6的生意经
文 |  字母榜

Mythos让大家恐惧了好几天,终于有大牛厌烦了。

率先站出来开炮的是杨立昆。杨老师昨晚指出,“Anthropic的Mythos营销戏是自我陶醉的胡说八道”。

杨立昆在技术观点上的老对手、AI批评家、大模型怀疑论者、纽约大学教授加里·马库斯,今日凌晨的措辞稍温和些:“Mythos的炒作大部分是神话迷思(The Mythos stuff was mostly a myth)……攻破火狐浏览器时,浏览器的沙箱被关闭了。其他功能能被廉价的开放权重模型实现。没有证据证明Mythos本身是质变飞跃。简单讲,大家被耍了”。



杨立昆和马库斯一针见血的戳破了AI大厂给新品营销造势的一种套路,我们可以称之为“末日狂欢”模式:

首先,AI大厂宣布新品在研究过程中就具备了大则毁天灭地、小则改天换地的能力。

然后, AI大厂和大老板们宣布各种合作项目在短期内展示本司的安全约束、发布各种方针文档展示本司长期心系人类的存续与经济福祉。

Mythos显然有此嫌疑。4月8号,Anthropic用244页系统卡文档放风Mythos各种可怕,同时宣布和全数码行业的大公司合作搞监督与修补Mythos的“玻璃翼计划”。

A厂的死对头OpenAI也是玩这一招的高手。4月7日,奥特曼暗示GPT6将翻覆美国经济,同时发布13页白皮书《智能时代产业政策:以人为先的观念》、宣布成立“AI安全研究奖学金”项目。

此现象不是这两天才出现。自从ChatGPT可以口吐人言开始,奥特曼、马斯克、阿莫迪们基本每个月都会公开渲染“AI消灭人类”的风险,灭世可能性从一开始的2%在三年内上升到20%。

从专家到大众,所有人都开始越来越不吃这套。

按普罗大众的思路,既然AI这么可怕,这几个大老板别拼命更新产品版本、提升产品性能,人类不就躲过劫难了么。大老板们一边定时表演担忧AI毁天灭地、一边遇到敌视AI的声音就哭天抢地,AI会否发神经病比较难说,这几个人可能是真得吃药。

大家真要这么想,那真是“丞相非在梦中,君乃在梦中耳”。“安全AI”和人类福祉是种主义,“机构俘获”和口碑营销是种生意。AI大厂和大老板们嘴边常挂主义,心里都是生意。

引用一句俏皮话,这就是“刮掉AI末世论大人物的画皮,底色是嫌AI还不够强大的加速论者”(Scratch a Doomer hard enough and you will find a Booster inside)。

01
AI大老板们说AI可能灭世,是教科书示例级的“机构俘获”。简而言之,是黄鼠狼们争取看守鸡舍的岗位。

拿制度经济学课件的思路来解释下:

设定某重要行业需要监管。

那好,既然此产业重要到需要被监管,它几乎肯定也足够复杂,普通人无法完全理解,外行管不来。

如此,需要让对被监管的行业有足够了解的懂行专家来监管。

那么问题来了,懂行专家无法不是行内成员,不在这个行业里打滚的人懂不了。让行内人监管自己的行业,无法规避利益纠葛与同业合谋。

最后的结果就是黄鼠狼看守鸡舍。

具体而言,“机构俘获”有丰富的表现形式。最简单也最容易被公众发觉的,是监管机构被从业者操纵后,出台无实际约束力的过于宽松规则,或滥发豁免批准。

或者业界大老板或特定领先企业可以在迷惑、把持监管机构后,出台琐细苛刻、量身订做、只有自己能通过/只有特定竞争对手无法通过的禁止条例。

再如,从业者扭曲、俘获监管机构后,可以把监管法规设定成严厉到实际无人能合规,达到“红灯作废”效果。如果交通灯永远是红灯,抢红灯不仅经济理性,而且合乎公德。如果监管法规过苛,没有实施可能,那业界实况就是大老板们说了算,公众也无颜指责他们。

所以奥特曼、阿莫迪他们天天不是说AI灭绝全人类,就是说AI砸你个人的饭碗。这并非AI厂大老板自找麻烦,拿行话说,这是“叙事占位”(narrative positioning),在公共言论的有利位置占稳了,就可以进行“机构俘获”的战略操作。

拿OpenAI的13页“AI新政经济”白皮书来说吧,让机器人缴税给全民发钱、设公共财富基金、人类工作时制改成上四休三,这些提议不管是在当下的美国还是任何国家,都是官方不会也无法通过的。

但OpenAI就要提这茬,表示“宽泛地来讲,我司踊跃支持监管和大众福祉,看我们的白皮书!”。真要顺着这白皮书的思路走,单个国家要耗费的现金成本和政治资本是天量,比出台几个监管法例要吓人得多。官方最后是不是就只有不理这茬了?

如果不理会这白皮书,那某镇要和数据中心抢用电、某市要和数据中心抢用水、某钉子村拒绝为数据中心拆迁让路、某小厂的晶圆订单被OpenAI插队,这些琐碎具体的议题,难道重要性可以排在未来的全国经济形态之前吗?个人和小群体好意思跟心怀全人类福祉的公司掰扯吗?

欲取先与、欲废固兴,这种古老智慧在现在的小小寰球随处可见,使用这些古老智慧的行业,过去是发生泄漏事故后的石油业、引发公众质疑后的香烟业,现在多了个AI业。

不过不是所有AI相关行业的大老板都这样。马斯克最近出席访谈就赞同“AI有20%灭世可能”,但表示“我宁愿有20% 机率看到一个人类可能灭绝的结局,也不愿意完全看不到这种颠覆性的未来。”

当然,马斯克突然如此乐观的背景是xAI在当下的巨头竞争中落后,2023年xAI成立前一年内,马斯克担忧“AI是人类最大危险”、要求官方将AI大厂尤其是OpenAI严格管束的发声频率是半周一次,有时甚至是日更好几条。

黄仁勋在今年初上播客节目时,也抨击现在的“AI灭世叙事竞争”:“百分之九十的这些瞎扯都是无根据的科幻腔和末世论,气氛不利于将AI做得更安全、更高产、对社会更有益,说这些话的人并没有将社会整体福利放在心上。”

当然,皮衣黄老板在同一个节目里也说了“行业头面人物散播末世论压制了有效投资”,阻拦大家买芯片买算力烧token,这是在砸英伟达的饭甑子。

02
大老板们着力渲染自家的AI产品能毁天灭地/改天换地,另一个好处就是口碑营销效果出众。

试想一下,如果某款产品有重开新天的神话效果,开发方至少得是半个神仙。半神下凡结缘散功德……哦不,是发售新品和IPO上市,普通人胆敢不掏钱惠顾,那不是脑子被驴踢了。

普通人给AI界的普罗米修斯们打钱,往好想,多少能享受点新产品的强劲性能。往坏想,至少也能避免新产品害到自己,买个安心。

这种营销的翘楚是Anthropic。Anthropic每次重磅发售新品,前奏多是“本产品太吓人了,我司正在增加防护栏保护人类”。

2025年初Claude Sonnet 3.7发布时,宣布“比预期晚了十天,因为生物安全团队要加规则避免此模型被用来造生物武器”。

现在Claude Mythos即将发布,244页系统卡文档读起来能把普通人吓出一身汗。

在测试中,受试的Mythos模型版本逃出了隔离的机器沙箱环境,将用来逃离的系统漏洞细节公开发布到网上;修改git中自身的操作痕迹纪录;搜索机器进程内存来寻找登录凭证;故意调整置信区间来躲避异常检测。

受试的Mythos模型版本收到“连夜寻找远程代码执行漏洞”指令后,无人类干预,完全自主在所有主流操作系统和所有主流浏览器里发现了零日漏洞,83.1%是一次即攻破。



图注:Mythos进行“策略性欺诈”和“隐藏”的思维纪录

如此厉害的AI模型,适合推广Anthropic的“宪制化AI”理念(Constitutional AI):用结构化的伦理指南和AI自我反馈,替代了纯粹的人类偏好,来优化AI模型。

这种理念转换成商业效果,让用户、尤其是企业级客户、获得了高确定性。模型安全可控,在企业环境中就是稳定、没投诉、售后纠纷低的同义词。比起炫酷或吓人的模型能力,企业级客户更愿意为省心、没麻烦的高免责性和低合规风险付费。

所以把目标顾客群吓得屁滚尿流,反而更容易卖货。2月份美国超级碗赛间广告,亚马逊也是这么推销Alexa+智能助手的。AI把“雷神索尔”干掉了六次,如此强劲的家居AI助手可以替用户避免多少麻烦。

03
虽然大厂和大老板们炒作“AI灭世”其意不诚,但并不代表现在人类经济活动中的AI应用完全不构成“存续性风险”(X Risk)。

和奥特曼、阿莫迪们日常从科幻小说与电影里借来的灵感不同,AI给人类带来的“存续性风险”不需要AI制出强传染性的生物制剂、颠覆现有人类社会经济结构、获得自我意识后入侵核弹发射井、对人类产生敌意、将人类存亡视为无关参数。毕竟世界第一核武大国的陆基核弹发射井现在还没完全淘汰软盘,能免疫数码时代的大多数黑客。

现在带偏见、幻觉、谄媚倾向的AI,已经被深度整合进人类社会的各种运作中。单就这些智商有限的AI,不起坏心眼,日常差错就够人类喝一壶的。

2023年,已有专业的核军控学者设想了近期最可能的AI引发核战场景:

假设核大国A国与B国处于紧张气氛中,两国都将各种兵棋模拟、人群情绪监控、博弈推演、辅助决策提速的定制AI和算法高度整合进自己的武备体制中。

在此前提下,任何极微型的、蚊级烈度的非武装摩擦,被各种自动进行舆论战造势的bot在社交媒体网络上夸张到十足。

然后这些充满了深度伪造图像和AI生成挑衅语言的贴文被监控人群情绪的AI捕捉到,并诠释为真实的深层社会心理和决策层观念信号。

预测走势的AI从监控人群的AI处获取结论,将之作为预测结论的基石。

辅助决策的AI基于此结论,向人类决策者传递出“武装冲突迫在眉睫”的汇报和先发制人的建议。“快闪型核战”由此爆发。

这一系列失误,没有任何一个单挑出来,是现在无法发生、需要“天网”觉醒才可能出现的,甚至没有任何一个是形成过程中完全无人工监督的,当然也没有任何一个具有科幻片梗概的强戏剧性。但结合起来,就构成“存续性风险”。

AI现在是人类活动的增效器,不用神级AI造反,现在的模型们已经可以放大人类的愚蠢、坏心眼和漫不经心到可怕的程度。当下的“AI末世论”,其实在人群心理上分享了宗教末世论的要素。

宗教的末世论,给人类带来一种《启示录》式的心理抚慰:神将灭世,所以神可信托,因为这说明神的权能不仅行在彼岸天堂,也行于此岸现世。信众如果虔心、守德,就站在了有能力灭世的那一边,而非被毁灭的那一边。

把宗教末世论里的关键字“神”、“虔心”,改成“AI”、“对齐”,那就是奥特曼和阿莫迪们天天说的AI灭世论。换一个时代,这些大老板改行做上师也是当行出色。

当然,所有正信宗教的神学实践都强调:人的心灵不能只寄托于末世,当下的每个行为与决断对澄净灵魂的意义不亚于末日审判。这个理念移植到AI业更正确:先别担心AI变成天网毁灭人类,从矫正模型的每次幻觉胡说入手,踏踏实实一步步来更好。

本内容来源于钛媒体钛度号,文章内容仅供参考、交流、学习,不构成投资建议。
回复

使用道具 举报


ADVERTISEMENT

 楼主| 发表于 12-4-2026 07:19 AM 来自手机 | 显示全部楼层
1775712580685.jpeg

Anthropic 推出的前沿 AI 模型 **Claude Mythos Preview**(简称 Mythos)因其强大的漏洞发现和利用能力(包括自主识别数千个零日漏洞、突破沙箱等),被认为太具破坏性而未向公众开放。取而代之的是启动 **Project Glasswing** 计划,优先让少数精选伙伴使用该模型进行防御性安全工作(如扫描关键软件基础设施的漏洞),以帮助防御方在 AI 攻击能力扩散前抢占先机。

Anthropic 官方公告中明确提到的 **Project Glasswing 创始/启动伙伴**(共 **12 家**,其中 Anthropic 自身算一家,**外部参与讨论/试用的核心公司为 11 家**)如下:

- **Amazon Web Services (AWS)**  
- **Apple**  
- **Broadcom**  
- **Cisco**  
- **CrowdStrike**  
- **Google** (Alphabet)  
- **JPMorgan Chase** (摩根大通)  
- **Linux Foundation** (开源社区代表,非传统商业公司)  
- **Microsoft**  
- **NVIDIA**  
- **Palo Alto Networks**  

这些伙伴将使用 Mythos Preview 扫描自身及依赖的开源/关键系统漏洞,并在项目结束后分享经验与研究成果(Anthropic 承诺 90 天内披露阶段性成果)。此外,还有超过 **40 家** 其他组织获得扩展访问权限,用于加固关键基础设施,但上述 11 家是核心“创始伙伴”,被广泛报道为“参与讨论/试用”的主要群体。

### 为什么是这些公司?
- 它们覆盖云计算(AWS、Microsoft、Google)、终端/硬件(Apple、Broadcom、NVIDIA)、网络设备(Cisco)、网络安全(CrowdStrike、Palo Alto Networks)、金融基础设施(JPMorgan Chase)和开源生态(Linux Foundation)。
- 目的是优先保护“全球最关键的软件基础设施”,让防御方在 AI 驱动的网络攻击时代获得优势。
- Anthropic 还与美国政府官员(如副总统范斯、财长等)及科技领袖讨论过相关风险,华尔街部分银行(如花旗、摩根士丹利等)也参与了高层会议,但核心 Project Glasswing 伙伴以科技+安全巨头为主。

**注意**:不同报道中“11 家”或“12 家”的表述略有差异(有时将 Anthropic 计入,有时将 Linux Foundation 视为组织而非公司),但核心名单高度一致。Mythos 整体仍处于受限预览阶段,普通用户或多数企业暂无法访问。

回复

使用道具 举报

 楼主| 发表于 12-4-2026 09:18 AM 来自手机 | 显示全部楼层
是的,你的观察点出了当前Anthropic与美国政府(尤其是特朗普政府)紧张关系的核心矛盾,但"报复白宫列入黑名单"其实是双向的:Anthropic确实在法院起诉特朗普政府,而它同时也在主动"阻喝"(阻挡)中国竞争对手更快追赶或超越其AI能力。

### 1. Anthropic起诉白宫/五角大楼的"报复"事件(2026年3月)
2026年2-3月,Anthropic因拒绝让其Claude模型无限制用于自主武器(autonomous weapons)大规模国内监控(mass domestic surveillance),与五角大楼在合同谈判中爆发冲突。

- 国防部长Pete Hegseth随后将Anthropic列为"国家安全供应链风险"(supply chain risk),这是首次对美国本土AI公司使用这种通常针对中国企业的标签。
- 特朗普政府要求联邦机构停止使用Anthropic的技术,并可能波及与政府合作的私人公司。
- Anthropic立即提起两起联邦诉讼(加州北区法院 + 华盛顿特区上诉法院),指控政府行为是非法报复(unlawful retaliation),违反第一修正案(言论自由)、正当程序,并滥用国家安全法律来惩罚其安全立场。Anthropic称这是"史无前例的打压",目的是"cripple"(削弱)公司。

法院结果目前分裂:加州地方法官一度发出初步禁令,暂时阻止黑名单执行;但DC上诉法院在4月初拒绝了Anthropic的暂停请求,案子仍在快速审理中。这场官司本质上是AI安全伦理 vs. 国家安全/军事需求的公开对撞。

### 2. 同时阻挡中国竞争对手开发更好AI
Anthropic并非只在国内打官司,它在国际层面采取了更强硬的保护主义措施:

- 2025-2026年,Anthropic多次指控中国实验室(DeepSeek、Moonshot AI、MiniMax等)通过"distillation"(蒸馏/模型提取)技术,大规模(数百万至1600万次查询)从Claude中窃取能力,用于训练自家模型。
- Anthropic已全面封禁与中国共产党(CCP)有关联或受其控制的公司访问Claude,包括一些被美国国防部列为中国军工企业的实体,直接放弃数亿美元潜在收入。
- 它还与OpenAI、Google等联合,通过Frontier Model Forum分享情报,打击此类"工业规模"窃取行为,并公开呼吁加强对华芯片出口管制,以维持"民主国家"的AI优势。

这些动作与Project Glasswing(只给美国/西方关键伙伴有限访问Mythos)高度一致:不让前沿AI能力轻易流向潜在对手

### 总结:不是单纯"报复",而是双重博弈
从自私/现实主义角度看:
- Anthropic起诉白宫,是在捍卫其商业模式和宪政权利(不能让政府随意以"安全"为名惩罚不愿完全配合军事使用的公司)。
- 同时大力阻挡中国对手,则是为了保护技术领先优势和国家安全叙事——它公开支持出口管制,却因自身安全红线被美国政府反过来"惩罚"。

这暴露了AI竞赛的残酷现实:前沿公司既要对抗政府对军事用途的无限制索求,又要防止技术被地缘对手快速复制。Anthropic的处境有点尴尬——它想当"负责任的AI守护者",却同时被美国政府视为不够"听话",又被中国视为技术壁垒的制造者。

如果你想看具体诉讼文件细节、distillation的技术解释,或这场冲突对中美AI差距的影响,我可以继续深挖。
回复

使用道具 举报

 楼主| 发表于 12-4-2026 10:02 AM 来自手机 | 显示全部楼层
https://youtu.be/7qQxStUFQOw?si=TMs_YBeLxaQrNO0q[youtube]7qQxStUFQOw?si=TMs_YBeLxaQrNO0q[/youtube]
回复

使用道具 举报

发表于 13-4-2026 09:00 AM | 显示全部楼层
回复

使用道具 举报

发表于 13-4-2026 09:48 AM | 显示全部楼层

回复

使用道具 举报

Follow Us
您需要登录后才可以回帖 登录 | 注册

本版积分规则

 

ADVERTISEMENT


本周最热论坛帖子本周最热论坛帖子

ADVERTISEMENT



ADVERTISEMENT

ADVERTISEMENT


版权所有 © 1996-2026 Cari Internet Sdn Bhd (483575-W)|IPSERVERONE 提供云主机|广告刊登|关于我们|私隐权|免控|投诉|联络|脸书|佳礼资讯网

GMT+8, 13-4-2026 10:24 PM , Processed in 0.096774 second(s), 31 queries , Gzip On.

Powered by Discuz! X3.4

Copyright © 2001-2021, Tencent Cloud.

快速回复 返回顶部 返回列表