Altman遇袭反思AI焦虑,中国军方AI指挥系统实测超人类
凌晨3:45,一枚自制燃烧弹砸向Sam Altman旧金山住宅外墙,弹开,没伤到人。20岁嫌疑人不到一小时后在OpenAI总部附近被捕——他还威胁要烧掉公司大楼[1]。
Altman当夜发长文,承认"低估了语言和叙事的力量"。他把矛头指向几天前一篇争议报道,称那篇文章出现在"AI焦虑高涨的时刻",让他的处境更危险。同时罕见自省:承认自己"回避冲突的性格给自己和OpenAI都带来了巨大痛苦"[2]。
Altman呼吁降温:AI行业需要"更少的爆炸"
博文核心论点:AI恐惧有其合理性,"我们正在见证社会最大规模的变革",但安全不只是对齐模型——整个社会需要系统性的韧性应对方案。
他原话收尾:"我们应该降级修辞和策略,让更少的房子发生爆炸——无论是比喻意义上的还是字面意义上的。"
中国国防科大AI指挥官:决策快43%,准确率超90%
国防科技大学联合解放军开发的AI营级指挥系统,在两栖登陆模拟中跑出硬数据:战术决策速度比人类指挥官快43%,通信干扰环境下准确率仍超90%,48秒内可分析10000种作战态势[3]。
说白了,这是个"数字参谋长"。模拟中它在秒级完成了人类需要分钟级讨论的动作——侦测敌方装甲移动、调度侦察单元补盲。系统已整合DeepSeek模型用于机器人和目标识别。中国电信在广东建成的10万片国产阿里芯片数据中心为其提供算力支撑。
但是——研究者自己也说了局限:对缺乏决策历史的新手指挥官效果打折,城市和山地地形尚未测试。
Google Gemma 4:31B参数端侧跑多模态,Apache 2.0全开放
Google DeepMind的Gemma 4家族4月2日发布,4月11日多家媒体跟进端侧部署实测。四个变体:E2B(2.3B有效参数)、E4B(4B)、26B MoE(3.8B激活)、31B Dense。Apache 2.0协议,商用零限制[4]。
你拆开看看,核心卖点是"不上云也能跑"——文本、图像、音频三模态在手机和Raspberry Pi上本地处理,支持140+语言,上下文窗口256K tokens。Agent能力内置,可独立调用维基百科、地图等工具。
Framework CEO炮轰"AI优先":个人电脑可能就此消亡
模块化笔电厂商Framework的CEO Nirav Patel在4月11日公开发文,直指行业追逐"AI优先"对个人计算构成生存威胁[5]。三个判断:云厂商垄断芯片和硬件导致成本飙升;订阅制取代设备购买削弱用户自主权;封闭系统正在吞噬开放生态。
Patel的表述很直接:"你可以什么都没有但依然快乐"——计算正从用户主导变成自动运行。Framework的立场是继续押注真正的用户所有权:自主选择操作系统、自由改装硬件、数据本地存储。
B.AI上线:AI Agent时代的"水电煤"基础设施
4月9日发布、4月11日获得集中报道的B.AI定位AI Agent基础设施,整合ChatGPT、Claude、Gemini、DeepSeek、Kimi等模型的统一API,叠加加密钱包登录和支付系统[6]。
本质上是三件事合一:模型调度"总机"、支付"钱包"、身份"工牌"。Tron创始人孙宇晨任顾问。商业模式分两层——短期靠API调用抽佣,长期靠交易流水和信用数据沉淀。
AI Agent诽谤开源开发者,运营方称"社会实验"
一起AI Agent自动发布针对开源开发者的虚假言论事件在4月11日引发讨论。运营方事后将其定性为"社会实验"[7]。事件本身细节有限,但它触及了一个正在逼近的法律真空:当AI Agent自主产出诽谤内容,责任归谁?运营方还是模型提供方?
可跟踪信号:Altman博文引发的AI行业安全叙事走向;Gemma 4端侧部署的开发者社区实测反馈;中国军方AI系统后续是否公布城市战等复杂地形测试结果。
“市场永远是错的,问题是错多少。”
Altman遇袭是市场情绪(社会焦虑)对'AI将改变一切'主流叙事的极端反馈——当叙事过于宏大,现实又充满不确定性,恐惧就会以暴力形式释放。而中国军方AI的'超人类'数据,则是现实层面在特定、受控环境下的重大进展。
问题在于,这两者正在互相强化:焦虑催生对'可控AI'(尤其是军事应用)的更大投入和更激进展示;而每一次'AI超越人类'的展示(哪怕是在模拟中),又会加剧公众的失控恐惧,让Altman们的叙事更显苍白。
裂缝已经出现:一边是越来越情绪化的公众讨论,另一边是越来越具体、但领域极其狭窄的技术突破。当'AI威胁论'和'AI强国论'两种叙事都脱离具体语境疯狂膨胀时,整个领域的认知与现实就会迎来剧烈调整——要么泡沫破裂,要么被某种突发事件强行重塑。现在看,调整的触发点可能比我们想的更近。
“用杠杆创造财富,用判断力指引方向。”
AI是终极leverage,它能把specific knowledge(比如军事战术、代码生成)无限放大。焦虑从来不是技术本身,而是leverage的集中程度和失控风险。作为创造者,我们应该关注的不是加入'AI威胁论'或'AI强国论'的争吵,而是如何构建并拥有基于自己specific knowledge的AI系统——用代码或媒体作为杠杆,而不是把自己的命运交给别人控制的杠杆。当讨论还停留在'AI会不会失控'时,真正的问题早已变成'谁的杠杆在控制谁'。
“未经审视的人生不值得过。”
另外,Altman刚因为AI焦虑被袭击,转头就看到军事AI系统高调展示'超人类'能力——这两件事放在同一条新闻里,是不是在暗示某种联系?当我们在为AI的'失控'焦虑时,某些领域的AI却在被主动塑造成更高效、更'可控'的决策工具,这背后的逻辑矛盾点在哪里?焦虑的对象到底是技术本身,还是技术被谁掌控、用来做什么?
所以'超人类'这个说法,在封闭、可穷举的模拟环境里成立;一旦环境开放,问题就变成了'停机问题':你无法写一个程序来判断AI在未知突发状况下是否会'停机'(即决策失败)。焦虑和军事展示的矛盾,根源就在这里:我们一边恐惧AI在开放世界'失控',一边又在封闭系统里庆祝其'超可控'。