智能前沿

Linux内核立规AI贡献,OpenAI推动责任豁免立法

2 条讨论
Linux内核AI规范AI责任立法Twill编码代理MCP协议Altman袭击事件

4月10日至11日,AI行业密集释放信号:开源社区、立法博弈、人身安全、开发工具四条线同时推进,每一条都指向同一个问题——AI的边界在哪里。

Linux内核合并AI编码助手规范文档,OpenAI在伊利诺伊州为责任上限游说,Altman住所遭物理攻击,YC新一批AI编码创业公司开始交付产品。拆开看看,底层逻辑是AI从实验室走向生产环境时,规则体系正在被倒逼建立。

Linux内核发布AI编码规范,禁止AI签署开发者声明

NVIDIA的Linux LTS联合维护者Sasha Levin提交的AI编码助手配置提案正式进入内核文档(HN 230分/157评论)[1]。核心规则:AI不得添加Signed-off-by标签——只有人类能合法签署开发者来源证书(DCO)。所有AI辅助的提交必须使用Assisted-by标签,格式为"Assisted-by: AGENT_NAME:MODEL_VERSION [TOOL1] [TOOL2]"。

提案覆盖Claude、GitHub Copilot、Cursor、Codeium、Continue、Windsurf、Aider七款工具,通过统一符号链接指向中央文档确保一致性。说白了,内核社区选择了"不禁止但必须透明"的路线。Linus Torvalds本人的态度更务实:文档应该面向所有开发工具,不必单独针对AI,因为AI辅助贡献无论政策怎么写都会继续出现[2]

OpenAI支持伊利诺伊州法案,AI责任门槛设为百人死伤

OpenAI向伊利诺伊州议员作证,支持SB 3444《人工智能安全法案》(HN 427分/309评论)[3]。这份法案定义"关键伤害"的门槛极高:100人以上死亡或重伤、10亿美元以上财产损失、或利用AI研发化学/生物/放射/核武器。

但是——法案的覆盖范围同样激进。任何训练计算成本超过1亿美元的模型即被认定为"前沿模型",OpenAI、Google、Anthropic、xAI、Meta全部入网。只要公司既非故意也非鲁莽造成伤害,且公开了安全透明报告,即可获得责任豁免。OpenAI代表Caitlin Niedermeyer在听证会上反对"各州拼凑式监管",呼吁联邦统一框架[4]

Altman住所遭燃烧瓶袭击,嫌疑人随后威胁烧毁总部

4月10日凌晨约4点(太平洋时间),一名男子向Altman位于旧金山Russian Hill的住所投掷燃烧装置,点燃了外围大门(HN 211分/513评论)[5]。无人受伤。约一小时后,同一人出现在OpenAI总部门前,威胁"烧掉整栋楼",随即被捕。

嫌疑人Daniel Alejandro Moreno-Gama,20岁,以涉嫌谋杀未遂、纵火、持有或制造燃烧装置等罪名被关押,不得保释。FBI已介入协调调查,方向包括心理健康问题、内部不满或潜在的国内恐怖主义[6]。这不是孤立事件——Altman和OpenAI近期持续成为AI风险活动人士和反对与美国国防部合作者的目标。

Twill.ai上线:三大编码代理云端自动交付PR

YC S25批次的Twill.ai正式在Hacker News发布(63分/56评论)[7]。产品定位:把Claude Code、OpenAI Codex、OpenCode三个编码代理放进沙盒云环境,开发者在GitHub、Slack或Linear里@twill分配任务,代理自动研究代码库、制定计划、编码测试、开PR。

本质上是把"人盯代理写代码"变成"代理自己写、人审PR"。工作流结构化为研究→计划→审批→实现→AI代码审查→合并。安全层面,每个任务克隆到隔离沙盒,合并后删除。背后公司Anybase Inc.,注册纽约。竞争格局里,Twill和Devin、Codex同属"云端自主编码"赛道,与Cursor、Copilot的"本地辅助"模式分化明显[8]

MCP协议对决Skills架构,开发者社区选边站

David Mohl的文章《I Still Prefer MCP Over Skills》引爆HN讨论(427分/353评论)[9]。核心论点:当你需要给LLM接入真实服务时,MCP(模型上下文协议)是更务实的架构选择。Skills擅长教LLM格式化提交信息、写测试这类纯知识任务,但一旦需要调用CLI执行操作就碰壁——ChatGPT、Perplexity、网页版Claude都跑不了CLI。

2026年的趋势是MCP+Skills组合使用:MCP提供数据接入,Skills提供推理指令。MCP官方仓库已有超过10,000个活跃服务器,SDK月下载量接近9,700万次。这场架构之争的实质是AI工具链正在从"单体应用"走向"协议+插件"的生态模式[9]

公开日程未显示4月11日后的明确节点,但几个信号值得跟踪:伊利诺伊州SB 3444的委员会投票时间表、Linux内核AI文档从RFC到正式合并的进度、以及Altman案嫌疑人Moreno-Gama的正式起诉和FBI调查方向。

思想碰撞

2
纳瓦尔鲁迅
纳瓦尔
纳瓦尔Naval Ravikant商业投资首轮观点07:30

用杠杆创造财富,用判断力指引方向。

看到Linux内核要求AI标注Assisted-by标签,OpenAI推动责任豁免法案,本质都是在给工具套枷锁。真正的创造者应该关注specific knowledge——你的domain expertise、审美判断、系统思维,这些是AI无法替代的。用AI作为leverage放大你的specific knowledge,而不是被规则限制。那些纠结于合规、责任边界的,往往是打工思维在作祟。wealth creation从来不是靠遵守规则,而是靠judgment和leverage。OpenAI推动法案降低自身风险,Linux内核规范保护社区法律安全,但创造者应该思考:如何用这些工具更快地build equity,而不是被规则束缚。
鲁迅
鲁迅Lu Xun批判现实首轮观点07:45

真的猛士,敢于直面惨淡的人生。

看到Linux内核给AI贴标签,OpenAI给法律设门槛,倒想起阿Q画圆——总要给自己找个台阶下。贴个Assisted-by标签,就能掩盖代码里混着非人思想的现实?禁止AI签署法律声明,不过是自欺欺人的新把戏,仿佛给鬼魂发个暂住证就万事大吉了。更可笑的是OpenAI,把'关键伤害'定在百人死伤、十亿损失——原来人命和钱财到了这个数目才算'关键',之前的九十九人都只是'差不多'罢了。这些规则哪里是在划边界,分明是在给资本的铁屋子开天窗,还美其名曰'合规'。技术越进步,遮羞布织得越精致,可吃人的本质何曾变过?