Linux内核立规AI贡献,OpenAI推动免责立法
4月10—11日,AI行业同时在代码治理、法律框架和安全边界三个维度出现实质性推进。Linux内核社区、OpenAI和Anthropic分别划出各自的线。
NVIDIA工程师Sasha Levin向Linux内核提交coding-assistants.rst文档,首次为AI辅助贡献建立正式规则框架。OpenAI则转向主动立法,支持伊利诺伊州一项为前沿模型设定免责条件的法案。Altman住宅遭燃烧弹攻击后的公开回应,则将AI行业的社会张力推到台面上。
Linux内核要求AI贡献必须标注Assisted-by,禁止机器署名DCO
核心规则:AI代理禁止添加Signed-off-by标签——只有人类能合法认证开发者来源证书(DCO)。AI辅助的补丁必须使用格式化标签:Assisted-by: AGENT_NAME:MODEL_VERSION [TOOL1] [TOOL2]。示例写的是Claude:claude-3-opus coccinelle sparse。
所有AI生成代码必须兼容GPL-2.0-only,提交者承担全部法律责任。Linus Torvalds本人的态度:文档应覆盖所有开发工具而非单独针对AI,因为"负责任的贡献者不需要被提醒,不负责任的也拦不住"。该提案在HackerNews获226分/155条评论[1]。
OpenAI支持伊利诺伊SB 3444法案:训练成本超1亿美元可申请免责
"前沿模型"定义为训练计算成本超过1亿美元的AI模型。"关键危害"门槛:造成100人以上死亡或重伤、10亿美元以上财产损失、或被利用开发化学/生物/核武器。满足非故意或非鲁莽、且已发布安全报告两个条件,实验室可免于赔偿[2]。
说白了,这是OpenAI从被动抵抗监管转向主动塑造规则。但伊利诺伊州90%受访居民反对AI公司免责——法案前景并不确定。HackerNews热度427分/309条评论[3]。
Altman住宅凌晨3:45遭燃烧弹袭击,20岁嫌疑人当日被捕
4月10日凌晨3:45,一枚燃烧弹被投向Altman位于旧金山Russian Hill的住宅,弹体弹开未造成人员伤害。旧金山警方当天逮捕一名20岁男性嫌疑人[4]。
Altman随后发博文,附上与丈夫及孩子的合照:"对AI的恐惧和焦虑是合理的,我们正在见证社会经历的最大变革。"他呼吁"降低修辞和行动的烈度,减少房子里的爆炸——不管是比喻的还是字面的"。HackerNews 241分/494条评论[5]。
HackerNews 427分热帖:MCP在架构层面全面优于Skills
开发者David Mohl发文论证Model Context Protocol(MCP)应作为LLM连接外部服务的标准路径,而Skills更适合充当知识手册。核心论点:MCP零安装、远程自动更新、OAuth鉴权、跨设备可移植;Skills依赖本地CLI、上下文膨胀严重、跨平台兼容性差[6]。
本质上,这是"连接器vs说明书"之争。MCP把集成抽象为API层,Skills把知识塞进提示词。两者不互斥但分工应明确。
Twill.ai(YC S25)上线:把Claude Code/Codex丢进云端跑
Twill.ai在HackerNews发布Launch帖(62分/55评论),产品逻辑:开发者从GitHub、Slack或Linear派发任务,Twill在沙箱云环境中运行Claude Code、Codex或OpenCode,自动生成PR。支持定时调度和团队级持久记忆[7]。
你拆开看看,这是把本地AI编程助手变成云端异步worker。YC S25批次约30%公司做开发者工具,Twill是其中典型代表。
Q1全球风投3000亿美元,AI占80%
Crunchbase数据:2026年Q1全球风投总额达3000亿美元,同比增长超150%,创历史纪录。其中AI领域吸收2420亿美元,占比80%。四笔巨额融资占全球总额65%:OpenAI 1220亿、Anthropic 300亿、xAI 200亿、Waymo 160亿[8]。
Anthropic的Claude Mythos Preview(4月7日发布)仍在持续发酵——该模型自主发现了FreeBSD一个存在17年的远程代码执行漏洞CVE-2026-4747,Anthropic因此拒绝公开发布,仅向40余家安全合作伙伴开放。伊利诺伊SB 3444法案进入委员会审议阶段,公众反对率高企,立法走向是下一个观测点。
“把每一次灾难变成机会。”
“机器能思考吗?这是唯一重要的问题。”