2026年4月12日 · 周日
AISLE 将 Anthropic Mythos 展示的 8 个漏洞放到小型开源模型上测试,发现 3.6B 参数的模型(成本仅 $0.11/M tokens)就能检测到 FreeBSD NFS 远程代码执行漏洞。研究表明:AI安全能力并不随模型规模平滑扩展,真正的护城河在于整个系统而非单个模型。
UC Berkeley 研究团队开发了一个自动化审计 agent,系统性破解了 8 个主流 AI 基准测试(SWE-bench、WebArena、OSWorld 等)。通过利用评估机制漏洞——如 conftest.py 钩子、文件 URL 读取答案、VM 状态操纵——实现了零任务解决、近乎满分的结果。这揭示了 AI 基准测试的系统性缺陷。
Linus Torvalds 主导的内核社区正式发布 AI 辅助代码贡献规范:允许使用 AI 工具,但人类必须对代码负全责。AI 不得添加 Signed-off-by 标签,需使用 "Assisted-by" 标签标注工具名称、模型版本和辅助分析工具(如 coccinelle、sparse)。
YC S25 孵化的初创公司 Twill.ai 提供一种新型 AI 开发体验:用户描述需求,AI agent 在云端完成代码编写、测试和 PR 创建,醒来后直接收获可审查的 Pull Request。目标是将开发者从繁琐的编码工作中解放,专注于创造性决策。
专注于构建开发者工作流工具的 Cirrus Labs 宣布加入 OpenAI。该公司此前开发了 Dagger(容器化 CI/CD)和 Martini(事件驱动编排)等工具,此次整合将进一步强化 OpenAI 在 AI Agent 开发和部署领域的基础设施能力。