AI 日报 | 2026-05-01

基于最终邮件正文自动生成;未新增邮件以外事实。

今天概览

过去 48 小时的高置信更新集中在三条线:OpenAI 继续把账号安全和算力基础设施作为 ChatGPT/Codex 增长的底层约束来处理;Google 将 Gemini app 的输出形态从“文本回答”继续推向可直接落地的文件资产;开源与开发者生态则围绕 eval 成本、长上下文小模型、IDE 内 agent 工作流和端侧/图形推理 runtime 加速展开。今天没有纳入缺乏原始来源支撑的融资传闻;重大商业新闻扫描中出现多条 Anthropic/云厂商投资相关媒体报道,但可核验度和金额一致性不足,未写入主条目。

【今日最重要的 3-5 条】

1) OpenAI 推出 ChatGPT / Codex 的 Advanced Account Security

- 摘要:OpenAI 新增可选的高级账号安全模式,面向记者、民选官员、异见人士、研究者和高安全需求用户,启用后同时保护 ChatGPT 与 Codex 账号。

- 关键细节:该模式要求 passkeys 或实体安全密钥,禁用密码登录;禁用 email/SMS 恢复,改用备用 passkey、安全密钥和 recovery key;缩短会话有效期、增强登录提醒和 session 管理;开启后相关对话自动不用于模型训练。OpenAI 明确说明,启用后 Support 无法协助恢复账号。

- 为什么重要:当 ChatGPT/Codex 成为个人与组织工作流入口,账号接管风险会从“聊天记录泄露”升级为 connected tools / agent 权限外溢;OpenAI 正在把高风险用户的安全基线推向 phishing-resistant auth 和更严格恢复模型。

- 来源标签:官方

- 链接:https://openai.com/index/advanced-account-security

2) OpenAI 称 Stargate 已超过 2029 年 10GW 美国 AI 基础设施承诺,并将在未来几年继续扩容

- 摘要:OpenAI 在最新基础设施说明中称,Stargate 在 2025 年 1 月宣布的 2029 年前 10GW 美国 AI 基础设施目标已提前超过,其中过去 90 天新增超过 3GW。

- 关键细节:OpenAI 将 compute 描述为训练更强模型、可靠服务、降低长期成本和扩大产品可用性的核心输入;后续选址和扩容会围绕电力、土地、许可、输电、劳动力、社区支持和合作伙伴 readiness 展开,并继续依赖云、数据中心、芯片、能源、建设、金融和公共部门伙伴。

- 为什么重要:这不是单一产品发布,而是 OpenAI 对“模型能力—使用量—收入—再投资算力”飞轮的公开资本开支逻辑;对开发者和企业客户而言,容量、延迟、可用性和价格曲线都取决于这一层。

- 来源标签:官方

- 链接:https://openai.com/index/building-the-compute-infrastructure-for-the-intelligence-age

3) Google Gemini app 支持直接生成可下载文件与 Workspace 文件

- 摘要:Google 宣布 Gemini app 现在可以在聊天中直接生成文件,将 prompt 结果输出为可下载或可导出到 Drive 的工作资产。

- 关键细节:支持 Google Docs、Sheets、Slides、PDF、.docx、.xlsx、.csv、LaTeX、TXT、RTF、Markdown 等格式;示例包括预算提案导出为 Excel、把零散想法整理为文档、将协作内容压缩成单页 PDF 或 Word;功能面向全球所有 Gemini app 用户开放。

- 为什么重要:Google 继续把 Gemini 从对话助手推进到 Workspace 前置生成层;对产品竞争而言,差异点不只在模型能力,而在是否能把模型输出无缝转成用户组织内已有的文档/表格/幻灯片工作流。

- 来源标签:官方

- 链接:https://blog.google/innovation-and-ai/products/gemini-app/generate-files-in-gemini/

4) Hugging Face:agent eval 正在成为新的 compute bottleneck

- 摘要:Hugging Face 发表长文系统整理 eval 成本上升问题,尤其是 agent benchmark、训练中 eval 和可靠性重复运行把评测从“附属步骤”变成一等算力成本。

- 关键细节:文中给出多组成本量级:Holistic Agent Leaderboard 运行 21,730 个 agent rollouts、覆盖 9 个模型和 9 个 benchmarks,成本约 4 万美元;单次 frontier model 的 GAIA run 在缓存前可达 2,829 美元;Exgentic 的 agent configuration sweep 花费约 2.2 万美元并观察到相同任务上 33× 成本差异;The Well 中评估一个新科学 ML 架构约需 960 H100-hours,四 baseline sweep 约需 3,840 H100-hours。

- 为什么重要:当 agent scaffolding、inference-time compute 和可靠性评估成为模型开发/采购决策的一部分,eval 预算会直接影响谁能迭代、谁能复现实验、以及 benchmark 是否继续有公共可比性。

- 来源标签:项目原始来源

- 链接:https://huggingface.co/blog/evaleval/eval-costs-bottleneck

5) IBM / Hugging Face 发布 Granite 4.1 技术说明:3B、8B、30B dense LLM,Apache 2.0,最长 512K context

- 摘要:IBM Granite 团队在 Hugging Face 公开 Granite 4.1 LLMs 的训练与架构细节,强调小型 dense 模型的数据工程、多阶段预训练、SFT 和 RL pipeline。

- 关键细节:Granite 4.1 包含 3B、8B、30B dense decoder-only 模型,训练约 15T tokens;通过五阶段 pre-training 与 long-context extension 将上下文扩展至 512K tokens;SFT 使用约 410 万高质量 curated samples;RL 使用 on-policy GRPO 与 DAPO loss;8B instruct 被称为可匹配或超过此前 Granite 4.0-H-Small 32B-A9B MoE;全部 Apache 2.0 发布。

- 为什么重要:在开源模型生态里,IBM 把重点放在可商用许可、长上下文和 dense 小模型工程化,而不是只追 frontier benchmark;这对企业私有部署、低复杂度 serving 和模型可审计性更有实际意义。

- 来源标签:项目原始来源

- 链接:https://huggingface.co/blog/ibm-granite/granite-4-1

【信号观察】

- GitHub Copilot in Visual Studio 2026 的 4 月更新继续把 IDE 变成 agent 控制面:可从 Visual Studio 直接启动 cloud agent session,远端创建 GitHub issue 和 PR;custom agents 支持用户级定义;agent skills 会发现 .claude/skills/ 与 .agents/skills/。来源:官方 changelog|https://github.blog/changelog/2026-04-30-github-copilot-in-visual-studio-april-update

- NVIDIA 的 cuTile Python → cuTile.jl 文章把“LLM skill + 静态验证脚本 + 示例 kernel”用于 GPU kernel DSL 翻译,重点不是泛化 coding demo,而是把 0/1-based indexing、row/column-major、broadcasting、kernel API mapping 等 17 条规则固化为可复用流程。来源:官方开发者博客|https://developer.nvidia.com/blog/automating-gpu-kernel-translation-with-ai-agents-cutile-python-to-cutile-jl/

- NVIDIA TensorRT for RTX 作为 Unreal Engine 5 NNE runtime 插件进入实时图形 inference 路径,使用 JIT optimizer 为用户 RTX GPU 生成硬件定制 engine,目标是比 DirectML 等默认执行 provider 提供更高吞吐。来源:官方开发者博客|https://developer.nvidia.com/blog/speed-up-unreal-engine-nne-inference-with-nvidia-tensorrt-for-rtx-runtime/

- 官方源/RSS 与商业新闻扫描显示,今天可核验的一手产品/infra/开源更新多于高可信商业交易新闻;Google News 中出现的 Anthropic 融资/估值传闻未纳入主文,因为金额与来源链条在本次自动核验中不足以达到主条目标准。

【延伸阅读】

- OpenAI Advanced Account Security|更详细查看 passkey/security key、恢复机制和自动训练排除的边界条件|官方|https://openai.com/index/advanced-account-security

- OpenAI Stargate infrastructure update|理解 OpenAI 对 10GW、3GW/90 天和 partner-centric infrastructure 的表述|官方|https://openai.com/index/building-the-compute-infrastructure-for-the-intelligence-age

- Gemini file generation|查看 Gemini app 支持的具体文件格式和 Workspace/Drive 导出路径|官方|https://blog.google/innovation-and-ai/products/gemini-app/generate-files-in-gemini/

- AI evals are becoming the new compute bottleneck|围绕 agent rollouts、GAIA、HAL、The Well、repeated eval 的成本结构有较多可复用数字|项目原始来源|https://huggingface.co/blog/evaleval/eval-costs-bottleneck

- Granite 4.1 LLMs: How They’re Built|包含 Granite 4.1 的架构表、数据阶段、SFT/RL pipeline 和 Apache 2.0 发布链接|项目原始来源|https://huggingface.co/blog/ibm-granite/granite-4-1

- GitHub Copilot in Visual Studio — April update|跟踪 IDE 内 cloud agents、custom agents 和 skills discovery 的具体落地|官方|https://github.blog/changelog/2026-04-30-github-copilot-in-visual-studio-april-update

【说明】

本日报仅保留已通过官方、项目原始页面或高可信媒体线索核验的信息;缺乏足够来源支撑、正文读取受限且无法交叉确认、或属于重复转载/营销软文/低价值工具榜单的内容已省略。本次核心来源类型:官方 5 条(OpenAI、Google、GitHub、NVIDIA),项目原始来源 2 条(Hugging Face/IBM Granite、Hugging Face eval),严肃媒体商业新闻 0 条纳入主文。