AI 日报
今日概览
今天最清晰的主线是:OpenAI 的云分发从“Azure 优先”进入更明显的多云阶段,AWS/Bedrock 侧开始承接 GPT‑5.5、Codex 和托管 agent 工作流;与此同时 GitHub Copilot 把价格计量从 premium requests 迁到按 token/API 费率折算的 AI Credits。模型与 infra 侧,NVIDIA 推出开源多模态 MoE Nemotron 3 Nano Omni,继续把“agent 感知层”向单模型、多模态、低成本推理整合。Google 则同时给出两类信号:Gemini App 增加直接生成文件能力,Alphabet Q1 口径中 AI 对 Search、Cloud 和订阅收入的拉动已被高调量化。
今日最重要的 4 条
1) OpenAI 与 AWS 扩大合作:GPT‑5.5、Codex、Bedrock Managed Agents 进入 AWS 体系
- 摘要:OpenAI 宣布与 AWS 扩大战略合作,在 Amazon Bedrock 中提供 OpenAI 模型,并把 Codex 与 Amazon Bedrock Managed Agents 接入 AWS 企业环境,当前均为 limited preview。
- 关键细节:OpenAI 称 AWS 客户可在 Bedrock 访问包括 GPT‑5.5 在内的 frontier models;Codex 可配置为通过 Bedrock API 使用,入口包括 Codex CLI、Codex desktop app 和 VS Code extension;Bedrock Managed Agents 负责多步工作流、工具使用、编排、部署与治理,并继承 AWS 安全、计费、合规和高可用能力。
- 为什么重要:这不是单纯“上架一个模型”,而是把 coding agent 与 enterprise agent runtime 放进 AWS 采购、commit 和治理体系,降低大型客户绕开 Azure-only 路径的组织摩擦,也为 OpenAI 的企业分发建立更强的多云冗余。
- 来源标签:官方
- 链接:https://openai.com/index/openai-on-aws
2) Microsoft/OpenAI 合作条款调整:Azure 仍优先,但 OpenAI 产品可跨云服务客户
- 摘要:OpenAI 在合作更新中披露,Microsoft 仍是 OpenAI 的 primary cloud partner,OpenAI 产品会优先在 Azure 上发布;但如果 Microsoft 不能或选择不支持所需能力,OpenAI 可以在任何云上服务其产品。
- 关键细节:Microsoft 对 OpenAI 模型和产品 IP 的 license 延续到 2032 年,但变为 non-exclusive;Microsoft 不再向 OpenAI 支付 revenue share;OpenAI 向 Microsoft 的 revenue share 支付持续到 2030 年,比例不变但有总额上限。
- 为什么重要:这解释了 AWS/Bedrock 发布背后的结构性变化:Azure 优先权仍在,但独占约束明显放松。对云厂商、企业采购和 agent 平台生态而言,OpenAI 从单一战略云绑定走向更市场化的分发竞争。
- 来源标签:官方
- 链接:https://openai.com/index/next-phase-of-microsoft-partnership
3) GitHub Copilot 6 月 1 日迁移到 usage-based billing,用 GitHub AI Credits 取代 premium requests
- 摘要:GitHub 宣布所有 Copilot plan 将在 2026 年 6 月 1 日转向 usage-based billing;用 GitHub AI Credits 取代 premium request units,按模型 API 费率和 token consumption 计量 input、output、cached tokens。
- 关键细节:基础月费不变:Pro $10/月、Pro+ $39/月、Business $19/user/月、Enterprise $39/user/月;对应月度 AI Credits 分别为 Pro $10、Pro+ $39、Business $19、Enterprise $39。代码补全和 Next Edit suggestions 仍包含在 plan 内、不消耗 AI Credits。Business/Enterprise 客户 6–8 月有过渡赠额:Business $30/月,Enterprise $70/月。Copilot code review 还会额外消耗 GitHub Actions minutes。
- 为什么重要:Copilot 价格模型开始向“模型调用真实成本”贴齐。对重度 agent/code-review 用户,成本管理会从 seat 数转向 token、模型选择、缓存与 Actions minutes 的组合优化;对 GitHub,则是把高成本推理业务做成可持续商业模式的关键步骤。
- 来源标签:官方
- 链接:https://github.blog/news-insights/company-news/github-copilot-is-moving-to-usage-based-billing/
4) NVIDIA 发布 Nemotron 3 Nano Omni:30B‑A3B 开源多模态 MoE,用单模型承接 agent 感知/推理层
- 摘要:NVIDIA 发布 Nemotron 3 Nano Omni,定位为统一处理视频、音频、图像、文档和文本的高效开源多模态 reasoning model,用于减少 agent 系统中分裂的 vision/audio/text 模型链。
- 关键细节:模型为 30B‑A3B hybrid MoE;NVIDIA 称其在 WorldSense、DailyOmni、VoiceBench 等多模态/语音/视频任务上表现突出,并在 MediaPerf 的视频理解生产任务中实现高吞吐和低推理成本;权重、数据集和 recipes 开放,可在本地、云和企业环境中定制部署,支持 Ampere、Hopper、Blackwell 等 GPU 架构。
- 为什么重要:agent 产品的瓶颈越来越不是单次文本推理,而是跨屏幕、文档、音频、视频的感知闭环与成本。NVIDIA 试图把多模态感知子系统压缩成一个可部署的开源 MoE,以推动企业 agent 从 demo 进入可控成本的生产架构。
- 来源标签:官方 / 开源模型
信号观察
- Google 把 Agent Payments Protocol(AP2)捐给 FIDO Alliance,并提到与 Mastercard 共同开发、兼容 AP2 的 Verifiable Intent 标准;agentic commerce 的焦点正在从“代理能不能下单”转到授权、可审计意图、支付责任边界和跨行业标准化。来源:https://blog.google/products-and-platforms/platforms/google-pay/agent-payments-protocol-fido-alliance/
- Gemini App 已支持直接生成并导出 Google Docs/Sheets/Slides、PDF、.docx、.xlsx、.csv、LaTeX、TXT、RTF、Markdown 等文件,面向所有 Gemini app 用户全球开放;这类“从对话直接产出可交付文件”的功能会继续压缩 lightweight productivity app 的空间。来源:https://blog.google/innovation-and-ai/products/gemini-app/generate-files-in-gemini/
- Alphabet Q1 2026 CEO remarks 中称 Search & Other Advertising 收入增长 19%,Cloud 收入增长 63%、首次超过 200 亿美元,backlog 环比接近翻倍至超过 4600 亿美元,Gemini Enterprise paid MAU 环比增长 40%;Google 正在把 AI 叙事从模型发布转为收入、backlog 和付费用户指标。来源:https://blog.google/company-news/inside-google/message-ceo/alphabet-earnings-q1-2026/
- OpenAI 发布《Cybersecurity in the Intelligence Age》行动计划,强调 AI-powered cyber defense 的民主化;这类政策/安全叙事与 FedRAMP、AWS/Bedrock、企业 agent 部署共同构成 OpenAI 近期面向政府和大型企业市场的信任建设组合。来源:https://openai.com/index/cybersecurity-in-the-intelligence-age
延伸阅读
- OpenAI available at FedRAMP Moderate|ChatGPT Enterprise 和 API Platform 通过 FedRAMP 20x Moderate 路径,面向美国联邦机构的 procurement/security review 更顺。|官方|https://openai.com/index/openai-available-at-fedramp-moderate
- GitHub Copilot code review will start consuming GitHub Actions minutes on June 1, 2026|Copilot code review 除 AI Credits 外,还会对 private repositories 消耗 Actions minutes。|官方|https://github.blog/changelog/2026-04-27-github-copilot-code-review-will-start-consuming-github-actions-minutes-on-june-1-2026
- Copilot cloud agent starts 20% faster with Actions custom images|GitHub 称 Actions custom images 让 Copilot cloud agent 启动加速 20%,说明 coding agent 的冷启动/环境构建成本已进入优化对象。|官方|https://github.blog/changelog/2026-04-27-copilot-cloud-agent-starts-20-faster-with-actions-custom-images
- Scaling Biomolecular Modeling Using Context Parallelism in NVIDIA BioNeMo|NVIDIA 展示 BioNeMo context parallelism 用多 GPU 扩展 biomolecular token capacity,面向结构生物学长上下文建模。|官方|https://developer.nvidia.com/blog/scaling-biomolecular-modeling-using-context-parallelism-in-nvidia-bionemo/
- AI evals are becoming the new compute bottleneck|Hugging Face 官方博客讨论 eval 成本成为新计算瓶颈;今日因读取通道对 huggingface.co 匿名访问返回 451,未作为主条目,只作延伸线索。|官方博客/RSS 发现,正文读取受限|https://huggingface.co/blog/evaleval/eval-costs-bottleneck
说明
仅保留有官方、原始项目来源或高可信商业媒体线索支撑的信息;缺乏足够来源支撑的传闻、重复转载和低价值工具/教程内容已省略。今日主条目全部来自官方/项目原始来源;商业新闻扫过 OpenAI、Anthropic、Google、Microsoft、Amazon、Meta、NVIDIA、xAI、Mistral、Cohere、Perplexity、Hugging Face 等关键词,未纳入缺少高可信原始或严肃媒体支撑的融资/并购传闻。