AI 日报

2026-04-30 · 官方/原始来源优先核验
Daily AI Brief

今日概览

今天最清晰的主线是:OpenAI 的云分发从“Azure 优先”进入更明显的多云阶段,AWS/Bedrock 侧开始承接 GPT‑5.5、Codex 和托管 agent 工作流;与此同时 GitHub Copilot 把价格计量从 premium requests 迁到按 token/API 费率折算的 AI Credits。模型与 infra 侧,NVIDIA 推出开源多模态 MoE Nemotron 3 Nano Omni,继续把“agent 感知层”向单模型、多模态、低成本推理整合。Google 则同时给出两类信号:Gemini App 增加直接生成文件能力,Alphabet Q1 口径中 AI 对 Search、Cloud 和订阅收入的拉动已被高调量化。

今日最重要的 4 条

1) OpenAI 与 AWS 扩大合作:GPT‑5.5、Codex、Bedrock Managed Agents 进入 AWS 体系

- 摘要:OpenAI 宣布与 AWS 扩大战略合作,在 Amazon Bedrock 中提供 OpenAI 模型,并把 Codex 与 Amazon Bedrock Managed Agents 接入 AWS 企业环境,当前均为 limited preview。

- 关键细节:OpenAI 称 AWS 客户可在 Bedrock 访问包括 GPT‑5.5 在内的 frontier models;Codex 可配置为通过 Bedrock API 使用,入口包括 Codex CLI、Codex desktop app 和 VS Code extension;Bedrock Managed Agents 负责多步工作流、工具使用、编排、部署与治理,并继承 AWS 安全、计费、合规和高可用能力。

- 为什么重要:这不是单纯“上架一个模型”,而是把 coding agent 与 enterprise agent runtime 放进 AWS 采购、commit 和治理体系,降低大型客户绕开 Azure-only 路径的组织摩擦,也为 OpenAI 的企业分发建立更强的多云冗余。

- 来源标签:官方

- 链接:https://openai.com/index/openai-on-aws

2) Microsoft/OpenAI 合作条款调整:Azure 仍优先,但 OpenAI 产品可跨云服务客户

- 摘要:OpenAI 在合作更新中披露,Microsoft 仍是 OpenAI 的 primary cloud partner,OpenAI 产品会优先在 Azure 上发布;但如果 Microsoft 不能或选择不支持所需能力,OpenAI 可以在任何云上服务其产品。

- 关键细节:Microsoft 对 OpenAI 模型和产品 IP 的 license 延续到 2032 年,但变为 non-exclusive;Microsoft 不再向 OpenAI 支付 revenue share;OpenAI 向 Microsoft 的 revenue share 支付持续到 2030 年,比例不变但有总额上限。

- 为什么重要:这解释了 AWS/Bedrock 发布背后的结构性变化:Azure 优先权仍在,但独占约束明显放松。对云厂商、企业采购和 agent 平台生态而言,OpenAI 从单一战略云绑定走向更市场化的分发竞争。

- 来源标签:官方

- 链接:https://openai.com/index/next-phase-of-microsoft-partnership

3) GitHub Copilot 6 月 1 日迁移到 usage-based billing,用 GitHub AI Credits 取代 premium requests

- 摘要:GitHub 宣布所有 Copilot plan 将在 2026 年 6 月 1 日转向 usage-based billing;用 GitHub AI Credits 取代 premium request units,按模型 API 费率和 token consumption 计量 input、output、cached tokens。

- 关键细节:基础月费不变:Pro $10/月、Pro+ $39/月、Business $19/user/月、Enterprise $39/user/月;对应月度 AI Credits 分别为 Pro $10、Pro+ $39、Business $19、Enterprise $39。代码补全和 Next Edit suggestions 仍包含在 plan 内、不消耗 AI Credits。Business/Enterprise 客户 6–8 月有过渡赠额:Business $30/月,Enterprise $70/月。Copilot code review 还会额外消耗 GitHub Actions minutes。

- 为什么重要:Copilot 价格模型开始向“模型调用真实成本”贴齐。对重度 agent/code-review 用户,成本管理会从 seat 数转向 token、模型选择、缓存与 Actions minutes 的组合优化;对 GitHub,则是把高成本推理业务做成可持续商业模式的关键步骤。

- 来源标签:官方

- 链接:https://github.blog/news-insights/company-news/github-copilot-is-moving-to-usage-based-billing/

4) NVIDIA 发布 Nemotron 3 Nano Omni:30B‑A3B 开源多模态 MoE,用单模型承接 agent 感知/推理层

- 摘要:NVIDIA 发布 Nemotron 3 Nano Omni,定位为统一处理视频、音频、图像、文档和文本的高效开源多模态 reasoning model,用于减少 agent 系统中分裂的 vision/audio/text 模型链。

- 关键细节:模型为 30B‑A3B hybrid MoE;NVIDIA 称其在 WorldSense、DailyOmni、VoiceBench 等多模态/语音/视频任务上表现突出,并在 MediaPerf 的视频理解生产任务中实现高吞吐和低推理成本;权重、数据集和 recipes 开放,可在本地、云和企业环境中定制部署,支持 Ampere、Hopper、Blackwell 等 GPU 架构。

- 为什么重要:agent 产品的瓶颈越来越不是单次文本推理,而是跨屏幕、文档、音频、视频的感知闭环与成本。NVIDIA 试图把多模态感知子系统压缩成一个可部署的开源 MoE,以推动企业 agent 从 demo 进入可控成本的生产架构。

- 来源标签:官方 / 开源模型

- 链接:https://developer.nvidia.com/blog/nvidia-nemotron-3-nano-omni-powers-multimodal-agent-reasoning-in-a-single-efficient-open-model/

信号观察

延伸阅读

说明

仅保留有官方、原始项目来源或高可信商业媒体线索支撑的信息;缺乏足够来源支撑的传闻、重复转载和低价值工具/教程内容已省略。今日主条目全部来自官方/项目原始来源;商业新闻扫过 OpenAI、Anthropic、Google、Microsoft、Amazon、Meta、NVIDIA、xAI、Mistral、Cohere、Perplexity、Hugging Face 等关键词,未纳入缺少高可信原始或严肃媒体支撑的融资/并购传闻。