每日 AI 核验简报 · 官方/原始来源优先 · 2026-04-29

AI 日报 | 2026-04-29

今天概览:

过去 48 小时的高置信更新集中在三个方向:OpenAI 正在把分发与企业落地从 Azure 单一重心扩展到 AWS 与美国联邦采购体系;GitHub Copilot 的成本模型进一步从“订阅包月”转向 token/runner 资源计量;agent 生态继续向标准化与可部署性推进。模型侧,NVIDIA 发布 Nemotron 3 Nano Omni,把文档、视频、音频、图像与文本统一进一个开放 MoE 多模态模型,重点不只是 benchmark,而是减少多模型编排与 inference hop。支付/身份侧,Google 把 AP2 捐给 FIDO Alliance,说明 agentic commerce 的安全与授权标准正在从单厂协议走向行业治理。

【今日最重要的 3-5 条】

1) OpenAI 模型、Codex 与 Bedrock Managed Agents 进入 AWS limited preview

  • 摘要:OpenAI 与 AWS 扩大战略合作,面向 AWS 客户推出 OpenAI models on AWS、Codex on AWS,以及由 OpenAI 驱动的 Amazon Bedrock Managed Agents,均为 limited preview。
  • 关键细节:OpenAI 称 GPT‑5.5 将在 Amazon Bedrock 上提供;Codex 每周用户已超过 400 万;Bedrock Managed Agents 负责 agent runtime、tool use、memory、deployment、observability 等基础设施层能力。
  • 为什么重要:这不是普通云市场上架,而是 OpenAI 把模型、coding agent 与 managed agent 平台一起嵌入 AWS 的安全、身份、采购与治理体系;对企业客户意味着多云采购路径更清晰,对 Microsoft/OpenAI 关系也形成实际的非独占落地信号。
  • 来源标签:官方
  • 链接:https://openai.com/index/openai-on-aws
  • 2) OpenAI 与 Microsoft 修改合作:Azure 优先但不再等于云独占,IP 授权延至 2032

  • 摘要:OpenAI 公布与 Microsoft 的 amended agreement,继续把 Azure 作为首选云,但 OpenAI 可在 Microsoft 不能或不选择支持所需能力时使用其他云,并可跨云向客户交付所有产品。
  • 关键细节:Microsoft 对 OpenAI 模型和产品 IP 的 license 延续至 2032,但变为 non-exclusive;Microsoft 不再向 OpenAI 支付 revenue share;OpenAI 向 Microsoft 的 revenue share 持续至 2030,比例不变但设总上限;Microsoft 仍是主要股东。
  • 为什么重要:这给 OpenAI 的算力与企业分发留出更大操作空间,同时保留 Microsoft 的长期经济权益。结合 AWS limited preview,可把它看作 OpenAI 商业化基础设施从“深度绑定 Azure”走向“Azure-first, multi-cloud-capable”。
  • 来源标签:官方
  • 链接:https://openai.com/index/next-phase-of-microsoft-partnership
  • 3) NVIDIA 发布 Nemotron 3 Nano Omni:30B-A3B 开放 MoE 多模态 agent 感知模型

  • 摘要:NVIDIA 发布 Nemotron 3 Nano Omni,定位为 agentic systems 中的 multimodal perception/context sub-agent,用单一模型处理文档、视频、音频、图像与文本。
  • 关键细节:模型为 30B‑A3B hybrid MoE;NVIDIA 称其在 MMlongbench-Doc、OCRBenchV2、WorldSense、DailyOmni、VoiceBench 等文档/视频/音频理解榜单上表现领先,并在 MediaPerf 视频理解任务中取得最高 throughput 与最低 video-level tagging inference cost;官方称开放 weights、datasets 与 recipes。
  • 为什么重要:多模态 agent 当前常见瓶颈是视觉、音频、OCR、文本模型链式编排带来的 latency、成本和上下文割裂。Nemotron 3 Nano Omni 把卖点放在“统一感知循环 + 可部署效率”,比单点 benchmark 更贴近 production agent stack 的成本结构。
  • 来源标签:官方 / 模型页
  • 链接:https://developer.nvidia.com/blog/nvidia-nemotron-3-nano-omni-powers-multimodal-agent-reasoning-in-a-single-efficient-open-model/
  • 4) GitHub Copilot 转向 usage-based billing,code review 还将消耗 Actions minutes

  • 摘要:GitHub 宣布从 2026-06-01 起 Copilot 使用将消耗 GitHub AI Credits;Copilot code review 除 AI Credits 外,还会在 private repositories 上消耗 GitHub Actions minutes。
  • 关键细节:AI Credits 将按 token consumption 计算,包含 input、output 和 cached tokens,并使用各模型 API rate;付费计划可购买额外额度。Copilot code review 的 agentic architecture 运行在 GitHub Actions/GitHub-hosted runners 上,因此私有仓库 review 会计入现有 Actions minutes,超额按标准 Actions 费率计费;public repos 不变。
  • 为什么重要:coding agent 成本开始显式拆成“模型 token + 执行环境 runner”两部分。团队需要把自动 review、issue-to-agent、长上下文任务的预算治理接入 GitHub org/admin 层,而不是只看 Copilot seat price。
  • 来源标签:官方
  • 链接:https://github.blog/news-insights/company-news/github-copilot-is-moving-to-usage-based-billing/
  • 5) Google 将 Agent Payments Protocol 捐给 FIDO Alliance

  • 摘要:Google 把 Agent Payments Protocol(AP2)捐给 FIDO Alliance,用于推动 AI agent 发起支付时的身份、授权与安全标准化。
  • 关键细节:AP2 面向 agentic payments 场景,核心问题是证明用户授权、约束 agent 可执行交易范围,并让商户、支付网络、钱包、平台之间有可互操作的信任机制。
  • 为什么重要:如果 agent 能代用户比价、下单、续订或执行 B2B 采购,支付授权不能只依赖传统 checkout UX。FIDO 接手有助于把 agent commerce 从单平台 API 变成更可审计、可跨生态实现的协议层。
  • 来源标签:官方
  • 链接:https://blog.google/products-and-platforms/platforms/google-pay/agent-payments-protocol-fido-alliance/
  • 【信号观察】

  • OpenAI 同日还宣布 ChatGPT Enterprise 与 API Platform 获得 FedRAMP 20x Moderate authorization;对美国联邦机构而言,OpenAI 正在补齐“可采购、可合规部署”的最后一公里,而不只是模型能力。https://openai.com/index/openai-available-at-fedramp-moderate
  • OpenAI 开源 Symphony spec,把 Linear 等项目管理板变成 Codex/coding agents 的 control plane;OpenAI 称内部部分团队 landed PR 增长 500%。这类“agent orchestration spec”会成为 coding agent 从单次任务走向 always-on 工程系统的关键层。https://openai.com/index/open-source-codex-orchestration-symphony
  • GitHub 同期称 Copilot cloud agent 借助 Actions custom images 启动速度提升 20%;这与 usage-based billing 共同说明 coding agent 的竞争已不只在模型,还在 runner cold start、镜像、缓存与执行沙箱效率。https://github.blog/changelog/2026-04-27-copilot-cloud-agent-starts-20-faster-with-actions-custom-images
  • NVIDIA BioNeMo 更新强调 context parallelism 用于更大 biomolecular systems 的建模,目标是减少把蛋白/复合体切碎后的 context gap;这是 AI for science 中“模型能力 × GPU memory topology”的典型 infra 问题。https://developer.nvidia.com/blog/scaling-biomolecular-modeling-using-context-parallelism-in-nvidia-bionemo/
  • 【延伸阅读】

  • OpenAI available at FedRAMP Moderate|联邦采购与合规部署信号,覆盖 ChatGPT Enterprise 和 API Platform|官方|https://openai.com/index/openai-available-at-fedramp-moderate
  • An open-source spec for Codex orchestration: Symphony|把 issue tracker 变成 coding agents 控制平面的 OpenAI 工程实践与 SPEC.md|官方 / 开源|https://openai.com/index/open-source-codex-orchestration-symphony
  • Copilot code review will start consuming GitHub Actions minutes|解释 code review agent 为什么同时消耗 AI Credits 与 Actions minutes|官方|https://github.blog/changelog/2026-04-27-github-copilot-code-review-will-start-consuming-github-actions-minutes-on-june-1-2026
  • Copilot cloud agent starts 20% faster with Actions custom images|coding agent runtime 优化从模型外移到 runner/image 层的例子|官方|https://github.blog/changelog/2026-04-27-copilot-cloud-agent-starts-20-faster-with-actions-custom-images
  • Scaling Biomolecular Modeling Using Context Parallelism in NVIDIA BioNeMo|BioNeMo 用 context parallelism 扩展 biomolecular modeling 的技术说明|官方|https://developer.nvidia.com/blog/scaling-biomolecular-modeling-using-context-parallelism-in-nvidia-bionemo/
  • Google and Kaggle AI Agents Vibe Coding Course|Google/Kaggle 6 月 AI Agents intensive 课程,适合作为生态教育与开发者漏斗信号观察|官方|https://blog.google/innovation-and-ai/technology/developers-tools/kaggle-genai-intensive-course-vibe-coding-june-2026/
  • 【说明】

    仅保留有官方、原始来源或高可信媒体支撑的信息;缺乏足够来源支撑的传闻、重复转载、泛泛评论和低价值工具榜单已省略。今天核心纳入来源以官方一手链接为主:OpenAI(4)、NVIDIA(2)、GitHub(3)、Google(2);X/Twitter 搜索本轮未返回可用一手信号,因此未将推文作为事实来源。