【GOOGLE】AI 驱动出价与预算优化要点

Google 在 Ads Decoded 第四集中讨论用 AI 优化出价与预算,澄清常见误解并提供新活动的策略建议,强调不必等待数周数据才能启用智能出价;节目由产品经理 Kristina Park 与 Carlo Buchmann 解答用户常见问题。节目聚焦如何用合适的数据和目标配置,让 AI 更快达到业务效果。

【HUGGINGFACE】Ulysses:百万级上下文的并行训练

Hugging Face 介绍了基于 Snowflake/DeepSpeed 的 Ulysses 序列并行(Sequence Parallelism,SP),通过在序列和注意力头上分片并用 all-to-all 通信交换 KV,实现对百万级 token 上下文的训练,从而突破单卡显存限制并降低通信延迟。该方案已集成到 Accelerate、Transformers Trainer 与 TRL 的 SFTTrainer,并提供配置要点、最佳实践与基准诊断方法。

【HUGGINGFACE】异步RL训练的实用设计要点

文章调查了16个开源异步强化学习库,提出将推理与训练分离、用滚动缓冲区连接并异步同步权重以提高GPU利用率的通用架构,比较了七个设计维度并给出对TRL异步训练器的具体设计建议。作者强调NCCL广播为主的权重同步、Ray在编排上的主导地位、以及LoRA和MoE支持仍是差异化方向。

【HUGGINGFACE】Hugging Face 推出 Buckets 存储

Hugging Face 在 Hub 上推出 Storage Buckets,一种面向训练与数据流水线的可变、类 S3 对象存储,基于 Xet 分块去重以节省带宽与存储成本,并支持 CLI、Python/JS SDK 和 fsspec 挂载,便于将“热”数据靠近计算预热。Buckets 适合作为临时工作层,后续可将稳定产物迁移到版本化模型或数据仓库。

【NVIDIA】NVIDIA AI-Q 登顶深度研究基准

NVIDIA 发布的 AI-Q deep researcher 在 DeepResearch Bench I 和 II 同时夺冠,展示了开放、可配置的多代理研究流水线能在信息检索、合成与可引用报告质量上达到顶级表现;核心在于基于 NeMo Agent Toolkit 的多代理架构、经大量轨迹微调的 Nemotron-3-Super 模型以及定制中间件与可选的集成与报告精炼层的组合。该工作强调可复现、企业可控的端到端研究代理栈,适用于长链检索与高质量报告生成。

【GOOGLE】AI助力改善澳大利亚偏远心脏健康

Google与澳大利亚多家医疗机构合作,利用Population Health AI(PHAI)结合环境与临床等多源去标识化数据,识别偏远社区的心血管风险并推动早期干预。本项目获Google Australia 100万澳元资助,计划通过实地筛查与数据分析为偏远地区提供约5万次健康筛查与更有针对性的预防服务。