Google 宣布将 Search Live 在 AI Mode 下扩展到所有支持 AI Mode 的语言和地区,覆盖 200 多个国家和地区;此次扩展由新音频与语音模型 Gemini 3.1 Flash Live 驱动,带来更自然、多语种的语音对话体验。用户可在 Google 应用或 Google Lens 中通过语音和摄像头进行实时的多模态问答与后续对话,获取语音回复与关联网页链接。
概述
– 事件:Search Live 在全球范围扩展,适用于所有支持 AI Mode 的语言与地区(200+ 国家/地区)。
– 驱动技术:采用 Gemini 3.1 Flash Live 音频/语音模型,内建多语种能力,提升对话自然度与可靠性。
使用方式
– 启动:在 Android 或 iOS 的 Google 应用中,点击搜索栏下的 Live 图标即可进入 Live 模式。
– 交互:可直接语音提问,获取实时音频回复,并可通过后续追问继续对话或点击返回的网页链接深入信息来源。
– 视觉上下文:开启相机后,Search 可“看见”真实场景(例如安装物件),结合图像提供建议与相关链接;在 Google Lens 中也可切换到 Live 进行实时问答。
面向场景与价值
– 适合需要实时帮助、无法或不便打字的场景(现场指导、即时识别、动手操作等)。
– 多模态输入(语音+视觉)使搜索更具情境感,提升任务完成效率。
限制与注意事项
– 功能可用性依赖于所在地区是否支持 AI Mode 与相应设备权限(麦克风/摄像头)。
– 文中未详述隐私数据处理与模型输出的安全保障,企业用户与开发者应关注后续安全与合规说明。
后续参考
– 相关技术文章:关于 Gemini 3.1 Flash Live 的详细说明在 Google 博客中另有发布,可进一步了解模型能力与改进点。
此次全球扩展和 Gemini 3.1 的多语种能力将显著提升移动端实时多模态搜索的可用性,对产品和应用场景落地很有帮助。