Google 正式发布 Search Live,这是一种全新的语音搜索体验模式

Search Live 整合了生成式AI技术(Gemini 模型)和传统搜索引擎的能力,让你可以像对话一样与搜索引擎交互。

相比传统“输入关键词→看搜索结果”,Search Live 允许你用语音提问、听语音回答,并连续提问跟进,整个过程像是在与一个“智能助手”实时交流。

目前在美国地区的 Android 与 iOS 用户中以“AI Mode实验”形式推出。

核心功能包括:

  • 与 Google Search 进行自然、流畅的语音对话
  • 可在移动、打包、做家务等多任务场景下无缝使用;
  • 支持一问一答式持续追问;
  • 同时呈现相关网页链接供进一步浏览;

🔍 示例场景:现实中怎么用?

📦 打包行李时
“我该怎么收纳亚麻裙才能不皱?”
→ AI直接语音回应,并给出网页链接。

🍳 做饭时
“我现在冰箱只有西红柿和鸡蛋,有什么快速做法?”
→ 一边下厨一边听建议,还能看食谱网页。

🚗 开车途中
“今天芝加哥有什么活动?”
→ 无需看手机即可语音获取建议。


🔮 即将支持的功能

Google 计划在未来几个月内进一步升级 Search Live 模式,加入 视觉识别能力

📷 用户可以通过摄像头“展示”自己看到的事物,Google 将结合语音输入和视觉画面做出响应。

这将使搜索体验进入“多模态交互”阶段,不只是你问、AI答,而是 “你说+你看,AI一起理解”


📱 如何使用?

  1. 打开 Google App;
  2. 点击新的 “Live”图标
  3. 直接开口提问,例如:“怎么防止亚麻裙在旅行箱里皱掉?”;
  4. 接收 AI 音频回复(可续问:“如果还是皱了怎么办?”);
  5. 查看文字稿或继续打字提问;
  6. 在“AI Mode历史记录”中随时回顾对话;

🎙️ 背后技术:Gemini + Search系统整合

✅ 基于 Gemini 的语音生成模型

  • 理解上下文、生成高质量语音回复;
  • 回答具备自然语言流畅性与逻辑完整性;

✅ 搜索引擎系统支撑信息来源

  • 所有回答依托 Google 搜索数据库及网页生态;
  • 提供真实可查的信息链接而非仅限AI主观表达;

✅ “Query Fan-out”技术

  • 为一个提问生成多个查询方向,提供更丰富的网页内容结果;
  • 用户不仅“得到答案”,还能“扩展认知”;

🧭 对用户体验与行业的意义

🚀 从关键词搜索 → 实时对话交互

  • Search 不再是冷冰冰的查询框,而是一种“伴随式助理体验”;
  • AI 能在更复杂、更模糊的语境中回应并提出建议。

📚 信息访问门槛更低

  • 适合忙碌、手部无法操作设备的情境;
  • 弱化用户对关键词构造技巧的依赖,更自然地与搜索系统交流。

🧱 对信息可信度的保障

  • 与一些纯AI聊天系统不同,Search Live依旧依托网页资源给出明确可验证来源;
  • 实现“生成式AI+真实网络”的混合型交互体验。

尝试:https://labs.google.com/search/experiment/22 (需要切换到美国IP)