Google 正式发布 Search Live,这是一种全新的语音搜索体验模式。
Search Live 整合了生成式AI技术(Gemini 模型)和传统搜索引擎的能力,让你可以像对话一样与搜索引擎交互。
相比传统“输入关键词→看搜索结果”,Search Live 允许你用语音提问、听语音回答,并连续提问跟进,整个过程像是在与一个“智能助手”实时交流。
目前在美国地区的 Android 与 iOS 用户中以“AI Mode实验”形式推出。
核心功能包括:
- 与 Google Search 进行自然、流畅的语音对话;
- 可在移动、打包、做家务等多任务场景下无缝使用;
- 支持一问一答式持续追问;
- 同时呈现相关网页链接供进一步浏览;
🔍 示例场景:现实中怎么用?
📦 打包行李时:
“我该怎么收纳亚麻裙才能不皱?”
→ AI直接语音回应,并给出网页链接。
🍳 做饭时:
“我现在冰箱只有西红柿和鸡蛋,有什么快速做法?”
→ 一边下厨一边听建议,还能看食谱网页。
🚗 开车途中:
“今天芝加哥有什么活动?”
→ 无需看手机即可语音获取建议。
🔮 即将支持的功能
Google 计划在未来几个月内进一步升级 Search Live 模式,加入 视觉识别能力:
📷 用户可以通过摄像头“展示”自己看到的事物,Google 将结合语音输入和视觉画面做出响应。
这将使搜索体验进入“多模态交互”阶段,不只是你问、AI答,而是 “你说+你看,AI一起理解”。
📱 如何使用?
- 打开 Google App;
- 点击新的 “Live”图标;
- 直接开口提问,例如:“怎么防止亚麻裙在旅行箱里皱掉?”;
- 接收 AI 音频回复(可续问:“如果还是皱了怎么办?”);
- 查看文字稿或继续打字提问;
- 在“AI Mode历史记录”中随时回顾对话;
🎙️ 背后技术:Gemini + Search系统整合
✅ 基于 Gemini 的语音生成模型
- 理解上下文、生成高质量语音回复;
- 回答具备自然语言流畅性与逻辑完整性;
✅ 搜索引擎系统支撑信息来源
- 所有回答依托 Google 搜索数据库及网页生态;
- 提供真实可查的信息链接而非仅限AI主观表达;
✅ “Query Fan-out”技术
- 为一个提问生成多个查询方向,提供更丰富的网页内容结果;
- 用户不仅“得到答案”,还能“扩展认知”;
🧭 对用户体验与行业的意义
🚀 从关键词搜索 → 实时对话交互
- Search 不再是冷冰冰的查询框,而是一种“伴随式助理体验”;
- AI 能在更复杂、更模糊的语境中回应并提出建议。
📚 信息访问门槛更低
- 适合忙碌、手部无法操作设备的情境;
- 弱化用户对关键词构造技巧的依赖,更自然地与搜索系统交流。
🧱 对信息可信度的保障
- 与一些纯AI聊天系统不同,Search Live依旧依托网页资源给出明确可验证来源;
- 实现“生成式AI+真实网络”的混合型交互体验。
尝试:https://labs.google.com/search/experiment/22 (需要切换到美国IP)