根據《Impress Watch》報導,Google 於 2026 年 3 月 26 日宣布推出新一代 AI 對話技術「Gemini 3.1 Flash Live」,並同步在日本啟動「搜尋 Live(Search Live)」功能。此功能結合音聲與攝影技術,讓用戶能透過聲音與影像與 Google 搜尋進行互動,為 AI 對話體驗帶來全新突破。

「Gemini 3.1 Flash Live」是目前 Google 最高品質的音聲模型,具有更快速、自然的語音處理能力,強化「Voice-First(語音優先)」的 AI 對話體驗。透過此模型,Google 能夠提供更精準的語調分析與情緒反應,例如當用戶語氣中出現焦躁或困惑時,系統能即時調整回應方式,使互動更貼近人類對話。

在技術細節方面,相比前一代的 Gemini 2.5 Flash Native Audio,Gemini 3.1 Flash Live 在語音的音高與語速等聲音細節的辨識能力大幅提升。此外,其對環境噪音的處理能力也明顯強化,讓用戶即使在嘈雜環境中,也能順利與 AI 對話。多家企業如 Verizon、LiveKit 和 The Home Depot 已開始在內部工作流程中應用此技術。

「搜尋 Live」功能則為一般用戶提供了便利的語音與影像互動搜尋體驗。用戶可在 Google 應用程式中點擊「搜尋 Live」圖示,直接以語音提問,並獲得語音回應。例如,用戶可以透過語音詢問「如何處理觀葉植物的黃葉問題」,並啟用相機功能,讓 AI 直接分析圖片,提供更準確的解答與相關連結。

值得一提的是,「搜尋 Live」支持多語言對話,用戶可依喜好選擇語言,讓功能更具包容性與國際化。此功能已在 200 多個國家與地區上線,Google 也在 Twitter 上宣布這項功能的全球化推展,並強調其語音模型的高品質與內建多語言能力。

為確保 AI 生成內容的透明性,Google 還在 Gemini 3.1 Flash Live 生成的語音中加入「SynthID」數位水印技術,可有效辨識 AI 生成內容,防止誤導與偽造資訊的散播。這項技術的應用,也顯示 Google 在 AI 領域對倫理與安全的重視。

專家指出,AI 對話技術正逐步改變人與科技的互動方式,而 Google 的「搜尋 Live」與 Gemini 3.1 Flash Live,代表著 AI 在語音與視覺整合上的技術突破。未來,AI 將不再只是單向的搜尋工具,而是更具互動性與情境理解能力的智能助手。

📰 本文資料來源 • Google 官方公告 • Impress Watch 报导 • Google Twitter 宣傳內容