Użytkownicy w Polsce od dziś mogą wypróbować Search Live – najświeższy tryb wyszukiwarki Google, który pozwala prowadzić płynną rozmowę z AI, zadawać pytania głosem i prezentować problemy za pomocą kamery. Rozwiązanie, oparte na technikach rozumienia kontekstu i multimodalnej analizie danych, otwiera nowy rozdział w historii wyszukiwania informacji, zbliżając wyszukiwarkę do roli osobistego doradcy dostępnego w czasie rzeczywistym.
Konwersacyjna wyszukiwarka wspierana przez Gemini
Sercem Search Live jest model Gemini 3.1 Flash Live, zoptymalizowany pod kątem interakcji w ułamkach sekundy. Algorytmy rozpoznają intonację, tempo i pauzy w mowie, dzięki czemu potrafią przerwać wypowiedź, dopytać o szczegóły lub powrócić do wcześniejszego wątku. Według inżynierów Google system obsługuje ponad 90 języków, potrafi wyłuskać sens wypowiedzi w hałaśliwym otoczeniu i dynamicznie dostosowuje poziom szczegółowości odpowiedzi – od krótkich podpowiedzi po pełne omówienia z przykładami. W praktyce oznacza to, że wyszukiwarka reaguje niemal tak samo, jak rozmawiający z nami człowiek, choć jej odpowiedzi bazują na analizie setek miliardów dokumentów i komunikatów wizualnych.
Jak aktywować Search Live na smartfonie
Uaktualniona aplikacja Google dla Androida i iOS udostępnia nową ikonę z błyskawicą pod paskiem wyszukiwania. Wystarczy ją dotknąć, by rozpocząć rozmowę: telefon przechodzi w tryb nasłuchiwania, a na ekranie pojawia się migające oznaczenie potwierdzające rejestrowanie głosu. Jeśli zamiast mówić chcemy pokazać problem, wybieramy zakładkę „Na żywo” w Google Lens, kierujemy obiektyw na obiekt lub scenę i czekamy, aż narzędzie zinterpretuje obraz. Co ważne, nie trzeba formułować pytań od zera – można kontynuować rozpoczęty wątek, np. poprosić o szybszy przepis na to samo danie albo wskazać alternatywne części zamienne do zeskanowanego urządzenia.
Rozszerzona analiza obrazu i kontekstowa wiedza
Funkcja łączy klasyczne możliwości Google Lens z generatywnym podejściem Gemini. W praktyce oznacza to, że system jednocześnie rozpoznaje przedmioty, odczytuje teksty widoczne w kadrze i powiązuje je z bazą danych wyszukiwarki. Przykładowo, nakierowanie kamery na garnek z gulaszem pozwala AI zidentyfikować składniki, zaproponować warianty przypraw oraz oszacować kaloryczność porcji. Podobnie w przypadku części elektronicznych – Search Live nie tylko podaje nazwę elementu, lecz także sugeruje instrukcję wymiany i wskazuje sklepy, w których znajdziemy kompatybilny zamiennik. Dzięki temu konwersacja staje się wielowarstwowa: obejmuje dźwięk, obraz i kontekst przechowywany w historii sesji.
Dostępność i harmonogram wdrożenia
Google rozpoczął globalny rollout Search Live na początku czerwca 2024 r.; firma zapowiada, że aktualizacja dotrze do wszystkich kwalifikujących się urządzeń w Polsce w ciągu kilku tygodni. Funkcja jest odblokowywana po stronie serwera, dlatego użytkownicy niekiedy zobaczą ikonę „Na żywo” jeszcze przed pojawieniem się wpisu w Sklepie Play czy App Store. Według danych firmy badawczej Statista już ponad 70% właścicieli smartfonów w Europie używało wyszukiwania głosowego przynajmniej raz w miesiącu; Google liczy na to, że tryb konwersacyjny zachęci ich do regularnego dialogu z AI. Dalsze plany obejmują włączenie funkcji do inteligentnych okularów, głośników Nest oraz systemu Android Auto, co może uczynić Search Live uniwersalnym interfejsem do wiedzy w każdej sytuacji.
Informacje w tekście pochodzą z komunikatów prasowych Google z czerwca 2024 r., prezentacji na konferencji I/O 2024 oraz analiz rynkowych firm Statista i IDC.