Google Gemini: Zmiany ujawnione po kilku kliknięciach
Daniel WlaźlakAI galaxy | fot.https://elements.envato.com/
Najnowsza aktualizacja aplikacji Google Gemini na Androida przyniosła wyraźne przemodelowanie sposobu, w jaki użytkownik wchodzi w interakcję z asystentem opartym na generatywnej sztucznej inteligencji. Zmiany są już widoczne w obecnej wersji testowej i obejmują zarówno warstwę wizualną, jak i kilka kluczowych funkcji, które przygotowują platformę na bardziej złożone scenariusze wykorzystania AI w codziennych zadaniach.
Najważniejsze zmiany w panelu sterowania
Po wywołaniu komendą głosową lub gestem pojawia się nowy, zwężony pasek, który nie zakrywa już całej powierzchni ekranu. Panel ma charakter pływającej nakładki, dzięki czemu użytkownik może jednocześnie obserwować otwartą aplikację i prowadzić rozmowę z modelem językowym. Rozszerzenie przyciskiem rozwija widok do połowy ekranu, prezentując mozaikę kafelków: generowanie obrazu, wideo czy muzyki, rozbudowane opcje „Deep Research”, szkicownik „Canvas” oraz skróty do plików zapisanych lokalnie. Taki podział przypomina system kart znany z ChromeOS, co ułatwia szybkie przełączanie trybów pracy.
Nowa logika interakcji i tryb Live
Tryb konwersacyjny „Live” otrzymał lekki, półprzezroczysty interfejs przypominający heads-up display, zamiast wcześniejszego pełnoekranowego okna. Rozwiązanie to poprawia kontekstowość odpowiedzi: model widzi, co dzieje się na ekranie, lecz nie odcina użytkownika od bieżącej aplikacji. Taki układ jest spójny z koncepcją rozszerzonej rzeczywistości, którą Google prezentowało przy prototypach okularów XR – inżynierowie pracują nad płynnym scaleniem warstwy AI z interfejsem systemu bez nadmiernego zasłaniania treści.
Ścieżka dostępu do wersji beta
Odświeżenie interfejsu zostało wprowadzone w kanale beta Sklepu Play. Aby je przetestować, wystarczy wejść na stronę aplikacji, przewinąć do sekcji „Dołącz do programu testów” i zaakceptować warunki. Po kilkunastu minutach pojawi się aktualizacja. Warto pamiętać, że wydania beta mogą zawierać drobne błędy lub brakujące tłumaczenia, dlatego przed instalacją zaleca się synchronizację danych i zrobienie kopii ustawień, jeśli Gemini jest intensywnie wykorzystywane w procesach biznesowych.
Konsekwencje dla ekosystemu mobilnej AI
Obecne zmiany wskazują na dwa strategiczne kierunki rozwoju. Po pierwsze, Google zmniejsza barierę wejścia w użycie generatywnej AI, integrując ją z intuicyjnymi skrótami i odchudzonym wachlarzem opcji. Po drugie, firma przygotowuje rozwiązania pod kątem urządzeń wieloekranowych i noszonych – stąd nacisk na nakładki, półprzezroczystość oraz adaptacyjne rozmieszczenie elementów. Rynek mobilnej sztucznej inteligencji przyspiesza: konkurenci, tacy jak Samsung z One UI AI czy Microsoft z Copilotem w Android Launcherze, również wprowadzają pływające okna i tryby kontekstowe. Przyspieszone prace R&D sugerują, że w najbliższych miesiącach interfejsy asystentów mogą stać się tak samo integralne dla systemu jak pasek powiadomień czy klawiatura ekranowa.
Perspektywy dalszego rozwoju
Kolejne kompilacje beta mają dodać obsługę wielofunkcyjnego paska gestów, który pozwoli błyskawicznie przeciągać wygenerowane treści do innych aplikacji. Nieoficjalne materiały testowe wspominają również o opcji rozpoznawania obiektów w czasie rzeczywistym i tworzeniu krótkich opisów AR, co wskazuje, że Google zamierza konsekwentnie łączyć Gemini z modułami aparatów i sensorów przestrzennych. Jeśli te zapowiedzi się potwierdzą, smartfon stanie się centralnym hubem AI-asystenta, a ekosystem Mountain View zbliży się do wizji „ciągłej percepcji”, w której model reaguje na otoczenie w niemal natychmiastowym tempie.