Samsung kreśli ambitny plan dalszego rozwoju mobilnej sztucznej inteligencji. Zapowiadane rozszerzenia pakietu Galaxy AI, które zadebiutują wraz z kolejną rodziną flagowców, mają przenieść interakcję użytkownika ze smartfonem na poziom przypominający rozmowę z kilkoma wyspecjalizowanymi asystentami jednocześnie. Koreański producent zamierza połączyć przetwarzanie lokalne na urządzeniu z chmurą, wykorzystać rosnącą moc nowych układów NPU i wprowadzić do ekosystemu wyszukiwarkę konwersacyjną Perplexity.
Nowy rozdział w ewolucji mobilnej sztucznej inteligencji
Galaxy AI, wprowadzony w 2024 roku jako zestaw funkcji opartych na dużych modelach językowych pracujących lokalnie i w chmurze, zdobył rynek dzięki narzędziom takim jak natychmiastowe tłumaczenie połączeń czy generatywne edytowanie zdjęć. Według analiz Canalys aż 65% użytkowników smartfonów premium w 2025 r. korzystało przynajmniej raz w tygodniu z funkcji generatywnych, podczas gdy dwa lata wcześniej odsetek ten nie przekraczał 20%. Rosnące zapotrzebowanie przekonało Samsunga do przyjęcia architektury wieloagentowej, którą firma opisuje jako kolejny krok w stronę personalizacji i automatyzacji rutynowych zadań.
Największą zmianą ma być możliwość jednoczesnego działania kilku modeli AI o różnym przeznaczeniu – od językowego i wizualnego, po wyspecjalizowane agenty do zarządzania kalendarzem czy sprzętem IoT. Producent podaje, że aż 78% posiadaczy jego smartfonów miało w 2025 r. zainstalowane co najmniej dwa niezależne chatboty. Stąd decyzja, by pozwolić im współpracować, wymieniać kontekst i dostarczać odpowiedzi w ułamku sekundy bez konieczności ręcznego przełączania się między aplikacjami.
Architektura wieloagentowa: jak to działa w praktyce
Seria Galaxy S26 otrzyma zaktualizowany układ Exynos z trzecią generacją NPU, który–według danych producenta–zaoferuje dwukrotnie wyższą wydajność wnioskowania przy identycznym zużyciu energii. Kluczowy będzie jednak softwarowy mechanizm orkiestracji agentów. Po wprowadzeniu zapytania telefon sprawdzi, który model dysponuje najlepszą kompetencją: może to być wewnętrzny LLM zoptymalizowany pod szyfrowanie lokalne, partnerowy model wizualny do analizy zdjęć lub agent kalendarzowy wytrenowany na własnych danych użytkownika. System przydzieli każde zadanie właściwemu modułowi i połączy rezultaty w spójną odpowiedź widoczną w jednej wątku konwersacji.
Taka konstrukcja ma rozwiązać problem „silosowości” obserwowany w dotychczasowych rozwiązaniach, gdzie poszczególne aplikacje AI działały niezależnie. W wersji beta, udostępnionej deweloperom, Samsung zaprezentował sekwencję, w której użytkownik pyta o najlepszą porę podróży do Barcelony. Agent językowy zbiera informacje o pogodzie i cenach lotów, moduł kalendarza analizuje wolne terminy w agendzie, a wyszukiwarka Perplexity przygotowuje skróconą listę atrakcji. Połączenie rezultatów trafia do okna Bixby jako jedna jasna rekomendacja.
Perplexity na pokładzie: wyszukiwanie konwersacyjne w całym systemie
Najgłośniejszą nowością jest integracja Perplexity, uznawanej za jedną z najszybciej rozwijających się wyszukiwarek AI. Zamiast tradycyjnej listy linków użytkownik otrzymuje syntetyczną, źródłową odpowiedź opartą na wielu dokumentach. W ekosystemie Galaxy rozwiązanie to ma być dostępne systemowo – od pola wyszukiwania po Notatki, Galerię i Przypomnienia. Aktywacja będzie możliwa komendą głosową „Hey Plex” lub przyciskiem bocznym, który dotąd uruchamiał wyłącznie Bixby.
W praktyce oznacza to, że podczas pisania maila można poprosić Perplexity o streszczenie raportu PDF, a kilkanaście sekund później w tym samym wątku wygenerować propozycję slajdów do prezentacji. Współdzielony kontekst między agentami pozwoli uniknąć przesyłania plików między aplikacjami, co według Samsunga skraca czas przygotowania materiałów nawet o 40%.
Harmonogram premiery i perspektywy rozwoju
Nowe funkcje zostaną oficjalnie pokazane podczas wydarzenia Galaxy Unpacked zaplanowanego na 25 lutego 2026 r. Poza udoskonalonym Galaxy AI firma ma zaprezentować algorytmy rejestrowania obrazu wykorzystujące modele multimodalne: od predykcyjnej stabilizacji przy wideo 8K po generatywne doświetlanie scen nocnych. Aktualizacja oprogramowania trafi do użytkowników poprzednich flagowców w drugim kwartale, lecz pełne możliwości, w tym całkowicie lokalne działanie największych modeli, zostaną zarezerwowane dla sprzętu z nową generacją NPU i minimum 16 GB RAM.
Według prognoz TrendForce do końca 2027 r. nawet 45% smartfonów ze średniej półki cenowej będzie obsługiwało wieloagentowe systemy AI. Samsung liczy, że wprowadzając taką architekturę jako pierwszy w segmencie masowym, zbuduje przewagę podobną do tej, jaką wypracował niegdyś dzięki ekranom AMOLED. Rynek zweryfikuje jednak, czy obietnica współpracy kilku agentów faktycznie uprości codzienne korzystanie z telefonu, czy zostanie odebrana jako kolejna warstwa złożoności wymagająca czasu, by dojrzeć.