Najnowsza odsłona silnika językowego OpenAI, oznaczona jako GPT-5.3 Instant, pojawiła się właśnie jako domyślny model w ChatGPT. Producent zapowiada, że tym razem nacisk położono nie na imponujące wyniki w benchmarkach, ale na odczuwalną dla użytkowników poprawę kultury dialogu: mniej moralizatorskich wstępów, mniej bezzasadnych odmów i wyraźnie niższy odsetek błędów merytorycznych.
Ukierunkowanie na realne potrzeby użytkowników
Jednym z częstszych zastrzeżeń wobec poprzedniej wersji było to, że model potrafił rozpoczynać odpowiedź długą litanią ograniczeń, zanim przeszedł do sedna pytania. W GPT-5.3 Instant skrócono wewnętrzne procedury filtrujące, dzięki czemu system lepiej rozróżnia, kiedy rzeczywiście powinien odmówić, a kiedy wystarczy precyzyjna, treściwa odpowiedź. Efekt ma być szczególnie widoczny przy tematach z pogranicza etyki, prawa czy medycyny, gdzie nadmierna ostrożność bywała frustrująca.
Równolegle zredukowano tzw. pre-amble, czyli domyślny wstęp w stylu „Oto, co mogę, a czego nie mogę zrobić”. Wewnętrzne testy OpenAI wskazują, że średnia długość odpowiedzi w pierwszym ekranie spadła o ponad 15%, a liczba nieuzasadnionych odmów – o około jedną czwartą. To realna oszczędność czasu dla firm wdrażających chatbota w obsłudze klienta czy dla programistów używających modelu jako asystenta technicznego.
Lepsza praca z informacjami z sieci
Nowy model nadal korzysta z modułu przeszukującego internet w czasie rzeczywistym, jednak kluczową zmianą jest sposób, w jaki łączy pozyskane dane z kontekstem rozmowy. Zamiast listy linków lub wyrwanych z kontekstu zdań, GPT-5.3 Instant stara się opisać, dlaczego przytoczona informacja jest ważna oraz jakie ma implikacje dla użytkownika. Takie podejście ma ograniczyć ryzyko błędnej interpretacji źródeł – problemu, który ciągle pojawiał się w aplikacjach prawniczych i finansowych.
Dodatkowo wprowadzono wewnętrzny system oceny rzetelności stron, przypominający wagę cytowań w pracach naukowych. Strony o ugruntowanej reputacji w danej dziedzinie otrzymują wyższy priorytet, co ma zmniejszyć liczbę tzw. płytkich wyników z forów czy niezaufanych blogów. Jednocześnie OpenAI pozostawia deweloperom API możliwość regulacji stopnia filtrowania, aby w razie potrzeby sięgnąć do szerszego spektrum źródeł.
Redukcja halucynacji i bardziej rzeczowy ton
Halucynacje – czyli pewne siebie, lecz nieprawdziwe twierdzenia – to największa bolączka dużych modeli językowych. Według danych laboratoryjnych OpenAI GPT-5.3 Instant ograniczył liczbę takich przypadków o nieco ponad 26% w trybie konwersacyjnym oraz o kilkanaście procent w generowaniu dłuższych tekstów. Zmiany były testowane na zestawach pytań z obszaru zdrowia, prawa i finansów, gdzie nawet drobne przekłamanie może mieć poważne skutki.
Wpływ na to ma m.in. rozszerzona pamięć kontekstowa, pozwalająca utrzymać spójność faktów w długiej wymianie zdań, oraz nowy mechanizm autokorekty, który na bieżąco porównuje generowane stwierdzenia z bazą wiedzy aktualizowaną w krótszych cyklach. Uwagę zwrócono też na ton wypowiedzi: model został wytrenowany tak, aby nie przypisywał rozmówcy emocji, których ten nie wyraził, i aby unikał pouczającej maniery, na którą skarżyli się użytkownicy korporacyjni.
Dostępność i ścieżka migracji
GPT-5.3 Instant jest już włączony we wszystkich kontach ChatGPT, a w API figuruje pod nazwą „gpt-5.3-chat-latest”. Wersja 5.2 pozostanie wspierana w planach płatnych do 3 czerwca 2026 r., aby twórcy komercyjnych rozwiązań mieli czas na przetestowanie nowego silnika i dostosowanie promptów. OpenAI deklaruje, że kolejne miesiące poświęci na dalsze zmniejszanie halucynacji w językach innych niż angielski oraz na udostępnienie szerszego zestawu narzędzi do weryfikacji faktów, co ma przybliżyć generatywne AI do roli bezpiecznego, biznesowego standardu.