Nowy GPT5.3 Instant w ChatGPT: Mniej moralizowania, więcej konkretów

gpt | https://elements.envato.com/

Najnowsza odsłona silnika językowego OpenAI, oznaczona jako GPT-5.3 Instant, pojawiła się właśnie jako domyślny model w ChatGPT. Producent zapowiada, że tym razem nacisk położono nie na imponujące wyniki w benchmarkach, ale na odczuwalną dla użytkowników poprawę kultury dialogu: mniej moralizatorskich wstępów, mniej bezzasadnych odmów i wyraźnie niższy odsetek błędów merytorycznych.

Ukierunkowanie na realne potrzeby użytkowników

Jednym z częstszych zastrzeżeń wobec poprzedniej wersji było to, że model potrafił rozpoczynać odpowiedź długą litanią ograniczeń, zanim przeszedł do sedna pytania. W GPT-5.3 Instant skrócono wewnętrzne procedury filtrujące, dzięki czemu system lepiej rozróżnia, kiedy rzeczywiście powinien odmówić, a kiedy wystarczy precyzyjna, treściwa odpowiedź. Efekt ma być szczególnie widoczny przy tematach z pogranicza etyki, prawa czy medycyny, gdzie nadmierna ostrożność bywała frustrująca.

Równolegle zredukowano tzw. pre-amble, czyli domyślny wstęp w stylu „Oto, co mogę, a czego nie mogę zrobić”. Wewnętrzne testy OpenAI wskazują, że średnia długość odpowiedzi w pierwszym ekranie spadła o ponad 15%, a liczba nieuzasadnionych odmów – o około jedną czwartą. To realna oszczędność czasu dla firm wdrażających chatbota w obsłudze klienta czy dla programistów używających modelu jako asystenta technicznego.

Lepsza praca z informacjami z sieci

Nowy model nadal korzysta z modułu przeszukującego internet w czasie rzeczywistym, jednak kluczową zmianą jest sposób, w jaki łączy pozyskane dane z kontekstem rozmowy. Zamiast listy linków lub wyrwanych z kontekstu zdań, GPT-5.3 Instant stara się opisać, dlaczego przytoczona informacja jest ważna oraz jakie ma implikacje dla użytkownika. Takie podejście ma ograniczyć ryzyko błędnej interpretacji źródeł – problemu, który ciągle pojawiał się w aplikacjach prawniczych i finansowych.

Dodatkowo wprowadzono wewnętrzny system oceny rzetelności stron, przypominający wagę cytowań w pracach naukowych. Strony o ugruntowanej reputacji w danej dziedzinie otrzymują wyższy priorytet, co ma zmniejszyć liczbę tzw. płytkich wyników z forów czy niezaufanych blogów. Jednocześnie OpenAI pozostawia deweloperom API możliwość regulacji stopnia filtrowania, aby w razie potrzeby sięgnąć do szerszego spektrum źródeł.

Redukcja halucynacji i bardziej rzeczowy ton

Halucynacje – czyli pewne siebie, lecz nieprawdziwe twierdzenia – to największa bolączka dużych modeli językowych. Według danych laboratoryjnych OpenAI GPT-5.3 Instant ograniczył liczbę takich przypadków o nieco ponad 26% w trybie konwersacyjnym oraz o kilkanaście procent w generowaniu dłuższych tekstów. Zmiany były testowane na zestawach pytań z obszaru zdrowia, prawa i finansów, gdzie nawet drobne przekłamanie może mieć poważne skutki.

Wpływ na to ma m.in. rozszerzona pamięć kontekstowa, pozwalająca utrzymać spójność faktów w długiej wymianie zdań, oraz nowy mechanizm autokorekty, który na bieżąco porównuje generowane stwierdzenia z bazą wiedzy aktualizowaną w krótszych cyklach. Uwagę zwrócono też na ton wypowiedzi: model został wytrenowany tak, aby nie przypisywał rozmówcy emocji, których ten nie wyraził, i aby unikał pouczającej maniery, na którą skarżyli się użytkownicy korporacyjni.

Dostępność i ścieżka migracji

GPT-5.3 Instant jest już włączony we wszystkich kontach ChatGPT, a w API figuruje pod nazwą „gpt-5.3-chat-latest”. Wersja 5.2 pozostanie wspierana w planach płatnych do 3 czerwca 2026 r., aby twórcy komercyjnych rozwiązań mieli czas na przetestowanie nowego silnika i dostosowanie promptów. OpenAI deklaruje, że kolejne miesiące poświęci na dalsze zmniejszanie halucynacji w językach innych niż angielski oraz na udostępnienie szerszego zestawu narzędzi do weryfikacji faktów, co ma przybliżyć generatywne AI do roli bezpiecznego, biznesowego standardu.