ChatGPT dwa lata później. Rewolucja, która stała się rutyną.

Miał zmienić wszystko. I zmienił – tylko inaczej, niż myśleliśmy. Historia narzędzia, które w dwa miesiące zdobyło sto milionów użytkowników i sprawiło, że świat zaczął zadawać pytania, na które wciąż nie ma dobrych odpowiedzi.


Listopad 2022. OpenAI bez wielkiej fanfary wypuszcza chatbota dostępnego dla każdego. Żadnej płatnej kampanii, żadnego wielkiego launchu. Link trafia na Twittera, ludzie zaczynają się nim dzielić, a serwery firmy padają pod ciężarem ruchu, którego nikt się nie spodziewał.

W ciągu tygodnia o ChatGPT pisały wszystkie liczące się media na świecie. W ciągu dwóch miesięcy miał sto milionów aktywnych użytkowników – szybciej niż kiedykolwiek jakakolwiek aplikacja w historii internetu. Dla porównania: Instagram potrzebował na to dwóch i pół roku. TikTok – dziewięciu miesięcy.

Coś pękło. Albo otworzyło się. Zależnie od tego, kogo zapytać.


Czym właściwie jest ChatGPT i dlaczego to ważne

To pytanie brzmi dziś banalnie, ale jeszcze trzy lata temu odpowiedź nie była oczywista dla nikogo poza wąskim gronem specjalistów.

ChatGPT to program, który przewiduje – słowo po słowie – jaki tekst powinien pojawić się w odpowiedzi na zadane pytanie. Nie rozumie. Nie myśli. Nie czuje. Ale jest wytrenowany na tak ogromnych ilościach ludzkiego tekstu, że jego odpowiedzi brzmią, jakby rozumiał, myślał i czuł.

I właśnie ta luka między tym, czym jest, a tym, jak działa – stała się źródłem i zachwytów, i niepokojów ostatnich lat.

– Ludzie popełniają dwa błędy jednocześnie – mówi badaczka zajmująca się etyką AI. – Jedni myślą, że to tylko głupi automat do uzupełniania zdań. Drudzy myślą, że to prawie człowiek. Prawda jest gdzieś pośrodku i jest znacznie bardziej skomplikowana niż obie te wersje.


Szkoły, uczelnie i egzamin z uczciwości

Żaden sektor nie poczuł pojawienia się ChatGPT szybciej niż edukacja.

W ciągu tygodni od premiery nauczyciele zaczęli dostawać prace domowe, których nie mogli odróżnić od napisanych przez uczniów. Uczelnie w pośpiechu aktualizowały regulaminy dotyczące plagiatów. Firmy tworzące narzędzia do wykrywania AI zanotowały kilkusetkuprocentowe wzrosty zainteresowania.

Problem okazał się jednak głębszy niż kwestia ściągania. ChatGPT postawił pytanie, na które system edukacji nie był przygotowany: jeśli maszyna potrafi napisać esej, rozwiązać zadanie matematyczne i streścić lekturę – to czego właściwie uczymy dzieci i po co?

Odpowiedzi są dziś tak różne, jak różne są szkoły. Jedne zakazały używania AI na terenie placówki. Inne uczyniły z niej element programu nauczania. Większość jest gdzieś pośrodku – bez jasnej polityki, zdana na decyzje poszczególnych nauczycieli.

– Uczyliśmy dzieci pisać, bo pisanie uczyło myślenia – mówi nauczycielka z liceum w Gdańsku. – Jeśli oddamy pisanie maszynie, to co zostaje? I jak sprawdzamy, czy ktoś naprawdę myśli?


Rynek pracy: kto powinien się bać, a kto panikuje niepotrzebnie

Gdy ChatGPT pojawił się publicznie, natychmiast pojawiły się prognozy o masowej utracie miejsc pracy. Prawnicy, copywriterzy, programiści, tłumacze, analitycy – lista zawodów „zagrożonych przez AI” rozrastała się z tygodnia na tydzień.

Rzeczywistość okazała się bardziej złożona.

Owszem – część zleceń zniknęła. Proste teksty reklamowe, podstawowe tłumaczenia, szablonowe raporty, rutynowy kod. Freelancerzy oferujący tego rodzaju usługi odczuli zmianę boleśnie i szybko.

Ale zniknięcie rutyny nie oznaczało zniknięcia zawodów. Oznaczało zmianę tego, za co ludzie są wynagradzani. Programiści, którzy korzystają z AI, piszą dziś kod szybciej – ale wciąż to oni decydują, co i jak budować. Prawnicy, którzy używają ChatGPT do przeszukiwania dokumentów, obsługują więcej klientów – ale wciąż to oni ponoszą odpowiedzialność za poradę.

– Bałem się przez pierwsze trzy miesiące – przyznaje copywriter z Warszawy, pracujący głównie dla branży finansowej. – Potem zobaczyłem, co AI naprawdę potrafi, a czego nie potrafi. I zrozumiałem, że mój problem nie polega na tym, że AI jest za dobra. Polega na tym, że muszę być lepszy niż byłem.


Halucynacje, kłamstwa i problem zaufania

ChatGPT ma jedną właściwość, która od początku spędza sen z powiek jego twórcom i użytkownikom.

Kłamie. I robi to z całkowitą pewnością siebie.

Zjawisko nazywane „halucynacjami” polega na tym, że model – zamiast przyznać, że czegoś nie wie – generuje brzmiącą wiarygodnie odpowiedź, która jest po prostu nieprawdziwa. Cytuje nieistniejące badania naukowe. Podaje błędne daty historyczne. Wymyśla wyroki sądowe, których nigdy nie było.

Kilka głośnych przypadków pokazało, że skutki mogą być poważne. Amerykański prawnik złożył w sądzie pismo zawierające listę precedensów, które ChatGPT po prostu wymyślił. Żaden z cytowanych wyroków nie istniał. Prawnik twierdził, że nie sprawdził źródeł, bo „ufał narzędziu”.

Sąd nie był pod wrażeniem.

– To jest fundamentalny problem z tymi systemami – mówi informatyk z Politechniki Gdańskiej. – Są zoptymalizowane pod kątem brzmienia przekonująco, nie pod kątem bycia prawdziwymi. To dwie bardzo różne rzeczy.

OpenAI pracuje nad tym problemem od początku. Kolejne wersje modelu halucynują rzadziej. Ale rzadziej nie znaczy nigdy – i to „nigdy” jest w wielu zastosowaniach jedynym akceptowalnym wynikiem.


Wyścig, który zmienił branżę technologiczną

Sukces ChatGPT wywołał w Dolinie Krzemowej coś, czego nie widziano od czasów pierwszego boomu internetowego – panikę połączoną z gorączką złota.

Google, który przez lata był niekwestionowanym liderem w dziedzinie AI, nagle znalazł się w defensywie. Firma w pośpiechu wypuściła własnego chatbota, który podczas pierwszej publicznej demonstracji popełnił błąd faktyczny – i w jeden dzień wyparował z wyceny ponad sto miliardów dolarów.

Microsoft zainwestował miliardy w OpenAI i zintegrował ChatGPT z pakietem Office oraz wyszukiwarką Bing. Meta, Amazon, Apple – każda z wielkich firm technologicznych rzuciła się w wir budowania własnych modeli lub kupowania dostępu do cudzych.

W ciągu dwóch lat rynek modeli językowych urósł do rozmiarów, które jeszcze niedawno wydawały się nierealne. I wciąż rośnie.


Co zostało z obietnicy?

ChatGPT obiecywał wiele. Demokratyzację wiedzy, asystenta dostępnego dla każdego, koniec z żmudną pracą przy rutynowych zadaniach.

Część tych obietnic się spełniła. Student z małego miasta ma dziś dostęp do narzędzia, które pomoże mu napisać CV, wyjaśni zawiłości prawa podatkowego i poprawnie przetłumaczy umowę. To nie jest mała zmiana.

Ale część obietnic okazała się naiwna. AI nie wyeliminowała dezinformacji – wręcz przeciwnie, dała jej nowe narzędzia. Nie wyrównała dostępu do wiedzy w skali globalnej, bo wymaga dobrego internetu, umiejętności formułowania pytań i krytycznego myślenia, które wciąż są nierówno rozłożone.

I nie rozwiązała pytania, które zadajemy sobie od początku: komu możemy ufać i skąd wiemy, że to co czytamy, jest prawdą?


Dziś ChatGPT jest dla wielu ludzi tak oczywistym elementem codzienności jak wyszukiwarka. Używają go bez zastanowienia, tak jak przestaliśmy się zastanawiać nad tym, jak działa Google.

I może właśnie w tym tkwi największa zmiana. Nie w tym, że AI jest niezwykła. W tym, że przestała być niezwykła tak szybko.


Reportaż powstał na podstawie rozmów z ekspertami, nauczycielami, prawnikami i użytkownikami narzędzi AI. Część rozmówców prosiła o anonimowość.

Poprzedni wpis

Preferencje plików cookies

Inne

Inne pliki cookie to te, które są analizowane i nie zostały jeszcze przypisane do żadnej z kategorii.

Niezbędne

Niezbędne
Niezbędne pliki cookie są absolutnie niezbędne do prawidłowego funkcjonowania strony. Te pliki cookie zapewniają działanie podstawowych funkcji i zabezpieczeń witryny. Anonimowo.

Reklamowe

Reklamowe pliki cookie są stosowane, by wyświetlać użytkownikom odpowiednie reklamy i kampanie marketingowe. Te pliki śledzą użytkowników na stronach i zbierają informacje w celu dostarczania dostosowanych reklam.

Analityczne

Analityczne pliki cookie są stosowane, by zrozumieć, w jaki sposób odwiedzający wchodzą w interakcję ze stroną internetową. Te pliki pomagają zbierać informacje o wskaźnikach dot. liczby odwiedzających, współczynniku odrzuceń, źródle ruchu itp.

Funkcjonalne

Funkcjonalne pliki cookie wspierają niektóre funkcje tj. udostępnianie zawartości strony w mediach społecznościowych, zbieranie informacji zwrotnych i inne funkcjonalności podmiotów trzecich.

Wydajnościowe

Wydajnościowe pliki cookie pomagają zrozumieć i analizować kluczowe wskaźniki wydajności strony, co pomaga zapewnić lepsze wrażenia dla użytkowników.