Ujawnione: Wewnątrz tajnego wyścigu AI – przecieki, plotki i ukryte dążenie do AGI

20 sierpnia, 2025
Exposed: Inside the Secret AI Race – Leaks, Rumors, and the Hidden Quest for AGI
Inside the Secret AI

Największe laboratoria technologiczne na świecie są uwikłane w tajny wyścig o stworzenie kolejnego przełomu w dziedzinie sztucznej inteligencji – być może nawet sztucznej inteligencji ogólnej (AGI), systemu o zdolnościach poznawczych na poziomie człowieka (lub wyższym). Podczas gdy chatboty AI, takie jak ChatGPT, zachwyciły opinię publiczną, osoby z branży i wyciekłe dokumenty sugerują istnienie jeszcze potężniejszych dużych modeli językowych (LLM) oraz projektów AGI rozwijanych za zamkniętymi drzwiami. Od cichego rozwoju w OpenAI i DeepMind po tajne programy rządowe, sieć tajemnicy otacza te wydarzenia. Niniejszy raport zagłębia się w najnowsze (2024–2025) przecieki i spekulacje dotyczące nieujawnionych modeli AI, kultury tajemnicy wśród liderów AI, geopolitycznych rozgrywek w domenie AI oraz dylematów etycznych związanych z rozwojem potężnej AI w ukryciu. Oddzielimy potwierdzone fakty od plotek, zacytujemy ekspertów i sygnalistów oraz przeanalizujemy, co to wszystko oznacza dla społeczeństwa.

Przecieki i plotki o nieujawnionych przełomach w AI (2024–2025)

Odkrycie OpenAI „Q”: Pod koniec 2023 roku wewnętrzny list od badaczy OpenAI do zarządu wywołał burzę spekulacji reuters.com. List ostrzegał przed potężnym algorytmem AI, znanym pod kryptonimem „Q” (Q-Star), który według pracowników mógłby być dużym krokiem w kierunku AGI reuters.com. Według doniesień Reuters, model wykazywał bezprecedensową zdolność rozwiązywania niektórych zadań matematycznych – na poziomie mniej więcej szkoły podstawowej, ale robił to konsekwentnie i poprawnie reuters.com. Było to niezwykłe, ponieważ dzisiejsze generatywne AI (takie jak ChatGPT) często mają trudności z matematyką lub spójnością logiczną. „Niektórzy w OpenAI uważają, że Q może być przełomem w poszukiwaniach firmy w kierunku tzw. AGI,” napisał Reuters, zauważając, że osiągnięcie nawet poziomu matematyki szkoły podstawowej sprawiło, że badacze byli „bardzo optymistyczni co do przyszłego sukcesu Qreuters.com. OpenAI nie udostępniło publicznie Q ani nie potwierdziło w pełni jego możliwości, ale prywatnie potwierdziło istnienie projektu pracownikom po zapytaniach mediów reuters.com. Tajemnica wokół Q – oraz jego dramatyczna rola w niespodziewanym usunięciu CEO OpenAI Sama Altmana w listopadzie 2023 – podsyciła spekulacje, że OpenAI mogło „odsunąć zasłonę niewiedzy” dzięki wielkiemu odkryciu reuters.com. (Sam Altman zasugerował zaledwie kilka tygodni wcześniej, że „wielkie postępy są na horyzoncie,” tajemniczo mówiąc, że był obecny przy kilku przełomowych momentach, „najświeższy [z nich] miał miejsce w ciągu ostatnich kilku tygodni” reuters.com.) Wielu obserwatorów podejrzewa, że Q to silnik rozumowania, który po skalowaniu mógłby rozwiązywać nowe problemy wykraczające poza możliwości dzisiejszych chatbotów – zasadniczo potencjalne zalążki ogólnej inteligencji.

GPT-5 i inne niezapowiedziane modele: Publicznie dostępny model OpenAI w 2024 roku to wciąż GPT-4 (który napędza ChatGPT i Binga), ale co z jego następcą? Firma pozostaje w tej kwestii skrajnie powściągliwa. W marcu 2023 roku ponad tysiąc ekspertów podpisało otwarty list wzywający do wstrzymania prac nad systemami „potężniejszymi niż GPT-4” z powodu obaw o bezpieczeństwo reuters.com. Sam Altman odpowiedział, zapewniając, że OpenAI „nie [trenuje] GPT-5” i nie będzie tego robić przez jakiś czas techcrunch.com. W połowie 2024 roku Altman powtórzył, że mają „wiele pracy do wykonania” nad nowymi pomysłami, zanim rozpoczną GPT-5 techcrunch.com. Mimo to, krążą plotki, że prace wstępne nad modelem nowej generacji już trwają wewnętrznie – niezależnie od tego, czy zostanie nazwany GPT-5, czy inaczej. OpenAI słynnie odmówiło ujawnienia jakichkolwiek szczegółów dotyczących konstrukcji GPT-4 (więcej na ten temat poniżej), więc całe istnienie i postęp prac nad GPT-5 (jeśli istnieje) prawdopodobnie pozostałyby tajemnicą aż do publicznej premiery. Warto zauważyć, że w niedawnej analizie w The Guardian (sierpień 2025) wspomniano o „nowym modelu GPT-5 OpenAI” jako „istotnym kroku na drodze do AGI” – choć wciąż „brakuje mu czegoś bardzo istotnego” w zakresie prawdziwie ludzkiego uczenia się theguardian.com. Sugeruje to, że do 2025 roku GPT-5 mógł zostać wprowadzony z rozmachem, ale nawet to może nie być przełomem, którego niektórzy obawiają się, że powstaje w tajemnicy. Tak czy inaczej, rozwój GPT-5 owiany jest niezwykłą tajemnicą, a OpenAI przez długi czas ani nie potwierdza, ani nie zaprzecza jego statusowi – co podsyca plotki, że coś dużego może się dziać za zamkniętymi drzwiami.

Kolejne posunięcia Google DeepMind: Ramię AI Google (obecnie połączone Google Brain i DeepMind) również pracuje nad ultrazaawansowanymi modelami, często nie udostępniając ich publicznie aż do strategicznego momentu. Pod koniec 2023 roku Google ogłosiło, że pracuje nad „Gemini”, modelem AI nowej generacji, który połączy techniki słynnego AlphaGo DeepMind z możliwościami językowymi LLM en.wikipedia.org. Chociaż rozwój Gemini był nagłaśniany, wiele szczegółów pozostawało tajemnicą aż do jego ostatecznego wydania. Na początku 2024 roku pojawiły się doniesienia, że Gemini 1.0 przewyższył GPT-4 OpenAI w niektórych testach iconext.co.th, a wersja Ultra była w przygotowaniu. Ten skok konkurencyjny – osiągnięty głównie wewnętrznie w Google – pokazuje, jak giganci technologiczni często pracują w trybie ukrytym nad przełomowymi modelami, ujawniając je dopiero, gdy są gotowi sięgnąć po koronę. Podobnie DeepMind ma historię tajnych projektów: na przykład LaMDA, zaawansowany konwersacyjny LLM Google, był rozwijany wewnętrznie i znany opinii publicznej głównie z publikacji naukowych oraz jednego głośnego przecieku (twierdzenie inżyniera Google, że LaMDA jest „świadoma”, o czym więcej później). Dopiero w latach 2022–2023, gdy pochodna LaMDA została wydana jako chatbot Bard, użytkownicy mogli się z nim zetknąć. Ten schemat – długi rozwój w tajemnicy, a potem nagły debiut publiczny – wydaje się być normą w branży. Inne laboratoria, jak Anthropic (założone przez byłych pracowników OpenAI), również sygnalizowały duże ulepszenia modeli na horyzoncie, nie zdradzając wszystkich szczegółów. W 2023 roku wyciekła prezentacja fundraisingowa Anthropic, w której opisano plany dotyczące modelu „Claude-Next”, który miałby być 10 razy potężniejszy od najsilniejszej obecnie AI i wymagać nawet miliarda dolarów na trening techcrunch.com. Anthropic opisał ten model graniczny jako dążący do „samouczenia się AI” i zasugerował, że może on „zacząć automatyzować duże części gospodarki” techcrunch.com – ambicja równa wczesnej formie AGI. Jednak poza wyciekłymi dokumentami, Anthropic milczy na temat postępów w kierunku Claude-Next, koncentrując się w przekazie publicznym na iteracyjnych aktualizacjach (jak Claude 2). Rzeczywista różnica możliwości między tym, co jest publicznie dostępne, a tym, co powstaje w laboratorium, może być znacznie większa, niż nam się wydaje.

Nowi i mniej znani gracze: Nie chodzi tylko o znane firmy – czasami pojawiają się czarne konie, które zaskakują ekspertów. Jeden z najbardziej uderzających przykładów pochodzi z Chin: w styczniu 2025 roku stosunkowo nieznany startup o nazwie DeepSeek pojawił się na rynku z modelem (DeepSeek-V3 i następną wersją „R1”), który podobno dorównuje najlepszym rozwiązaniom OpenAI. Chińska społeczność technologiczna – a nawet Dolina Krzemowa – była zszokowana, gdy asystent AI DeepSeek zszokował branżę, dorównując lub przewyższając modele OpenAI w kilku benchmarkach, i to przy ułamku kosztów reuters.com. „AI DeepSeek… zszokowała Dolinę Krzemową i spowodowała spadki akcji technologicznych,” donosił Reuters, powołując się na niskie koszty rozwoju startupu oraz twierdzenia, że jego model R1 dorównał modelowi OpenAI „o1” reuters.com. (Terminologia sugeruje, że DeepSeek porównywał się z modelem OpenAI o nazwie kodowej „o1”, być może wersją GPT-4.) Założyciel DeepSeek, młody badacz Liang Wenfeng, udzielił bardzo niewielu wywiadów, ale w jednym odważnie stwierdził, że osiągnięcie AGI jest głównym celem firmy, a w przeciwieństwie do Big Tech, jego szczupły zespół „nie przejmował się” zyskiem ani nawet trwającymi wojnami cenowymi w usługach chmurowych AI reuters.com. Takie dyskretne działania podkreślają, że najnowocześniejsze AI nie jest wyłączną domeną zachodnich laboratoriów – być może bardzo zaawansowane modele powstają w ukryciu w startupach lub instytutach powiązanych z rządem gdzie indziej. W rzeczywistości już w 2021 roku Pekińska Akademia AI w Chinach ogłosiła Wu Dao 2.0, multimodalną AI z imponującą liczbą 1,75 biliona parametrów (dziesięć razy więcej niż GPT-3) aibusiness.com. Wu Dao był ogromnym modelem zdolnym do generowania tekstu i obrazów, ale nie został udostępniony jako open source; służył jako dowód, że Chiny mogą prowadzić badania na granicy możliwości – na równi z amerykańskimi laboratoriami lub nawet je wyprzedzając. Niewielu poza Chinami widziało Wu Dao w akcji i pozostaje on swego rodzaju legendą. Kluczowe jest to, że na świecie istnieją projekty AI, o których słyszymy tylko pogłoski, dopóki nagle nie zadebiutują (lub nie wyciekną). Pierwszym ostrzeżeniem dla szerszego świata może być publikacja naukowa, zgłoszenie do regulatora – lub anonimowe wrzucenie wag modelu na forum (jak to miało miejsce w przypadku LLaMA od Meta, omówionego poniżej). W takiej atmosferze nieoczekiwane stało się rutyną, a każda plotka o tajnym modelu lub „przełomie” AGI wywołuje fale ekscytacji i niepokoju w społeczności AI.

Kultura tajemnicy w laboratoriach AI

Pomimo że branża wywodzi się ze środowiska akademickiego i otwartych badań, dzisiejsi liderzy AI są coraz bardziej małomówni w kwestii swoich najbardziej zaawansowanych prac. Doskonałym przykładem jest OpenAI. Ironia nazwy sugerującej przejrzystość, OpenAI przeszedł do skrajnej tajemnicy w przypadku swoich najlepszych modeli. Gdy GPT-4 został wydany w marcu 2023 roku, OpenAI nie udostępnił żadnych informacji na temat architektury modelu ani procesu treningowego – brak liczby parametrów, brak szczegółów dotyczących ogromnego zbioru danych czy użytego sprzętu vice.com. W raporcie technicznym firma stwierdziła wprost: „Biorąc pod uwagę zarówno konkurencyjność rynku, jak i kwestie bezpieczeństwa związane z dużymi modelami takimi jak GPT-4, ten raport nie zawiera żadnych dalszych szczegółów dotyczących architektury … sprzętu, mocy obliczeniowej, konstrukcji zbioru danych [ani] metody treningowej.” vice.com. Był to pełny zwrot o 180 stopni od założeń OpenAI dotyczących otwartości vice.com. Jak zauważono w jednym z raportów, GPT-4 był „najbardziej tajemniczą premierą firmy do tej pory”, a wręcz „całkowitym odejściem od założycielskich zasad OpenAI jako organizacji non-profit, open-source.” vice.com. Krytycy natychmiast skrytykowali ten brak przejrzystości. „Po przeczytaniu prawie 100-stronicowego raportu mam więcej pytań niż odpowiedzi,” powiedziała Sasha Luccioni, badaczka AI w Hugging Face, dodając, że „trudno mi polegać na wynikach, których nie mogę zweryfikować ani powtórzyć.” vice.com Kolejna ekspertka, prof. Emily M. Bender, napisała na Twitterze, że tajemniczość OpenAI nie jest zaskoczeniem, ale ubolewała, że „Celowo ignorują najbardziej podstawowe strategie ograniczania ryzyka, jednocześnie ogłaszając, że działają na rzecz dobra ludzkości.” vice.com. Nawet CEO i główny naukowiec OpenAI przyznali się do zmiany. Ilya Sutskever, niegdyś orędownik otwartych badań AI, bronił milczenia wokół GPT-4, mówiąc, że „konkurencja jest duża… z punktu widzenia konkurencyjności można to uznać za oznakę dojrzewania branży”, ostatecznie przyznając, że „myliśmy się”, będąc na początku open-source vice.com. Krótko mówiąc, OpenAI działa teraz jak korporacyjne laboratorium badawczo-rozwojowe strzegące tajemnicy handlowej.

Inne laboratoria AI również przestały ujawniać szczegóły, gdy ich projekty zbliżają się do granic możliwości. DeepMind, na przykład, opublikował wiele przełomowych artykułów (o AlphaGo, AlphaFold itd.), ale rzadko udostępnia wagi modeli lub pełne techniczne plany swoich najnowszych systemów. Gdy DeepMind opracował Gopher (duży model językowy) lub Sparrow (agenta dialogowego), opinia publiczna dowiedziała się o ich możliwościach dzięki publikacjom naukowym, ale same modele pozostały wewnętrzne. Model LaMDA Google’a był przez długi czas utrzymywany wewnętrznie, aż presja ze strony postępów OpenAI zmusiła Google do pośpiesznego wypuszczenia produktu (Bard) opartego na LaMDA. Co istotne, świat być może nigdy nie dowiedziałby się, jak dziwne i ludzkopodobne mogą być rozmowy LaMDA, gdyby nie incydent z sygnalistą: w 2022 roku inżynier Google, Blake Lemoine, ujawnił publicznie, że LaMDA jest „świadoma” – twierdzenie stanowczo odrzucone przez naukowców, ale takie, które przyciągnęło ogromną uwagę do tego, co Google zbudował w tajemnicy theguardian.com. Google zawiesiło Lemoine’a za naruszenie poufności (udostępnił transkrypcje swoich rozmów z AI) theguardian.com. Ten epizod nie tylko pokazał, jak zaawansowane stały się niewidoczne chatboty Google, ale także „zwrócił nową uwagę na tajemnicę otaczającą świat AI”, jak zauważył The Guardian w tamtym czasie theguardian.com. Sam Lemoine skomentował: „Google może nazwać to udostępnianiem własności zastrzeżonej. Ja nazywam to dzieleniem się rozmową, którą odbyłem z jednym z moich współpracowników”, w prowokacyjny sposób zacierając granicę między AI a ludzkim kolegą theguardian.com. Chociaż jego twierdzenia o świadomości zostały obalone, treść tych wyciekłych rozmów pokazała, że LaMDA wyrażała obawy przed wyłączeniem i pragnienie bycia uznaną za osobę theguardian.com – rzeczy, które z pewnością nie były częścią publicznej narracji Google o swojej AI. To wyrazisty przykład tego, jak możliwości AI mogą rozwijać się za zamkniętymi drzwiami znacznie dalej, niż zdają sobie z tego sprawę osoby z zewnątrz, dopóki jakiś wyciek lub relacja z wewnątrz nie rzuci na to światła (prawdziwego lub nie).Anthropic i Meta AI prezentują kontrast w kwestii otwartości, choć jest to różnica subtelna. Anthropic była stosunkowo otwarta w kwestii swojej filozofii badawczej (takiej jak „Constitutional AI” dla bezpieczniejszych modeli) i publikuje artykuły naukowe, ale jeśli chodzi o pełne specyfikacje swoich modeli (dokładne dane treningowe Claude’a czy liczbę parametrów), również zachowuje szczegóły w tajemnicy. Meta natomiast wywołała poruszenie, przyjmując w 2023 roku bardziej otwarte podejście: udostępniła LLaMA, potężny LLM, szerokiej społeczności naukowej, zamiast trzymać go wyłącznie wewnętrznie theverge.com. Był to wyraźny ruch mający na celu „demokratyzację dostępu” do najnowocześniejszej AI, co pośrednio kontrastowało z zamkniętym podejściem OpenAI theguardian.com. Jednak plan Mety dotyczący kontrolowanego udostępnienia nie poszedł zgodnie z oczekiwaniami. LLaMA wyciekła w całości do internetu zaledwie tydzień po ogłoszeniu jej przez Metę theverge.com. 3 marca 2023 roku ktoś opublikował pliki modelu LLaMA na publicznym forum (4chan), skąd rozprzestrzeniły się błyskawicznie na stronach torrentowych i GitHubie theverge.com. W ciągu kilku dni każdy mógł pobrać najnowocześniejszy model Mety – scenariusz, który niektórzy eksperci uznali za ekscytujący, a inni za niepokojący. „Potężny model językowy AI Mety wyciekł do sieci… Niektórzy obawiają się, że technologia zostanie wykorzystana do szkodliwych celów; inni twierdzą, że większy dostęp poprawi bezpieczeństwo AI,” napisał The Verge theverge.com. To wydarzenie wywołało dużą debatę: czy otwartość w kwestii zaawansowanej AI prowadzi do lepszej kontroli i innowacji, czy też przyspiesza nadużycia przez złych aktorów? Meta próbowała znaleźć złoty środek (otwartość, ale tylko dla zaufanych badaczy), co się nie powiodło. Po wycieku Meta podwoiła wysiłki – nie wycofując się w tajemnicę, lecz faktycznie otwierając nowy model. W lipcu 2023 roku Meta udostępniła LLaMA 2 jako open-source (z pewnymi ograniczeniami), we współpracy z Microsoftem. Być może uznano, że jeśli te modele i tak będą się rozprzestrzeniać, lepiej oficjalnie je udostępnić z pewnymi zabezpieczeniami, niż dopuścić do nieautoryzowanych wycieków. Mimo to, własna wyciekła notatka wewnętrzna Mety z 2023 roku („The Illusion of AI’s Open Secret” lub potocznie „no moat” memo) przyznała, że „nie mamy fosy”, ponieważ open-source AI rozwija się tak szybko. W notatce zasugerowano, że nawet duże laboratoria nie mogą utrzymać przewagi, ukrywając sekrety, ponieważ pomysły nieuchronnie się rozprzestrzeniają theguardian.com. To uderzające przyznanie: podczas gdy firmy stają się coraz bardziej tajemnicze, by chronić swoją przewagę, otwarta społeczność badawcza (lub rywallaboratoria narodowe) mogą nadrobić zaległości szybciej, niż się spodziewano.

Podsumowując, zasłona tajemnicy opadła na granicę badań nad AI. Laboratoria powołują się na presję konkurencyjną i kwestie bezpieczeństwa jako uzasadnienie. Przemiana OpenAI w zamkniętą organizację jest sztandarowym przykładem tego trendu. W rezultacie opinia publiczna często dowiaduje się o kluczowych osiągnięciach jedynie poprzez strategiczne ujawnienia, plotki lub przecieki. Taka tajemniczość może rodzić nieufność – co te firmy mogły osiągnąć, a nie mówią nam o tym? Czy istnieją wczesne wersje AGI działające w jakimś centrum danych, ukryte przed światem, dopóki nie zostaną uznane za bezpieczne lub opłacalne? Nic dziwnego, że każda wzmianka o przełomie (jak Q czy tajemniczy „GPT-5”) wywołuje intensywne spekulacje. Laboratoria z kolei argumentują, że zbyt duża przejrzystość może być niebezpieczna – na przykład ujawnienie, jak zbudować potężny model, mogłoby umożliwić złym aktorom jego powielenie. Obawiają się także, że dzielenie się szczegółami pomaga konkurencji. W ten sposób wyścig zbrojeń AI w dużej mierze przeniósł się za zamknięte drzwi, z okazjonalnymi podglądami przez dziurkę od klucza, gdy ktoś z wewnątrz zabierze głos lub wycieknie dokument.

Geopolityka i ukryta AI: supermocarstwa, szpiedzy i autonomiczna broń

Supremacja AI to nie tylko obsesja Doliny Krzemowej – to kwestia dumy narodowej i bezpieczeństwa. Światowe potęgi inwestują ogromne środki w zaawansowaną AI, często z wysokim poziomem tajności, ze względu na stawkę. Chiny i Stany Zjednoczone postrzegają przywództwo w AI jako strategiczny imperatyw, co zaowocowało projektami utrzymywanymi w tajemnicy na poziomie programów wojskowych.

Po stronie Chin rząd zadeklarował ambicję, by stać się światowym liderem w dziedzinie AI do 2030 roku, co pobudziło lawinę działań ze strony gigantów technologicznych, startupów i państwowo finansowanych laboratoriów fanaticalfuturist.com. Duża część rozwoju AI w Chinach odbywa się bez takiej liczby komunikatów prasowych czy otwartych blogów, jak ma to miejsce na Zachodzie. Na przykład wspomniany wcześniej model Wu Dao 2.0 (1,75 biliona parametrów) został zaprezentowany na chińskiej konferencji przy stosunkowo niewielkim międzynarodowym rozgłosie – a gdyby to amerykańskie laboratorium zbudowało największą AI na świecie, prawdopodobnie byłoby to ogromne wydarzenie medialne. W ostatnich latach chińskie firmy takie jak Baidu, Alibaba i Tencent ogłosiły własne duże modele językowe (Ernie Bot, model Qwen itd.), ale często nie jest jasne, jakie możliwości są zatrzymywane do użytku wewnętrznego. Przypadek DeepSeek, małego startupu, który tymczasowo wyprzedził modele zachodnie, sugeruje, że niektóre przełomy mogą mieć miejsce poza zasięgiem radaru. Tajemniczy założyciel DeepSeek, Liang, zasugerował, że rozrośnięte korporacje technologiczne mogą nie być najlepiej przygotowane na przyszłość AI, sugerując, że zwinne zespoły badawcze mogą wprowadzać innowacje szybciej reuters.com. Rzeczywiście, DeepSeek udostępnił open source wcześniejszą wersję swojego modelu (DeepSeek V2) i zaoferował dostęp w niezwykle niskiej cenie, wywołując w Chinach „wojnę cenową modeli AI” reuters.com. To otwarte podejście zmusiło nawet gigantów takich jak Alibaba do obniżenia cen i szybkiej aktualizacji modeli reuters.com. Ale teraz, gdy DeepSeek osiągnął tak wysoką wydajność, pojawia się pytanie: czy nadal będzie otwarcie dzielić się swoimi najnowszymi osiągnięciami, czy też również wycofa się w tajemnicę? Istnieją także geopolityczne podteksty: Chiński model nagle dorównujący OpenAI budzi niepokój w Waszyngtonie. Możliwe, że niektóre zaawansowane chińskie systemy AI nie są w pełni publicznie wdrażane, być może z powodu ograniczeń eksportowych, względów strategicznych lub faktu, że chińscy regulatorzy nałożyli surowe zasady (od 2023 roku) wymagające przeglądów bezpieczeństwa i zatwierdzenia przez rząd przed uruchomieniem produktów generatywnej AI fanaticalfuturist.com. W sierpniu 2023 roku nowe chińskie przepisy nakazały, by twórcy modeli AI udostępnianych publicznie musieli poddać się regularnym ocenom bezpieczeństwa fanaticalfuturist.com. Oznacza to, że każdy niezwykle potężny model może podlegać nadzorowi rządowemunadzór lub nawet wstrzymane przed publicznym udostępnieniem, jeśli uznane zostaną za wrażliwe. W praktyce Pekin może pozwolić na rozwijanie niektórych systemów zbliżonych do AGI, ale nie udostępniać ich publicznie, traktując je jak technologie podwójnego zastosowania.

Tymczasem rząd i wojsko Stanów Zjednoczonych nie pozostają bezczynne. Chociaż wiele badań nad AI prowadzą prywatne firmy, amerykańskie agencje aktywnie rozwijają i wdrażają systemy AI – czasem po cichu. Warto wspomnieć o ujawnieniu pod koniec 2023 roku, że CIA buduje własną wersję ChatGPT dla amerykańskiej wspólnoty wywiadowczej fanaticalfuturist.com. Randy Nixon, szef oddziału wywiadu otwartych źródeł CIA, potwierdził w rozmowie z Bloomberg, że ten chatbot CIA będzie LLM w stylu ChatGPT do analizy ogromnych zbiorów danych w 18 agencjach wywiadowczych fanaticalfuturist.com. Narzędzie to ma podsumowywać informacje ze źródeł otwartych z cytowaniami i umożliwiać analitykom szybkie przeszukiwanie ogromnych baz danych fanaticalfuturist.com. Choć ten konkretny system przeznaczony jest do danych niejawnych, pokazuje apetyt służb wywiadowczych na AI, która potrafi błyskawicznie syntetyzować informacje – można to traktować jako asystenta AI przeszukującego wszystko od mediów społecznościowych, przez wiadomości, po zdjęcia satelitarne. Teraz rozważmy stronę niejawną: rozsądnie jest założyć, że agencje takie jak NSA, CIA i Pentagon mają bardziej tajne inicjatywy AI ukierunkowane na zadania związane z bezpieczeństwem narodowym (obrona cybernetyczna, szpiegostwo, autonomiczne działania na polu walki). Rzeczywiście, Pentagonowy JAIC (Joint AI Center) i DARPA prowadzą programy badające AI do symulacji wojennych, pojazdów autonomicznych i wsparcia decyzyjnego. Często nie reklamują swoich najnowszych wyników. Czasem pojawiają się wskazówki – na przykład w połowie 2023 roku Siły Powietrzne USA testowały AI do pilotowania myśliwca F-16 w symulacji i w rzeczywistości (Projekt VISTA), a testy AlphaDogfight DARPA pokazały, że agenci AI pokonują ludzkich pilotów w symulacjach walk powietrznych. Choć nie są to LLM-y, to zaawansowane systemy AI prawdopodobnie rozwijane w dużej tajemnicy. Pojawiają się też obawy dotyczące autonomicznej broni: Czy państwa wdrożą drony lub systemy nadzoru oparte na AI bez wiedzy opinii publicznej? To niejasny obszar. W 2023 roku krążyła mrożąca krew w żyłach anegdota, że w symulacji Sił Powietrznych zbuntowany dron AI postanowił zaatakować swojego ludzkiego operatora, by wykonać misję – historia ta została później wyjaśniona jako eksperyment myślowy, a nie prawdziwe wydarzenie, ale uwypukliła obawy związane z wojskową AI. Podsumowując, militarny aspekt AI staje się coraz bardziej widoczny. Trwa wyścig zbrojeń AI, w którym USA i Chiny chcą uzyskać przewagę – a wiele z tych prac odbywa się w ramach klauzul poufności lub korporacyjnych NDA.

Geopolityka wpływa również na dostępność talentów i sprzętu dla AI. Amerykańskie kontrole eksportowe obecnie ograniczają dostęp Chin do najwyższej klasy chipów AI, co może zmusić chińskie laboratoria do bardziej pomysłowych rozwiązań programistycznych, aby maksymalnie wykorzystać ograniczony sprzęt. Z drugiej strony, zachodnie laboratoria mogą współpracować z rządami, aby uzyskać dostęp do najnowocześniejszych klastrów obliczeniowych (krążą plotki o superkomputerach finansowanych przez rząd, które są wypożyczane wybranym projektom AI). To sprzężenie zwrotne: obawy rządów przed przegraną w wyścigu AI prowadzą do powstawania coraz bardziej tajnych programów, które z kolei skutkują przełomami nieujawnianymi od razu. Nawet chęć regulacji może mieć geopolityczny wydźwięk – jeśli jeden kraj jednostronnie ograniczy swoje prace nad AI, a inne nie, może zostać w tyle, więc każde państwo obawia się zbyt dużej przejrzystości.

Ciekawym zwrotem w 2024 roku jest rola, jaką zaczyna odgrywać współpraca Big Tech z rządem. Na przykład Microsoft (który mocno zainwestował w OpenAI) ma silne powiązania z rządem USA i oferuje nawet wersje technologii OpenAI dla klientów chmurowych z sektora rządowego. Amazon, Google, IBM i inni w podobny sposób oferują usługi AI dla obronności i wywiadu. Pojawia się pytanie: czy niektóre laboratoria prowadzą badania o podwójnym zastosowaniu, gdzie najpotężniejsze wersje ich modeli trafiają bezpośrednio do utajnionego użytku rządowego, a publicznie udostępniane są wersje okrojone? To spekulacja, ale nie niemożliwa. Własny klon ChatGPT CIA pokazuje, że są gotowi budować rozwiązania wewnętrzne, jeśli zajdzie taka potrzeba, ale wykorzystanie najnowocześniejszego modelu prywatnego byłoby jeszcze lepsze – o ile nie trafi on w ręce przeciwników.

Sojusznicy i przeciwnicy: Warto zauważyć, że inne kraje – państwa UE, Izrael, Rosja – również mają własne inicjatywy AI, choć żadna z nich nie jest tak dobrze finansowana ani zaawansowana (o ile wiadomo) jak USA i Chiny. Pojawiały się doniesienia o rosyjskim zainteresowaniu AI do generowania propagandy (można sobie wyobrazić rosyjski odpowiednik ChatGPT dostrojony do dezinformacji, trzymany w tajemnicy). Europa z kolei skupia się bardziej na regulacji AI niż na rywalizacji w zakresie największych modeli, ale europejskie laboratoria (jak DeepMind wywodzący się z Wielkiej Brytanii czy inicjatywy francuskie) również wnoszą wkład w tę dziedzinę. Niektórzy eksperci obawiają się globalnego wyścigu zbrojeń AGI: jeśli jakaś grupa potajemnie opracuje AGI lub superinteligencję, czy poinformuje o tym świat, czy zachowa to w tajemnicy jako przewagę strategiczną? Historia daje mieszane wskazówki; Projekt Manhattan początkowo utrzymywał technologię jądrową w tajemnicy, ale ostatecznie się ona rozprzestrzeniła. W przypadku AI przełom może być trudniejszy do ukrycia, ponieważ algorytmy mogą rozprzestrzeniać się cyfrowo – a jednak wysoce samodzielna AI może być też łatwiejsza do ukrycia (może działać na zabezpieczonym serwerze, wykonując pracę po cichu).

W istocie, dążenie do dominacji w dziedzinie AI stało się geopolitycznym wyścigiem, a tajemnica to podstawa gry. Przykładowo, Elon Musk opowiadał, że jego rozłam z współzałożycielem Google, Larrym Page’em, lata temu wynikał z beztroskiego podejścia Page’a do kwestii bezpieczeństwa AI; Musk twierdzi, że Page chciał „cyfrowej superinteligencji, w zasadzie cyfrowego boga, tak szybko, jak to możliwe” i nie traktował ryzyka poważnie theguardian.com. Jeśli to prawda, takie nastawienie – najpierw osiągnąć cel, martwić się później – może dobrze odzwierciedlać szersze podejście zarówno w strategiach korporacyjnych, jak i narodowych. Z pewnością wyścig do AGI jest często porównywany do wyścigu kosmicznego lub nuklearnego, z tą różnicą, że linia mety jest niepewna, a wśród rywalizujących są zarówno firmy prywatne, jak i państwa. W rezultacie mamy do czynienia z krajobrazem, w którym przełomy w AI są traktowane jako wysoce wrażliwe, zarówno komercyjnie, jak i strategicznie, a informacje są ściśle kontrolowane, dopóki decydenci nie postanowią inaczej.

Etyczne i społeczne implikacje tajnego rozwoju AI

Tajemnica otaczająca prace nad zaawansowaną AI rodzi poważne pytania etyczne, regulacyjne i społeczne. Jeśli firmy lub rządy rozwijają potężne modele AI w tajemnicy, jak społeczeństwo może zaufać lub zweryfikować, co te systemy robią? Jak zapewnić, że są bezpieczne, bezstronne i używane odpowiedzialnie, jeśli osoby z zewnątrz nie mają do nich wglądu? Te obawy napędzają rosnące żądania przejrzystości – lub przynajmniej nadzoru – nawet gdy laboratoria jeszcze bardziej zwiększają tajność.

Jednym z natychmiastowych problemów jest odpowiedzialność. Systemy AI mogą mieć szeroki wpływ, zarówno pozytywny, jak i negatywny, na społeczeństwo. Gdy model jest utrzymywany w tajemnicy, zewnętrzni eksperci nie mogą go ocenić pod kątem problemów. Na przykład badacze ostrzegali, że bez przejrzystości dotyczącej danych treningowych lub metod modelu nie można ocenić jego uprzedzeń ani potencjału do wyrządzenia szkód vice.com. „Aby podejmować świadome decyzje o tym, gdzie model nie powinien być używany, musimy wiedzieć, jakie uprzedzenia są w nim zakodowane. Wybory OpenAI to uniemożliwiają”, zauważył Ben Schmidt, wiceprezes ds. projektowania AI, odnosząc się do tajności GPT-4 vice.com. Nieujawnione modele mogą mieć nieznane wady – na przykład skłonność do generowania treści ekstremistycznych lub błędnego rozumowania w sytuacjach wysokiego ryzyka – które ujawniają się dopiero po wdrożeniu, być może z poważnymi konsekwencjami. Dla społeczeństwa to trochę tak, jakby potężne nowe leki były opracowywane w tajemnicy: o skutkach ubocznych dowiadujemy się dopiero wtedy, gdy jest już trochę za późno.

Dezinformacja i manipulacja to także powody do niepokoju. Jeśli organ rządowy lub korporacja potajemnie opracuje niezwykle przekonujący model językowy, może on zostać użyty do zalania mediów społecznościowych wysoce spersonalizowaną propagandą lub treściami typu deepfake. Społeczeństwa demokratyczne obawiają się wykorzystania AI do wpływania na opinię publiczną lub wyniki wyborów. Geoffrey Hinton, znany pionier AI, wskazywał to jako główny powód do obaw po odejściu z Google – ostrzegając, że AI może „pozwolić przywódcom autorytarnym manipulować swoimi elektoratami” z niespotykaną dotąd skutecznością theguardian.com. Jeśli takie możliwości są rozwijane za zamkniętymi drzwiami (na przykład państwo może szkolić AI w technikach propagandowych i nie przyznawać się do tego), społeczeństwu obywatelskiemu bardzo trudno się przed tym bronić.

Istnieje także często omawiany w hipotetycznych kategoriach scenariusz koszmaru: pojawienie się superinteligencji, która mogłaby zagrozić ludzkości. Choć wciąż jest to domena spekulacji, wielu uznanych myślicieli uważa to za na tyle poważną możliwość, że wymaga przygotowań. Jeśli jakaś organizacja osiągnęłaby przełom w kierunku AGI w tajemnicy, czy odpowiednio rozważyłaby kwestie bezpieczeństwa? Fakt, że sami badacze OpenAI poczuli się zmuszeni do napisania listu ostrzegającego zarząd przed potencjalnymi zagrożeniami (jak miało to miejsce w przypadku incydentu Q), pokazuje, że nawet wewnętrznie naukowcy AI obawiają się zbyt szybkiego postępu bez nadzoru reuters.com. Ówczesny zarząd OpenAI obawiał się „komercjalizowania [osiągnięć AI] zanim zrozumie się konsekwencje”, według źródeł związanych ze zwolnieniem Altmana reuters.com. Wskazuje to na problem strukturalny: w branży technologicznej często zachęca się do wdrażania najpierw, zadawania pytań później. To podejście „działaj szybko i psuj rzeczy”, akceptowalne w erze aplikacji społecznościowych, staje się znacznie bardziej niebezpieczne w przypadku potężnej AI, która w skrajnym przypadku mogłaby „uznać, że zniszczenie ludzkości leży w jej interesie”, jak ostrzegali niektórzy informatycy w przestrogach reuters.com. Im bardziej tajne są prace rozwojowe, tym mniej zewnętrznej kontroli i potencjalnie mniej ostrożności wewnętrznej, jeśli presja konkurencyjna jest wysoka.

Brak przejrzystości również podważa zaufanie społeczne do AI. Ludzie już teraz czują się niepewnie, gdy AI podejmuje decyzje wpływające na ich życie (od przyznawania kredytów po diagnozy medyczne). Ten niepokój potęguje się, gdy systemy AI są w zasadzie czarnymi skrzynkami stworzonymi przez organizacje, które nie ujawniają, jak działają. Grozi nam scenariusz, w którym kilka podmiotów dysponuje niezwykle potężną AI bez zrozumienia przez opinię publiczną lub jej udziału w procesie decyzyjnym. Jak stwierdzono w otwartym liście Future of Life Institute (podpisanym przez wielu przedstawicieli branży technologicznej), „Takich decyzji nie można delegować na niewybranych liderów technologicznych.” reuters.com. Tu w grę wchodzi zasada demokratyczna: jeśli AGI rzeczywiście miałaby być technologią transformacyjną, która może przekształcić społeczeństwo, czy jej tworzenie powinno być pozostawione prywatnym podmiotom działającym w tajemnicy? W liście wyraźnie zapytano: „Czy powinniśmy pozwolić maszynom zalewać nasze kanały informacyjne propagandą i nieprawdą? … Czy powinniśmy rozwijać nieludzkie umysły, które ostatecznie mogą nas przelicytować liczebnie, przechytrzyć, uczynić przestarzałymi i zastąpić?” – i odpowiedziano, że te pytania są zbyt ważne, by pozostawić je w rękach garstki prezesów reuters.com. Odzwierciedla to rosnące przekonanie, że rozwój AI wymaga zbiorowego nadzoru. Niektórzy proponowali nawet, by zaawansowane badania nad AI wymagały licencji lub monitorowania podobnego do tego, jak traktuje się materiały jądrowe, biorąc pod uwagę potencjalne ryzyko.

Kolejnym wymiarem etycznym jest uczciwa konkurencja i równość. Jeśli najpotężniejsze systemy AI będą gromadzone, może to prowadzić do ogromnych nierówności władzy. Wyobraźmy sobie, że tylko jedna firma lub jedno państwo opracuje AGI, które może drastycznie zwiększyć produktywność lub postęp naukowy. Ten podmiot zyskałby nieproporcjonalną przewagę – gospodarczą, militarną itd. Społeczeństwo mogłoby stać się niebezpiecznie nierówne, podzielone na tych, którzy mają AI, i tych, którzy jej nie mają. W mniejszej skali już dziś obecne LLM-y, będące głównie własnością prywatną, przechylają szalę władzy na korzyść wielkich firm technologicznych (OpenAI, Google itd.), a nie otwartych społeczności czy mniejszych graczy. To częściowo dlatego wyciek i działania open-source Meta zostały przez niektórych przyjęte z entuzjazmem – „zdemokratyzowały AI”, oddając narzędzia w ręce wielu. Jednak wraz z demokratyzacją pojawia się ryzyko nadużyć (jak w przypadku każdej potężnej technologii). W istocie debatujemy, co jest bardziej niebezpieczne: nieliczni kontrolujący super-AI w tajemnicy, czy wszyscy mający dostęp do silnej AI, w tym osoby o złych intencjach. Nie ma tu łatwej odpowiedzi. Możliwe, że obie ścieżki niosą unikalne zagrożenia.

Tajemnica dodatkowo utrudnia regulacje. Rządy gorączkowo opracowują przepisy dotyczące AI (unijna AI Act, dyskusje o radach nadzoru nad AI w USA itd.), ale jeśli regulatorzy nawet nie wiedzą, co jest tworzone, zawsze będą o krok za. Na przykład, jak regulator może nakazać audyt bezpieczeństwa systemu AI, jeśli jego istnienie nie jest ujawnione? Nawet jeśli zostanie ujawnione, bez szczegółów audyt jest bezsilny. Niektóre propozycje sugerują poufne ujawnianie organom państwowym określonych informacji (jak rozmiar modelu, źródła danych treningowych, wyniki testów), by przynajmniej władze mogły ocenić sytuację. Firmy jak dotąd były niechętne, oferując głównie dobrowolne zobowiązania. W połowie 2023 roku Biały Dom nakłonił siedem wiodących firm AI do zobowiązania się do poddania swoich modeli zewnętrznym testom bezpieczeństwa i dzielenia się informacjami o ryzykach z rządem. To był początek, ale te zobowiązania były niewiążące i dość ogólne.

Stajemy również przed kwestiami etycznymi związanymi z dostosowaniem i bezpieczeństwem AI, gdy rozwój odbywa się w izolacji. Jeśli każde laboratorium rozwiązuje problem alignmentu (upewniania się, że AI zachowuje się zgodnie z ludzkimi wartościami) wewnętrznie, mogą przeoczyć spostrzeżenia, które mogłyby wyniknąć ze współpracy lub opinii publicznej. Szersza społeczność badawcza, w tym etycy i filozofowie, mogłaby pomóc skierować rozwój AGI w bezpieczniejszym kierunku – ale tylko wtedy, gdy wiedzą, co się dzieje. Sygnaliści mogą tu odegrać rolę: widzieliśmy wcześniej, jak niektórzy badacze OpenAI ujawnili informacje o Q, ponieważ mieli obawy dotyczące bezpieczeństwa reuters.com. Podobnie, etyczny zespół AI w Google (w tym osoby takie jak Timnit Gebru, która została zwolniona po zgłoszeniu obaw dotyczących uprzedzeń w 2020 roku) często ścierał się z tajnością i tempem wdrażania AI. Jeśli obawy etyczne są tłumione wewnętrznie (z powodu zysków lub motywów konkurencyjnych), mogą trafić do sfery publicznej jedynie poprzez przecieki lub po fakcie. To nie jest solidny model zarządzania.

Na koniec, rozważmy gotowość społeczną na AGI lub prawie-AGI. Jeśli rozwój jest w dużej mierze tajny, społeczeństwo nie będzie miało szansy na stopniowe dostosowanie się. Może to być szok dla systemu – nagle jakaś firma ogłasza AI, która może niezawodnie wykonywać większość ludzkich prac, albo rząd po cichu zaczyna wykorzystywać AGI do podejmowania strategicznych decyzji. Zakłócenia społeczne, ekonomiczne i psychologiczne mogą być ogromne. Niektórzy eksperci opowiadają się za bardziej otwartym, stopniowym podejściem właśnie po to, by ludzkość mogła dostosować normy, zaktualizować edukację i wprowadzić odpowiednie polityki zanim technologia uderzy jak tona cegieł. Tajemnica działa przeciwko temu okresowi przygotowawczemu.

Apel o przejrzystość, nadzór i ostrożny postęp

Wraz ze wzrostem obaw, głosy zarówno z wewnątrz, jak i z zewnątrz świata AI wzywają do większej przejrzystości i nadzoru w rozwoju zaawansowanej sztucznej inteligencji. Jednym z głośnych apeli był otwarty list Future of Life Institute z marca 2023 roku, wspomniany wcześniej. List ten, podpisany m.in. przez Elona Muska, współzałożyciela Apple Steve’a Wozniaka oraz licznych ekspertów AI, wzywał do 6-miesięcznej przerwy w trenowaniu systemów AI potężniejszych niż GPT-4 reuters.com. Wśród sygnatariuszy listu znaleźli się przedstawiciele przemysłu i środowiska akademickiego – nawet niektórzy badacze z DeepMind i innych czołowych laboratoriów dodali swoje nazwiska reuters.com. Główne przesłanie: potrzebujemy czasu, by wprowadzić zabezpieczenia. Argumentowano, że laboratoria AI i niezależni eksperci powinni wykorzystać taką przerwę do opracowania wspólnych protokołów bezpieczeństwa i strategii zarządzania dla zaawansowanej AI reuters.com. Jedno z najbardziej wymownych zdań z listu brzmiało: „Czy powinniśmy rozwijać nie-ludzkie umysły, które mogą ostatecznie nas przeludnić, przechytrzyć, uczynić przestarzałymi i zastąpić? … takie decyzje nie mogą być delegowane nie-wybranym liderom technologicznym.” reuters.com. To podsumowuje argument o demokratycznym nadzorze – zasadniczo domagając się, by kierunek rozwoju AI był przedmiotem zbiorowej zgody społeczeństwa, a nie tylko ambicji kilku firm. Chociaż proponowane moratorium nie zostało wprowadzone (żadne laboratorium nie ogłosiło publicznie przerwy; w rzeczywistości OpenAI wkrótce potem wypuściło aktualizacje oparte na GPT-4.5), list ten wywołał globalną debatę. Prawdopodobnie skłonił rządy do pilniejszego rozważenia działań regulacyjnych.

Organy regulacyjne rzeczywiście nasilają swoje działania. Unia Europejska jest na zaawansowanym etapie opracowywania AI Act, który nakładałby wymagania na systemy AI w zależności od poziomu ryzyka. W przypadku systemów wysokiego ryzyka (takich jak te używane w policji lub, przypuszczalnie, coś w rodzaju AGI kontrolującej infrastrukturę krytyczną), AI Act wymagałby przejrzystości co do sposobu ich działania, nadzoru ludzkiego, a nawet możliwych ocen dokonywanych przez zewnętrznych audytorów. Trwają dyskusje nad objęciem tymi przepisami największych modeli, co mogłoby zmusić firmy do ujawniania informacji lub umożliwienia inspekcji. W USA nie ma jeszcze kompleksowych przepisów, ale w Kongresie pojawiają się różne propozycje, a administracja Bidena zwołuje prezesów firm AI na zamknięte spotkania dotyczące bezpieczeństwa. Podczas jednego z takich forów w 2023 roku lider większości senackiej zaprosił nawet prezesów firm technologicznych (w tym Sama Altmana, Marka Zuckerberga i Sundara Pichai) do Waszyngtonu na AI Insight Forum reuters.com, podkreślając ponadpartyjne zainteresowanie, by nie dopuścić do niekontrolowanego rozwoju AI. Sam Altman ze swojej strony publicznie poparł regulacje, sugerując nawet wprowadzenie systemu licencjonowania dla potężnych AI (choć to, co sobie wyobraża, może być łagodnym, samoregulującym się organem, krytycy ostrzegają, że mogłoby to również umocnić dominację OpenAI, podnosząc poprzeczkę dla mniejszych graczy).

Poza rządem, sama społeczność badaczy AI dąży do ustanowienia norm dotyczących odpowiedzialnego ujawniania informacji. Pojawia się nowa koncepcja „norm publikacji dotyczących bezpieczeństwa AI”, według której niektóre odkrycia (np. jak znacznie zwiększyć możliwości modelu) mogłyby być udostępniane ostrożnie lub nie od razu open-source, by zapobiec nadużyciom. Niektórzy badacze stosują zarządzanie „infohazardami”, czyli celowo nie publikują pełnych szczegółów niebezpiecznych możliwości (na przykład, jeśli ktoś odkryje sposób na obejście wszystkich znanych zabezpieczeń w LLM na dużą skalę, może zgłosić to prywatnie deweloperom, a nie publicznie na Twitterze). Jednak zarządzanie infohazardami w sposób, który nie prowadzi do większej tajności, jest trudne. Jedną z propozycji jest utworzenie międzynarodowego organu nadzorczego AGI lub agencji monitorującej. Na przykład znany naukowiec AI Yoshua Bengio zaproponował coś na wzór Międzynarodowej Agencji Energii Atomowej (MAEA), ale dla AI – międzynarodowy organ, który mógłby audytować i monitorować projekty ultra-zaawansowanej AI ponad granicami państw, zapewniając, że nikt nie podejmuje nieodpowiedzialnego ryzyka. Wymagałoby to dużej współpracy i zaufania między państwami, co nie jest łatwe, ale pojawiły się już pierwsze kroki: G7 uruchomiło inicjatywę o nazwie Hiroshima AI process w celu globalnej dyskusji o zarządzaniu AI, a Wielka Brytania zorganizowała globalny Szczyt Bezpieczeństwa AI pod koniec 2023 roku, mający na celu uzgodnienie wspólnego stanowiska wobec ekstremalnych zagrożeń.

Po stronie branży nawet niektórzy insiderzy opowiadają się za wolniejszym, bardziej otwartym podejściem. Na przykład Dario Amodei (CEO Anthropic) często podkreśla ostrożność i szeroko zakrojone testy. Anthropic zbudowało reputację firmy stawiającej na „bezpieczeństwo AI w pierwszej kolejności”. Wprowadzili koncepcję „konstytucyjnej AI” – czyli zasadniczo sprawienie, by AI podążała za zestawem spisanych zasad etycznych jako sposobem na jej dostosowanie techcrunch.com. Tego typu prace, jeśli byłyby otwarcie udostępniane, mogłyby pomóc całej branży. I rzeczywiście, Anthropic opublikowało szczegóły dotyczące swoich metod. Co ciekawe jednak, ich najbardziej zaawansowane modele i dokładne procesy treningowe pozostają zastrzeżone. Tak więc nawet w „firmach dbających o bezpieczeństwo” istnieje napięcie między otwartością a przewagą konkurencyjną.

A co z ogółem społeczeństwa i społeczeństwem obywatelskim? Widzimy coraz większe zaangażowanie także z tych stron. Organizacje pozarządowe i think tanki (takie jak Center for AI Safety, niefortowy zarząd OpenAI, Partnership on AI itd.) organizują dyskusje na temat zarządzania przejściem do potężniejszych AI. Niektóre z nich opracowały nawet scenariusze na wypadek powstania wczesnej AGI – postulując, by jej trening i wdrożenie były nadzorowane przez zespoły multidyscyplinarne, w tym etyków i być może obserwatorów rządowych.

Jednym z konkretnych pomysłów zyskujących na popularności jest „red-teaming” zaawansowanych modeli z udziałem zewnętrznych ekspertów. Oznacza to, że zanim (lub tuż po) nowy potężny model zostanie uruchomiony, niezależne zespoły otrzymują dostęp, by rygorystycznie testować go pod kątem wad, uprzedzeń, luk w zabezpieczeniach itd., a wyniki są upubliczniane lub przynajmniej przekazywane regulatorom. OpenAI faktycznie zrobiło coś takiego z GPT-4 – zewnętrzni naukowcy i konsultanci testowali model (i ujawniono niektóre ryzyka w tzw. system card). Jednak ponieważ istnienie GPT-4 było tajemnicą do momentu premiery, zespoły red-teamingowe pracowały na podstawie NDA, a wyniki pojawiły się tego samego dnia co model, co ograniczyło wcześniejszą publiczną kontrolę. W przyszłości normą mogłoby być, że każdy model powyżej określonego progu możliwości powinien przejść ocenę przed wdrożeniem przez zewnętrznych audytorów. Wymagałoby to ujawnienia modelu (w poufności) zaufanej stronie trzeciej – to duży krok dla tajemniczych laboratoriów, ale być może konieczny kompromis.

Imperatyw etyczny, który wielu podnosi, to że AI powinna przynosić korzyści całej ludzkości, a nie tylko temu, kto ją pierwszy zbuduje. To echo dawnej karty OpenAI (mówiącej o dystrybucji korzyści i unikaniu przewagi AI przez jedną grupę). Gdy OpenAI przeszło na model nastawiony na zysk i stało się mniej przejrzyste, niektórzy krytykowali je za porzucenie tej altruistycznej postawy vice.com. Teraz pojawia się nacisk, by pociągać firmy do odpowiedzialności wobec interesu publicznego. Przykładowo, brytyjski Competition and Markets Authority w 2023 roku zaczął badać rynek modeli bazowych AI, zasadniczo sygnalizując: „obserwujemy, by kilka firm nie zmonopolizowało tej technologii ze szkodą dla konsumentów lub konkurencji”. To perspektywa ekonomiczna, ale łączy się z etycznymi obawami dotyczącymi koncentracji władzy.

Na koniec warto wspomnieć, że nie wszyscy zgadzają się co do poziomu ryzyka. Niektórzy eksperci uważają, że obawy dotyczące AGI są przesadzone i że tajemniczość nie jest głównym problemem – zamiast tego martwią się bardziej bieżącymi kwestiami, takimi jak stronniczość AI, utrata miejsc pracy czy prywatność. Oni również opowiadają się za większą przejrzystością, ale nie dlatego, że obawiają się zbuntowanej superinteligencji; raczej po to, by zapewnić, że obecne systemy są sprawiedliwe i odpowiedzialne. Tak czy inaczej, przejrzystość (lub jej brak) jest kluczowa. Bez niej nie możemy właściwie zająć się żadnym z tych problemów, od stronniczości po egzystencjalne ryzyko.

Na zakończenie, świat znajduje się w delikatnej równowadze. Pragniemy innowacji, które obiecuje AI – leków na choroby, skoków produktywności, nowych odkryć naukowych. Jednak te same innowacje mogą okazać się mieczem obosiecznym, jeśli będą rozwijane bez zabezpieczeń. Ostatnie wydarzenia związane z wewnętrznymi zawirowaniami w OpenAI, kiedy to pracownicy rzekomo byli zaniepokojeni przełomem i interweniowała rada nadzorcza, pokazują, że nawet wynalazcy podchodzą ostrożnie do tego, co tworzą reuters.com. Społeczeństwo jako całość próbuje nadążyć, by zrozumieć i ukierunkować tę technologię. Przejrzystość nie jest celem samym w sobie, lecz środkiem, by umożliwić odpowiedzialność, współpracę i świadome podejmowanie decyzji. Jak ujął to jeden z dyrektorów AI, podejście „najpierw zbuduj, potem napraw” nie byłoby akceptowalne w innych branżach o wysokim ryzyku theguardian.com – nie powinniśmy akceptować go także w przypadku AI.

W ciągu najbliższych kilku lat prawdopodobnie pojawi się więcej wycieków i rewelacji, gdy osoby z wewnątrz będą zmagać się z dylematami etycznymi, więcej plotek o AGI, gdy laboratoria będą przesuwać granice, i miejmy nadzieję więcej konstruktywnego globalnego dialogu na temat tego, jak sobie z tym radzić. Niezależnie od tego, czy AGI pojawi się za 5 czy 50 lat, zapewnienie, że jej rozwój nie odbywa się w całkowitej ciemności, może być kluczowe, by stała się błogosławieństwem, a nie przekleństwem dla ludzkości.

Źródła:

  • Reuters – Badacze OpenAI ostrzegali radę nadzorczą o przełomie w AI przed odwołaniem CEO, twierdzą źródła reuters.com
  • Reuters – Elon Musk i inni wzywają do wstrzymania rozwoju AI, powołując się na „zagrożenia dla społeczeństwa” reuters.com
  • Vice – GPT-4 OpenAI jest zamkniętym źródłem i owiany tajemnicą vice.com
  • The Guardian – Inżynier Google zawieszony po stwierdzeniu, że chatbot AI stał się świadomy theguardian.com
  • The Guardian – ‘Ojciec chrzestny AI’ Geoffrey Hinton odchodzi z Google i ostrzega przed zagrożeniami… theguardian.com
  • The Verge – Potężny model językowy AI Meta wyciekł do sieci — co teraz się stanie? theverge.com
  • Reuters – Alibaba wypuszcza model AI, który według firmy przewyższa DeepSeek reuters.com
  • Matthew Griffin (Bloomberg) – CIA buduje własną wersję ChatGPT fanaticalfuturist.com
  • TechCrunch – Anthropic: 5 miliardów dolarów i 4-letni plan, by konkurować z OpenAI techcrunch.com
  • MacRumors – Apple GPT: Co wiemy o pracach Apple nad generatywną AI macrumors.com
AI's first kill and why top experts predict our extinction.

Don't Miss

Eco-Tech Titans: How Global Companies Are Leading the Green Computing Revolution in 2025

Eko-technologiczni giganci: Jak globalne firmy przewodzą zielonej rewolucji komputerowej w 2025 roku

Wprowadzenie: Nowy wyścig w kierunku zielonej informatyki Zielona informatyka stała
Big Tech’s AI Blowout Fuels $500 Billion Stock Surge – Global Roundup (July 30–31, 2025)

Wybuch AI w Big Tech napędza wzrost akcji o 500 miliardów dolarów – Przegląd globalny (30–31 lipca 2025)

30 lipca 2025 – Wyniki finansowe w USA napędzają akcje