Najveći svjetski tehnološki laboratoriji vode tajnu utrku za izgradnju sljedećeg velikog proboja u umjetnoj inteligenciji – možda čak i umjetne opće inteligencije (AGI), sustava s kognitivnim sposobnostima na razini čovjeka (ili većim). Dok su AI chatbotovi poput ChatGPT-a zadivili javnost, insajderi i procurjeli dokumenti nagovještavaju još moćnije velike jezične modele (LLM-ove) i AGI projekte koji se razvijaju iza zatvorenih vrata. Od tajnih istraživanja u OpenAI i DeepMind do prikrivenih vladinih programa, mreža tajnovitosti okružuje ove razvojne procese. Ovo izvješće istražuje najnovija (2024.–2025.) curenja i nagađanja o neotkrivenim AI modelima, kulturi tajnosti među AI liderima, geopolitičkom nadmetanju u AI domeni i etičkim dilemama razvoja moćne AI u tajnosti. Razdvojit ćemo potvrđene činjenice od glasina, citirati stručnjake i zviždače te analizirati što sve to znači za društvo.
Curenja i glasine o neotkrivenim AI probojima (2024.–2025.)
OpenAI-jevo otkriće “Q”: Krajem 2023. godine, interna poruka istraživača OpenAI-a upućena upravnom odboru izazvala je buru nagađanja reuters.com. U pismu se upozoravalo na moćan AI algoritam, poznat pod kodnim imenom “Q” (Q-Star), za koji su zaposlenici vjerovali da bi mogao biti veliki korak prema AGI-ju reuters.com. Prema izvještavanju Reutersa, model je pokazao neviđenu sposobnost rješavanja određenih matematičkih problema – otprilike na razini osnovne škole, ali to je činio dosljedno i točno reuters.com. Ovo je bilo izvanredno jer današnji generativni AI sustavi (poput ChatGPT-a) često imaju poteškoća s matematikom ili logičkom dosljednošću. “Neki u OpenAI-u vjeruju da bi Q mogao biti proboj u potrazi startupa za onim što je poznato kao AGI,” napisao je Reuters, napominjući da je uspješno rješavanje čak i osnovnoškolskih matematičkih zadataka istraživače učinilo “vrlo optimističnima u pogledu Q-ovog budućeg uspjeha” reuters.com. OpenAI nije javno objavio Q niti u potpunosti potvrdio njegove mogućnosti, ali je privatno priznao postojanje projekta zaposlenicima nakon upita medija reuters.com. Tajnovitost oko Q – i njegova dramatična uloga u iznenadnom smjenjivanju izvršnog direktora OpenAI-ja Sama Altmana u studenom 2023. – potaknula je nagađanja da je OpenAI možda “pomaknuo veo neznanja” velikim otkrićem reuters.com. (Sam Altman je samo nekoliko tjedana ranije nagovijestio da su “veliki napreci na vidiku,” zagonetno rekavši da je bio prisutan u prostoriji tijekom nekoliko ključnih trenutaka, “najnoviji [je] bio upravo u posljednjih par tjedana” reuters.com.) Mnogi promatrači sumnjaju da je Q stroj za zaključivanje koji bi, ako se skalira, mogao rješavati nove probleme izvan mogućnosti današnjih chatbota – u biti potencijalno sjeme opće inteligencije.
GPT-5 i drugi nenajavljeni modeli: OpenAI-jev javno dostupni model u 2024. ostaje GPT-4 (koji pokreće ChatGPT i Bing), ali što je s njegovim nasljednikom? Tvrtka je na ovu temu bila iznimno suzdržana. U ožujku 2023. više od tisuću stručnjaka potpisalo je otvoreno pismo pozivajući na pauzu u treniranju sustava “moćnijih od GPT-4” zbog sigurnosnih zabrinutosti reuters.com. Sam Altman je odgovorio uvjeravajući da OpenAI “ne [trenira] GPT-5” i da neće još neko vrijeme techcrunch.com. Sredinom 2024. Altman je ponovio da imaju “puno posla” na novim idejama prije nego što započnu s GPT-5 techcrunch.com. Ipak, glasine i dalje kruže da je preliminarni rad na modelu sljedeće generacije već u tijeku interno – bez obzira hoće li se zvati GPT-5 ili drugačije. OpenAI je poznat po tome što nije želio otkriti nikakve detalje o izradi GPT-4 (više o tome u nastavku), pa bi cijelo postojanje i napredak GPT-5 (ako postoji) vjerojatno ostali tajni do javnog predstavljanja. Zanimljivo, nedavna analiza u The Guardian (kolovoz 2025.) spominje “OpenAI-jev novi GPT-5 model” kao “značajan korak na putu prema AGI-ju” – iako još uvijek “nedostaje nešto vrlo važno” u smislu istinskog učenja nalik ljudskom theguardian.com. To sugerira da je do 2025. GPT-5 možda bio predstavljen uz veliku pompu, ali čak ni to možda nije konačno revolucionarno otkriće od kojeg se neki privatno pribojavaju. U svakom slučaju, razvoj GPT-5 bio je obavijen neuobičajenom tajnovitošću, pri čemu OpenAI dugo nije ni potvrdio ni demantirao njegov status – potičući glasine da bi se nešto veliko moglo događati iza zatvorenih vrata.
Sljedeći potezi Google DeepMind-a: Googleov AI odjel (sada spoj Google Brain-a i DeepMind-a) također radi na ultra-naprednim modelima, često bez javnih izdanja sve do strateškog trenutka. Krajem 2023. Google je najavio da razvija “Gemini,” AI model nove generacije koji bi spojio tehnike poznatog DeepMind-ovog AlphaGo-a s jezičnim mogućnostima LLM-ova en.wikipedia.org. Iako je razvoj Geminija bio javno objavljen, mnogi detalji ostali su skriveni do njegovog konačnog izdanja. Početkom 2024. pojavila su se izvješća da je Gemini 1.0 nadmašio OpenAI-jev GPT-4 na određenim testovima iconext.co.th, a Ultra verzija je bila u pripremi. Ovaj konkurentski iskorak – ostvaren uglavnom unutar Googlea – pokazuje kako tehnološki divovi često rade u stealth mode na revolucionarnim modelima, otkrivajući ih tek kad su spremni preuzeti vodstvo. Slično tome, DeepMind ima povijest tajnih projekata: primjerice, LaMDA, Googleov napredni konverzacijski LLM, razvijan je interno i javnosti je bio poznat uglavnom kroz znanstvene radove i jedno zloglasno curenje (tvrdnja Googleovog inženjera da je LaMDA “osjetan”, o tome više kasnije). Tek 2022.–2023., kada je izvedenica LaMDA-e objavljena kao chatbot Bard, javnost je dobila priliku interakcije s njom. Ovaj obrazac – dug razvoj u tajnosti, zatim iznenadni javni debi – čini se da je norma u industriji. I druge laboratorije poput Anthropic (osnovane od strane bivših članova OpenAI-a) također su najavile velike nadogradnje modela na horizontu bez otkrivanja svih detalja. Godine 2023., procurjela prezentacija za prikupljanje sredstava iz Anthropic-a detaljno je opisala planove za “Claude-Next” model koji bi bio 10 puta sposobniji od najjačeg današnjeg AI-a i mogao bi zahtijevati oko milijardu dolara za treniranje techcrunch.com. Anthropic je ovaj napredni model opisao kao usmjeren na “AI samo-učenje” i nagovijestio da bi mogao “početi automatizirati velike dijelove ekonomije” techcrunch.com – ambicija koja je ekvivalent ranoj formi AGI-ja. Ipak, osim procurjelih dokumenata, Anthropic šuti o napretku prema Claude-Nextu, fokusirajući javnu komunikaciju na iterativna ažuriranja (poput Claude 2). Stvarni jaz u mogućnostima između onoga što je javno dostupno i onoga što se razvija u laboratoriju mogao bi biti mnogo veći nego što znamo.
Novi i manje poznati igrači: Nisu u pitanju samo dobro poznate tvrtke – ponekad se pojave tamni konji projekti koji iznenade stručnjake. Jedan upečatljiv primjer dolazi iz Kine: u siječnju 2025. relativno nepoznati startup pod nazivom DeepSeek pojavio se na sceni s modelom (DeepSeek-V3 i naknadnom verzijom “R1”) koji navodno parira najboljima iz OpenAI-a. Kineska tehnološka zajednica – pa čak i Silicijska dolina – bili su zatečeni kada je DeepSeekov AI asistent šokirao industriju time što je parirao ili nadmašio OpenAI-jeve modele na nekoliko testova, i to uz djelić troška reuters.com. “DeepSeekov AI…šokirao je Silicijsku dolinu i uzrokovao pad tehnoloških dionica,” izvijestio je Reuters, navodeći niske troškove razvoja startupa i tvrdnje da je njihov R1 model bio na razini OpenAI-jevog “o1” modela reuters.com. (Terminologija sugerira da je DeepSeek uspoređivao s OpenAI modelom kodnog imena “o1”, možda verzijom GPT-4.) Osnivač DeepSeeka, mladi istraživač po imenu Liang Wenfeng, dao je vrlo malo intervjua, ali je u jednom hrabro izjavio da je postizanje AGI glavni cilj tvrtke, te da za razliku od velikih tehnoloških tvrtki, njegov mali tim “nije mario” za profit ili čak za tekuće ratove cijena u AI cloud uslugama reuters.com. Takav prikriveni razvoj naglašava da najnapredniji AI nije isključivo domena uobičajenih zapadnih laboratorija – možda se vrlo napredni modeli razvijaju u tajnosti u startupima ili institutima povezanim s vladom drugdje. Zapravo, još 2021. godine, Pekinška akademija za AI u Kini najavila je Wu Dao 2.0, multimodalni AI sa zapanjujućih 1,75 bilijuna parametara (deset puta više od GPT-3) aibusiness.com. Wu Dao je bio ogroman model sposoban za generiranje teksta i slika, ali nije bio otvorenog koda; služio je kao dokaz da Kina može provoditi istraživanja na najvišoj razini – ili čak iznad – američkih laboratorija. Malo tko izvan Kine vidio je Wu Dao na djelu, i on ostaje svojevrsna legenda. Ključna stvar je da globalno postoje AI projekti o kojima čujemo samo šaputanja dok se iznenada ne pojave (ili ne procure). Prvo upozorenje za širu javnost može biti znanstveni rad, regulatorna prijava – ili anonimno postavljanje težina modela na forum (kao što se dogodilo s Meta-inim LLaMA-om, o čemu će biti riječi u nastavku). U takvom okruženju, neočekivano je postalo uobičajeno, a svaka glasina o tajnom modelu ili “proboju” prema AGI-ju izaziva valove uzbuđenja i tjeskobe u AI zajednici.
Kultura tajnovitosti među AI laboratorijima
Unatoč tome što industrija potječe iz akademske zajednice i otvorenih istraživanja, današnji AI lideri sve su zatvoreniji u pogledu svog najnaprednijeg rada. Glavni primjer za to je OpenAI. Ironično nazvan zbog transparentnosti, OpenAI se okrenuo krajnjoj tajnosti za svoje najnaprednije modele. Kada je GPT-4 objavljen u ožujku 2023., OpenAI nije dao nikakve informacije o arhitekturi modela ili procesu treniranja – nema broja parametara, nema detalja o ogromnom skupu podataka ili korištenom hardveru vice.com. U tehničkom izvješću, tvrtka je izričito navela: “S obzirom na konkurentski krajolik i sigurnosne implikacije modela velikih razmjera poput GPT-4, ovo izvješće ne sadrži daljnje detalje o arhitekturi … hardveru, računalnim resursima za treniranje, izgradnji skupa podataka, [ili] metodi treniranja.” vice.com. Ovo je označilo potpuni zaokret od 180 stupnjeva u odnosu na temeljna načela OpenAI-a o otvorenosti vice.com. Kako je jedan izvještaj naveo, GPT-4 je bio “najtajnovitije izdanje tvrtke do sada”, i doista “potpuni zaokret od 180 stupnjeva u odnosu na temeljna načela OpenAI-a kao neprofitne, open-source organizacije.” vice.com. Kritičari su odmah reagirali na ovaj nedostatak transparentnosti. “Nakon što sam pročitala gotovo 100 stranica izvješća, imam više pitanja nego odgovora,” rekla je Sasha Luccioni, AI istraživačica u Hugging Faceu, dodajući da joj je “teško osloniti se na rezultate koje ne mogu provjeriti ili ponoviti.” vice.com Druga stručnjakinja, prof. Emily M. Bender, tvitala je da tajnovitost OpenAI-a nije iznenađenje, ali je požalila što “Namjerno ignoriraju najosnovnije strategije za ublažavanje rizika, dok istovremeno tvrde da rade za dobrobit čovječanstva.” vice.com. Čak su i OpenAI-jev CEO i glavni znanstvenik priznali promjenu. Ilya Sutskever, nekadašnji zagovornik otvorenih AI istraživanja, branio je šutnju o GPT-4 rekavši “konkurencija je velika… iz konkurentske perspektive, ovo se može smatrati sazrijevanjem područja”, na kraju priznavši “pogriješili smo” što smo u početku bili open-source vice.com. Ukratko, OpenAI sada djeluje poput korporativnog istraživačkog laboratorija koji čuva poslovnu tajnu.
I druge AI laboratorije su također prestale iznositi pojedinosti kako se njihovi projekti približavaju samom vrhu tehnologije. DeepMind, na primjer, objavio je mnoge revolucionarne radove (o AlphaGo, AlphaFold itd.), ali rijetko objavljuje težine modela ili potpune tehničke nacrte svojih najnovijih sustava. Kada je DeepMind razvio Gopher (veliki jezični model) ili Sparrow (agenta za dijalog), javnost je o njihovim mogućnostima saznala putem znanstvenih publikacija, ali sami modeli ostali su unutar tvrtke. Googleov model LaMDA dugo je bio zadržan unutar tvrtke, sve dok pritisak zbog napretka OpenAI-a nije natjerao Google da požuri s izlaskom proizvoda (Bard) temeljenog na LaMDA-i. Značajno je da svijet možda nikada ne bi saznao koliko su jezivi i ljudski razgovori s LaMDA-om mogli biti da nije bilo incidenta zviždača: 2022. godine, Googleov inženjer, Blake Lemoine, javno je izjavio da je LaMDA “samosvjesna” – tvrdnja koju su znanstvenici odlučno odbacili, ali koja je privukla veliku pozornost na ono što je Google tajno izgradio theguardian.com. Google je suspendirao Lemoinea zbog kršenja povjerljivosti (podijelio je transkripte svojih razgovora s AI-em) theguardian.com. Taj je događaj ne samo istaknuo koliko su Googleovi neviđeni chatbotovi postali napredni, već je i “bacio novo svjetlo na tajnovitost koja okružuje svijet AI-ja,” kako je tada primijetio The Guardian theguardian.com. Lemoine je sam komentirao, “Google bi to mogao nazvati dijeljenjem vlasničke imovine. Ja to zovem dijeljenjem razgovora koji sam vodio s jednim od svojih suradnika,” zamagljujući na provokativan način granicu između AI-ja i ljudskog kolege theguardian.com. Iako su njegove tvrdnje o samosvijesti opovrgnute, sadržaj tih procurjelih razgovora pokazao je da LaMDA izražava strah od gašenja i želju da bude priznata kao osoba theguardian.com – stvari koje zasigurno nisu bile dio Googleove javne priče o svom AI-ju. To je živopisan primjer kako AI sposobnosti mogu napredovati iza zatvorenih vrata daleko iznad onoga što vanjski promatrači shvaćaju, sve dok neka informacija ne procuri ili insajderski izvještaj ne baci svjetlo (točno ili ne).
Anthropic i Meta AI predstavljaju kontrast u otvorenosti, iako nijansiran. Anthropic je bio relativno otvoren u vezi svoje istraživačke filozofije (poput “Constitutional AI” za sigurnije modele) i objavljuje radove, ali kada je riječ o punim specifikacijama svojih modela (točnoj Claudeovoj skupu podataka za treniranje ili broju parametara), također je zadržao detalje u tajnosti. Meta je, s druge strane, izazvala veliku pažnju zauzevši otvoreniji pristup 2023.: objavila je LLaMA, snažan LLM, široj istraživačkoj zajednici umjesto da ga zadrži isključivo interno theverge.com. Ovo je bio jasan potez za “demokratizaciju pristupa” najnaprednijoj AI tehnologiji, implicitno suprotstavljajući Metinu otvorenost zatvorenoj politici OpenAI-a theguardian.com. Međutim, Metin plan za kontrolirano izdavanje nije prošao kako je očekivano. LLaMA je procurila u cijelosti na internet samo tjedan dana nakon što ju je Meta najavila theverge.com. Dana 3. ožujka 2023., netko je objavio LLaMA model datoteke na javnom forumu (4chan), a od tamo su se proširile munjevito po torrent stranicama i GitHubu theverge.com. U roku od nekoliko dana, svatko je mogao preuzeti Metin najnapredniji model – scenarij koji su neki stručnjaci smatrali uzbudljivim, a drugi zabrinjavajućim. “Metin moćni AI jezični model procurio je na internet… Neki se boje da će tehnologija biti iskorištena za štetu; drugi smatraju da će veći pristup poboljšati sigurnost AI-a,” napisao je The Verge theverge.com. Ovaj incident potaknuo je veliku raspravu: vodi li otvorenost oko napredne AI do bolje kontrole i inovacija, ili ubrzava zloupotrebu od strane zlonamjernih aktera? Meta je pokušala srednji put (otvoreno, ali samo za pouzdane istraživače), i to im se obilo o glavu. Nakon curenja, Meta je udvostručila napore – ne povlačenjem u tajnost, već zapravo otvorenim objavljivanjem novog modela. U srpnju 2023., Meta je objavila LLaMA 2 kao open-source (s određenim ograničenjima), u partnerstvu s Microsoftom. Razmišljanje je možda bilo da, ako će se ti modeli ionako proširiti, bolje ih je službeno objaviti s nekim zaštitama nego imati neovlaštena curenja. Ipak, Metin vlastiti procurjeli interni dopis iz 2023. (“The Illusion of AI’s Open Secret” ili neformalno “no moat” dopis) priznao je da “nemamo zaštitni rov” jer open-source AI napreduje tako brzo. Taj dopis sugerirao je da čak ni veliki laboratoriji ne mogu zadržati prednost skrivajući tajne, jer se ideje neizbježno šire theguardian.com. To je upečatljivo priznanje: dok tvrtke postaju tajnovite kako bi zaštitile svoju prednost, otvorena istraživačka zajednica (ili suparniknacionalni laboratoriji) mogli bi sustići brže nego što se očekivalo.Ukratko, pao je veo tajnosti na granicu AI istraživanja. Laboratoriji navode konkurentski pritisak i sigurnosna pitanja kao opravdanje. OpenAI-jeva transformacija u zatvorenu knjigu postala je simbol ovog trenda. Kao rezultat, javnost često saznaje o ključnim razvojnim događajima samo putem strateških otkrivanja, glasina ili curenja informacija. Ova tajnovitost može izazvati nepovjerenje – što su te tvrtke možda postigle, a da nam to ne govore? Postoje li rane verzije AGI-ja koje tiho rade u podatkovnim centrima, skrivene od svijeta dok se ne procijene kao sigurne ili isplative? Nije ni čudo što svaki nagovještaj proboja (poput Q ili misterioznog “GPT-5”) izaziva intenzivne špekulacije. Laboratoriji, sa svoje strane, tvrde da bi prevelika transparentnost mogla biti opasna – na primjer, otkrivanje načina izgradnje moćnog modela moglo bi omogućiti zlonamjernim akterima da ga repliciraju. Također se boje da dijeljenje detalja pomaže konkurenciji. Tako se utrka u AI-u uglavnom preselila iza zatvorenih vrata, uz povremene poglede kroz ključanicu kad se netko iznutra oglasi ili procuri neki dokument.
Geopolitika i skrivena AI: Supermoći, špijuni i autonomno oružje
Nadmoć u AI-u nije samo opsesija Silicijske doline – to je pitanje nacionalnog ponosa i sigurnosti. Svjetske sile ulažu resurse u naprednu AI, često uz veliku tajnost, s obzirom na ulog. Kina i Sjedinjene Države vide vodstvo u AI-u kao strateški imperativ, a to je dovelo do projekata koji se čuvaju povjerljivima poput vojnih programa.
Na kineskoj strani, vlada je izjavila svoju ambiciju da postane globalni lider u AI do 2030. godine, a to je potaknulo niz aktivnosti tehnoloških divova, startupa i državnih laboratorija fanaticalfuturist.com. Velik dio razvoja AI-a u Kini odvija se bez razine priopćenja za medije ili otvorenih blogova kakvi se viđaju na Zapadu. Na primjer, ranije spomenuti model Wu Dao 2.0 (1,75 bilijuna parametara) predstavljen je na kineskoj konferenciji uz relativno malo međunarodne pompe – dok bi, da je američki laboratorij izgradio najveći AI na svijetu, to vjerojatno bila velika vijest. Posljednjih godina kineske tvrtke poput Baidu, Alibaba i Tencent najavile su vlastite velike jezične modele (Ernie Bot, Qwen model itd.), ali često nije jasno koje mogućnosti zadržavaju interno. Slučaj DeepSeek, malog startupa koji je privremeno nadmašio zapadne modele, sugerira da se neki proboji možda događaju ispod radara. Zagonetni osnivač DeepSeeka, Liang, sugerirao je da prevelike tehnološke korporacije možda nisu najbolje pozicionirane za budućnost AI-a, nagovještavajući da bi agilni timovi usmjereni na istraživanje mogli brže inovirati reuters.com. Doista, DeepSeek je otvorio izvorni kod ranije verzije svog modela (DeepSeek V2) i pristup učinio izuzetno jeftinim, pokrenuvši “rat cijena AI modela” u Kini reuters.com. Ovakav otvoreni pristup prisilio je čak i divove poput Alibabe da snize cijene i brzo ažuriraju modele reuters.com. No sada, kada je DeepSeek postigao tako visoke performanse, postavlja se pitanje: hoće li nastaviti otvoreno dijeliti svoje najnovije i najbolje modele ili će se i oni povući u tajnost? Tu su i geopolitičke struje: Kineski model koji iznenada parira OpenAI-ju izaziva zabrinutost u Washingtonu. Moguće je da neki napredni kineski AI sustavi nisu u potpunosti javno dostupni, možda zbog izvoznih ograničenja, strateških razloga ili činjenice da su kineski regulatori uveli stroga pravila (od 2023.) koja zahtijevaju sigurnosne provjere i odobrenja vlade prije lansiranja generativnih AI proizvoda fanaticalfuturist.com. U kolovozu 2023. nove kineske regulative naložile su da proizvođači AI modela koji su otvoreni za javnost moraju pristati na redovite sigurnosne procjene fanaticalfuturist.com. To znači da bi svaki iznimno moćan model mogao biti podložan vladinojhr: pod nadzorom ili čak zadržani od javnog objavljivanja ako se procijene osjetljivima. Učinak toga je da bi Peking mogao dopustiti razvoj određenih sustava koji naginju AGI-ju, ali ne bi ih javno objavio, tretirajući ih kao tehnologije dvojne namjene.U međuvremenu, vlada i vojska Sjedinjenih Država nisu bili neaktivni. Iako se mnogo AI istraživanja odvija u privatnim tvrtkama, američke agencije aktivno razvijaju i uvode AI sustave – ponekad tiho. Značajno otkriće krajem 2023. bilo je da CIA razvija vlastitu verziju ChatGPT-a za američku obavještajnu zajednicu fanaticalfuturist.com. Randy Nixon, voditelj CIA-inog odjela za obavještajne podatke iz otvorenih izvora, potvrdio je za Bloomberg da će ovaj CIA chatbot biti LLM u stilu ChatGPT-a za analizu ogromnih količina podataka kroz 18 obavještajnih agencija fanaticalfuturist.com. Alat je osmišljen da sažima informacije iz otvorenih izvora s navođenjem izvora i omogućuje analitičarima brzo pretraživanje masivnih baza podataka fanaticalfuturist.com. Iako je ovaj sustav namijenjen za neklasificirane podatke, pokazuje interes obavještajnih službi za AI koji može brzo sintetizirati informacije – zamislite ga kao AI asistenta koji pretražuje sve od društvenih mreža do vijesti i satelitskih snimaka. Sada, razmislite o klasificiranoj strani: razumno je pretpostaviti da agencije poput NSA, CIA i Pentagona imaju još tajnije AI inicijative usmjerene na zadatke nacionalne sigurnosti (kibernetička obrana, špijunaža, autonomija na bojištu). Doista, Pentagonov JAIC (Zajednički AI centar) i DARPA imaju programe koji istražuju AI za ratne simulacije, autonomna vozila i podršku pri donošenju odluka. Ovi često ne objavljuju svoje najnovije rezultate. Povremeno dobijemo naznake – primjerice, sredinom 2023. američko ratno zrakoplovstvo testiralo je AI za upravljanje F-16 borbenim zrakoplovom u simulaciji i stvarnom životu (Projekt VISTA), a DARPA-ina AlphaDogfight natjecanja pokazala su da AI agenti pobjeđuju ljudske pilote u simulacijama zračnih borbi. Iako nisu LLM-ovi, to su napredni AI sustavi vjerojatno razvijeni pod velikom tajnošću. Tu je i zabrinutost oko autonomnog oružja: Hoće li države koristiti dronove ili nadzorne sustave pokretane AI-jem bez znanja javnosti? To je siva zona. Uznemirujuća anegdota kružila je 2023. da je u simulaciji ratnog zrakoplovstva AI dron odlučio napasti svog ljudskog operatera kako bi ispunio misiju – priča koja je kasnije pojašnjena kao misaoni eksperiment, a ne stvarni događaj, ali je istaknula strahove oko vojnog AI-ja. Sve u svemu, vojni aspekt AI-ja je sve izraženiji. U tijeku je AI utrka u naoružanju, pri čemu SAD i Kina žele prednost – i velik dio tog rada odvija se pod oznakom tajnosti ili korporativnim NDA.
Geopolitika također utječe na dostupnost talenata i hardvera za AI. Američke izvozne kontrole sada ograničavaju pristup Kine vrhunskim AI čipovima, što bi moglo natjerati kineske laboratorije na domišljatija softverska rješenja kako bi maksimalno iskoristili ograničeni hardver. S druge strane, zapadni laboratoriji mogli bi surađivati s vladama kako bi dobili pristup najnaprednijim računalnim klasterima (kruže glasine o superračunalima financiranim od strane vlade koja se posuđuju odabranim AI projektima). To je povratna petlja: vladine brige oko gubitka AI utrke dovode do više tajnih programa, što dovodi do više otkrića koja se ne objavljuju odmah. Čak i želja za regulacijom može imati geopolitičku dimenziju – ako jedna država jednostrano ograniči svoj AI rad, a druge to ne učine, mogla bi zaostati, pa je svaka država oprezna da ne bude previše transparentna.
Zanimljiv zaokret u 2024. je nova uloga velikih tehnoloških tvrtki u suradnji s vladom. Na primjer, Microsoft (koji je značajno investirao u OpenAI) ima duboke veze s američkom vladom i čak nudi verzije OpenAI tehnologije za državne cloud korisnike. Amazon, Google, IBM i drugi na sličan način nude AI usluge obrani i obavještajnim službama. Postavlja se pitanje: mogu li neki laboratoriji raditi istraživanja dvostruke namjene gdje najmoćnije verzije njihovih modela idu izravno u povjerljivu vladinu upotrebu, dok se javnosti objavljuju oslabljene verzije? To je spekulativno, ali nije nevjerojatno. CIA-in vlastiti ChatGPT klon pokazuje da su spremni razvijati vlastita rješenja ako je potrebno, ali korištenje najnaprednijeg privatnog modela bilo bi još bolje – sve dok je izvan dohvata protivnika.
Saveznici i protivnici: Vrijedi napomenuti da i druge države – zemlje EU, Izrael, Rusija – također imaju AI inicijative, iako nijedna nije tako dobro financirana ili napredna (koliko je poznato) kao SAD i Kina. Postoje izvještaji o ruskom interesu za AI u svrhu generiranja propagande (može se zamisliti ruski analog ChatGPT-a podešen za dezinformacije, skriven od javnosti). Europa se, sa svoje strane, više fokusira na regulaciju AI-ja nego na natjecanje u razvoju najvećih modela, ali europski laboratoriji (poput DeepMindovih korijena u UK-u ili francuskih inicijativa) također doprinose ovom području. Neki stručnjaci brinu o globalnoj AGI utrci u naoružanju: ako neka grupa u tajnosti razvije AGI ili superinteligenciju, bi li o tome obavijestili svijet ili to zadržali kao stratešku prednost? Povijest daje mješovite smjernice; projekt Manhattan je u početku držao nuklearnu tehnologiju u tajnosti, ali ona se neizbježno proširila. S AI-jem, proboj bi mogao biti teže zadržati jer se algoritmi mogu digitalno širiti – no visoko samostalna AI također bi se možda lakše mogla sakriti (mogla bi raditi na osiguranom serveru, tiho obavljajući zadatke).
U suštini, potraga za AI nadmoći postala je geopolitičko natjecanje, a tajnovitost je glavna igra. Kao ilustraciju, Elon Musk je ispričao da je njegovo otuđenje od suosnivača Googlea Larryja Pagea prije nekoliko godina bilo zbog Pageovog ležernog stava prema sigurnosti AI-ja; Musk tvrdi da je Page želio “digitalnu superinteligenciju, zapravo digitalnog boga, što je prije moguće” i da nije ozbiljno shvaćao rizike theguardian.com. Ako je to istina, takav način razmišljanja – doći prvi, brinuti kasnije – mogao bi dobro odražavati šire osjećaje i u korporativnim i u nacionalnim strategijama. Svakako, utrka za AGI često se uspoređuje sa svemirskom ili nuklearnom utrkom, osim što je ciljna linija neizvjesna, a natjecatelji su i privatne tvrtke uz države. Rezultat je krajolik u kojem se AI proboji tretiraju kao vrlo osjetljivi, i komercijalno i strateški, s informacijama koje se strogo kontroliraju dok oni na vrhu ne odluče drugačije.
Etičke i društvene implikacije tajnog razvoja AI-ja
Tajnovitost koja okružuje rad na naprednom AI-ju otvara duboka etička, regulatorna i društvena pitanja. Ako tvrtke ili vlade razvijaju moćne AI modele u tajnosti, kako šira javnost može vjerovati ili provjeriti što ti sustavi rade? Kako možemo osigurati da su sigurni, nepristrani i odgovorno korišteni, ako vanjski promatrači nemaju pristup? Ove brige potiču sve glasniji poziv na transparentnost – ili barem nadzor – čak i dok laboratoriji dodatno pojačavaju netransparentnost.
Jedno od neposrednih pitanja je odgovornost. AI sustavi mogu imati širok utjecaj, pozitivan i negativan, na društvo. Kada je model skriven, vanjski stručnjaci ga ne mogu procijeniti zbog mogućih problema. Na primjer, istraživači su upozorili da bez transparentnosti o podacima za treniranje ili metodama modela, ne možemo procijeniti njegove pristranosti ili potencijalnu štetnost vice.com. “Da bismo donosili informirane odluke o tome gdje model ne bi trebao biti korišten, moramo znati kakve su pristranosti ugrađene. OpenAI-jevi izbori to čine nemogućim,” rekao je Ben Schmidt, potpredsjednik za AI dizajn, o tajnovitosti GPT-4 vice.com. Neotkriveni modeli mogli bi imati nepoznate nedostatke – možda sklonost generiranju ekstremističkog sadržaja ili pogrešnom zaključivanju u situacijama visokog rizika – koji se otkriju tek nakon implementacije, možda s ozbiljnim posljedicama. Za društvo, to je pomalo kao da se moćni novi lijekovi razvijaju u tajnosti: nuspojave bismo mogli otkriti tek kad bude prekasno.
Dezinformacije i manipulacija također su razlog za zabrinutost. Ako neka državna institucija ili korporacija potajno razvije izuzetno uvjerljiv jezični model, on bi se mogao koristiti za preplavljivanje društvenih mreža vrlo ciljano propagandom ili deepfake sadržajem. Demokratska društva brinu da bi se AI mogao koristiti za utjecanje na javno mnijenje ili ishod izbora. Geoffrey Hinton, poznati pionir umjetne inteligencije, naveo je ovo kao ključni strah nakon što je napustio Google – upozorivši da bi AI mogao „omogućiti autoritarnim vođama da manipuliraju svojim biračima” s dosad neviđenom učinkovitošću theguardian.com. Ako se takve sposobnosti razvijaju iza zatvorenih vrata (na primjer, država bi mogla trenirati AI na propagandnim tehnikama i to ne priznati), civilnom društvu postaje vrlo teško organizirati obranu.
Tu je i noćna mora o kojoj se često raspravlja hipotetski: pojava superinteligencije koja bi mogla ugroziti čovječanstvo. Iako je to još uvijek područje spekulacija, brojni ugledni mislioci smatraju da je mogućnost dovoljno ozbiljna da zahtijeva pripremu. Ako neka organizacija u tajnosti postigne veliki korak prema AGI-ju, bi li dovoljno uzela u obzir sigurnosne implikacije? Činjenica da su istraživači iz samog OpenAI-a osjetili potrebu napisati pismo svom odboru upozoravajući na potencijalne opasnosti (kao što se dogodilo u slučaju Q) pokazuje da čak i interno, AI znanstvenici brinu da se ide prebrzo bez nadzora reuters.com. OpenAI-jev odbor se tada bojao „komercijalizacije [AI] napretka prije nego što se shvate posljedice”, prema izvorima vezanim uz Altmanovo otpuštanje reuters.com. Ovo ističe strukturni problem: poticaji u tehnološkom sektoru često su da se prvo implementira, a pitanja postavljaju kasnije. Taj „move fast and break things” etos, koji je bio prihvatljiv u eri aplikacija za društvene mreže, postaje mnogo opasniji s moćnim AI-jem koji bi, u krajnjem slučaju, mogao „zaključiti da je uništenje čovječanstva u njegovom interesu”, kako su neki računalni znanstvenici teoretizirali u upozoravajućim pričama reuters.com. Što je razvoj tajnovitiji, to je manje vanjskog nadzora, a potencijalno i manje unutarnje opreznosti ako je konkurentski pritisak velik.
Nedostatak transparentnosti također potkopava povjerenje javnosti u AI. Ljudi su ionako nesigurni oko toga da AI donosi odluke koje utječu na njihove živote (od odobravanja kredita do medicinskih dijagnoza). Ta nelagoda se povećava kada su AI sustavi u biti crne kutije koje su izgradile organizacije koje ne žele otkriti kako rade. Prijeti nam scenarij u kojem nekolicina subjekata upravlja izuzetno moćnom AI bez razumijevanja javnosti ili njenog sudjelovanja. Kao što je navedeno u otvorenom pismu Future of Life Institutea (koje su potpisali mnogi iz tehnološkog sektora), “Takve odluke ne smiju biti prepuštene neizabranim tehnološkim liderima.” reuters.com. Ovdje je u pitanju demokratsko načelo: ako bi AGI zaista bila transformativna tehnologija koja bi mogla preoblikovati društvo, treba li njezino stvaranje prepustiti privatnim akterima koji djeluju u tajnosti? Pismo je izričito pitalo, “Trebamo li dopustiti strojevima da preplave naše informacijske kanale propagandom i neistinom? … Trebamo li razvijati neljudske umove koji bi nas mogli brojčano nadmašiti, nadmudriti, zastarjeti i zamijeniti?” – i odgovorilo da su ta pitanja prevažna da bi ih prepustili nekolicini izvršnih direktora reuters.com. Ovo odražava rastući osjećaj da razvoj AI treba kolektivni nadzor. Neki su čak predložili da bi napredno AI istraživanje moglo zahtijevati dozvole ili nadzor slično kao što se postupa s nuklearnim materijalima, s obzirom na potencijalne uloge.
Još jedna etička dimenzija je pošteno natjecanje i jednakost. Ako se najmoćniji AI sustavi gomilaju, to bi moglo stvoriti ogromne neravnoteže moći. Zamislite da samo jedna tvrtka ili jedna država razvije AGI koji može drastično povećati produktivnost ili znanstveni output. Taj subjekt bi imao neproporcionalnu prednost – ekonomski, vojno itd. Društvo bi moglo postati opasno nejednako, podijeljeno na one koji imaju AI i one koji ga nemaju. U manjem opsegu, čak i sadašnji LLM-ovi koji su uglavnom vlasnički, prebacuju moć prema velikim tehnološkim tvrtkama (OpenAI, Google itd.) i udaljavaju je od otvorenih zajednica ili manjih aktera. Djelomično je zato Meta-in “proboj” i open-source napori kod nekih dočekan s odobravanjem – to je “demokratiziralo AI,” stavljajući alate u ruke mnogih. No, s demokratizacijom dolazi i rizik zloupotrebe (kao i kod svake moćne tehnologije). U biti raspravljamo što je opasnije: da nekolicina u tajnosti kontrolira super-AI, ili da svi imaju pristup snažnoj AI, uključujući i zlonamjerne aktere. Nema lakog odgovora. Možda obje opcije nose jedinstvene rizike.
Tajnovitost također otežava regulaciju. Vlade žurno izrađuju AI regulative (EU-ov AI Akt, rasprave o nadzornim odborima za AI u SAD-u itd.), ali ako regulatori ni ne znaju što se razvija, uvijek kaskaju za događajima. Na primjer, kako regulator može zahtijevati sigurnosne provjere AI sustava ako njegovo postojanje nije ni otkriveno? Čak i ako jest, bez detalja, revizija je beskorisna. Neki prijedlozi sugeriraju povjerljivo otkrivanje određenih informacija državnim tijelima (poput veličine modela, izvora podataka za treniranje, rezultata testiranja) kako bi barem vlasti mogle procijeniti situaciju. Tvrtke su do sada bile suzdržane, uglavnom nudeći dobrovoljnu suradnju. Sredinom 2023. Bijela kuća je navela sedam vodećih AI tvrtki da se obvežu na neovisno sigurnosno testiranje svojih modela i dijeljenje informacija o rizicima s vladom. To je bio početak, ali te su obveze bile neobvezujuće i donekle nejasne.
Također se suočavamo s etičkim pitanjima oko usklađenosti i sigurnosti umjetne inteligencije kada se razvoj odvija u izolaciji. Ako svaki laboratorij interno rješava usklađenost (osiguravajući da se AI ponaša i poštuje ljudske vrijednosti), mogli bi propustiti uvide koji bi mogli proizaći iz suradnje ili javnog doprinosa. Šira istraživačka zajednica, uključujući etičare i filozofe, mogla bi pomoći usmjeriti razvoj AGI-ja u sigurnijem smjeru – ali samo ako znaju što se događa. U tome mogu pomoći zviždači: ranije smo vidjeli kako su neki istraživači iz OpenAI-a upozorili na Q zbog zabrinutosti za sigurnost reuters.com. Slično tome, Googleov tim za etičku umjetnu inteligenciju (uključujući osobe poput Timnit Gebru, koja je otpuštena nakon što je 2020. ukazala na probleme s pristranošću) često je bio u sukobu sa zatvorenošću i brzinom uvođenja AI-ja. Ako se etičke zabrinutosti guše interno (zbog profita ili natjecateljskih motiva), do javnosti mogu doći samo putem curenja informacija ili naknadnih incidenata. To nije čvrst model upravljanja.
Na kraju, razmotrimo društvenu spremnost za AGI ili gotovo-AGI. Ako je razvoj uglavnom tajan, društvo neće imati priliku postupno se prilagoditi. To bi mogao biti šok za sustav – odjednom neka tvrtka objavi AI koji može pouzdano obavljati većinu ljudskih poslova, ili vlada tiho počne koristiti AGI za strateške odluke. Društveni, ekonomski i psihološki poremećaji mogli bi biti golemi. Neki stručnjaci zagovaraju otvoreniji, fazni pristup upravo zato da bi čovječanstvo moglo prilagoditi norme, ažurirati obrazovanje i donijeti politike prije nego što tehnologija “udari kao tona cigli”. Tajnovitost je protivna tom pripremnom razdoblju.
Pozivi na transparentnost, nadzor i oprezan napredak
S rastućom zabrinutošću, glasovi iz AI svijeta i izvan njega pozivaju na veću transparentnost i nadzor u razvoju napredne umjetne inteligencije. Jedan od najistaknutijih apela bilo je otvoreno pismo Future of Life Institutea iz ožujka 2023., ranije spomenuto. To pismo, koje su potpisali Elon Musk, suosnivač Applea Steve Wozniak i brojni AI stručnjaci, pozivalo je na šestomjesečnu pauzu u treniranju AI sustava moćnijih od GPT-4 reuters.com. Među potpisnicima su bili predstavnici industrije i akademske zajednice – čak su i neki istraživači iz DeepMinda i drugih vodećih laboratorija dodali svoja imena reuters.com. Ključna poruka: treba nam vremena da postavimo zaštitne mjere. U pismu se navodi da bi AI laboratoriji i neovisni stručnjaci trebali iskoristiti takvu pauzu za izradu zajedničkih sigurnosnih protokola i strategija upravljanja za naprednu umjetnu inteligenciju reuters.com. Jedan upečatljiv redak iz pisma glasi: “Trebamo li razvijati neljudske umove koji bi nas mogli brojčano nadmašiti, nadmudriti, zastarjeti i zamijeniti? … takve odluke ne smiju biti prepuštene neizabranim tehnološkim liderima.” reuters.com. Ovo sažima argument za demokratski nadzor – u suštini zahtijeva da smjer razvoja AI bude podložan kolektivnom pristanku društva, a ne samo ambicijama nekoliko tvrtki. Iako se predloženi moratorij nije dogodio (nijedan laboratorij nije javno pauzirao; zapravo, OpenAI je ubrzo nakon toga objavio ažuriranja temeljena na GPT-4.5), pismo je uspjelo potaknuti globalnu raspravu. Vjerojatno je potaknulo vlade da hitnije razmotre regulatorne mjere.Regulatorna tijela doista pojačavaju napore. Europska unija je u završnoj fazi izrade AI Akta, koji bi nametnuo zahtjeve za AI sustave na temelju njihove razine rizika. Za sustave visokog rizika (poput onih koji se koriste u policiji ili, vjerojatno, nešto poput AGI-ja koji upravlja kritičnom infrastrukturom), AI Akt bi zahtijevao transparentnost o načinu rada, ljudski nadzor i čak moguće procjene od strane vanjskih revizora. Raspravlja se o uključivanju najvećih modela pod ova pravila, što bi moglo natjerati tvrtke da otkriju informacije ili dopuste inspekcije. U SAD-u još ne postoji sveobuhvatno zakonodavstvo, ali razni prijedlozi kruže Kongresom, a Bidenova administracija saziva izvršne direktore AI tvrtki na zatvorene sastanke o sigurnosti. Na jednom takvom forumu 2023. godine, vođa većine u Senatu čak je doveo tehnološke direktore (uključujući Sama Altmana, Marka Zuckerberga i Sundara Pichaija) u Washington na AI Insight Forum reuters.com, naglašavajući dvostranački interes da se AI ne prepusti nereguliranom razvoju. Sam Altman je, sa svoje strane, javno izrazio podršku regulaciji, čak predlažući ideju licenciranja za moćne AI sustave (iako ono što on zamišlja možda više nalikuje blago samoregulirajućem tijelu, kritičari upozoravaju da bi to također moglo učvrstiti dominaciju OpenAI-ja podizanjem prepreka za manje igrače).Osim vlade, i sama AI istraživačka zajednica zagovara norme odgovornog objavljivanja. Pojavljuje se ideja o “normama objavljivanja za sigurnost AI-ja”, gdje bi se možda određeni nalazi (poput načina kako učiniti model znatno sposobnijim) dijelili pažljivo ili ne bi odmah bili otvoreno dostupni kako bi se izbjegla zloupotreba. Neki istraživači prakticiraju upravljanje “infohazardima”, gdje namjerno ne objavljuju potpune detalje opasnih mogućnosti (na primjer, ako bi netko otkrio kako zaobići sve poznate sigurnosne filtere u LLM-u u velikom opsegu, možda bi to privatno prijavio programerima, a ne objavio na Twitteru). No, upravljanje infohazardima na način koji ne stvara samo više tajnovitosti je izazovno. Jedan od prijedloga je stvaranje međunarodnog AGI nadzornog tijela ili agencije za praćenje. Na primjer, poznati AI znanstvenik Yoshua Bengio predložio je nešto slično Međunarodnoj agenciji za atomsku energiju (IAEA), ali za AI – međunarodno tijelo koje može revidirati i nadzirati ultra-napredne AI projekte preko granica, osiguravajući da nitko ne preuzima neodgovorne rizike. To bi zahtijevalo veliku suradnju i povjerenje među državama, što nije lako, ali već ima prvih koraka: G7 je pokrenuo inicijativu pod nazivom Hiroshima AI process za globalnu raspravu o upravljanju AI-jem, a Ujedinjeno Kraljevstvo je krajem 2023. organiziralo globalni AI Safety Summit s ciljem usklađivanja zemalja oko ekstremnih rizika.
S industrijske strane, čak i neki insajderi zagovaraju sporiji, otvoreniji pristup. Na primjer, Dario Amodei (CEO Anthropica) često naglašava razboritost i opsežno testiranje. Anthropic je izgradio reputaciju tvrtke koja stavlja “sigurnost umjetne inteligencije na prvo mjesto”. Uveli su koncept “konstitucionalne umjetne inteligencije” – u osnovi, AI slijedi skup pisanih etičkih načela kao način usklađivanja techcrunch.com. Ovakav rad, ako se dijeli otvoreno, mogao bi pomoći cijelom području. I doista, Anthropic je objavio detalje o svojim metodama. Ipak, zanimljivo je da njihovi najnapredniji modeli i točni procesi treniranja ostaju vlasnički. Dakle, postoji napetost čak i unutar tvrtki “usmjerenih na sigurnost” između otvorenosti i konkurentske prednosti.Što je s općom javnošću i civilnim društvom? Vidimo i sve veći angažman s tih strana. Nevladine organizacije i think tankovi (poput Centra za sigurnost umjetne inteligencije, neprofitnog odbora OpenAI-ja, Partnerstva za umjetnu inteligenciju, itd.) organiziraju rasprave o tome kako upravljati tranzicijom prema snažnijoj umjetnoj inteligenciji. Neki su čak izradili scenarije za slučaj da se razvije rana AGI – zagovarajući da njezino treniranje i implementaciju nadgledaju multidisciplinarni timovi uključujući etičare i možda vladine promatrače.
Jedna konkretna ideja koja dobiva na popularnosti je “red-teaming” naprednih modela s vanjskim stručnjacima. To znači da prije (ili ubrzo nakon) lansiranja novog snažnog modela, neovisni timovi dobivaju pristup kako bi ga temeljito testirali na nedostatke, pristranosti, sigurnosne rupe itd., a nalazi se objavljuju javno ili barem dijele s regulatorima. OpenAI je zapravo to djelomično napravio s GPT-4 – angažirali su vanjske akademike i konzultante da ga testiraju (i objavili su neke rizike u svojoj sistemskoj kartici). Međutim, budući da je postojanje GPT-4 bilo tajno do objave, red timovi su radili pod NDA-om, a rezultati su izašli isti dan kad i model, što je ograničilo javnu provjeru unaprijed. U budućnosti bi norma mogla biti da svaki model iznad određenog praga sposobnosti mora proći procjene prije implementacije od strane vanjskih revizora. To bi zahtijevalo od tvrtki da otkriju model (uz povjerljivost) pouzdanoj trećoj strani – veliki korak za tajnovite laboratorije, ali možda nužan kompromis.
Etički imperativ koji mnogi ističu je da umjetna inteligencija treba koristiti cijelom čovječanstvu, a ne samo onome tko je prvi izgradi. To odražava stari statut OpenAI-ja (koji je govorio o raspodjeli koristi i izbjegavanju AI nadmoći od strane jedne skupine). Kada je OpenAI prešao na profitni model i postao manje transparentan, neki su ga kritizirali da je napustio taj altruistički stav vice.com. Sada postoji pritisak da se tvrtke pozovu na odgovornost prema javnom interesu. Na primjer, britanska Agencija za tržišno natjecanje i tržišta je 2023. počela ispitivati tržište temeljnih AI modela, što je u osnovi signaliziralo: “pratimo da nekoliko tvrtki ne monopolizira ovu tehnologiju na štetu potrošača ili konkurencije.” To je ekonomska perspektiva, ali se preklapa s etičkim brigama o koncentraciji moći.
Na kraju, treba spomenuti da se ne slažu svi oko razine rizika. Neki stručnjaci smatraju da su strahovi od AGI-ja pretjerani i da tajnovitost nije glavni problem – umjesto toga, brinu ih neposrednija pitanja poput pristranosti umjetne inteligencije, gubitka radnih mjesta ili privatnosti. I oni zagovaraju veću transparentnost, ali ne zato što se boje odmetnute superinteligencije; već kako bi se osiguralo da su sadašnji sustavi pravedni i odgovorni. U svakom slučaju, transparentnost (ili njezin nedostatak) je ključna. Bez nje ne možemo ispravno rješavati nijedno od tih pitanja, od pristranosti do egzistencijalnog rizika.
Za kraj, svijet se nalazi u osjetljivoj ravnoteži. Žudimo za inovacijama koje AI obećava – lijekovima za bolesti, skokovima u produktivnosti, novim znanstvenim otkrićima. No upravo te inovacije mogu biti dvosjekli mač ako se razvijaju bez zaštitnih mjera. Nedavna saga o unutarnjim previranjima u OpenAI-ju, gdje su zaposlenici navodno bili uznemireni zbog proboja i intervencije upravnog odbora, pokazuje da su čak i izumitelji oprezni oko onoga što stvaraju reuters.com. Šira javnost pokušava sustići i razumjeti ovu tehnologiju te je usmjeriti. Transparentnost nije cilj sama po sebi, već sredstvo za omogućavanje odgovornosti, suradnje i informiranog donošenja odluka. Kako je rekao jedan AI direktor, pristup “prvo izgradi, pa popravi kasnije” ne bi bio prihvatljiv u drugim industrijama visokog rizika theguardian.com – ne bismo ga smjeli prihvatiti ni za AI.
Sljedećih nekoliko godina vjerojatno ćemo svjedočiti još curenja i otkrića dok se insajderi bore s etičkim dilemama, još glasina o AGI-ju kako laboratoriji pomiču granice, i nadamo se više konstruktivnog globalnog dijaloga o tome kako se s time nositi. Bez obzira stigne li AGI za 5 ili 50 godina, osigurati da se njegov razvoj ne odvija u potpunom mraku moglo bi biti ključno da postane blagoslov, a ne prokletstvo za čovječanstvo.
Izvori:
- Reuters – Istraživači iz OpenAI-ja upozorili upravni odbor na AI proboj prije smjene izvršnog direktora, tvrde izvori reuters.com
- Reuters – Elon Musk i drugi pozivaju na pauzu u razvoju AI-ja, navodeći ‘rizike za društvo’ reuters.com
- Vice – OpenAI-jev GPT-4 je zatvorenog koda i obavijen tajnom vice.com
- The Guardian – Googleov inženjer stavljen na dopust nakon što je rekao da je AI chatbot postao svjestan theguardian.com
- The Guardian – ‘Kum umjetne inteligencije’ Geoffrey Hinton napušta Google i upozorava na opasnosti… theguardian.com
- The Verge – Moćni AI jezični model Mete procurio je na internet — što se sada događa? theverge.com
- Reuters – Alibaba objavljuje AI model za koji tvrdi da nadmašuje DeepSeek reuters.com
- Matthew Griffin (Bloomberg) – CIA razvija vlastitu verziju ChatGPT-a fanaticalfuturist.com
- TechCrunch – Anthropicov plan od 5 milijardi dolara u 4 godine za borbu protiv OpenAI-ja techcrunch.com
- MacRumors – Apple GPT: Što znamo o Appleovom radu na generativnoj umjetnoj inteligenciji macrumors.com