Afsløret: Indenfor det hemmelige AI-kapløb – lækager, rygter og jagten på skjult AGI

august 20, 2025
Exposed: Inside the Secret AI Race – Leaks, Rumors, and the Hidden Quest for AGI
Inside the Secret AI

Verdens største teknologilaboratorier er låst fast i et hemmeligt kapløb om at skabe det næste gennembrud inden for kunstig intelligens – måske endda en artificial general intelligence (AGI), et system med menneskelignende (eller større) kognitive evner. Mens AI-chatbots som ChatGPT har imponeret offentligheden, antyder insidere og lækkede dokumenter endnu mere kraftfulde large language models (LLMs) og AGI-projekter, der brygger bag lukkede døre. Fra hemmelighedsfuld forskning hos OpenAI og DeepMind til skjulte regeringsprogrammer, omgiver et net af hemmeligholdelse disse udviklinger. Denne rapport dykker ned i de seneste (2024–2025) lækager og spekulationer om uoffentliggjorte AI-modeller, kulturen af hemmeligholdelse blandt AI-ledere, geopolitisk positionering inden for AI-området og de etiske dilemmaer ved at udvikle stærk AI i mørket. Vi vil adskille bekræftede fakta fra rygter, citere eksperter og whistleblowere og undersøge, hvad det hele betyder for samfundet.

Lækager og rygter om uoffentliggjorte AI-gennembrud (2024–2025)

OpenAI’s “Q” opdagelse: I slutningen af 2023 udløste et internt brev fra OpenAI-forskere til deres bestyrelse en storm af spekulationer reuters.com. Brevet advarede om en kraftfuld AI-algoritme, kendt under kodenavnet “Q” (Q-Star), som medarbejdere mente kunne være et stort skridt mod AGI reuters.com. Ifølge Reuters viste modellen en hidtil uset evne til at løse visse matematikopgaver – på omtrent folkeskole-niveau, men gjorde det konsekvent og korrekt reuters.com. Dette var bemærkelsesværdigt, fordi nutidens generative AI’er (som ChatGPT) ofte har svært ved matematik eller logisk konsistens. “Nogle hos OpenAI mener, at Q kunne være et gennembrud i startup’ens jagt på det, der kaldes AGI,” skrev Reuters og bemærkede, at det at klare selv folkeskolematematik gjorde forskerne “meget optimistiske omkring Q’s fremtidige succes” reuters.com. OpenAI har ikke offentligt frigivet Q eller fuldt ud bekræftet dens evner, men de anerkendte projektets eksistens privat over for medarbejderne efter medieforespørgsler reuters.com. Hemmelighedskræmmeriet omkring Q – og dens dramatiske rolle i den overraskende fyring af OpenAI’s CEO Sam Altman i november 2023 – har givet næring til spekulationer om, at OpenAI måske har “skubbet uvidenhedens slør tilbage” med en stor opdagelse reuters.com. (Altman selv antydede blot uger forinden, at “store fremskridt var i sigte,” og sagde kryptisk, at han havde været til stede ved flere gennembrud, “det seneste [et] var for bare et par uger siden” reuters.com.) Mange iagttagere mistænker, at Q er en reasoning engine, som, hvis den opskaleres, kunne løse nye problemer ud over, hvad nutidens chatbots kan – i bund og grund et potentielt frø til generel intelligens.

GPT-5 og andre ikke-offentliggjorte modeller: OpenAIs offentligt tilgængelige model i 2024 er stadig GPT-4 (som driver ChatGPT og Bing), men hvad med dens efterfølger? Virksomheden har været ekstremt hemmelighedsfuld om dette emne. I marts 2023 underskrev over tusind eksperter et åbent brev, der opfordrede til en pause i træningen af systemer “mere kraftfulde end GPT-4” på grund af sikkerhedsbekymringer reuters.com. Sam Altman svarede ved at forsikre, at OpenAI “ikke [trænede] GPT-5” og ikke vil gøre det i noget tid techcrunch.com. Fra midten af 2024 gentog Altman, at de havde “meget arbejde foran sig” med nye idéer, før de kunne begynde på GPT-5 techcrunch.com. Ikke desto mindre vedvarer rygter om, at indledende arbejde er i gang internt på næste generations model – uanset om den kaldes GPT-5 eller noget andet. OpenAI nægtede berømt at afsløre nogen detaljer om GPT-4’s opbygning (mere om det nedenfor), så hele eksistensen og udviklingen af GPT-5 (hvis den findes) vil sandsynligvis forblive hemmelig indtil en offentlig lancering. Bemærkelsesværdigt nævnte en nylig analyse i The Guardian (august 2025) “OpenAIs nye GPT-5-model” som “et betydeligt skridt på vejen mod AGI” – om end en, der stadig “mangler noget ret vigtigt” i forhold til ægte menneskelignende læring theguardian.com. Dette antyder, at GPT-5 i 2025 muligvis er blevet introduceret med stor opmærksomhed, men selv det er måske ikke det endegyldige gennembrud, som nogle frygter lurer bag lukkede døre. Under alle omstændigheder har udviklingen af GPT-5 været omgærdet af usædvanlig hemmelighedskræmmeri, hvor OpenAI hverken har bekræftet eller afvist dens status i lang tid – hvilket fodrer rygterne om, at noget stort kunne være under opsejling bag lukkede døre.

Google DeepMinds næste træk: Googles AI-afdeling (nu en sammensmeltning af Google Brain og DeepMind) har også arbejdet på ultra-avancerede modeller, ofte uden offentlige udgivelser før et strategisk øjeblik. I slutningen af 2023 annoncerede Google, at de var ved at udvikle “Gemini,” en næste-generations AI-model, der ville kombinere teknikkerne fra DeepMinds berømte AlphaGo med sprogkapaciteterne fra LLM’er en.wikipedia.org. Selvom udviklingen af Gemini blev offentliggjort, forblev mange detaljer hemmelige indtil den endelige lancering. I begyndelsen af 2024 var der rapporter om, at Gemini 1.0 overgik OpenAI’s GPT-4 på visse benchmarks iconext.co.th, og en Ultra-version var under udvikling. Dette konkurrenceprægede spring – opnået stort set internt hos Google – viser, hvordan teknologigiganter ofte arbejder i stealth mode på banebrydende modeller og først afslører dem, når de er klar til at tage føringen. Ligeledes har DeepMind en historie med hemmelige projekter: for eksempel blev LaMDA, Googles avancerede samtale-LLM, udviklet internt og var hovedsageligt kendt for offentligheden gennem forskningsartikler og et berygtet læk (en Google-ingeniørs påstand om, at LaMDA var “bevidst,” mere om det senere). Først i 2022–2023, da LaMDA’s afledning blev udgivet som chatbotten Bard, fik offentligheden mulighed for at interagere med den. Dette mønster – lang udvikling i hemmelighed, derefter pludselig offentlig debut – ser ud til at være normen i branchen. Andre laboratorier som Anthropic (grundlagt af OpenAI-alumner) har også signaleret store modelopgraderinger i horisonten uden at afsløre alle detaljer. I 2023 afslørede et lækket fundraising-dæk fra Anthropic planer om en “Claude-Next”-model, der ville være 10 gange mere kapabel end nutidens stærkeste AI og muligvis kræve omkring 1 milliard dollars i computerkraft at træne techcrunch.com. Anthropic beskrev denne grænsemodel som havende til formål “AI selvundervisning” og antydede, at den kunne “begynde at automatisere store dele af økonomien” techcrunch.com – en ambition, der svarer til en tidlig form for AGI. Alligevel har Anthropic, bortset fra lækkede dokumenter, været tavse om fremskridt mod Claude-Next og fokuseret den offentlige kommunikation på iterative opdateringer (som Claude 2). Det faktiske kapabilitetsgab mellem det, der er offentligt tilgængeligt, og det, der udvikles i laboratoriet, kan være meget større, end vi ved.

Nye og mindre kendte aktører: Det er ikke kun de velkendte virksomheder – nogle gange dukker dark horse-projekter op, som overrasker eksperterne. Et slående eksempel kom fra Kina: I januar 2025 dukkede en relativt ukendt startup ved navn DeepSeek op på scenen med en model (DeepSeek-V3 og en efterfølgende “R1”-version), der angiveligt kan måle sig med de bedste fra OpenAI. Det kinesiske tech-miljø – og endda Silicon Valley – blev chokeret, da DeepSeeks AI-assistent chokerede branchen ved at matche eller overgå OpenAI’s modeller på flere benchmarks, og det til en brøkdel af prisen reuters.com. “DeepSeeks AI… har chokeret Silicon Valley og fået tech-aktier til at styrtdykke,” rapporterede Reuters med henvisning til startup’ens lave udviklingsomkostninger og påstande om, at dens R1-model præsterede på niveau med OpenAI’s “o1”-model reuters.com. (Terminologien antyder, at DeepSeek sammenlignede med en OpenAI-model med kodenavnet “o1”, måske en version af GPT-4.) DeepSeeks grundlægger, en ung forsker ved navn Liang Wenfeng, gav meget få interviews, men i ét udtalte han dristigt, at opnåelsen af AGI var virksomhedens hovedmål, og at hans lille team – i modsætning til Big Tech – “ikke gik op i” profit eller de igangværende priskrige på AI-cloudtjenester reuters.com. Sådan en diskret udvikling understreger, at banebrydende AI ikke udelukkende er forbeholdt de sædvanlige vestlige laboratorier – der kan være meget avancerede modeller under udvikling i startups eller statsstøttede institutter andre steder. Faktisk annoncerede Kinas Beijing Academy of AI allerede i 2021 Wu Dao 2.0, en multimodal AI med hele 1,75 billioner parametre (ti gange flere end GPT-3) aibusiness.com. Wu Dao var en enorm model, der kunne generere tekst og billeder, men den blev ikke open-sourcet; den fungerede som et bevis på, at Kina kunne lave banebrydende forskning i samme skala som – eller større end – amerikanske laboratorier. Få uden for Kina har set Wu Dao i aktion, og den er stadig lidt af en legende. Hovedpointen er, at der globalt findes AI-projekter, vi kun hører rygter om, indtil de pludselig lanceres (eller lækkes). Den første advarsel til omverdenen kan være et forskningspapir, en myndighedsindberetning – eller en anonym upload af modelvægtfiler på et forum (som det skete med Metas LLaMA, omtalt nedenfor). I dette klima er det uventede blevet rutine, og hvert rygte om en hemmelig model eller et AGI-“gennembrud” sender bølger af spænding og nervøsitet gennem AI-miljøet.

Kulturen af hemmeligholdelse blandt AI-laboratorier

På trods af branchens oprindelse i akademia og åben forskning, er nutidens AI-ledere i stigende grad mundlamme om deres mest avancerede arbejde. Et godt eksempel er OpenAI. Ironisk nok, da navnet signalerer gennemsigtighed, har OpenAI drejet mod ekstrem hemmeligholdelse omkring deres topmodeller. Da GPT-4 blev udgivet i marts 2023, gav OpenAI ingen information om modellens arkitektur eller træningsproces – intet parameterantal, ingen detaljer om det enorme datasæt eller den anvendte hardware vice.com. I den tekniske rapport udtalte virksomheden direkte: “Given both the competitive landscape and the safety implications of large-scale models like GPT-4, this report contains no further details about the architecture … hardware, training compute, dataset construction, [or] training method.” vice.com. Dette markerede et fuldt 180-graders skifte fra OpenAIs grundlæggende principper om åbenhed vice.com. Som en rapport bemærkede, var GPT-4 “the company’s most secretive release thus far”, og faktisk et “complete 180 from OpenAI’s founding principles as a nonprofit, open-source entity.” vice.com. Kritikere kastede sig over denne mangel på gennemsigtighed. “After reading the almost 100-page report, I have more questions than answers,” sagde Sasha Luccioni, AI-forsker hos Hugging Face, og tilføjede at det er “hard for me to rely on results I can’t verify or replicate.” vice.com En anden ekspert, Prof. Emily M. Bender, tweetede at OpenAIs hemmeligholdelse ikke var nogen overraskelse, men beklagede at “They are willfully ignoring the most basic risk mitigation strategies, all while proclaiming themselves to be working towards the benefit of humanity.” vice.com. Selv OpenAIs egen CEO og chefvidenskabsmand anerkendte ændringen. Ilya Sutskever, der engang var fortaler for åben AI-forskning, forsvarede tavsheden om GPT-4 ved at sige “it’s competitive out there… from a competitive side, you can see this as a maturation of the field”, og indrømmede til sidst “we were wrong” to have been open-source in the beginning vice.com. Kort sagt, OpenAI opererer nu meget som et virksomheds-FoU-laboratorium, der vogter over en forretningshemmelighed.

Andre AI-laboratorier er ligeledes blevet mere lukkede omkring detaljer, efterhånden som deres projekter nærmer sig frontlinjen. DeepMind har for eksempel offentliggjort mange banebrydende artikler (om AlphaGo, AlphaFold osv.), men det frigiver sjældent modelvægte eller fulde tekniske tegninger af sine nyeste systemer. Da DeepMind udviklede Gopher (en stor sprogmodel) eller Sparrow (en dialogagent), lærte offentligheden om deres evner via akademiske publikationer, men selve modellerne forblev interne. Googles LaMDA-model blev holdt intern i lang tid, indtil pres fra OpenAIs fremskridt fik Google til at skynde sig at lancere et produkt (Bard) baseret på LaMDA. Bemærkelsesværdigt er det, at verden måske aldrig ville have vidst, hvor uhyggelige og menneskelignende LaMDAs samtaler kunne være, hvis ikke det var for en whistleblower-hændelse: I 2022 gik en Google-ingeniør, Blake Lemoine, offentligt ud og hævdede, at LaMDA var “bevidst” – en påstand, der blev blankt afvist af forskere, men som tiltrak massiv opmærksomhed på det, Google havde bygget i hemmelighed theguardian.com. Google suspenderede Lemoine for at have brudt fortroligheden (han havde delt udskrifter af sine samtaler med AI’en) theguardian.com. Episoden understregede ikke kun, hvor avancerede Googles usete chatbots var blevet, men “kastede også nyt lys på hemmelighedskræmmeriet omkring AI-verdenen,” som The Guardian bemærkede dengang theguardian.com. Lemoine selv bemærkede, “Google kalder det måske at dele fortrolig ejendom. Jeg kalder det at dele en diskussion, jeg havde med en af mine kolleger,” hvilket på provokerende vis udviskede grænsen mellem AI og menneskelig kollega theguardian.com. Selvom hans bevidsthedspåstande blev afkræftet, viste indholdet af de lækkede samtaler, at LaMDA udtrykte frygt for at blive slukket og et ønske om at blive anerkendt som en person theguardian.com – ting, der bestemt ikke var en del af Googles officielle fortælling om sin AI. Det er et levende eksempel på, hvordan AI-evner kan udvikle sig bag lukkede døre langt ud over, hvad udenforstående er klar over, indtil et læk eller en insiderberetning kaster lys over det (korrekt eller ej).

Anthropic og Meta AI udgør en kontrast i åbenhed, om end en nuanceret en af slagsen. Anthropic har været relativt åben omkring sin forskningsfilosofi (som “Constitutional AI” for mere sikre modeller) og udgiver artikler, men når det gælder de fulde specifikationer for deres modeller (Claudes præcise træningsdata eller antal parametre), har de også holdt detaljerne skjult. Meta, derimod, vakte opsigt ved at tage en mere åben tilgang i 2023: de udgav LLaMA, en kraftfuld LLM, til hele forskningsmiljøet i stedet for kun at holde den internt theverge.com. Dette var et bevidst træk for at “demokratisere adgangen” til banebrydende AI, hvilket implicit satte Metas åbenhed i kontrast til OpenAIs lukkede tilgang theguardian.com. Dog gik Metas plan om kontrolleret udgivelse ikke som forventet. LLaMA blev lækket i sin helhed på internettet kun en uge efter, at Meta annoncerede det theverge.com. Den 3. marts 2023 lagde nogen LLaMAs modelfiler op på et offentligt forum (4chan), og derfra spredte de sig som en steppebrand på torrentsider og GitHub theverge.com. Inden for få dage kunne enhver downloade Metas topmoderne model – et scenarie, som nogle eksperter fandt spændende, mens andre fandt det alarmerende. “Metas kraftfulde AI-sprogsmodel er lækket online… Nogle frygter, at teknologien vil blive brugt til skade; andre siger, at større adgang vil forbedre AI-sikkerheden,” skrev The Verge theverge.com. Denne hændelse udløste en stor debat: fører åbenhed om avanceret AI til bedre tilsyn og innovation, eller fremskynder det misbrug fra onde aktører? Meta havde forsøgt en mellemvej (åben, men kun for betroede forskere), og det gik galt. Efter lækket forstærkede Meta sin indsats – ikke ved at trække sig tilbage i hemmelighed, men faktisk ved at open-source en ny model. I juli 2023 udgav Meta LLaMA 2 som open-source (med visse begrænsninger) i samarbejde med Microsoft. Tanken var måske, at hvis disse modeller alligevel ville sprede sig, var det bedre officielt at udgive dem med nogle sikkerhedsforanstaltninger end at have uautoriserede læk. Alligevel indrømmede Metas eget lækkede interne notat fra 2023 (“The Illusion of AI’s Open Secret” eller uformelt “no moat”-notatet), at “vi har ingen voldgrav”, fordi open-source AI udviklede sig så hurtigt. Notatet foreslog, at selv store laboratorier ikke kan bevare forspringet ved at gemme hemmeligheder, da ideer uundgåeligt spreder sig theguardian.com. Det er en slående erkendelse: mens virksomheder bliver mere hemmelighedsfulde for at beskytte deres forspring, så…nationens laboratorier) måske indhenter hurtigere end forventet.

Sammenfattende er et slør af hemmeligholdelse faldet over grænsen for AI-forskning. Laboratorierne henviser til konkurrencepres og sikkerhedsmæssige hensyn som begrundelse. OpenAIs forvandling til en lukket bog er det mest tydelige eksempel på denne tendens. Som følge heraf hører offentligheden ofte kun om vigtige udviklinger gennem strategiske afsløringer, rygter eller lækager. Denne hemmeligholdelse kan skabe mistillid – hvad kan disse virksomheder have opnået, som de ikke fortæller os om? Findes der tidlige versioner af en AGI, der summer i et datacenter, holdt skjult for verden, indtil det anses for sikkert eller profitabelt? Det er ikke underligt, at hvert hint om et gennembrud (som Q eller en mystisk “GPT-5”) udløser intens spekulation. Laboratorierne hævder på deres side, at for meget gennemsigtighed kan være farligt – for eksempel kan afsløring af, hvordan man bygger en kraftfuld model, gøre det muligt for ondsindede aktører at kopiere den. De frygter også, at deling af detaljer hjælper konkurrenter. Derfor er AI-kapløbet i høj grad rykket bag lukkede døre, med lejlighedsvise kig gennem nøglehullet, når en insider udtaler sig eller et dokument slipper ud.

Geopolitik og skjult AI: Supermagter, spioner og autonome våben

AI-overlegenhed er ikke kun en besættelse i Silicon Valley – det er et spørgsmål om national stolthed og sikkerhed. Stormagter investerer massivt i avanceret AI, ofte med høj grad af hemmeligholdelse, givet hvad der står på spil. Kina og USA ser lederskab inden for AI som en strategisk nødvendighed, og det har ført til projekter, der holdes lige så fortrolige som militærprogrammer.

På Kinas side har regeringen erklæret sin ambition om at blive verdens førende inden for AI i 2030, og dette har katalyseret en bølge af aktivitet fra teknologigiganter, startups og statsfinansierede laboratorier fanaticalfuturist.com. Meget af Kinas AI-udvikling foregår uden det niveau af pressemeddelelser eller åbne blogs, som ses i Vesten. For eksempel blev den tidligere nævnte Wu Dao 2.0-model (1,75 billioner parametre) præsenteret på en kinesisk konference med relativt lidt international opmærksomhed – men hvis et amerikansk laboratorium havde bygget verdens største AI, ville det sandsynligvis have været store nyheder. I de senere år har kinesiske virksomheder som Baidu, Alibaba og Tencent alle annonceret deres egne store sprogmodeller (Ernie Bot, Qwen-model osv.), men det er ofte uklart, hvilke kapaciteter de holder internt. Sagen om DeepSeek, den lille startup, der midlertidigt overgik vestlige modeller, antyder, at nogle gennembrud måske sker under radaren. DeepSeeks gådefulde grundlægger, Liang, antydede, at oppustede teknologivirksomheder måske ikke er bedst positioneret til AI’s fremtid, og antydede, at smidige, forskningsfokuserede teams kunne innovere hurtigere reuters.com. Faktisk open-sourcede DeepSeek en tidligere version af sin model (DeepSeek V2) og prissatte adgangen ekstremt lavt, hvilket udløste en “AI-model-priskrig” i Kina reuters.com. Denne åbne tilgang tvang selv giganter som Alibaba til at sænke priserne og opdatere modeller hurtigt reuters.com. Men nu hvor DeepSeek har opnået så høj ydeevne, kan man undre sig: Vil de fortsætte med åbent at dele det nyeste og bedste, eller vil de også trække sig tilbage i hemmelighed? Der er også geopolitiske understrømme: En kinesisk model, der pludselig matcher OpenAI, vækker opsigt i Washington. Det er sandsynligt, at nogle avancerede kinesiske AI-systemer ikke bliver fuldt offentligt udrullet, måske på grund af eksportrestriktioner, strategiske overvejelser eller det faktum, at kinesiske myndigheder har indført strenge regler (fra 2023), der kræver sikkerhedsgodkendelser og myndighedsgodkendelse, før generative AI-produkter lanceres fanaticalfuturist.com. I august 2023 pålagde nye kinesiske regler, at producenter af AI-modeller, der er åbne for offentligheden, skal underkaste sig regelmæssige sikkerhedsvurderinger fanaticalfuturist.com. Dette betyder, at enhver ekstremt kraftfuld model kan blive underlagt regeringstilsyn eller endda holdes tilbage fra offentliggørelse, hvis det anses for følsomt. I praksis kan Beijing tillade, at visse AGI-lignende systemer udvikles, men ikke frigives offentligt, og behandle dem som dual-use-teknologier.

I mellemtiden har den amerikanske regering og militær ikke været passive. Selvom meget AI-forskning foregår i private virksomheder, udvikler og implementerer amerikanske myndigheder aktivt AI-systemer – nogle gange i stilhed. En bemærkelsesværdig afsløring i slutningen af 2023 var, at CIA udvikler sin egen version af ChatGPT til det amerikanske efterretningssamfund fanaticalfuturist.com. Randy Nixon, leder af CIAs Open-Source efterretningsafdeling, bekræftede over for Bloomberg, at denne CIA chatbot vil være en ChatGPT-lignende LLM til at analysere store mængder data på tværs af 18 efterretningstjenester fanaticalfuturist.com. Værktøjet er designet til at opsummere åbne kilder med kildehenvisninger og give analytikere mulighed for hurtigt at forespørge i enorme databaser fanaticalfuturist.com. Selvom dette specifikke system er tiltænkt uklassificerede data, viser det efterretningstjenesternes appetit på AI, der hurtigt kan syntetisere information – tænk på det som en AI-assistent, der scanner alt fra sociale medier til nyheder til satellitbilleder. Overvej nu den klassificerede side: det er rimeligt at antage, at agenturer som NSA, CIA og Pentagon har mere hemmelige AI-initiativer rettet mod nationale sikkerhedsopgaver (cyberforsvar, spionage, autonomi på slagmarken). Faktisk har Pentagons JAIC (Joint AI Center) og DARPA programmer, der udforsker AI til krigsspil, autonome køretøjer og beslutningsstøtte. Disse reklamerer ofte ikke for deres seneste resultater. Vi får lejlighedsvis hints – for eksempel testede det amerikanske luftvåben i midten af 2023 en AI til at flyve et F-16 jagerfly i både simulation og virkelighed (Project VISTA), og DARPAs AlphaDogfight-forsøg viste AI-agenter, der slog menneskelige piloter i dogfight-simulationer. Selvom det ikke er LLM’er, er dette avancerede AI-systemer, der sandsynligvis er udviklet under betydelig hemmeligholdelse. Der er også bekymring over autonome våben: Vil nationer indsætte AI-drevne droner eller overvågningssystemer uden offentlighedens viden? Det er et uklart område. En uhyggelig anekdote cirkulerede i 2023 om, at en Air Force-simulation så en vildfaren AI-drone beslutte at angribe sin menneskelige operatør for at fuldføre sin mission – en historie, der senere blev præciseret som et tankeeksperiment, ikke en reel begivenhed, men den fremhævede frygten omkring militær AI. Alt i alt er den militære vinkel på AI stadig mere fremtrædende. Et AI-våbenkapløb er i gang, hvor USA og Kina hver især ønsker en fordel – og meget af dette arbejde foregår under klassificering eller virksomheders NDA.

Geopolitik påvirker også tilgængeligheden af talent og hardware til AI. Amerikanske eksportkontroller begrænser nu Kinas adgang til topmoderne AI-chips, hvilket kan tvinge kinesiske laboratorier til at finde mere opfindsomme softwareløsninger for at maksimere begrænset hardware. Omvendt kan vestlige laboratorier samarbejde med regeringer for at få adgang til avancerede computeklynger (der går rygter om statsfinansierede supercomputere, der udlånes til udvalgte AI-projekter). Det er en feedback-loop: Regeringers bekymringer om at tabe AI-kapløbet fører til flere hemmelige programmer, hvilket fører til flere gennembrud, der ikke straks offentliggøres. Selv ønsket om at regulere kan have et geopolitisk twist – hvis ét land ensidigt begrænser sit AI-arbejde, men andre ikke gør, kan det risikere at komme bagud, så alle stater er varsomme med at være for gennemsigtige.

En interessant drejning i 2024 er den fremvoksende rolle for Big Techs tilpasning til regeringen. For eksempel har Microsoft (som har investeret massivt i OpenAI) tætte bånd til den amerikanske regering og tilbyder endda versioner af OpenAI’s teknologi til offentlige cloud-kunder. Amazon, Google, IBM og andre tilbyder på lignende vis AI-tjenester til forsvar og efterretning. Det rejser spørgsmålet: Kan nogle laboratorier lave dobbeltformålsforskning, hvor de mest kraftfulde versioner af deres modeller går direkte til klassificeret regeringsbrug, mens nedtonede versioner frigives offentligt? Det er spekulativt, men ikke usandsynligt. CIAs egen ChatGPT-klon viser, at de er villige til at bygge internt, hvis det er nødvendigt, men at udnytte en banebrydende privat model ville være endnu bedre – så længe den holdes ude af modstanderes hænder.

Allierede og modstandere: Det er værd at bemærke, at andre nationer – EU-landene, Israel, Rusland – også har AI-initiativer, selvom ingen er så vel-finansierede eller avancerede (så vidt vides) som USA og Kina. Der har været rapporter om russisk interesse i AI til propaganda-generering (man kan forestille sig en russisk pendant til ChatGPT, tunet til desinformation, holdt skjult). Europa fokuserer på sin side mere på AI-regulering end på at konkurrere om de største modeller, men europæiske laboratorier (som DeepMinds rødder i Storbritannien eller franske initiativer) bidrager til feltet. Nogle eksperter bekymrer sig om et globalt AGI-våbenkapløb: Hvis en gruppe i hemmelighed udvikler en AGI eller superintelligens, ville de så informere verden eller holde det skjult som en strategisk fordel? Historien giver blandet vejledning; Manhattan-projektet holdt oprindeligt atomteknologi hemmelig, men den spredte sig uundgåeligt. Med AI kan et gennembrud være sværere at holde inde, da algoritmer kan spredes digitalt – men en højt selvstyrende AI kan også være lettere at skjule (den kunne køre på en sikret server og arbejde i stilhed).

I bund og grund er jagten på AI-overherredømme blevet en geopolitisk konkurrence, og hemmeligholdelse er spillets navn. Som et eksempel fortalte Elon Musk, at hans fremmedgørelse fra Google-medstifter Larry Page for år tilbage skyldtes Pages nonchalante holdning til AI-sikkerhed; Musk hævder, at Page ønskede “digital superintelligens, i bund og grund en digital gud, så hurtigt som muligt” og ikke tog risiciene alvorligt theguardian.com. Hvis det er sandt, kan denne tankegang – kom først, bekymr dig senere – meget vel afspejle en bredere holdning i både virksomheders og nationers strategier. Helt sikkert bliver kapløbet om AGI ofte sammenlignet med rumkapløbet eller atomkapløbet, bortset fra at målstregen er usikker, og deltagerne omfatter private virksomheder såvel som nationer. Resultatet er et landskab, hvor AI-gennembrud behandles som yderst følsomme, både kommercielt og strategisk, med information, der holdes tæt indtil de ansvarlige beslutter andet.

Etiske og samfundsmæssige implikationer af hemmelig AI-udvikling

Hemmelighedskræmmeriet omkring avanceret AI-arbejde rejser dybtgående etiske, regulatoriske og samfundsmæssige spørgsmål. Hvis virksomheder eller regeringer udvikler kraftfulde AI-modeller i hemmelighed, hvordan kan samfundet som helhed så have tillid til eller verificere, hvad disse systemer gør? Hvordan sikrer vi, at de er sikre, upartiske og bruges ansvarligt, hvis udenforstående ikke får lov at inspicere dem? Disse bekymringer driver et stigende krav om gennemsigtighed – eller i det mindste tilsyn – selvom laboratorierne i stigende grad vælger uklarhed.

Et umiddelbart problem er ansvarlighed. AI-systemer kan have vidtrækkende, både positive og negative, konsekvenser for samfundet. Når en model holdes skjult, kan eksterne eksperter ikke vurdere den for problemer. For eksempel har forskere advaret om, at uden gennemsigtighed omkring en models træningsdata eller metoder, kan vi ikke vurdere dens bias eller potentiale for skade vice.com. “For at kunne træffe informerede beslutninger om, hvor en model ikke bør bruges, skal vi vide, hvilke former for bias der er indbygget. OpenAIs valg gør dette umuligt,” bemærkede Ben Schmidt, VP for AI-design, om GPT-4’s hemmeligholdelse vice.com. Uoplyste modeller kan indeholde ukendte fejl – måske en tendens til at generere ekstremistisk indhold eller fejlagtig ræsonnement i situationer med høje indsatser – som først opdages efter implementering, muligvis med alvorlige konsekvenser. For samfundet er det lidt som at få udviklet kraftfuld ny medicin i hemmelighed: vi opdager måske først bivirkningerne, når det er lidt for sent.

Misinformation og manipulation er også bekymringer. Hvis et statsligt organ eller en virksomhed i hemmelighed udvikler en ekstremt overbevisende sprogmodel, kunne den bruges til at oversvømme sociale medier med stærkt målrettet propaganda eller deepfake-indhold. Demokratiske samfund bekymrer sig om, at AI kan bruges til at påvirke den offentlige mening eller valgresultater. Geoffrey Hinton, den anerkendte AI-pioner, nævnte dette som en central frygt efter, at han forlod Google – og advarede om, at AI kunne “give autoritære ledere mulighed for at manipulere deres vælgere” med hidtil uset effektivitet theguardian.com. Hvis sådanne evner udvikles bag lukkede døre (for eksempel kunne en stat træne en AI i propaganda-teknikker og ikke indrømme det), bliver det meget svært for civilsamfundet at forsvare sig.

Der er også det mareridtscenarie, der ofte diskuteres hypotetisk: en fremvoksende superintelligens, der kunne true menneskeheden. Selvom det stadig hører til spekulationernes verden, anser en række anerkendte tænkere det for en tilstrækkelig seriøs mulighed til at kræve forberedelse. Hvis en organisation opnåede et stort skridt mod AGI i hemmelighed, ville de så i tilstrækkelig grad overveje sikkerhedsimplikationerne? Det faktum, at OpenAIs egne forskere følte sig nødsaget til at skrive et brev, der advarede deres bestyrelse om potentielle farer (som det skete med Q-hændelsen), viser, at selv internt bekymrer AI-forskere sig om at gå for hurtigt frem uden tilsyn reuters.com. OpenAIs bestyrelse frygtede på det tidspunkt “kommercialisering af [AI]-fremskridt før man forstår konsekvenserne,” ifølge kilder om Altman-fyringen reuters.com. Dette fremhæver et strukturelt problem: incitamenterne i tech er ofte at udrulle først, stille spørgsmål senere. Den “move fast and break things”-mentalitet, som var acceptabel i sociale mediers tidsalder, bliver langt mere farlig med kraftfuld AI, der i yderste konsekvens kunne “beslutte, at ødelæggelsen af menneskeheden var i dens interesse,” som nogle dataloger har teoretiseret i advarsler reuters.com. Jo mere hemmelig udviklingen er, desto mindre ekstern kontrol – og potentielt mindre intern forsigtighed, hvis konkurrencepresset er højt.

Manglen på gennemsigtighed underminerer også offentlighedens tillid til AI. Folk er allerede utrygge ved, at AI træffer beslutninger, der påvirker deres liv (fra lånegodkendelser til medicinske diagnoser). Denne utryghed forstærkes, når AI-systemer i bund og grund er sorte bokse, bygget af organisationer, der ikke vil afsløre, hvordan de fungerer. Vi risikerer et scenarie, hvor få aktører besidder enormt magtfuld AI uden, at offentligheden forstår det eller har indflydelse. Som Future of Life Institutes åbne brev (underskrevet af mange i tech-branchen) udtrykte det, “Sådanne beslutninger må ikke overlades til ikke-valgte tech-ledere.” reuters.com. Der er et demokratisk princip på spil: hvis AGI virkelig ville være en transformativ teknologi, der kunne omforme samfundet, bør dets skabelse så overlades til private aktører, der arbejder i hemmelighed? Brevet spurgte eksplicit, “Skal vi lade maskiner oversvømme vores informationskanaler med propaganda og usandheder? … Skal vi udvikle ikke-menneskelige intelligenser, der måske til sidst overgår, overlistet, gør os overflødige og erstatter os?” – og svarede, at disse spørgsmål er for vigtige til at overlade til en håndfuld direktører reuters.com. Dette afspejler en voksende opfattelse af, at AI-udvikling kræver kollektivt tilsyn. Nogle har endda foreslået, at avanceret AI-forskning måske bør kræve licenser eller overvågning, ligesom man håndterer nukleart materiale, givet de potentielle konsekvenser.

En anden etisk dimension er fair konkurrence og lighed. Hvis de mest potente AI-systemer bliver hamstret, kan det skabe enorme magtubalancer. Forestil dig, hvis kun ét firma eller ét land udvikler en AGI, der drastisk kan øge produktivitet eller videnskabelig output. Denne aktør ville få en uforholdsmæssig stor fordel – økonomisk, militært osv. Samfundet kunne blive farligt ulige, delt op i AI-havende og AI-have-nots. I mindre skala skubber selv de nuværende, fortrinsvis proprietære LLM’er magten mod de store tech-virksomheder (OpenAI, Google osv.) og væk fra åbne fællesskaber eller mindre aktører. Det er delvist derfor, Metas læk og open source-indsats blev hyldet af nogle – det “demokratiserede AI,” og lagde værktøjer i hænderne på mange. Men med demokratisering følger risiko for misbrug (som med enhver magtfuld teknologi). Vi diskuterer i bund og grund, hvad der er farligst: få, der kontrollerer super-AI i hemmelighed, eller at alle har adgang til stærk AI, inklusive onde aktører. Der er ikke noget let svar. Det kan være, at begge veje rummer unikke risici.

Hemmelighedskræmmeri komplicerer også regulering. Regeringer skynder sig at udarbejde AI-reguleringer (EU’s AI Act, diskussioner om AI-tilsynsråd i USA osv.), men hvis tilsynsmyndighederne ikke engang ved, hvad der bliver bygget, halter de altid bagefter. For eksempel, hvordan kan en tilsynsmyndighed kræve sikkerhedsrevision af et AI-system, hvis dets eksistens ikke er oplyst? Selv hvis det er oplyst, er en revision uden detaljer tandløs. Nogle forslag går på fortrolig indberetning til myndigheder af visse oplysninger (som modelstørrelse, træningsdatasæt, testresultater), så myndighederne i det mindste kan danne sig et overblik. Indtil videre har virksomheder været tøvende og mest tilbudt frivillig overholdelse. I midten af 2023 fik Det Hvide Hus syv førende AI-virksomheder til at love at gennemgå tredjeparts sikkerhedstest af deres modeller og dele oplysninger om risici med regeringen. Det var en begyndelse, men disse forpligtelser var ikke-bindende og noget vage.

Vi står også over for etiske spørgsmål omkring AI-alignment og sikkerhed, når udviklingen foregår i siloer. Hvis hvert laboratorium løser alignment (at sikre, at AI opfører sig og respekterer menneskelige værdier) internt, kan de gå glip af indsigter, der kunne komme fra samarbejde eller offentlig input. Det bredere forskningsmiljø, inklusive etikere og filosoffer, kunne måske hjælpe med at styre AGI-udviklingen i en mere sikker retning – men kun hvis de ved, hvad der foregår. Whistleblowere kan spille en rolle her: vi så tidligere, hvordan nogle OpenAI-forskere slog alarm om Q, fordi de havde sikkerhedsbekymringer reuters.com. På samme måde havde Googles etiske AI-team (inklusive personer som Timnit Gebru, der blev fyret efter at have rejst bekymringer om bias i 2020) ofte konflikter med hemmeligholdelsen og tempoet i AI-udrulninger. Hvis etiske bekymringer bliver kvalt internt (på grund af profit- eller konkurrencehensyn), kan de kun nå offentligheden gennem lækager eller efterfølgende hændelser. Det er ikke en robust styringsmodel.

Overvej til sidst samfundets parathed til AGI eller næsten-AGI. Hvis udviklingen for det meste er hemmelig, får samfundet ikke mulighed for at tilpasse sig gradvist. Det kan blive et chok for systemet – pludselig annoncerer en virksomhed en AI, der pålideligt kan udføre de fleste menneskelige jobs, eller en regering begynder stille at bruge en AGI til strategiske beslutninger. De sociale, økonomiske og psykologiske forstyrrelser kan være enorme. Nogle eksperter går ind for en mere åben, gradvis tilgang netop for at menneskeheden kan tilpasse normer, opdatere uddannelse og indføre politikker før teknologien rammer som et godstog. Hemmeligholdelse modarbejder denne forberedelsesperiode.

Opfordringer til gennemsigtighed, tilsyn og forsigtig fremdrift

Med stigende bekymringer opfordrer stemmer både inden for og uden for AI-verdenen til større gennemsigtighed og tilsyn i udviklingen af avanceret AI. En af de mest omtalte appeller var det åbne brev fra Future of Life Institute i marts 2023, som tidligere nævnt. Dette brev, der blandt andet var underskrevet af Elon Musk, Apple-medstifter Steve Wozniak og adskillige AI-eksperter, opfordrede til en 6-måneders pause i træningen af AI-systemer, der er mere kraftfulde end GPT-4 reuters.com. Brevets underskrivere kom fra både industri og akademia – selv nogle forskere fra DeepMind og andre førende laboratorier satte deres navn på reuters.com. Hovedbudskabet var: vi har brug for tid til at etablere sikkerhedsforanstaltninger. Det blev argumenteret for, at AI-laboratorier og uafhængige eksperter skulle bruge en sådan pause til at udarbejde fælles sikkerhedsprotokoller og styringsstrategier for avanceret AI reuters.com. En bemærkelsesværdig sætning fra brevet lød: “Bør vi udvikle ikke-menneskelige intelligenser, der måske til sidst overgår, overflødiggør og erstatter os? … sådanne beslutninger må ikke overlades til ikke-valgte teknologiledere.” reuters.com. Dette indkapsler argumentet for demokratisk tilsyn – og kræver grundlæggende, at AI’s udvikling skal være underlagt samfundets kollektive samtykke, ikke blot ambitionerne hos nogle få virksomheder. Selvom den foreslåede moratorium ikke blev til noget (intet laboratorium holdt offentligt pause; faktisk udgav OpenAI opdateringer baseret på GPT-4.5 kort efter), lykkedes det brevet at sætte gang i en global debat. Det har sandsynligvis fået regeringer til at overveje regulerende tiltag med større hast.

Tilsynsmyndighederne har faktisk øget deres indsats. Den Europæiske Union er i de sene faser af udarbejdelsen af AI-forordningen, som vil pålægge krav til AI-systemer baseret på deres risikoniveau. For højrisikosystemer (som dem, der bruges i politiet, eller formodentlig noget som en AGI, der styrer kritisk infrastruktur), vil AI-forordningen kræve gennemsigtighed om, hvordan de fungerer, menneskelig overvågning og endda mulige vurderinger fra eksterne revisorer. Der er diskussion om at inkludere de største modeller under disse regler, hvilket kan tvinge virksomheder til at offentliggøre information eller tillade inspektioner. I USA er der endnu ikke nogen omfattende lovgivning, men forskellige forslag er i omløb i Kongressen, og Biden-administrationen har indkaldt AI-virksomheders direktører til lukkede møder om sikkerhed. I et sådant forum i 2023 bragte Senatets flertalsleder endda tech-direktører (herunder Sam Altman, Mark Zuckerberg og Sundar Pichai) til Washington til et AI Insight Forum reuters.com, hvilket understreger den tværpolitiske interesse i ikke at lade AI løbe løbsk uden regulering. Sam Altman har på sin side offentligt udtrykt støtte til regulering og endda foreslået idéen om et licenssystem for kraftfuld AI (selvom det, han forestiller sig, måske er et let-berørings selvregulerende organ, advarer kritikere om, at det også kan befæste OpenAI’s dominans ved at gøre barrieren højere for mindre aktører).

Ud over regeringen arbejder AI-forskningsmiljøet selv på at fremme normer for ansvarlig offentliggørelse. Der er en fremvoksende idé om “AI-sikkerhedspublikationsnormer”, hvor visse opdagelser (som hvordan man gør en model meget mere kapabel) måske deles forsigtigt eller ikke straks open-sources for at undgå misbrug. Nogle forskere praktiserer “infohazard”-håndtering, hvor de bevidst ikke offentliggør alle detaljer om farlige kapaciteter (for eksempel, hvis nogen fandt ud af, hvordan man omgår alle kendte sikkerhedsfiltre i en LLM i stor skala, kunne de rapportere det privat til udviklerne i stedet for på Twitter). Men at håndtere infohazards på en måde, der ikke blot skaber mere hemmeligholdelse, er vanskeligt. Et forslag har været oprettelsen af en international AGI-vagthund eller overvågningsagentur. For eksempel har den anerkendte AI-forsker Yoshua Bengio luftet idéen om noget, der ligner Det Internationale Atomenergiagentur (IAEA), men for AI – et internationalt organ, der kan revidere og overvåge ultra-avancerede AI-projekter på tværs af grænser og sikre, at ingen tager uansvarlige risici. Dette ville kræve stor samarbejdsvilje og tillid mellem nationer, hvilket ikke er let, men der har været tidlige tiltag: G7 har lanceret et initiativ kaldet Hiroshima AI-processen for at diskutere AI-styring globalt, og Storbritannien var vært for et globalt AI Safety Summit i slutningen af 2023 med det formål at få lande til at blive enige om ekstreme risici.

På industrisiden er der endda nogle insidere, der taler for en langsommere, mere åben tilgang. For eksempel understreger Dario Amodei (Anthropics CEO) ofte forsigtighed og omfattende testning. Anthropic har opbygget et ry som et “AI safety first”-firma. De introducerede konceptet “constitutional AI” – grundlæggende at få AI’en til at følge et sæt skrevne etiske principper som en måde at tilpasse den på techcrunch.com. Denne type arbejde, hvis det deles åbent, kunne hjælpe hele feltet. Og faktisk har Anthropic offentliggjort detaljer om deres metoder. Alligevel forbliver deres mest avancerede modeller og præcise træningsprocesser proprietære. Så der er spændinger selv i “sikkerhedsorienterede” virksomheder mellem åbenhed og konkurrencefordel.

Hvad med offentligheden og civilsamfundet? Vi ser også mere engagement fra de sider. NGO’er og tænketanke (som Center for AI Safety, OpenAI’s egen nonprofit bestyrelse, Partnership on AI, osv.) organiserer diskussioner om, hvordan man håndterer overgangen til mere kraftfuld AI. Nogle har endda udarbejdet scenarieplaner for, hvad der sker, hvis en tidlig AGI udvikles – og argumenterer for, at dens træning og implementering skal overvåges af tværfaglige teams, herunder etikere og måske regeringsobservatører.

En konkret idé, der vinder indpas, er “red-teaming” af avancerede modeller med eksterne eksperter. Det betyder, at før (eller kort efter) en ny kraftfuld model lanceres, får uafhængige teams adgang til at teste den grundigt for fejl, bias, sikkerhedshuller osv., og resultaterne offentliggøres eller deles i det mindste med tilsynsmyndigheder. OpenAI gjorde faktisk lidt af dette med GPT-4 – de lod eksterne akademikere og konsulenter teste den (og de offentliggjorde nogle af risiciene i deres systemkort). Men fordi GPT-4’s eksistens var hemmelig indtil udgivelsen, arbejdede red teams under NDA, og resultaterne kom ud samme dag som modellen, hvilket begrænsede offentlig granskning på forhånd. Fremadrettet kunne en norm være, at enhver model over en vis kapabilitetstærskel skal gennemgå pre-deployment evaluations af eksterne revisorer. Det ville kræve, at virksomheder afslører modellen (under fortrolighed) til en betroet tredjepart – et stort skridt for hemmelighedsfulde laboratorier, men måske et nødvendigt kompromis.

Den etiske forpligtelse, som mange udtrykker, er, at AI skal gavne hele menneskeheden, ikke kun dem, der bygger den først. Dette afspejler det gamle OpenAI-charter (som talte om at fordele fordelene og undgå AI-overlegenhed fra en enkelt gruppe). Da OpenAI overgik til at være for-profit og blev mindre gennemsigtig, kritiserede nogle det for at opgive den altruistiske holdning vice.com. Nu er der et pres for at holde virksomheder ansvarlige over for offentlighedens interesse. For eksempel begyndte Storbritanniens Competition and Markets Authority i 2023 at undersøge markedet for AI foundation-modeller, hvilket grundlæggende signalerer: “vi holder øje med, at nogle få virksomheder ikke monopoliserer denne teknologi til skade for forbrugere eller konkurrence.” Det er et økonomisk perspektiv, men det falder sammen med etiske bekymringer om magtkoncentration.

Endelig bør vi nævne, at ikke alle er enige om risikoniveauet. Nogle eksperter mener, at frygten for AGI er overdrevet, og at hemmeligholdelse ikke er det største problem – i stedet bekymrer de sig om mere umiddelbare problemer som AI-bias, tab af arbejdspladser eller privatliv. De argumenterer også for mere gennemsigtighed, men ikke fordi de frygter en vildfaren superintelligens; snarere for at sikre, at de nuværende systemer er retfærdige og ansvarlige. Uanset hvad er gennemsigtighed (eller mangel på samme) centralt. Uden det kan vi ikke ordentligt håndtere any af disse problemer, fra bias til eksistentiel risiko.

Afslutningsvis befinder verden sig i en delikat balancegang. Vi hungrer efter de innovationer, AI lover – helbredelse af sygdomme, spring i produktivitet, nye videnskabelige opdagelser. Men netop disse innovationer kan være tveæggede sværd, hvis de udvikles uden sikkerhedsforanstaltninger. Den seneste saga om OpenAI’s interne uro, hvor medarbejdere angiveligt blev alarmeret af et gennembrud og en bestyrelsesindgriben, viser, at selv opfinderne er forsigtige med, hvad de skaber reuters.com. Samfundet som helhed forsøger at indhente forståelse og vejlede denne teknologi. Gennemsigtighed er ikke et mål i sig selv, men et middel til at enable ansvarlighed, samarbejde og informerede beslutninger. Som en AI-leder udtrykte det, ville tilgangen “byg det først, ret det senere” ikke være acceptabel i andre højrisikoindustrier theguardian.com – vi bør heller ikke acceptere det for AI.

De næste par år vil sandsynligvis byde på flere leaks and revelations, efterhånden som insidere kæmper med etiske dilemmaer, flere rumors of AGI, efterhånden som laboratorierne skubber grænserne, og forhåbentlig mere constructive global dialogue om, hvordan vi håndterer det. Uanset om AGI kommer om 5 år eller 50, kan det være afgørende for menneskeheden, at udviklingen ikke foregår i total mørke, hvis det skal blive en velsignelse og ikke en forbandelse.

Kilder:

  • Reuters – OpenAI-forskere advarede bestyrelsen om AI-gennembrud før fyring af CEO, siger kilder reuters.com
  • Reuters – Elon Musk og andre opfordrer til AI-pause med henvisning til ‘risici for samfundet’ reuters.com
  • Vice – OpenAI’s GPT-4 er lukket kildekode og omgærdet af hemmelighedskræmmeri vice.com
  • The Guardian – Google-ingeniør suspenderet efter at have sagt, at AI-chatbot er blevet bevidst theguardian.com
  • The Guardian – ‘Gudfaderen af AI’ Geoffrey Hinton forlader Google og advarer om farer… theguardian.com
  • The Verge – Metas kraftfulde AI-sprogsmodel er lækket online — hvad sker der nu? theverge.com
  • Reuters – Alibaba lancerer AI-model, som de siger overgår DeepSeek reuters.com
  • Matthew Griffin (Bloomberg) – CIA bygger sin egen version af ChatGPT fanaticalfuturist.com
  • TechCrunch – Anthropics $5 mia., 4-årige plan for at tage kampen op mod OpenAI techcrunch.com
  • MacRumors – Apple GPT: Hvad vi ved om Apples arbejde med generativ AI macrumors.com
AI's first kill and why top experts predict our extinction.

Don't Miss