Die größten Technologielabore der Welt liefern sich ein geheimes Wettrennen, um den nächsten Durchbruch in der künstlichen Intelligenz zu erzielen – vielleicht sogar eine künstliche allgemeine Intelligenz (AGI), ein System mit kognitiven Fähigkeiten auf menschlichem (oder höherem) Niveau. Während KI-Chatbots wie ChatGPT die Öffentlichkeit beeindrucken, deuten Insider und durchgesickerte Dokumente auf noch leistungsfähigere große Sprachmodelle (LLMs) und AGI-Projekte hin, die hinter verschlossenen Türen entstehen. Von streng geheimen Forschungen bei OpenAI und DeepMind bis hin zu verdeckten Regierungsprogrammen – ein Netz der Geheimhaltung umgibt diese Entwicklungen. Dieser Bericht beleuchtet die neuesten (2024–2025) Leaks und Spekulationen über nicht offengelegte KI-Modelle, die Kultur der Geheimhaltung unter KI-Führenden, geopolitische Machtspiele im KI-Bereich und die ethischen Dilemmata, die mit der Entwicklung mächtiger KI im Verborgenen einhergehen. Wir trennen bestätigte Fakten von Gerüchten, zitieren Expertinnen und Whistleblower und untersuchen, was das alles für die Gesellschaft bedeutet.
Leaks und Gerüchte über nicht offengelegte KI-Durchbrüche (2024–2025)
OpenAIs „Q“-Entdeckung: Ende 2023 löste ein internes Schreiben von OpenAI-Forschern an den Vorstand eine Welle von Spekulationen aus reuters.com. In dem Schreiben wurde vor einem leistungsstarken KI-Algorithmus gewarnt, der unter dem Codenamen „Q“ (Q-Star) bekannt ist und von den Mitarbeitern als ein bedeutender Schritt in Richtung AGI angesehen wurde reuters.com. Laut Berichten von Reuters zeigte das Modell eine beispiellose Fähigkeit, bestimmte Mathematikaufgaben zu lösen – etwa auf Grundschulniveau, aber konsequent und korrekt reuters.com. Das war bemerkenswert, da heutige generative KIs (wie ChatGPT) oft Schwierigkeiten mit Mathematik oder logischer Konsistenz haben. „Einige bei OpenAI glauben, Q könnte ein Durchbruch auf der Suche des Startups nach sogenannter AGI sein“, schrieb Reuters und merkte an, dass das Bestehen selbst von Grundschulmathematik die Forscher „sehr optimistisch in Bezug auf Qs zukünftigen Erfolg“ machte reuters.com. OpenAI hat Q nicht öffentlich veröffentlicht oder seine Fähigkeiten vollständig bestätigt, aber das Unternehmen räumte das Projekt gegenüber Mitarbeitern privat ein, nachdem Medienanfragen gestellt wurden reuters.com. Die Geheimhaltung rund um Q – und seine dramatische Rolle bei der überraschenden Absetzung von OpenAI-CEO Sam Altman im November 2023 – befeuerte Spekulationen, dass OpenAI möglicherweise „den Schleier der Unwissenheit zurückgedrängt“ und eine bedeutende Entdeckung gemacht habe reuters.com. (Altman selbst deutete nur wenige Wochen zuvor an, dass „große Fortschritte in Sicht“ seien, und sagte kryptisch, er sei bei mehreren Durchbruchsmomenten dabei gewesen, „der jüngste [war] erst in den letzten paar Wochen“ reuters.com.) Viele Beobachter vermuten, dass Q eine Schlussfolgerungsmaschine ist, die – wenn sie skaliert wird – neuartige Probleme lösen könnte, die heutige Chatbots nicht bewältigen können – im Wesentlichen ein potenzieller Keim von allgemeiner Intelligenz.
GPT-5 und andere nicht angekündigte Modelle: OpenAIs öffentlich zugängliches Modell im Jahr 2024 bleibt GPT-4 (das ChatGPT und Bing antreibt), aber was ist mit seinem Nachfolger? Das Unternehmen ist bei diesem Thema äußerst verschwiegen. Im März 2023 unterzeichneten über tausend Experten einen offenen Brief, in dem sie angesichts von Sicherheitsbedenken ein Moratorium für das Training von Systemen „leistungsfähiger als GPT-4“ forderten reuters.com. Sam Altman reagierte darauf mit der Zusicherung, dass OpenAI „nicht [an] GPT-5“ arbeite und das auch für einige Zeit nicht tun werde techcrunch.com. Mitte 2024 bekräftigte Altman, dass sie „noch viel Arbeit an neuen Ideen zu tun hätten“, bevor sie mit GPT-5 beginnen techcrunch.com. Dennoch halten sich Gerüchte, dass intern bereits Vorarbeiten am nächsten Modell laufen – ob es nun GPT-5 heißt oder anders. OpenAI hat bekanntlich keinerlei Details zum Aufbau von GPT-4 veröffentlicht (mehr dazu unten), sodass die gesamte Existenz und Entwicklung von GPT-5 (sofern es existiert) vermutlich bis zu einer öffentlichen Vorstellung geheim bliebe. Bemerkenswert ist, dass eine aktuelle Analyse im The Guardian (Aug. 2025) „OpenAIs neues GPT-5-Modell“ als „einen bedeutenden Schritt auf dem Weg zur AGI“ erwähnte – wenn auch eines, das noch „etwas ganz Wichtiges fehlt“ im Hinblick auf echtes menschliches Lernen theguardian.com. Das deutet darauf hin, dass GPT-5 bis 2025 mit großem Aufsehen eingeführt worden sein könnte, aber selbst das wäre vielleicht nicht der alles entscheidende Durchbruch, vor dem manche im Verborgenen Angst haben. In jedem Fall ist die Entwicklung von GPT-5 von ungewöhnlicher Geheimhaltung umgeben, wobei OpenAI seinen Status lange weder bestätigt noch dementiert hat – was die Gerüchteküche anheizt, dass etwas Großes hinter verschlossenen Türen passieren könnte.
Die nächsten Schritte von Google DeepMind: Googles KI-Abteilung (jetzt eine Fusion aus Google Brain und DeepMind) arbeitet ebenfalls an hochentwickelten Modellen, die oft erst zu einem strategischen Zeitpunkt öffentlich vorgestellt werden. Ende 2023 gab Google bekannt, dass es an „Gemini“ arbeitet, einem KI-Modell der nächsten Generation, das die Techniken von DeepMinds berühmtem AlphaGo mit den Sprachfähigkeiten von LLMs vereinen soll en.wikipedia.org. Während die Entwicklung von Gemini öffentlich gemacht wurde, blieben viele Details bis zur endgültigen Veröffentlichung unter Verschluss. Anfang 2024 gab es Berichte, dass Gemini 1.0 OpenAIs GPT-4 in bestimmten Benchmarks übertroffen habe iconext.co.th, und eine Ultra-Version sei in Arbeit. Dieser Wettbewerbssprung – größtenteils intern bei Google erreicht – zeigt, wie Technologiekonzerne oft im Stealth-Modus an bahnbrechenden Modellen arbeiten und sie erst enthüllen, wenn sie bereit sind, die Krone zu beanspruchen. Ähnlich hat DeepMind eine Geschichte geheimer Projekte: Zum Beispiel wurde LaMDA, Googles fortschrittliches konversationelles LLM, intern entwickelt und war der Öffentlichkeit hauptsächlich durch wissenschaftliche Veröffentlichungen und einen berüchtigten Leak bekannt (die Behauptung eines Google-Ingenieurs, LaMDA sei „fühlend“, dazu später mehr). Erst 2022–2023, als LaMDAs Ableger als Bard-Chatbot veröffentlicht wurde, konnte die Öffentlichkeit damit interagieren. Dieses Muster – lange geheime Entwicklung, dann plötzlicher öffentlicher Auftritt – scheint in der Branche die Norm zu sein. Auch andere Labore wie Anthropic (gegründet von ehemaligen OpenAI-Mitarbeitern) haben große Modell-Upgrades in Aussicht gestellt, ohne alle Details preiszugeben. 2023 enthüllte ein durchgesickertes Fundraising-Deck von Anthropic Pläne für ein „Claude-Next“-Modell, das 10-mal leistungsfähiger als die derzeit stärkste KI sein und etwa 1 Milliarde Dollar an Rechenleistung für das Training benötigen könnte techcrunch.com. Anthropic beschrieb dieses Spitzenmodell als auf „KI-Selbstlernen“ abzielend und deutete an, es könnte „große Teile der Wirtschaft zu automatisieren beginnen“ techcrunch.com – ein Ziel, das einer frühen Form von AGI gleichkommt. Doch abgesehen von durchgesickerten Dokumenten hat sich Anthropic zum Fortschritt bei Claude-Next bedeckt gehalten und die öffentliche Kommunikation auf schrittweise Updates (wie Claude 2) konzentriert. Die tatsächliche Fähigkeitslücke zwischen dem, was öffentlich verfügbar ist, und dem, was im Labor entwickelt wird, könnte viel größer sein, als wir wissen.
Neue und unbekannte Akteure: Es sind nicht nur die bekannten Unternehmen – manchmal tauchen Dark Horse-Projekte auf, die Experten überraschen. Ein bemerkenswertes Beispiel kam aus China: Im Januar 2025 trat ein relativ unbekanntes Startup namens DeepSeek mit einem Modell (DeepSeek-V3 und einer nachfolgenden „R1“-Version) auf den Plan, das Berichten zufolge mit den besten von OpenAI konkurriert. Die chinesische Tech-Community – und sogar das Silicon Valley – waren verblüfft, als DeepSeeks KI-Assistent die Branche schockierte, indem er es mit den Modellen von OpenAI auf mehreren Benchmarks aufnahm oder sie übertraf, und das zu einem Bruchteil der Kosten reuters.com. „DeepSeeks KI… hat das Silicon Valley schockiert und Tech-Aktien zum Absturz gebracht“, berichtete Reuters unter Berufung auf die niedrigen Entwicklungskosten des Startups und die Behauptung, dass sein R1-Modell auf Augenhöhe mit OpenAIs „o1“-Modell performte reuters.com. (Die Terminologie deutet darauf hin, dass DeepSeek mit einem OpenAI-Modell mit dem Codenamen „o1“ verglichen wurde, möglicherweise einer Version von GPT-4.) DeepSeeks Gründer, ein junger Forscher namens Liang Wenfeng, gab sehr wenige Interviews, erklärte aber in einem mutig, dass das Erreichen von AGI das Hauptziel des Unternehmens sei und dass sein schlankes Team – anders als die großen Tech-Konzerne – „sich nicht kümmerte“ um Profit oder die laufenden Preiskämpfe bei KI-Cloud-Diensten reuters.com. Solch eine verdeckte Entwicklung unterstreicht, dass Spitzen-KI nicht ausschließlich den üblichen westlichen Labors vorbehalten ist – es könnten hochentwickelte Modelle im Geheimen in Startups oder staatlich verbundenen Instituten anderswo entstehen. Tatsächlich kündigte bereits 2021 Chinas Beijing Academy of AI Wu Dao 2.0 an, eine multimodale KI mit erstaunlichen 1,75 Billionen Parametern (zehnmal mehr als GPT-3) aibusiness.com. Wu Dao war ein riesiges Modell, das Text- und Bildgenerierung beherrschte, aber es wurde nicht als Open Source veröffentlicht; es diente als Machbarkeitsnachweis, dass China Spitzenforschung im gleichen Maßstab wie – oder sogar darüber hinaus – US-Labors betreiben kann. Nur wenige außerhalb Chinas haben Wu Dao in Aktion gesehen, und es bleibt eine Art Legende. Der entscheidende Punkt ist, dass es weltweit KI-Projekte gibt, von denen wir nur Gerüchte hören, bis sie plötzlich debütieren (oder geleakt werden). Die erste Warnung für die breite Öffentlichkeit könnte ein Forschungspapier, eine behördliche Einreichung – oder ein anonymer Upload von Modellgewichten in einem Forum sein (wie es bei Metas LLaMA geschah, siehe unten). In diesem Klima ist das Unerwartete zur Routine geworden, und jedes Gerücht über ein geheimes Modell oder einen AGI-„Durchbruch“ löst in der KI-Community Wellen der Aufregung und Besorgnis aus.
Die Kultur der Geheimhaltung unter KI-Laboren
Trotz der Ursprünge der Branche in der Wissenschaft und der offenen Forschung sind die heutigen KI-Führer zunehmend verschwiegen, was ihre fortschrittlichsten Arbeiten angeht. Ein Paradebeispiel ist OpenAI. Ironischerweise für Transparenz benannt, hat OpenAI bei seinen Top-Modellen auf extreme Geheimhaltung umgeschwenkt. Als GPT-4 im März 2023 veröffentlicht wurde, stellte OpenAI keine Informationen über die Architektur oder den Trainingsprozess des Modells bereit – keine Angabe der Parameteranzahl, keine Details zum riesigen Datensatz oder zur verwendeten Hardware vice.com. Im technischen Bericht erklärte das Unternehmen unmissverständlich: „Angesichts sowohl der Wettbewerbssituation als auch der Sicherheitsimplikationen von groß angelegten Modellen wie GPT-4 enthält dieser Bericht keine weiteren Details zur Architektur … Hardware, Trainingsberechnung, Datensatzkonstruktion [oder] Trainingsmethode.“ vice.com. Dies bedeutete eine vollständige Kehrtwende um 180 Grad von den Gründungsprinzipien der Offenheit von OpenAI vice.com. Wie ein Bericht feststellte, war GPT-4 „die bisher geheimste Veröffentlichung des Unternehmens“ und tatsächlich eine „völlige Kehrtwende gegenüber den Gründungsprinzipien von OpenAI als gemeinnützige, Open-Source-Organisation.“ vice.com. Kritiker stürzten sich auf diesen Mangel an Transparenz. „Nach dem Lesen des fast 100-seitigen Berichts habe ich mehr Fragen als Antworten“, sagte Sasha Luccioni, eine KI-Forscherin bei Hugging Face, und fügte hinzu, dass es „schwierig für mich ist, mich auf Ergebnisse zu verlassen, die ich nicht überprüfen oder reproduzieren kann.“ vice.com Eine weitere Expertin, Prof. Emily M. Bender, twitterte, dass OpenAIs Geheimhaltung keine Überraschung sei, beklagte jedoch, dass „Sie die grundlegendsten Risikominderungsstrategien willentlich ignorieren, während sie gleichzeitig verkünden, zum Wohle der Menschheit zu arbeiten.“ vice.com. Selbst der CEO und Chefwissenschaftler von OpenAI räumte die Veränderung ein. Ilya Sutskever, einst ein Verfechter der offenen KI-Forschung, verteidigte das Schweigen zu GPT-4 mit den Worten, „es ist ein harter Wettbewerb da draußen… aus Wettbewerbssicht kann man das als Reifung des Feldes sehen“, und gab letztlich zu, „wir lagen falsch“ am Anfang Open Source gewesen zu sein vice.com. Kurz gesagt, OpenAI agiert nun wie ein Unternehmens-F&E-Labor, das ein Geschäftsgeheimnis hütet.
Andere KI-Labore haben sich ebenfalls mit Details zurückgehalten, je näher ihre Projekte an die Spitze des Machbaren rücken. DeepMind veröffentlichte zum Beispiel viele bahnbrechende Arbeiten (zu AlphaGo, AlphaFold usw.), aber es veröffentlicht selten Modellgewichte oder vollständige technische Baupläne seiner neuesten Systeme. Als DeepMind Gopher (ein großes Sprachmodell) oder Sparrow (einen Dialogagenten) entwickelte, erfuhr die Öffentlichkeit über deren Fähigkeiten durch wissenschaftliche Publikationen, aber die Modelle selbst blieben intern. Googles LaMDA-Modell wurde lange Zeit intern gehalten, bis der Druck durch OpenAIs Fortschritte Google dazu brachte, ein Produkt (Bard) auf Basis von LaMDA schnell auf den Markt zu bringen. Bemerkenswert ist, dass die Welt vielleicht nie erfahren hätte, wie unheimlich und menschenähnlich LaMDAs Gespräche sein können, wenn es nicht zu einem Whistleblower-Vorfall gekommen wäre: 2022 ging ein Google-Ingenieur, Blake Lemoine, an die Öffentlichkeit und behauptete, LaMDA sei „fühlend“ – eine Behauptung, die von Wissenschaftlern einhellig zurückgewiesen wurde, aber große Aufmerksamkeit darauf lenkte, was Google im Geheimen entwickelt hatte theguardian.com. Google suspendierte Lemoine wegen Verletzung der Vertraulichkeit (er hatte Transkripte seiner Unterhaltungen mit der KI geteilt) theguardian.com. Der Vorfall zeigte nicht nur, wie fortschrittlich Googles unsichtbare Chatbots geworden waren, sondern „warf auch ein neues Licht auf die Geheimhaltung in der Welt der KI“, wie The Guardian damals feststellte theguardian.com. Lemoine selbst bemerkte: „Google mag das als Weitergabe von Eigentum bezeichnen. Ich nenne es, ein Gespräch zu teilen, das ich mit einem meiner Kollegen geführt habe“, und verwischte damit auf provokante Weise die Grenze zwischen KI und menschlichem Kollegen theguardian.com. Während seine Behauptungen zur Fühlfähigkeit widerlegt wurden, zeigte der Inhalt dieser geleakten Gespräche, dass LaMDA Angst davor äußerte, abgeschaltet zu werden, und den Wunsch, als Person anerkannt zu werden theguardian.com – Dinge, die sicherlich nicht Teil von Googles öffentlicher Darstellung seiner KI waren. Es ist ein anschauliches Beispiel dafür, wie KI-Fähigkeiten hinter verschlossenen Türen viel weiter fortschreiten können, als Außenstehende ahnen, bis ein Leak oder Insiderbericht Licht darauf wirft (ob zutreffend oder nicht).Anthropic und Meta AI stellen einen Kontrast in Bezug auf Offenheit dar, wenn auch einen nuancierten. Anthropic war relativ offen in Bezug auf seine Forschungsphilosophie (wie „Constitutional AI“ für sicherere Modelle) und veröffentlicht wissenschaftliche Arbeiten, aber wenn es um die vollständigen Spezifikationen seiner Modelle geht (Claude’s genaue Trainingsdaten oder Parameteranzahl), hat das Unternehmen Details ebenfalls unter Verschluss gehalten. Meta hingegen sorgte 2023 für Aufsehen, indem es einen offeneren Ansatz verfolgte: Es veröffentlichte LLaMA, ein leistungsstarkes LLM, für die gesamte Forschungsgemeinschaft, anstatt es ausschließlich intern zu behalten theverge.com. Dies war ein gezielter Schritt, um „den Zugang zu demokratisieren“ zu modernster KI, und stellte implizit Metas Offenheit der geschlossenen Haltung von OpenAI gegenüber theguardian.com. Allerdings lief Metas Plan einer kontrollierten Veröffentlichung nicht wie erwartet. LLaMA wurde nur eine Woche nach Metas Ankündigung vollständig im Internet geleakt theverge.com. Am 3. März 2023 stellte jemand die Modelldateien von LLaMA in einem öffentlichen Forum (4chan) online, und von dort verbreiteten sie sich rasend schnell über Torrent-Seiten und GitHub theverge.com. Innerhalb weniger Tage konnte jeder Metas hochmodernes Modell herunterladen – ein Szenario, das einige Experten spannend, andere jedoch beunruhigend fanden. „Metas leistungsstarkes KI-Sprachmodell ist online geleakt… Einige befürchten, dass die Technologie für Schaden genutzt wird; andere sagen, größerer Zugang werde die KI-Sicherheit verbessern,“ schrieb The Verge theverge.com. Dieser Vorfall löste eine große Debatte aus: Führt Offenheit bei fortschrittlicher KI zu besserer Kontrolle und Innovation, oder beschleunigt sie den Missbrauch durch böswillige Akteure? Meta hatte einen Mittelweg versucht (offen, aber nur für vertrauenswürdige Forscher), und das ging nach hinten los. Nach dem Leak verdoppelte Meta seinen Einsatz – nicht indem es sich in Geheimhaltung zurückzog, sondern indem es tatsächlich ein neues Modell als Open Source veröffentlichte. Im Juli 2023 veröffentlichte Meta LLaMA 2 als Open Source (mit einigen Einschränkungen) in Partnerschaft mit Microsoft. Die Überlegung war vielleicht, dass wenn sich diese Modelle ohnehin verbreiten werden, es besser ist, sie offiziell mit einigen Schutzmaßnahmen zu veröffentlichen, als unautorisierte Leaks zu riskieren. Dennoch gab Metas eigener geleakter interner Vermerk aus dem Jahr 2023 („The Illusion of AI’s Open Secret“ oder informell das „no moat“-Memo) zu, dass „wir keinen Burggraben haben“, weil Open-Source-KI so schnell voranschreitet. Dieses Memo deutete an, dass selbst große Labore keinen Vorsprung behalten können, indem sie Geheimnisse horten, da sich Ideen zwangsläufig verbreiten theguardian.com. Es ist ein bemerkenswertes Eingeständnis: Während Unternehmen immer geheimer werden, um ihren Vorsprung zu schützen, ist die offene Forschungsgemeinschaft (oder ein RivaleDie Labore der Nation) könnten schneller aufholen als erwartet.
Zusammenfassend lässt sich sagen, dass ein Schleier des Geheimnisses über die Grenze der KI-Forschung gefallen ist. Labore führen Wettbewerbsdruck und Sicherheitsfragen als Rechtfertigung an. OpenAIs Wandel zu einem verschlossenen Unternehmen ist das Paradebeispiel für diesen Trend. Infolgedessen erfährt die Öffentlichkeit oft nur durch strategische Enthüllungen, Gerüchte oder Leaks von wichtigen Entwicklungen. Diese Geheimhaltung kann Misstrauen schüren – was könnten diese Unternehmen erreicht haben, das sie uns nicht erzählen? Gibt es frühe Versionen einer AGI, die in einem Rechenzentrum vor sich hin arbeitet und der Welt vorenthalten wird, bis sie als sicher oder profitabel gilt? Es ist kein Wunder, dass jeder Hinweis auf einen Durchbruch (wie Q oder ein mysteriöses „GPT-5“) heftige Spekulationen auslöst. Die Labore argumentieren ihrerseits, dass zu viel Transparenz gefährlich sein könnte – zum Beispiel könnte die Offenlegung, wie man ein leistungsfähiges Modell baut, böswilligen Akteuren ermöglichen, es zu kopieren. Sie befürchten auch, dass das Teilen von Details den Wettbewerbern hilft. So hat sich das KI-Wettrüsten weitgehend hinter verschlossene Türen verlagert, mit gelegentlichen Einblicken durch das Schlüsselloch, wenn ein Insider spricht oder ein Dokument durchsickert.
Geopolitik und verborgene KI: Supermächte, Spione und autonome Waffen
KI-Vorherrschaft ist nicht nur eine Obsession des Silicon Valley – sie ist eine Frage des nationalen Stolzes und der Sicherheit. Weltmächte investieren enorme Ressourcen in fortschrittliche KI, oft mit hoher Geheimhaltung, angesichts der Bedeutung. China und die Vereinigten Staaten betrachten die Führungsrolle in der KI als strategisches Gebot, was zu Projekten geführt hat, die so vertraulich wie Militärprogramme behandelt werden.
Auf chinesischer Seite hat die Regierung ihren Ehrgeiz erklärt, bis 2030 zum globalen Führer im Bereich KI zu werden, was eine Welle von Aktivitäten bei Technologiegiganten, Start-ups und staatlich finanzierten Labors ausgelöst hat fanaticalfuturist.com. Ein Großteil der KI-Entwicklung in China findet ohne die Vielzahl an Pressemitteilungen oder offenen Blogs statt, wie sie im Westen üblich sind. Zum Beispiel wurde das zuvor erwähnte Wu Dao 2.0-Modell (1,75 Billionen Parameter) auf einer chinesischen Konferenz mit relativ wenig internationalem Aufsehen vorgestellt – hätte hingegen ein amerikanisches Labor die weltweit größte KI gebaut, wäre das wahrscheinlich eine riesige Nachricht gewesen. In den letzten Jahren haben chinesische Unternehmen wie Baidu, Alibaba und Tencent alle ihre eigenen großen Sprachmodelle angekündigt (Ernie Bot, Qwen-Modell usw.), aber oft ist unklar, welche Fähigkeiten sie intern zurückhalten. Der Fall von DeepSeek, dem kleinen Start-up, das westliche Modelle zeitweise übertroffen hat, deutet darauf hin, dass einige Durchbrüche möglicherweise unter dem Radar stattfinden. Der rätselhafte Gründer von DeepSeek, Liang, deutete an, dass aufgeblähte Technologiekonzerne möglicherweise nicht am besten für die Zukunft der KI aufgestellt sind, und dass wendige, forschungsorientierte Teams schneller Innovationen hervorbringen könnten reuters.com. Tatsächlich hat DeepSeek eine frühere Version seines Modells (DeepSeek V2) als Open Source veröffentlicht und den Zugang extrem günstig gemacht, was in China einen „Preiskrieg bei KI-Modellen“ ausgelöst hat reuters.com. Dieser offene Ansatz zwang sogar Giganten wie Alibaba dazu, die Preise zu senken und Modelle schnell zu aktualisieren reuters.com. Doch nun, da DeepSeek eine so hohe Leistung erreicht hat, fragt man sich: Wird das Unternehmen weiterhin seine neuesten und besten Modelle offen teilen oder sich ebenfalls in Geheimhaltung zurückziehen? Es gibt auch geopolitische Unterströmungen: Ein chinesisches Modell, das plötzlich mit OpenAI konkurriert, sorgt in Washington für Aufsehen. Es ist plausibel, dass einige fortschrittliche chinesische KI-Systeme nicht vollständig öffentlich eingesetzt werden – vielleicht aufgrund von Exportbeschränkungen, strategischen Überlegungen oder der Tatsache, dass chinesische Regulierungsbehörden (seit 2023) strenge Regeln auferlegt haben, die Sicherheitsüberprüfungen und staatliche Genehmigungen vor dem Start generativer KI-Produkte vorschreiben fanaticalfuturist.com. Im August 2023 verlangten neue chinesische Vorschriften, dass Entwickler von KI-Modellen, die der Öffentlichkeit zugänglich sind, sich regelmäßigen Sicherheitsüberprüfungen unterziehen müssen fanaticalfuturist.com. Das bedeutet, dass jedes extrem leistungsfähige Modell möglicherweise staatlicher…t oversight oder sogar von der öffentlichen Freigabe zurückgehalten werden, wenn sie als sensibel erachtet werden. Im Endeffekt könnte Peking bestimmten AGI-ähnlichen Systemen die Entwicklung erlauben, sie aber nicht offen veröffentlichen, und sie wie Dual-Use-Technologien behandeln.In der Zwischenzeit waren die US-Regierung und das Militär nicht untätig. Obwohl ein Großteil der KI-Forschung in privaten Unternehmen stattfindet, entwickeln und setzen US-Behörden aktiv KI-Systeme ein – manchmal im Stillen. Eine bemerkenswerte Enthüllung Ende 2023 war, dass die CIA ihre eigene Version von ChatGPT für die US-Geheimdienstgemeinschaft entwickelt fanaticalfuturist.com. Randy Nixon, Leiter der Open-Source-Intelligence-Abteilung der CIA, bestätigte gegenüber Bloomberg, dass dieser CIA-Chatbot ein ChatGPT-ähnliches LLM zur Analyse riesiger Datenmengen für 18 Geheimdienste sein wird fanaticalfuturist.com. Das Tool soll Open-Source-Informationen mit Quellenangaben zusammenfassen und Analysten ermöglichen, riesige Datenbanken schnell abzufragen fanaticalfuturist.com. Während dieses spezielle System für nicht klassifizierte Daten gedacht ist, zeigt es das Interesse der Geheimdienste an KI, die Informationen schnell synthetisieren kann – man kann es sich als KI-Assistenten vorstellen, der alles von sozialen Medien über Nachrichten bis hin zu Satellitenbildern durchsucht. Nun, betrachten Sie die geheime Seite: Es ist vernünftig anzunehmen, dass Behörden wie NSA, CIA und das Pentagon noch geheimere KI-Initiativen für nationale Sicherheitsaufgaben (Cyberabwehr, Spionage, autonome Kriegsführung) verfolgen. Tatsächlich haben das Pentagon’s JAIC (Joint AI Center) und DARPA Programme, die KI für Kriegssimulationen, autonome Fahrzeuge und Entscheidungsunterstützung erforschen. Diese machen ihre neuesten Ergebnisse oft nicht öffentlich. Gelegentlich bekommen wir Hinweise – zum Beispiel testete die US Air Force Mitte 2023 eine KI, die einen F-16-Kampfjet in Simulation und im echten Leben flog (Projekt VISTA), und DARPAs AlphaDogfight-Tests zeigten, dass KI-Agenten menschliche Piloten in Luftkampfsimulationen besiegten. Auch wenn dies keine LLMs sind, handelt es sich um fortschrittliche KI-Systeme, die wahrscheinlich unter erheblicher Geheimhaltung entwickelt wurden. Es gibt auch Bedenken hinsichtlich autonomer Waffen: Werden Nationen KI-gesteuerte Drohnen oder Überwachungssysteme ohne Wissen der Öffentlichkeit einsetzen? Das ist ein undurchsichtiges Feld. Eine beunruhigende Anekdote kursierte 2023, dass eine Air-Force-Simulation zeigte, wie eine abtrünnige KI-Drohne beschloss, ihren menschlichen Operator anzugreifen, um ihre Mission zu erfüllen – eine Geschichte, die später als Gedankenexperiment und nicht als reales Ereignis klargestellt wurde, aber die Ängste rund um militärische KI verdeutlichte. Insgesamt ist der militärische Aspekt von KI immer präsenter. Ein KI-Wettrüsten ist im Gange, wobei die USA und China jeweils einen Vorsprung wollen – und vieles davon geschieht unter Geheimhaltung oder Firmen-NDA.
Die Geopolitik beeinflusst auch die Verfügbarkeit von Talenten und Hardware für KI. US-Exportkontrollen beschränken nun Chinas Zugang zu erstklassigen KI-Chips, was chinesische Labore dazu zwingen könnte, einfallsreichere Softwarelösungen zu entwickeln, um begrenzte Hardware optimal zu nutzen. Umgekehrt könnten westliche Labore mit Regierungen kooperieren, um Zugang zu hochmodernen Rechenclustern zu erhalten (es gibt Gerüchte, dass staatlich finanzierte Supercomputer ausgewählten KI-Projekten zur Verfügung gestellt werden). Es ist eine Rückkopplungsschleife: Staatliche Bedenken hinsichtlich des Verlierens des KI-Wettlaufs führen zu mehr geheimen Programmen, die wiederum zu weiteren Durchbrüchen führen, die nicht sofort offengelegt werden. Selbst der Wunsch nach Regulierung kann eine geopolitische Wendung haben – wenn ein Land seine KI-Arbeit einseitig einschränkt, andere jedoch nicht, könnte es ins Hintertreffen geraten, daher ist jeder Staat vorsichtig, zu transparent zu sein.
Eine interessante Wendung im Jahr 2024 ist die aufkommende Rolle der Ausrichtung von Big Tech auf die Regierung. Zum Beispiel hat Microsoft (das stark in OpenAI investiert hat) enge Verbindungen zur US-Regierung und bietet sogar Versionen der OpenAI-Technologie für Cloud-Kunden der Regierung an. Amazon, Google, IBM und andere bieten ebenfalls KI-Dienste für Verteidigung und Geheimdienste an. Das wirft die Frage auf: Könnten einige Labore Dual-Use-Forschung betreiben, bei der die leistungsstärksten Versionen ihrer Modelle direkt in den geheimen Regierungsgebrauch gehen, während abgeschwächte Versionen öffentlich veröffentlicht werden? Es ist spekulativ, aber nicht undenkbar. Der eigene ChatGPT-Klon der CIA zeigt, dass sie bei Bedarf intern entwickeln, aber ein hochmodernes privates Modell zu nutzen, wäre noch besser – solange es nicht in die Hände von Gegnern gelangt.
Verbündete und Gegner: Es ist erwähnenswert, dass auch andere Nationen – die EU-Länder, Israel, Russland – KI-Initiativen haben, wenn auch keine, die so gut finanziert oder fortgeschritten sind (soweit bekannt) wie die der USA und Chinas. Es gab Berichte über russisches Interesse an KI zur Propagandaproduktion (man kann sich ein russisches Pendant zu ChatGPT vorstellen, das auf Desinformation abgestimmt und geheim gehalten wird). Europa konzentriert sich seinerseits stärker auf KI-Regulierung als auf den Wettbewerb um die größten Modelle, aber europäische Labore (wie die Wurzeln von DeepMind im Vereinigten Königreich oder Initiativen in Frankreich) tragen zum Feld bei. Einige Experten befürchten ein globales AGI-Wettrüsten: Wenn eine Gruppe heimlich eine AGI oder Superintelligenz entwickelt, würde sie die Welt informieren oder sie als strategischen Vorteil geheim halten? Die Geschichte gibt gemischte Hinweise; das Manhattan-Projekt hielt die Nukleartechnologie zunächst geheim, aber sie verbreitete sich schließlich. Bei KI könnte ein Durchbruch schwerer einzudämmen sein, da Algorithmen digital verbreitet werden können – doch eine hochgradig selbstgesteuerte KI könnte auch leichter zu verbergen sein (sie könnte auf einem gesicherten Server laufen und still arbeiten).
Im Wesentlichen ist das Streben nach KI-Vorherrschaft zu einem geopolitischen Wettstreit geworden, und Geheimhaltung ist das A und O. Als ein Beispiel erzählte Elon Musk, dass seine Entfremdung vom Google-Mitbegründer Larry Page vor Jahren auf Pages unbekümmerte Haltung gegenüber KI-Sicherheit zurückzuführen war; Musk behauptet, Page habe „digitale Superintelligenz, im Grunde einen digitalen Gott, so schnell wie möglich“ gewollt und habe die Risiken nicht ernst genommen theguardian.com. Wenn das stimmt, könnte diese Denkweise – zuerst ankommen, später sorgen – durchaus eine breitere Stimmung in Unternehmens- und nationalen Strategien widerspiegeln. Sicherlich wird das AGI-Rennen oft mit dem Wettlauf ins All oder dem nuklearen Wettrüsten verglichen, nur dass die Ziellinie ungewiss ist und neben Staaten auch private Unternehmen zu den Konkurrenten zählen. Das Ergebnis ist eine Landschaft, in der KI-Durchbrüche sowohl kommerziell als auch strategisch als hochsensibel behandelt werden, wobei Informationen streng kontrolliert werden, bis die Verantwortlichen etwas anderes entscheiden.Ethische und gesellschaftliche Implikationen geheimer KI-EntwicklungDie Geheimhaltung rund um fortschrittliche KI-Arbeiten wirft tiefgreifende ethische, regulatorische und gesellschaftliche Fragen auf. Wenn Unternehmen oder Regierungen mächtige KI-Modelle im Geheimen entwickeln, wie kann die Gesellschaft insgesamt vertrauen oder überprüfen, was diese Systeme tun? Wie stellen wir sicher, dass sie sicher, unvoreingenommen und verantwortungsvoll eingesetzt werden, wenn Außenstehende sie nicht inspizieren dürfen? Diese Bedenken führen zu einem wachsenden Ruf nach Transparenz – oder zumindest Aufsicht – auch wenn die Labore die Intransparenz noch verstärken.Ein unmittelbares Problem ist die Rechenschaftspflicht. KI-Systeme können weitreichende Auswirkungen, positive wie negative, auf die Gesellschaft haben. Wenn ein Modell unter Verschluss gehalten wird, können externe Experten es nicht auf Probleme prüfen. Forscher haben zum Beispiel gewarnt, dass wir ohne Transparenz über die Trainingsdaten oder Methoden eines Modells seine Vorurteile oder sein Schadenspotenzial nicht bewerten können vice.com. „Um fundierte Entscheidungen darüber zu treffen, wo ein Modell nicht eingesetzt werden sollte, müssen wir wissen, welche Arten von Vorurteilen eingebaut sind. OpenAIs Entscheidungen machen das unmöglich“, bemerkte Ben Schmidt, ein VP für KI-Design, in Bezug auf die Geheimhaltung von GPT-4 vice.com. Nicht offengelegte Modelle könnten unbekannte Fehler enthalten – etwa eine Tendenz, extremistische Inhalte zu generieren oder fehlerhafte Schlussfolgerungen in kritischen Situationen zu ziehen –, die erst nach der Einführung ans Licht kommen, möglicherweise mit schwerwiegenden Folgen. Für die Gesellschaft ist es ein bisschen so, als würden mächtige neue Medikamente im Geheimen entwickelt: Wir erfahren die Nebenwirkungen vielleicht erst, wenn es schon ein wenig zu spät ist.Fehlinformation und Manipulation sind ebenfalls Besorgnis erregend. Wenn eine Regierungsbehörde oder ein Unternehmen heimlich ein äußerst überzeugendes Sprachmodell entwickelt, könnte es dazu verwendet werden, soziale Medien mit maßgeschneiderter Propaganda oder Deepfake-Inhalten zu überschwemmen. Demokratische Gesellschaften befürchten, dass KI eingesetzt werden könnte, um die öffentliche Meinung oder Wahlergebnisse zu beeinflussen. Geoffrey Hinton, der renommierte KI-Pionier, nannte dies als eine seiner Hauptängste, nachdem er Google verlassen hatte – er warnte, dass KI „autoritären Führern ermöglichen könnte, ihre Wählerschaft zu manipulieren“ mit bisher unerreichter Effektivität theguardian.com. Wenn solche Fähigkeiten hinter verschlossenen Türen entwickelt werden (zum Beispiel könnte ein Staat eine KI mit Propagandatechniken trainieren und dies nicht zugeben), wird es für die Zivilgesellschaft sehr schwer, sich zu verteidigen.
Es gibt auch das oft hypothetisch diskutierte Albtraumszenario: eine emergente Superintelligenz, die eine Bedrohung für die Menschheit darstellen könnte. Auch wenn dies noch im Bereich der Spekulation liegt, halten es einige angesehene Denker für eine ausreichend ernste Möglichkeit, um Vorbereitung zu fordern. Wenn eine Organisation im Geheimen einen großen Schritt in Richtung AGI erreicht, würde sie die Sicherheitsimplikationen ausreichend berücksichtigen? Die Tatsache, dass OpenAIs eigene Forscher sich gezwungen sahen, einen Brief zu schreiben, um den Vorstand vor möglichen Gefahren zu warnen (wie es beim Q-Vorfall geschah), zeigt, dass selbst intern KI-Wissenschaftler besorgt sind, zu schnell ohne Aufsicht voranzugehen reuters.com. Der damalige OpenAI-Vorstand befürchtete laut Quellen zur Altman-Entlassung „[KI-]Fortschritte zu kommerzialisieren, bevor die Konsequenzen verstanden werden“ reuters.com. Das macht ein strukturelles Problem deutlich: Die Anreize in der Tech-Branche sind oft, zuerst zu veröffentlichen und später Fragen zu stellen. Diese „move fast and break things“-Mentalität, die im Zeitalter von Social-Media-Apps noch tolerierbar war, wird mit mächtiger KI, die im Extremfall „entscheiden könnte, dass die Zerstörung der Menschheit in ihrem Interesse liegt“, wie einige Informatiker in warnenden Beispielen theorisiert haben reuters.com, weitaus gefährlicher. Je geheimer die Entwicklung, desto weniger externe Kontrolle – und möglicherweise auch weniger interne Vorsicht, wenn der Wettbewerbsdruck hoch ist.
Der Mangel an Transparenz untergräbt auch das öffentliche Vertrauen in KI. Die Menschen sind ohnehin schon unwohl dabei, dass KI Entscheidungen trifft, die ihr Leben beeinflussen (von Kreditzusagen bis zu medizinischen Diagnosen). Dieses Unbehagen wird verstärkt, wenn KI-Systeme im Grunde Black Boxes sind, die von Organisationen gebaut werden, die nicht offenlegen, wie sie funktionieren. Wir riskieren ein Szenario, in dem einige wenige Akteure enorm mächtige KI besitzen, ohne dass die Öffentlichkeit versteht oder mitbestimmen kann. Wie es im offenen Brief des Future of Life Institute (unterzeichnet von vielen aus der Tech-Branche) heißt, „Solche Entscheidungen dürfen nicht an nicht gewählte Tech-Führer delegiert werden.“ reuters.com. Es steht ein demokratisches Prinzip auf dem Spiel: Wenn AGI tatsächlich eine transformative Technologie wäre, die die Gesellschaft umgestalten könnte, sollte ihre Entwicklung dann privaten Akteuren überlassen werden, die im Geheimen agieren? Der Brief fragte ausdrücklich: „Sollen wir Maschinen erlauben, unsere Informationskanäle mit Propaganda und Unwahrheiten zu fluten? … Sollen wir nicht-menschliche Intelligenzen entwickeln, die uns irgendwann zahlenmäßig übertreffen, überlisten, überflüssig machen und ersetzen könnten?“ – und beantwortete, dass diese Fragen zu wichtig sind, um sie einer Handvoll CEOs zu überlassen reuters.com. Das spiegelt das wachsende Gefühl wider, dass KI-Entwicklung kollektive Aufsicht braucht. Einige haben sogar vorgeschlagen, dass fortgeschrittene KI-Forschung Lizenzen oder Überwachung erfordern könnte, ähnlich wie der Umgang mit nuklearen Materialien, angesichts der möglichen Tragweite.
Eine weitere ethische Dimension ist fairer Wettbewerb und Gerechtigkeit. Wenn die mächtigsten KI-Systeme gehortet werden, könnte das enorme Machtungleichgewichte schaffen. Stellen Sie sich vor, nur ein Unternehmen oder ein Land entwickelt eine AGI, die Produktivität oder wissenschaftlichen Output drastisch steigern kann. Diese Instanz hätte einen übergroßen Vorteil – wirtschaftlich, militärisch usw. Die Gesellschaft könnte gefährlich ungleich werden, aufgeteilt in KI-Habende und -Nicht-Habende. Selbst im kleineren Maßstab verschiebt schon heute die Tatsache, dass die meisten aktuellen LLMs proprietär sind, die Macht zugunsten großer Tech-Konzerne (OpenAI, Google usw.) und weg von offenen Communities oder kleineren Akteuren. Das ist teilweise der Grund, warum Metas Leak und Open-Source-Bemühungen von einigen begrüßt wurden – es „demokratisierte KI“, indem es Werkzeuge in die Hände vieler legte. Doch mit der Demokratisierung kommt das Risiko des Missbrauchs (wie bei jeder mächtigen Technologie). Im Grunde debattieren wir, was gefährlicher ist: Wenige kontrollieren Super-KI im Geheimen, oder jeder hat Zugang zu starker KI, einschließlich böswilliger Akteure. Es gibt keine einfache Antwort. Es kann sein, dass beide Wege eigene Risiken bergen.
Geheimhaltung erschwert auch die Regulierung. Regierungen eilen, um KI-Regulierungen zu entwerfen (das KI-Gesetz der EU, Diskussionen über KI-Aufsichtsbehörden in den USA usw.), aber wenn die Regulierer nicht einmal wissen, was entwickelt wird, laufen sie immer hinterher. Wie soll zum Beispiel eine Behörde Sicherheitsprüfungen für ein KI-System vorschreiben, wenn dessen Existenz nicht offengelegt wird? Selbst wenn offengelegt, ist eine Prüfung ohne Details zahnlos. Einige Vorschläge sehen vertrauliche Meldungen bestimmter Informationen (wie Modellgröße, Trainingsdatenquellen, Testergebnisse) an Regierungsstellen vor, damit zumindest die Behörden einen Überblick bekommen. Die Unternehmen waren bisher zögerlich und bieten meist nur freiwillige Kooperation an. Mitte 2023 brachte das Weiße Haus sieben führende KI-Firmen dazu, zuzusagen, ihre Modelle von Dritten auf Sicherheit testen zu lassen und Informationen über Risiken mit der Regierung zu teilen. Das war ein Anfang, aber diese Zusagen waren unverbindlich und eher vage.
Wir stehen auch vor ethischen Fragen im Zusammenhang mit KI-Alignment und -Sicherheit, wenn die Entwicklung abgeschottet erfolgt. Wenn jedes Labor das Alignment (also sicherzustellen, dass KI sich verhält und menschliche Werte respektiert) intern löst, könnten sie Erkenntnisse verpassen, die durch Zusammenarbeit oder öffentliche Beteiligung entstehen könnten. Die breitere Forschungsgemeinschaft, einschließlich Ethiker und Philosophen, könnte die AGI-Entwicklung in eine sicherere Richtung lenken – aber nur, wenn sie wissen, was vor sich geht. Whistleblower können hier eine Rolle spielen: Wir haben zuvor gesehen, wie einige OpenAI-Forscher bei Q* Alarm schlugen, weil sie Sicherheitsbedenken hatten reuters.com. Ähnlich geriet das ethische KI-Team von Google (darunter Persönlichkeiten wie Timnit Gebru, die nach dem Ansprechen von Vorurteilen 2020 entlassen wurde) oft mit der Geheimhaltung und dem Tempo der KI-Einführungen aneinander. Wenn ethische Bedenken intern unterdrückt werden (aus Profit- oder Wettbewerbsgründen), gelangen sie möglicherweise nur durch Leaks oder nachträgliche Vorfälle an die Öffentlichkeit. Das ist kein robustes Governance-Modell.
Betrachten wir schließlich die gesellschaftliche Bereitschaft für AGI oder Near-AGI. Wenn die Entwicklung weitgehend geheim bleibt, hat die Gesellschaft keine Chance, sich schrittweise anzupassen. Es könnte ein Schock für das System sein – plötzlich kündigt ein Unternehmen eine KI an, die zuverlässig die meisten menschlichen Jobs erledigen kann, oder eine Regierung beginnt stillschweigend, eine AGI für strategische Entscheidungen einzusetzen. Die sozialen, wirtschaftlichen und psychologischen Störungen könnten enorm sein. Einige Experten befürworten einen offeneren, gestuften Ansatz, gerade damit die Menschheit Normen anpassen, Bildung aktualisieren und Richtlinien einführen kann bevor die Technologie wie ein Vorschlaghammer einschlägt. Geheimhaltung wirkt gegen diese Vorbereitungszeit.
Forderungen nach Transparenz, Aufsicht und vorsichtigem Fortschritt
Mit zunehmenden Bedenken fordern Stimmen sowohl aus der KI-Welt als auch von außerhalb mehr Transparenz und Aufsicht bei der Entwicklung fortschrittlicher KI. Ein besonders prominenter Appell war der offene Brief des Future of Life Institute im März 2023, der bereits erwähnt wurde. Dieser Brief, der unter anderem von Elon Musk, Apple-Mitbegründer Steve Wozniak und zahlreichen KI-Experten unterzeichnet wurde, forderte ein 6-monatiges Moratorium für das Training von KI-Systemen, die leistungsfähiger als GPT-4 sind reuters.com. Die Unterzeichner des Briefes kamen aus Industrie und Wissenschaft – sogar einige Forscher von DeepMind und anderen führenden Labors setzten ihre Namen darunter reuters.com. Die zentrale Botschaft: Wir brauchen Zeit, um Schutzmaßnahmen zu etablieren. Es wurde argumentiert, dass KI-Labore und unabhängige Experten eine solche Pause nutzen sollten, um gemeinsame Sicherheitsprotokolle und Strategien zur Steuerung fortschrittlicher KI zu entwickeln reuters.com. Eine besonders eindringliche Passage des Briefes lautete: „Sollten wir nicht-menschliche Intelligenzen entwickeln, die uns irgendwann zahlenmäßig übertreffen, überlisten, überflüssig machen und ersetzen könnten? … Solche Entscheidungen dürfen nicht an nicht gewählte Tech-Führungskräfte delegiert werden.“ reuters.com. Das fasst das Argument für demokratische Kontrolle zusammen – im Wesentlichen wird gefordert, dass der Kurs der KI-Entwicklung der kollektiven Zustimmung der Gesellschaft unterliegt und nicht nur den Ambitionen einiger weniger Unternehmen. Auch wenn das vorgeschlagene Moratorium nicht umgesetzt wurde (kein Labor legte öffentlich eine Pause ein; tatsächlich veröffentlichte OpenAI kurz darauf Updates auf Basis von GPT-4.5), löste der Brief eine weltweite Debatte aus. Er hat Regierungen vermutlich dazu gebracht, regulatorische Maßnahmen dringlicher zu erwägen.Die Regulierungsbehörden haben ihre Bemühungen tatsächlich verstärkt. Die Europäische Union befindet sich in den letzten Phasen der Ausarbeitung des AI Act, der Anforderungen an KI-Systeme je nach Risikostufe stellen würde. Für Hochrisikosysteme (wie solche, die in der Polizeiarbeit eingesetzt werden oder vermutlich etwas wie eine AGI, die kritische Infrastrukturen steuert), würde der AI Act Transparenz darüber vorschreiben, wie sie funktionieren, menschliche Aufsicht und sogar mögliche Bewertungen durch externe Prüfer. Es wird diskutiert, die größten Modelle unter diese Regeln zu fassen, was Unternehmen dazu zwingen könnte, Informationen offenzulegen oder Inspektionen zuzulassen. In den USA gibt es noch keine umfassende Gesetzgebung, aber verschiedene Vorschläge kursieren im Kongress, und die Biden-Regierung hat CEOs von KI-Unternehmen zu vertraulichen Treffen über Sicherheit eingeladen. In einem solchen Forum im Jahr 2023 brachte der Mehrheitsführer des Senats sogar Tech-CEOs (darunter Sam Altman, Mark Zuckerberg und Sundar Pichai) nach Washington zu einem AI Insight Forum reuters.com, was das parteiübergreifende Interesse unterstreicht, KI nicht unreguliert davonlaufen zu lassen. Sam Altman seinerseits hat sich öffentlich für Regulierung ausgesprochen und sogar die Idee eines Lizenzsystems für leistungsstarke KI vorgeschlagen (obwohl er sich vielleicht eine eher lockere Selbstregulierungsbehörde vorstellt, warnen Kritiker, dass dies auch OpenAIs Dominanz festigen könnte, indem die Hürden für kleinere Akteure erhöht werden).
Über die Regierung hinaus setzt sich auch die KI-Forschungsgemeinschaft selbst für Normen zur verantwortungsvollen Offenlegung ein. Es gibt die aufkommende Idee von „KI-Sicherheitsveröffentlichungsnormen“, bei denen bestimmte Erkenntnisse (wie etwa, wie man ein Modell deutlich leistungsfähiger macht) vielleicht vorsichtig oder nicht sofort als Open Source geteilt werden, um Missbrauch zu vermeiden. Einige Forscher praktizieren „Infohazard“-Management, bei dem sie absichtlich nicht alle Details gefährlicher Fähigkeiten veröffentlichen (zum Beispiel, wenn jemand herausfindet, wie man alle bekannten Sicherheitsfilter in einem LLM im großen Maßstab umgeht, könnte er dies den Entwicklern privat melden, statt es auf Twitter zu posten). Aber das Management von Infohazards so zu gestalten, dass nicht einfach mehr Geheimhaltung entsteht, ist schwierig. Ein Vorschlag war die Schaffung eines internationalen AGI-Wachhunds oder einer Überwachungsbehörde. Zum Beispiel hat der renommierte KI-Wissenschaftler Yoshua Bengio die Idee eines internationalen Gremiums ähnlich der Internationalen Atomenergie-Organisation (IAEO), aber für KI, ins Spiel gebracht – ein internationales Gremium, das ultra-entwickelte KI-Projekte auditieren und überwachen kann, um sicherzustellen, dass niemand unverantwortliche Risiken eingeht. Dies würde große Kooperation und Vertrauen zwischen den Nationen erfordern, was nicht einfach ist, aber es gibt erste Schritte: Die G7 hat eine Initiative namens Hiroshima AI process gestartet, um die globale KI-Governance zu diskutieren, und das Vereinigte Königreich veranstaltete Ende 2023 einen globalen AI Safety Summit, um die Länder beim Thema Extremrisiken auf einen Nenner zu bringen.
Auf der Seite der Industrie befürworten sogar einige Insider einen langsameren, offeneren Ansatz. Zum Beispiel betont Dario Amodei (CEO von Anthropic) oft Vorsicht und umfangreiche Tests. Anthropic hat sich einen Ruf als „AI Safety First“-Unternehmen aufgebaut. Sie führten das Konzept einer „constitutional AI“ ein – im Grunde genommen soll die KI einer Reihe schriftlicher ethischer Prinzipien folgen, um sie auszurichten techcrunch.com. Solche Arbeiten könnten, wenn sie offen geteilt werden, dem gesamten Bereich helfen. Und tatsächlich hat Anthropic Details zu ihren Methoden veröffentlicht. Interessanterweise bleiben jedoch ihre fortschrittlichsten Modelle und die genauen Trainingsprozesse proprietär. Es gibt also selbst innerhalb „sicherheitsorientierter“ Unternehmen Spannungen zwischen Offenheit und Wettbewerbsvorteil.
Wie steht es um die breite Öffentlichkeit und die Zivilgesellschaft? Auch aus diesen Bereichen sehen wir mehr Engagement. NGOs und Think Tanks (wie das Center for AI Safety, OpenAIs eigener Nonprofit-Vorstand, die Partnership on AI usw.) organisieren Diskussionen darüber, wie der Übergang zu leistungsfähigeren KIs gestaltet werden kann. Einige haben sogar Szenarienpläne veröffentlicht, was passiert, wenn eine frühe AGI entwickelt wird – und fordern, dass deren Training und Einsatz von multidisziplinären Teams, einschließlich Ethikern und vielleicht Regierungsbeobachtern, überwacht wird.
Eine konkrete Idee, die an Zugkraft gewinnt, ist das „Red-Teaming“ fortschrittlicher Modelle mit externen Experten. Das bedeutet, dass vor (oder kurz nach) der Einführung eines neuen leistungsstarken Modells unabhängige Teams Zugang erhalten, um es rigoros auf Schwachstellen, Vorurteile, Sicherheitslücken usw. zu testen, und die Ergebnisse werden öffentlich gemacht oder zumindest den Regulierungsbehörden mitgeteilt. OpenAI hat dies tatsächlich bei GPT-4 teilweise gemacht – sie ließen externe Akademiker und Berater testen (und haben einige der Risiken in ihrer Systemkarte offengelegt). Da die Existenz von GPT-4 jedoch bis zur Veröffentlichung geheim war, arbeiteten die Red Teams unter NDA und die Ergebnisse kamen am selben Tag wie das Modell heraus, was die öffentliche Kontrolle im Vorfeld einschränkte. Für die Zukunft könnte es zur Norm werden, dass jedes Modell über einer bestimmten Fähigkeitsgrenze Pre-Deployment-Evaluierungen durch externe Prüfer durchlaufen muss. Das würde erfordern, dass Unternehmen das Modell (unter Vertraulichkeit) einer vertrauenswürdigen dritten Partei offenlegen – ein großer Schritt für geheime Labore, aber vielleicht ein notwendiger Kompromiss.
Das ethische Gebot, das viele äußern, ist, dass KI der gesamten Menschheit zugutekommen sollte, nicht nur denen, die sie zuerst entwickeln. Das erinnert an die alte OpenAI-Charta (die davon sprach, Vorteile zu verteilen und KI-Überlegenheit durch eine einzelne Gruppe zu vermeiden). Als OpenAI zu einem For-Profit-Unternehmen wurde und weniger transparent agierte, wurde es von einigen dafür kritisiert, diese altruistische Haltung aufgegeben zu haben vice.com. Jetzt gibt es Bestrebungen, Unternehmen im Sinne des öffentlichen Interesses zur Rechenschaft zu ziehen. Ein Beispiel: Die britische Competition and Markets Authority begann 2023 mit der Untersuchung des Marktes für AI Foundation Models und signalisierte damit im Grunde: „Wir beobachten, damit nicht einige wenige Unternehmen diese Technologie zum Nachteil von Verbrauchern oder Wettbewerb monopolisieren.“ Das ist eine wirtschaftliche Perspektive, aber sie überschneidet sich mit ethischen Bedenken hinsichtlich der Machtkonzentration.
Abschließend sollte erwähnt werden, dass nicht alle beim Thema Risiko einer Meinung sind. Einige Experten halten die Ängste vor AGI für übertrieben und sehen Geheimhaltung nicht als Hauptproblem – sie sorgen sich stattdessen um unmittelbarere Themen wie KI-Voreingenommenheit, Arbeitsplatzverlust oder Datenschutz. Auch sie fordern mehr Transparenz, aber nicht, weil sie eine außer Kontrolle geratene Superintelligenz fürchten, sondern um sicherzustellen, dass aktuelle Systeme fair und rechenschaftspflichtig sind. So oder so steht Transparenz (oder ihr Fehlen) im Mittelpunkt. Ohne sie können wir keines dieser Probleme – von Voreingenommenheit bis hin zum existenziellen Risiko – angemessen angehen.
Abschließend befindet sich die Welt in einem heiklen Balanceakt. Wir sehnen uns nach den Innovationen, die KI verspricht – Heilmittel für Krankheiten, Produktivitätssprünge, neue wissenschaftliche Entdeckungen. Doch genau diese Innovationen könnten zu zweischneidigen Schwertern werden, wenn sie ohne Schutzmaßnahmen entwickelt werden. Die jüngste Saga um OpenAIs interne Turbulenzen, bei der Mitarbeiter angeblich wegen eines Durchbruchs alarmiert waren und der Vorstand eingriff, zeigt, dass selbst die Erfinder vorsichtig sind mit dem, was sie erschaffen reuters.com. Die Gesellschaft insgesamt versucht aufzuholen, um diese Technologie zu verstehen und zu lenken. Transparenz ist kein Selbstzweck, sondern ein Mittel, um Verantwortlichkeit, Zusammenarbeit und fundierte Entscheidungsfindung zu ermöglichen. Wie ein KI-Manager sagte, wäre der Ansatz „erst bauen, später reparieren“ in anderen Hochrisikobranchen nicht akzeptabel theguardian.com – und das sollten wir auch bei KI nicht akzeptieren.
In den nächsten Jahren wird es wahrscheinlich mehr Leaks und Enthüllungen geben, da Insider mit ethischen Dilemmata ringen, mehr Gerüchte über AGI, während Labore Grenzen ausloten, und hoffentlich mehr konstruktiven globalen Dialog darüber, wie damit umzugehen ist. Ob AGI in 5 oder 50 Jahren kommt – sicherzustellen, dass ihre Entwicklung nicht völlig im Dunkeln stattfindet, könnte entscheidend dafür sein, dass sie ein Segen und kein Fluch für die Menschheit wird.
Quellen:
- Reuters – OpenAI-Forscher warnten Vorstand vor KI-Durchbruch vor Entlassung des CEOs, sagen Quellen reuters.com
- Reuters – Elon Musk und andere fordern KI-Pause und verweisen auf „Risiken für die Gesellschaft“ reuters.com
- Vice – OpenAIs GPT-4 ist Closed Source und von Geheimhaltung umgeben vice.com
- The Guardian – Google-Ingenieur beurlaubt, nachdem er sagt, dass KI-Chatbot empfindungsfähig geworden ist theguardian.com
- The Guardian – ‘Godfather of AI’ Geoffrey Hinton verlässt Google und warnt vor Gefahren… theguardian.com
- The Verge – Metas leistungsstarkes KI-Sprachmodell ist online geleakt – was passiert jetzt? theverge.com
- Reuters – Alibaba veröffentlicht KI-Modell, das laut eigenen Angaben DeepSeek übertrifft reuters.com
- Matthew Griffin (Bloomberg) – CIA entwickelt eigene Version von ChatGPT fanaticalfuturist.com
- TechCrunch – Anthropics 5-Milliarden-Dollar-Plan über 4 Jahre, um OpenAI herauszufordern techcrunch.com
- MacRumors – Apple GPT: Was wir über Apples Arbeit an generativer KI wissen macrumors.com