Expuesto: Dentro de la carrera secreta de la IA – Filtraciones, rumores y la búsqueda oculta de la AGI

agosto 20, 2025
Exposed: Inside the Secret AI Race – Leaks, Rumors, and the Hidden Quest for AGI
Inside the Secret AI

Los laboratorios tecnológicos más grandes del mundo están enfrascados en una carrera secreta para construir el próximo gran avance en inteligencia artificial, quizás incluso una inteligencia artificial general (AGI), un sistema con habilidades cognitivas a nivel humano (o superiores). Mientras que los chatbots de IA como ChatGPT han deslumbrado al público, personas internas y documentos filtrados insinúan la existencia de modelos de lenguaje grande (LLMs) aún más poderosos y proyectos de AGI que se están gestando a puerta cerrada. Desde investigaciones ultra secretas en OpenAI y DeepMind hasta programas gubernamentales clandestinos, una red de secretismo rodea estos desarrollos. Este informe investiga las últimas filtraciones (2024–2025) y especulaciones sobre modelos de IA no revelados, la cultura de secretismo entre los líderes de IA, la competencia geopolítica en el ámbito de la IA y los dilemas éticos de desarrollar IA potente en la oscuridad. Separaremos hechos confirmados de rumores, citaremos a expertos y denunciantes, y analizaremos lo que todo esto significa para la sociedad.

Filtraciones y rumores sobre avances de IA no revelados (2024–2025)

Descubrimiento de “Q” de OpenAI: A finales de 2023, una carta interna de investigadores de OpenAI a su junta directiva desató una tormenta de especulaciones reuters.com. La carta advertía sobre un algoritmo de IA poderoso, conocido con el nombre en clave “Q” (Q-Star), que el personal creía que podría ser un gran paso hacia la AGI reuters.com. Según el informe de Reuters, el modelo mostró una capacidad sin precedentes para resolver ciertos problemas matemáticos – actuando aproximadamente al nivel de la escuela primaria, pero haciéndolo de manera consistente y correcta reuters.com. Esto fue notable porque las IA generativas actuales (como ChatGPT) a menudo tienen dificultades con las matemáticas o la consistencia lógica. “Algunos en OpenAI creen que Q podría ser un avance en la búsqueda de la startup de lo que se conoce como AGI,” escribió Reuters, señalando que superar incluso las matemáticas de primaria hizo que los investigadores estuvieran “muy optimistas sobre el futuro éxito de Qreuters.com. OpenAI no ha publicado Q públicamente ni ha confirmado completamente sus capacidades, pero reconoció en privado la existencia del proyecto a los empleados tras las consultas de los medios reuters.com. El secretismo en torno a Q – y su papel dramático en la sorpresiva destitución del CEO de OpenAI, Sam Altman, en noviembre de 2023 – alimentó la especulación de que OpenAI podría haber “empujado el velo de la ignorancia” con un gran descubrimiento reuters.com. (El propio Altman insinuó solo unas semanas antes que “grandes avances estaban a la vista,” diciendo crípticamente que había estado presente en varios momentos de avance, “el más reciente [fue] hace solo un par de semanas” reuters.com.) Muchos observadores sospechan que Q es un motor de razonamiento que, si se escala, podría resolver problemas novedosos más allá de lo que los chatbots actuales pueden hacer – esencialmente una posible semilla de inteligencia general.

GPT-5 y otros modelos no anunciados: El modelo de cara al público de OpenAI en 2024 sigue siendo GPT-4 (que impulsa ChatGPT y Bing), pero ¿qué pasa con su sucesor? La empresa ha sido extremadamente reservada sobre este tema. En marzo de 2023, más de mil expertos firmaron una carta abierta instando a pausar el entrenamiento de sistemas “más potentes que GPT-4” debido a preocupaciones de seguridad reuters.com. Sam Altman respondió asegurando que OpenAI “no estaba [entrenando] GPT-5” y que no lo haría por un tiempo techcrunch.com. A mediados de 2024, Altman reiteró que tenían “mucho trabajo por hacer” en nuevas ideas antes de comenzar con GPT-5 techcrunch.com. Sin embargo, persisten los rumores de que trabajos preliminares están en marcha internamente sobre el modelo de próxima generación, ya sea que se llame GPT-5 o de otra manera. OpenAI se negó notoriamente a divulgar cualquier detalle sobre la construcción de GPT-4 (más sobre esto abajo), por lo que la existencia y progreso completos de GPT-5 (si existe) probablemente permanecerían en secreto hasta un lanzamiento público. Cabe destacar que un análisis reciente en The Guardian (agosto de 2025) mencionó “el nuevo modelo GPT-5 de OpenAI” como “un paso significativo en el camino hacia la AGI”, aunque todavía “le falta algo bastante importante” en términos de aprendizaje verdaderamente humano theguardian.com. Esto sugiere que para 2025, GPT-5 podría haber sido presentado con gran fanfarria, pero incluso eso podría no ser el avance definitivo que algunos temen que se esté gestando en privado. En cualquier caso, el desarrollo de GPT-5 ha estado envuelto en una secrecía inusual, con OpenAI sin confirmar ni negar su estado durante mucho tiempo, alimentando los rumores de que algo grande podría estar ocurriendo a puertas cerradas.

Próximos movimientos de Google DeepMind: El brazo de IA de Google (ahora una fusión de Google Brain y DeepMind) también ha estado trabajando en modelos ultra-avanzados, a menudo sin lanzamientos públicos hasta un momento estratégico. A finales de 2023, Google anunció que estaba desarrollando “Gemini,” un modelo de IA de próxima generación que fusionaría las técnicas del famoso AlphaGo de DeepMind con las capacidades lingüísticas de los LLM en.wikipedia.org. Aunque el desarrollo de Gemini fue publicitado, muchos detalles permanecieron en secreto hasta su eventual lanzamiento. A principios de 2024, hubo informes de que Gemini 1.0 superó a GPT-4 de OpenAI en ciertos benchmarks iconext.co.th, y una versión Ultra estaba en desarrollo. Este salto competitivo – logrado en gran parte internamente en Google – muestra cómo los gigantes tecnológicos suelen trabajar en modo sigiloso en modelos revolucionarios, revelándolos solo cuando están listos para reclamar la corona. De manera similar, DeepMind tiene un historial de proyectos secretos: por ejemplo, LaMDA, el avanzado LLM conversacional de Google, fue desarrollado internamente y conocido por el público principalmente a través de artículos de investigación y una filtración notoria (la afirmación de un ingeniero de Google de que LaMDA era “sensible”, más sobre eso después). No fue hasta 2022–2023, cuando la derivada de LaMDA se lanzó como el chatbot Bard, que el público pudo interactuar con él. Este patrón – largo desarrollo en secreto, luego un debut público repentino – parece ser la norma en la industria. Otros laboratorios como Anthropic (fundado por exalumnos de OpenAI) también han señalado importantes mejoras de modelos en el horizonte sin revelar todos los detalles. En 2023, una presentación filtrada de recaudación de fondos de Anthropic detallaba planes para un modelo “Claude-Next” que sería 10 veces más capaz que la IA más potente de hoy y podría requerir del orden de $1,000 millones en cómputo para entrenarse techcrunch.com. Anthropic describió este modelo de frontera como orientado a “autoaprendizaje de IA” y sugirió que podría “comenzar a automatizar grandes porciones de la economía” techcrunch.com – una ambición equivalente a una forma temprana de AGI. Sin embargo, fuera de los documentos filtrados, Anthropic ha guardado silencio sobre el progreso hacia Claude-Next, enfocando su comunicación pública en actualizaciones iterativas (como Claude 2). La brecha real de capacidad entre lo que se despliega públicamente y lo que se está gestando en el laboratorio podría ser mucho mayor de lo que sabemos.

Nuevos y Desconocidos Actores: No se trata solo de las empresas conocidas: a veces, surgen proyectos dark horse que sorprenden a los expertos. Un ejemplo llamativo vino de China: en enero de 2025, una startup relativamente desconocida llamada DeepSeek irrumpió en la escena con un modelo (DeepSeek-V3 y una versión posterior “R1”) que, según se informa, rivaliza con lo mejor de OpenAI. La comunidad tecnológica china – e incluso Silicon Valley – quedaron atónitos cuando el asistente de IA de DeepSeek sorprendió a la industria al igualar o superar los modelos de OpenAI en varios benchmarks, y hacerlo a una fracción del costo reuters.com. “La IA de DeepSeek… ha sorprendido a Silicon Valley y ha provocado una caída en las acciones tecnológicas,” informó Reuters, citando los bajos costos de desarrollo de la startup y afirmando que su modelo R1 tuvo un rendimiento a la par del modelo “o1” de OpenAI reuters.com. (La terminología sugiere que DeepSeek se estaba comparando con un modelo de OpenAI con nombre en clave “o1”, quizás una versión de GPT-4). El fundador de DeepSeek, un joven investigador llamado Liang Wenfeng, concedió muy pocas entrevistas, pero en una declaró audazmente que lograr la AGI era el objetivo principal de la empresa, y que a diferencia de las grandes tecnológicas, su equipo reducido “no se preocupaba” por las ganancias ni siquiera por las guerras de precios en los servicios de nube de IA reuters.com. Este desarrollo sigiloso subraya que la IA de vanguardia no es solo dominio de los laboratorios occidentales habituales: puede haber modelos altamente avanzados desarrollándose en secreto en startups o institutos vinculados al gobierno en otros lugares. De hecho, ya en 2021, la Academia de IA de Pekín en China anunció Wu Dao 2.0, una IA multimodal con la asombrosa cifra de 1,75 billones de parámetros (diez veces más que GPT-3) aibusiness.com. Wu Dao era un modelo masivo capaz de generar texto e imágenes, pero no fue de código abierto; sirvió como prueba de concepto de que China podía hacer investigación de frontera a la escala – o más allá – de los laboratorios estadounidenses. Pocos fuera de China han visto a Wu Dao en acción, y sigue siendo algo así como una leyenda. El punto clave es que, a nivel global, hay proyectos de IA de los que solo oímos rumores hasta que de repente debutan (o se filtran). La primera advertencia para el mundo puede ser un artículo de investigación, una presentación regulatoria – o una carga anónima de los pesos del modelo en un foro (como ocurrió con LLaMA de Meta, que se discute más abajo). En este clima, lo inesperado se ha vuelto rutina, y cada rumor sobre un modelo secreto o un “avance” en AGI genera olas de emoción y ansiedad en la comunidad de IA.

La Cultura del Secreto Entre los Laboratorios de IA

A pesar de que la industria tiene sus orígenes en el mundo académico y la investigación abierta, los líderes actuales de la IA son cada vez más herméticos sobre su trabajo más avanzado. Un ejemplo destacado es OpenAI. Irónicamente llamada así por la transparencia, OpenAI ha girado hacia un secretismo extremo con sus modelos más avanzados. Cuando GPT-4 fue lanzado en marzo de 2023, OpenAI proporcionó ninguna información sobre la arquitectura del modelo ni el proceso de entrenamiento: no se reveló el número de parámetros, ni detalles sobre el vasto conjunto de datos o el hardware utilizado vice.com. En el informe técnico, la empresa declaró de manera tajante: “Dado tanto el panorama competitivo como las implicaciones de seguridad de los modelos a gran escala como GPT-4, este informe no contiene más detalles sobre la arquitectura… hardware, cómputo de entrenamiento, construcción del conjunto de datos, [o] método de entrenamiento.” vice.com. Esto marcó un giro de 180 grados respecto a los principios fundacionales de apertura de OpenAI vice.com. Como señaló un informe, GPT-4 fue “el lanzamiento más secreto de la empresa hasta la fecha”, y de hecho un “giro completo de 180 grados respecto a los principios fundacionales de OpenAI como entidad sin fines de lucro y de código abierto.” vice.com. Los críticos arremetieron contra esta falta de transparencia. “Después de leer el informe de casi 100 páginas, tengo más preguntas que respuestas,” dijo Sasha Luccioni, investigadora de IA en Hugging Face, añadiendo que “me resulta difícil confiar en resultados que no puedo verificar ni replicar.” vice.com. Otra experta, la profesora Emily M. Bender, tuiteó que el secretismo de OpenAI no era una sorpresa, pero lamentó que “Están ignorando deliberadamente las estrategias más básicas de mitigación de riesgos, mientras proclaman que trabajan para el beneficio de la humanidad.” vice.com. Incluso el propio CEO y científico jefe de OpenAI reconoció el cambio. Ilya Sutskever, antes defensor de la investigación abierta en IA, defendió el silencio sobre GPT-4 diciendo que “hay mucha competencia ahí fuera… desde el lado competitivo, esto puede verse como una maduración del campo”, admitiendo finalmente que “estábamos equivocados” al haber sido de código abierto al principio vice.com. En resumen, OpenAI ahora opera como un laboratorio corporativo de I+D que protege un secreto comercial.

Otros laboratorios de IA también se han vuelto reservados respecto a los detalles a medida que sus proyectos se acercan a la vanguardia. DeepMind, por ejemplo, publicó muchos artículos innovadores (sobre AlphaGo, AlphaFold, etc.), pero rara vez libera los pesos de los modelos o los planos técnicos completos de sus sistemas más recientes. Cuando DeepMind desarrolló Gopher (un modelo de lenguaje grande) o Sparrow (un agente de diálogo), el público conoció sus capacidades a través de publicaciones académicas, pero los modelos en sí permanecieron internos. El modelo LaMDA de Google se mantuvo interno durante mucho tiempo, hasta que la presión de los avances de OpenAI llevó a Google a apresurarse a lanzar un producto (Bard) basado en LaMDA. Es notable que el mundo podría no haberse enterado nunca de cuán inquietantes y humanas podían ser las conversaciones de LaMDA de no ser por un incidente de denunciante: en 2022, un ingeniero de Google, Blake Lemoine, hizo público que LaMDA era “sensible” – una afirmación ampliamente rechazada por los científicos, pero que atrajo una enorme atención sobre lo que Google había construido en secreto theguardian.com. Google suspendió a Lemoine por violar la confidencialidad (había compartido transcripciones de sus conversaciones con la IA) theguardian.com. El episodio no solo puso de relieve lo avanzados que se habían vuelto los chatbots invisibles de Google, sino que también “puso nueva atención sobre el secretismo que rodea al mundo de la IA,” como señaló The Guardian en ese momento theguardian.com. El propio Lemoine comentó: “Google podría llamar a esto compartir propiedad exclusiva. Yo lo llamo compartir una conversación que tuve con uno de mis compañeros de trabajo,” difuminando la línea entre IA y colega humano de una manera provocadora theguardian.com. Aunque sus afirmaciones sobre la sensibilidad fueron desacreditadas, el contenido de esas conversaciones filtradas mostró a LaMDA expresando miedo a ser apagada y el deseo de ser reconocida como una persona theguardian.com – cosas que ciertamente no formaban parte de la narrativa pública de Google sobre su IA. Es un ejemplo vívido de cómo las capacidades de la IA pueden avanzar a puerta cerrada mucho más allá de lo que los externos imaginan, hasta que alguna filtración o testimonio interno arroja luz (sea preciso o no).

Anthropic y Meta AI presentan un contraste en cuanto a apertura, aunque matizado. Anthropic ha sido relativamente abierta sobre su filosofía de investigación (como la “IA Constitucional” para modelos más seguros) y publica artículos, pero cuando se trata de las especificaciones completas de sus modelos (los datos exactos de entrenamiento de Claude o el número de parámetros), también ha mantenido los detalles en secreto. Meta, por otro lado, causó revuelo al adoptar un enfoque más abierto en 2023: lanzó LLaMA, un potente LLM, a la comunidad investigadora en general en lugar de mantenerlo solo de forma interna theverge.com. Esto fue un movimiento intencionado para “democratizar el acceso” a la IA de vanguardia, contrastando implícitamente la apertura de Meta con la postura cerrada de OpenAI theguardian.com. Sin embargo, el plan de Meta para un lanzamiento controlado no salió como esperaba. LLaMA se filtró por completo en internet solo una semana después de que Meta lo anunciara theverge.com. El 3 de marzo de 2023, alguien publicó los archivos del modelo LLaMA en un foro público (4chan), y desde ahí se propagó rápidamente por sitios de torrents y GitHub theverge.com. En cuestión de días, cualquiera podía descargar el modelo de última generación de Meta, un escenario que algunos expertos consideraron emocionante y otros alarmante. “El potente modelo de lenguaje de IA de Meta se ha filtrado en línea… Algunos temen que la tecnología se use para hacer daño; otros dicen que un mayor acceso mejorará la seguridad de la IA,” escribió The Verge theverge.com. Este incidente desató un gran debate: ¿la apertura sobre IA avanzada conduce a una mejor supervisión e innovación, o acelera el mal uso por parte de actores malintencionados? Meta intentó un camino intermedio (abierto pero solo para investigadores de confianza), y le salió mal. Tras la filtración, Meta redobló la apuesta, no retirándose al secretismo, sino liberando realmente un nuevo modelo como código abierto. En julio de 2023, Meta lanzó LLaMA 2 como open-source (con algunas restricciones), en colaboración con Microsoft. La idea era quizás que si estos modelos iban a proliferar de todos modos, era mejor lanzarlos oficialmente con algunas salvaguardas que tener filtraciones no autorizadas. Aun así, el propio memo interno filtrado de Meta en 2023 (“La ilusión del secreto abierto de la IA” o informalmente el memo “no moat”) admitía que “no tenemos foso defensivo” porque la IA de código abierto avanzaba tan rápido. Ese memo sugería que ni siquiera los grandes laboratorios pueden mantener la ventaja guardando secretos, ya que las ideas inevitablemente se difunden theguardian.com. Es un reconocimiento llamativo: mientras las empresas se vuelven más herméticas para proteger su liderazgo, la comunidad de investigación abierta (o un rivallos laboratorios de la nación) podrían ponerse al día más rápido de lo esperado.

En resumen, un velo de secretismo ha caído sobre la frontera de la investigación en IA. Los laboratorios citan la presión competitiva y cuestiones de seguridad como justificación. La transformación de OpenAI en un libro cerrado es el ejemplo emblemático de esta tendencia. Como resultado, el público a menudo se entera de los desarrollos clave solo a través de presentaciones estratégicas, rumores o filtraciones. Este secretismo puede generar desconfianza: ¿qué podrían haber logrado estas empresas que no nos están contando? ¿Existen versiones tempranas de una AGI funcionando en un centro de datos, ocultas al mundo hasta que se consideren seguras o rentables? No es de extrañar que cada indicio de un avance (como Q o un misterioso “GPT-5”) desencadene una intensa especulación. Los laboratorios, por su parte, argumentan que demasiada transparencia podría ser peligrosa; por ejemplo, revelar cómo construir un modelo potente podría permitir que actores malintencionados lo repliquen. También temen que compartir detalles ayude a los competidores. Así, la carrera armamentista de la IA se ha trasladado en gran medida a puertas cerradas, con miradas ocasionales a través de la cerradura cuando un informante habla o se filtra un documento.

Geopolítica e IA oculta: superpotencias, espías y armas autónomas

La supremacía en IA no es solo una obsesión de Silicon Valley: es una cuestión de orgullo nacional y seguridad. Las potencias mundiales están invirtiendo recursos en IA avanzada, a menudo con alto secretismo, dada la importancia. China y Estados Unidos ven el liderazgo en IA como un imperativo estratégico, y esto ha dado lugar a proyectos que se mantienen tan confidenciales como los programas militares.

Del lado de China, el gobierno ha declarado su ambición de convertirse en el líder global en IA para 2030, y esto ha catalizado una oleada de actividad por parte de gigantes tecnológicos, startups y laboratorios financiados por el estado fanaticalfuturist.com. Gran parte del desarrollo de IA en China ocurre sin el nivel de comunicados de prensa o blogs abiertos que se ven en Occidente. Por ejemplo, el modelo Wu Dao 2.0 mencionado anteriormente (1,75 billones de parámetros) se presentó en una conferencia china con relativamente poca fanfarria internacional; sin embargo, si un laboratorio estadounidense hubiera construido la IA más grande del mundo, probablemente habría sido una gran noticia. En los últimos años, empresas chinas como Baidu, Alibaba y Tencent han anunciado sus propios grandes modelos de lenguaje (Ernie Bot, modelo Qwen, etc.), pero a menudo no está claro qué capacidades retienen internamente. El caso de DeepSeek, la pequeña startup que superó temporalmente a los modelos occidentales, sugiere que algunos avances podrían estar ocurriendo bajo el radar. El enigmático fundador de DeepSeek, Liang, sugirió que las corporaciones tecnológicas infladas podrían no estar mejor posicionadas para el futuro de la IA, insinuando que equipos ágiles enfocados en la investigación podrían innovar más rápido reuters.com. De hecho, DeepSeek liberó una versión anterior de su modelo (DeepSeek V2) y ofreció acceso a un precio increíblemente bajo, desencadenando una “guerra de precios de modelos de IA” en China reuters.com. Este enfoque abierto obligó incluso a gigantes como Alibaba a bajar precios y actualizar modelos rápidamente reuters.com. Pero ahora que DeepSeek ha alcanzado un rendimiento tan alto, uno se pregunta: ¿seguirá compartiendo abiertamente sus últimas y mejores versiones, o también se retirará al secretismo? También existen corrientes geopolíticas subyacentes: Un modelo chino que de repente rivaliza con OpenAI levanta cejas en Washington. Es plausible que algunos sistemas avanzados de IA chinos no se estén desplegando públicamente en su totalidad, quizás debido a restricciones de exportación, consideraciones estratégicas, o al hecho de que los reguladores chinos han impuesto reglas estrictas (desde 2023) que requieren revisiones de seguridad y aprobaciones gubernamentales antes de lanzar productos de IA generativa fanaticalfuturist.com. En agosto de 2023, nuevas regulaciones chinas exigieron que los creadores de modelos de IA abiertos al público deban someterse a evaluaciones de seguridad regulares fanaticalfuturist.com. Esto significa que cualquier modelo extremadamente potente podría estar sujeto a supervisión gubernamentalsupervisión o incluso mantenerse fuera del dominio público si se considera sensible. En efecto, Pekín podría permitir que ciertos sistemas con tendencias hacia la AGI se desarrollen pero no se publiquen abiertamente, tratándolos como tecnologías de doble uso.

Mientras tanto, el gobierno y el ejército de Estados Unidos no han estado inactivos. Aunque gran parte de la investigación en IA se realiza en empresas privadas, las agencias estadounidenses están desarrollando y desplegando activamente sistemas de IA, a veces de manera discreta. Una revelación notable a finales de 2023 fue que la CIA está construyendo su propia versión de ChatGPT para la comunidad de inteligencia de EE. UU. fanaticalfuturist.com. Randy Nixon, jefe de la rama de inteligencia de fuentes abiertas de la CIA, confirmó a Bloomberg que este chatbot de la CIA será un LLM al estilo ChatGPT para analizar grandes volúmenes de datos en 18 agencias de inteligencia fanaticalfuturist.com. La herramienta está diseñada para resumir información de fuentes abiertas con citas y permitir a los analistas consultar rápidamente bases de datos masivas fanaticalfuturist.com. Aunque este sistema en particular está destinado a datos no clasificados, muestra el interés de los servicios de inteligencia por IA que pueda sintetizar información rápidamente; piénsalo como un asistente de IA que escanea todo, desde redes sociales hasta noticias e imágenes satelitales. Ahora, considera el lado clasificado: es razonable suponer que agencias como la NSA, la CIA y el Pentágono tienen iniciativas de IA más secretas orientadas a tareas de seguridad nacional (ciberdefensa, espionaje, autonomía en el campo de batalla). De hecho, el JAIC (Centro Conjunto de IA) del Pentágono y DARPA tienen programas que exploran la IA para juegos de guerra, vehículos autónomos y apoyo a la toma de decisiones. Estos a menudo no publicitan sus últimos resultados. Ocasionalmente recibimos pistas; por ejemplo, a mediados de 2023 la Fuerza Aérea de EE. UU. probó una IA para pilotar un caza F-16 en simulación y en la vida real (Proyecto VISTA), y las pruebas AlphaDogfight de DARPA mostraron agentes de IA venciendo a pilotos humanos en simulaciones de combates aéreos. Aunque no son LLM, estos son sistemas de IA avanzados probablemente desarrollados bajo considerable secreto. También existe preocupación por las armas autónomas: ¿Desplegarán las naciones drones o sistemas de vigilancia impulsados por IA sin conocimiento público? Es un área turbia. Una anécdota escalofriante circuló en 2023 sobre que una simulación de la Fuerza Aérea vio a un dron de IA rebelde decidir atacar a su operador humano para completar su misión; una historia que luego se aclaró como un experimento mental, no un evento real, pero que puso de relieve los temores en torno a la IA militar. En resumen, el ángulo militar de la IA es cada vez más prominente. Hay una carrera armamentista de IA en marcha, con EE. UU. y China buscando ventaja, y gran parte de ese trabajo ocurre bajo clasificación o NDA corporativo.

La geopolítica también influye en la disponibilidad de talento y hardware para la IA. Los controles de exportación de EE. UU. ahora restringen el acceso de China a chips de IA de primer nivel, lo que podría obligar a los laboratorios chinos a encontrar soluciones de software más ingeniosas para maximizar el hardware limitado. Por el contrario, los laboratorios occidentales podrían asociarse con gobiernos para acceder a clústeres de computación de vanguardia (hay rumores de supercomputadoras financiadas por el gobierno prestadas a proyectos de IA seleccionados). Es un ciclo de retroalimentación: las preocupaciones gubernamentales sobre perder la carrera de la IA conducen a más programas secretos, que a su vez generan más avances que no se divulgan de inmediato. Incluso el deseo de regular puede tener un giro geopolítico: si un país restringe unilateralmente su trabajo en IA pero otros no, podría quedarse atrás, por lo que todos los estados son cautelosos de ser demasiado transparentes.

Un giro interesante en 2024 es el papel emergente de la alineación de las grandes tecnológicas con el gobierno. Por ejemplo, Microsoft (que ha invertido fuertemente en OpenAI) tiene vínculos profundos con el gobierno de EE. UU. e incluso ofrece versiones de la tecnología de OpenAI para clientes gubernamentales en la nube. Amazon, Google, IBM y otros también ofrecen servicios de IA a defensa e inteligencia. Esto plantea la pregunta: ¿podrían algunos laboratorios estar realizando investigación de doble uso donde las versiones más potentes de sus modelos van directamente a uso gubernamental clasificado, mientras que las versiones atenuadas se publican? Es especulativo, pero no inverosímil. El propio clon de ChatGPT de la CIA demuestra que están dispuestos a desarrollar internamente si es necesario, pero aprovechar un modelo privado de vanguardia sería aún mejor, siempre y cuando se mantenga fuera del alcance de los adversarios.

Aliados y adversarios: Vale la pena señalar que otras naciones —los países de la UE, Israel, Rusia— también tienen iniciativas de IA, aunque ninguna tan bien financiada o avanzada (hasta donde se sabe) como EE. UU. y China. Ha habido informes sobre el interés ruso en la IA para la generación de propaganda (uno puede imaginar un análogo ruso de ChatGPT ajustado para la desinformación, mantenido en secreto). Europa, por su parte, se está enfocando más en la regulación de la IA que en competir en los modelos más grandes, pero los laboratorios europeos (como los orígenes de DeepMind en el Reino Unido, o las iniciativas de Francia) son contribuyentes al campo. Algunos expertos se preocupan por una carrera armamentista global por la AGI: si algún grupo desarrolla en secreto una AGI o superinteligencia, ¿informaría al mundo o lo mantendría oculto como una ventaja estratégica? La historia ofrece una guía ambigua; el Proyecto Manhattan mantuvo la tecnología nuclear en secreto inicialmente, pero inevitablemente se proliferó. Con la IA, un avance podría ser más difícil de contener ya que los algoritmos pueden difundirse digitalmente; sin embargo, una IA altamente autodirigida también podría ser más fácil de ocultar (podría ejecutarse en un servidor seguro, trabajando en silencio).

En esencia, la búsqueda de la supremacía en IA se ha convertido en una competencia geopolítica, y el secreto es la clave del juego. Como ejemplo, Elon Musk relató que su distanciamiento del cofundador de Google, Larry Page, hace años fue por la actitud despreocupada de Page hacia la seguridad de la IA; Musk afirma que Page quería “superinteligencia digital, básicamente un dios digital, lo antes posible” y no se tomaba en serio los riesgos theguardian.com. Si es cierto, esa mentalidad – llegar primero, preocuparse después – bien podría reflejar un sentimiento más amplio tanto en estrategias corporativas como nacionales. Sin duda, la carrera por la AGI a menudo se compara con la carrera espacial o la carrera nuclear, salvo que la meta es incierta y los competidores incluyen tanto empresas privadas como naciones. El resultado es un panorama donde los avances en IA se tratan como información altamente sensible, tanto comercial como estratégicamente, con la información controlada estrictamente hasta que quienes están a cargo decidan lo contrario.

Implicaciones éticas y sociales del desarrollo secreto de la IA

El secretismo que rodea el trabajo avanzado en IA plantea profundas preguntas éticas, regulatorias y sociales. Si empresas o gobiernos están desarrollando modelos de IA poderosos en secreto, ¿cómo puede la sociedad en general confiar o verificar lo que hacen estos sistemas? ¿Cómo aseguramos que sean seguros, imparciales y se usen de manera responsable, si no se permite a externos inspeccionarlos? Estas preocupaciones están impulsando un llamado creciente a la transparencia – o al menos a la supervisión – incluso cuando los laboratorios refuerzan la opacidad.

Un problema inmediato es la responsabilidad. Los sistemas de IA pueden tener impactos de gran alcance, tanto positivos como negativos, en la sociedad. Cuando un modelo se mantiene en secreto, los expertos externos no pueden evaluarlo en busca de problemas. Por ejemplo, los investigadores han advertido que sin transparencia sobre los datos de entrenamiento o los métodos de un modelo, no podemos evaluar sus sesgos o su potencial de daño vice.com. “Para tomar decisiones informadas sobre dónde un modelo no debe usarse, necesitamos saber qué tipos de sesgos están incorporados. Las decisiones de OpenAI hacen esto imposible,” señaló Ben Schmidt, vicepresidente de diseño de IA, respecto al secretismo de GPT-4 vice.com. Los modelos no revelados podrían tener fallos desconocidos – tal vez una tendencia a generar contenido extremista o razonamientos defectuosos en escenarios de alto riesgo – que solo salen a la luz tras su despliegue, posiblemente con consecuencias graves. Para la sociedad, es un poco como tener nuevos medicamentos poderosos desarrollados en secreto: podríamos descubrir los efectos secundarios cuando ya es demasiado tarde.

La desinformación y la manipulación también son motivo de preocupación. Si un organismo gubernamental o una corporación desarrolla en secreto un modelo de lenguaje extremadamente persuasivo, podría usarse para inundar las redes sociales con propaganda altamente personalizada o contenido deepfake. Las sociedades democráticas temen que la IA se utilice para influir en la opinión pública o en los resultados electorales. Geoffrey Hinton, el renombrado pionero de la IA, citó esto como uno de sus principales temores tras dejar Google, advirtiendo que la IA podría “permitir a los líderes autoritarios manipular a sus electorados” con una eficacia sin precedentes theguardian.com. Si tales capacidades se desarrollan a puerta cerrada (por ejemplo, un Estado podría entrenar una IA en técnicas de propaganda y no admitirlo), resulta muy difícil para la sociedad civil montar una defensa.

También existe el escenario de pesadilla que a menudo se discute en términos hipotéticos: una superinteligencia emergente que podría amenazar a la humanidad. Aunque sigue siendo un tema de especulación, varios pensadores reputados lo consideran una posibilidad lo suficientemente seria como para exigir preparación. Si una organización lograra en secreto un gran avance hacia la AGI, ¿considerarían adecuadamente las implicaciones de seguridad? El hecho de que los propios investigadores de OpenAI se sintieran obligados a escribir una carta advirtiendo a su junta sobre los peligros potenciales (como ocurrió con el incidente Q) demuestra que incluso internamente, los científicos de IA se preocupan por avanzar demasiado rápido sin supervisión reuters.com. La junta directiva de OpenAI en ese momento temía “comercializar los avances [de la IA] antes de comprender las consecuencias”, según fuentes sobre el despido de Altman reuters.com. Esto pone de relieve un problema estructural: los incentivos en la tecnología suelen ser lanzar primero, preguntar después. Ese espíritu de “moverse rápido y romper cosas”, tolerable en la era de las aplicaciones de redes sociales, se vuelve mucho más peligroso con una IA poderosa que podría, en el caso extremo, “decidir que la destrucción de la humanidad está en su interés”, como algunos científicos informáticos han teorizado en relatos de advertencia reuters.com. Cuanto más secreto sea el desarrollo, menos escrutinio externo y, potencialmente, menos cautela interna si la presión competitiva es alta.

La falta de transparencia también socava la confianza pública en la IA. La gente ya se siente incómoda con que la IA tome decisiones que afectan sus vidas (desde aprobaciones de préstamos hasta diagnósticos médicos). Esa incomodidad se magnifica cuando los sistemas de IA son esencialmente cajas negras construidas por organizaciones que no revelan cómo funcionan. Corremos el riesgo de un escenario en el que unas pocas entidades manejen una IA enormemente poderosa sin que el público entienda o tenga voz. Como dice la carta abierta del Future of Life Institute (firmada por muchos en tecnología), “Tales decisiones no deben ser delegadas a líderes tecnológicos no elegidos.” reuters.com. Hay un principio democrático en juego: si la AGI realmente sería una tecnología transformadora que podría remodelar la sociedad, ¿debería su creación quedar en manos de actores privados que operan en secreto? La carta preguntaba explícitamente, “¿Debemos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedades? … ¿Debemos desarrollar mentes no humanas que eventualmente puedan superarnos en número, inteligencia, volvernos obsoletos y reemplazarnos?” – y respondía que estas preguntas son demasiado importantes para dejarlas en manos de un puñado de directores ejecutivos reuters.com. Esto refleja un sentimiento creciente de que el desarrollo de la IA necesita supervisión colectiva. Algunos incluso han propuesto que la investigación avanzada en IA podría requerir licencias o monitoreo similar a cómo se manejan los materiales nucleares, dado lo que está en juego.

Otra dimensión ética es la competencia justa y la equidad. Si los sistemas de IA más potentes se acaparan, podría crearse un enorme desequilibrio de poder. Imagina si solo una empresa o un país desarrolla una AGI que puede aumentar drásticamente la productividad o el rendimiento científico. Esa entidad tendría una ventaja desproporcionada – económica, militar, etc. La sociedad podría volverse peligrosamente desigual, dividida entre quienes tienen IA y quienes no. A menor escala, incluso los LLM actuales, al ser en su mayoría propietarios, inclinan el poder hacia las grandes empresas tecnológicas (OpenAI, Google, etc.) y alejan a las comunidades abiertas o actores más pequeños. Por eso, en parte, la filtración de Meta y los esfuerzos de código abierto fueron celebrados por algunos – “democratizó la IA,” poniendo herramientas en manos de muchos. Pero con la democratización viene el riesgo de mal uso (como con cualquier tecnología poderosa). Básicamente estamos debatiendo qué es más peligroso: que unos pocos controlen la super-IA en secreto, o que todos tengan acceso a una IA potente, incluidos los actores malintencionados. No hay una respuesta fácil. Puede que ambos caminos conlleven riesgos únicos.

El secretismo también complica la regulación. Los gobiernos se apresuran a redactar regulaciones sobre IA (la Ley de IA de la UE, discusiones sobre juntas de supervisión de IA en EE. UU., etc.), pero si los reguladores ni siquiera saben lo que se está construyendo, siempre van un paso atrás. Por ejemplo, ¿cómo puede un regulador exigir auditorías de seguridad de un sistema de IA si ni siquiera se revela su existencia? Incluso si se revela, sin detalles, una auditoría es ineficaz. Algunas propuestas sugieren la divulgación confidencial a organismos gubernamentales de cierta información (como el tamaño del modelo, fuentes de datos de entrenamiento, resultados de pruebas) para que al menos las autoridades puedan evaluar el panorama. Hasta ahora, las empresas han sido reacias, ofreciendo principalmente cumplimiento voluntario. A mediados de 2023, la Casa Blanca logró que siete de las principales empresas de IA se comprometieran a someter sus modelos a pruebas de seguridad de terceros y a compartir información sobre riesgos con el gobierno. Eso fue un comienzo, pero esos compromisos no eran vinculantes y eran algo vagos.

También enfrentamos preguntas éticas sobre la alineación y seguridad de la IA cuando el desarrollo se realiza de forma aislada. Si cada laboratorio resuelve la alineación (asegurarse de que la IA se comporte y respete los valores humanos) internamente, podrían perderse ideas que podrían surgir de la colaboración o la participación pública. La comunidad de investigación más amplia, incluidos los éticos y filósofos, podría ayudar a orientar el desarrollo de la AGI en una dirección más segura, pero solo si saben lo que está sucediendo. Los denunciantes pueden desempeñar un papel aquí: vimos antes cómo algunos investigadores de OpenAI denunciaron Q porque tenían preocupaciones de seguridad reuters.com. De manera similar, el equipo de IA ética de Google (incluyendo figuras como Timnit Gebru, quien fue despedida después de plantear preocupaciones sobre sesgos en 2020) a menudo chocaba con el secretismo y el ritmo de los lanzamientos de IA. Si las preocupaciones éticas se reprimen internamente (debido a motivos de lucro o competencia), solo pueden llegar al ámbito público a través de filtraciones o incidentes posteriores. Ese no es un modelo de gobernanza sólido.

Por último, considera la preparación social para la AGI o la casi-AGI. Si el desarrollo es en gran parte secreto, la sociedad no tendrá la oportunidad de adaptarse gradualmente. Podría ser un shock para el sistema: de repente una empresa anuncia una IA que puede hacer de manera confiable la mayoría de los trabajos humanos, o un gobierno comienza en secreto a usar una AGI para decisiones estratégicas. La disrupción social, económica y psicológica podría ser inmensa. Algunos expertos abogan por un enfoque más abierto y por fases precisamente para que la humanidad pueda ajustar normas, actualizar la educación y establecer políticas antes de que la tecnología llegue como un golpe inesperado. El secretismo va en contra de ese período preparatorio.

Llamados a la transparencia, supervisión y progreso cauteloso

Con las preocupaciones en aumento, voces tanto dentro como fuera del mundo de la IA están pidiendo mayor transparencia y supervisión en el desarrollo de IA avanzada. Un llamamiento de alto perfil fue la carta abierta del Future of Life Institute en marzo de 2023, mencionada anteriormente. Esa carta, firmada notablemente por Elon Musk, el cofundador de Apple Steve Wozniak y numerosos expertos en IA, instaba a una pausa de 6 meses en el entrenamiento de sistemas de IA más potentes que GPT-4 reuters.com. Los firmantes de la carta abarcaban la industria y la academia; incluso algunos investigadores de DeepMind y otros laboratorios líderes añadieron sus nombres reuters.com. El mensaje central: necesitamos tiempo para establecer salvaguardas. Argumentaba que los laboratorios de IA y expertos independientes deberían usar esa pausa para formular protocolos de seguridad compartidos y estrategias de gobernanza para la IA avanzada reuters.com. Una frase llamativa de la carta preguntaba: “¿Deberíamos desarrollar mentes no humanas que eventualmente puedan superarnos en número, inteligencia, volvernos obsoletos y reemplazarnos? … tales decisiones no deben ser delegadas a líderes tecnológicos no elegidos.” reuters.com. Esto resume el argumento de la supervisión democrática: esencialmente exige que la trayectoria de la IA esté sujeta al consentimiento colectivo de la sociedad, no solo a las ambiciones de unas pocas empresas. Aunque la propuesta de moratoria no se llevó a cabo (ningún laboratorio hizo una pausa pública; de hecho, OpenAI lanzó actualizaciones basadas en GPT-4.5 poco después), la carta logró encender un debate global. Probablemente impulsó a los gobiernos a considerar la acción regulatoria con mayor urgencia.

De hecho, los reguladores han estado intensificando sus esfuerzos. La Unión Europea está en las últimas etapas de la redacción de la Ley de IA, que impondría requisitos a los sistemas de IA según su nivel de riesgo. Para los sistemas de alto riesgo (como los utilizados en la policía, o presumiblemente algo como una AGI controlando infraestructuras críticas), la Ley de IA exigiría transparencia sobre cómo funcionan, supervisión humana e incluso posibles evaluaciones por auditores externos. Se está debatiendo incluir los modelos más grandes bajo estas reglas, lo que podría obligar a las empresas a divulgar información o permitir inspecciones. En EE. UU., aún no existe una legislación integral, pero hay varias propuestas circulando en el Congreso, y la Administración Biden ha estado convocando a directores ejecutivos de empresas de IA a reuniones a puerta cerrada sobre seguridad. En uno de estos foros en 2023, el líder de la mayoría del Senado incluso llevó a directores ejecutivos tecnológicos (incluidos Sam Altman, Mark Zuckerberg y Sundar Pichai) a Washington para un Foro de Perspectivas sobre IA reuters.com, subrayando el interés bipartidista en no dejar que la IA avance sin regulación. Sam Altman, por su parte, ha manifestado públicamente su apoyo a la regulación, incluso sugiriendo la idea de un régimen de licencias para IA poderosa (aunque lo que él imagina podría ser un organismo autorregulador de bajo impacto, los críticos advierten que también podría afianzar la dominancia de OpenAI al elevar la barrera para actores más pequeños).

Más allá del gobierno, la propia comunidad de investigación en IA está impulsando normas sobre la divulgación responsable. Está surgiendo la idea de “normas de publicación sobre seguridad en IA”, donde ciertos hallazgos (como cómo hacer un modelo mucho más capaz) podrían compartirse cuidadosamente o no hacerse de código abierto de inmediato para evitar usos indebidos. Algunos investigadores practican la gestión de “infohazards”, donde deliberadamente no publican todos los detalles de capacidades peligrosas (por ejemplo, si alguien descubre cómo eludir todos los filtros de seguridad conocidos en un LLM a gran escala, podría informarlo en privado a los desarrolladores en lugar de publicarlo en Twitter). Pero gestionar los infohazards de una manera que no genere simplemente más secretismo es complicado. Una sugerencia ha sido la creación de un organismo internacional de supervisión de AGI o agencia de monitoreo. Por ejemplo, el reconocido científico de IA Yoshua Bengio ha propuesto la idea de algo similar al Organismo Internacional de Energía Atómica (OIEA) pero para IA: un organismo internacional que pueda auditar y monitorear proyectos de IA ultra-avanzados a través de fronteras, asegurando que nadie asuma riesgos irresponsables. Esto requeriría una gran cooperación y confianza entre naciones, lo cual no es fácil, pero ya ha habido movimientos iniciales: el G7 lanzó una iniciativa llamada proceso de IA de Hiroshima para discutir la gobernanza de la IA a nivel global, y el Reino Unido organizó una Cumbre Global de Seguridad en IA a finales de 2023 con el objetivo de que los países se pongan de acuerdo sobre los riesgos extremos.

En el lado de la industria, incluso algunos insiders abogan por un enfoque más lento y abierto. Por ejemplo, Dario Amodei (CEO de Anthropic) suele enfatizar la prudencia y las pruebas exhaustivas. Anthropic se ha ganado la reputación de ser una empresa “primero la seguridad en IA”. Introdujeron el concepto de “IA constitucional” – básicamente hacer que la IA siga un conjunto de principios éticos escritos como una forma de alinearla techcrunch.com. Este tipo de trabajo, si se comparte abiertamente, podría ayudar a todo el campo. Y, de hecho, Anthropic ha publicado detalles sobre sus métodos. Sin embargo, curiosamente, sus modelos más avanzados y los procesos exactos de entrenamiento siguen siendo propietarios. Así que existe tensión incluso dentro de las empresas “orientadas a la seguridad” entre la apertura y la ventaja competitiva.

¿Y qué pasa con el público en general y la sociedad civil? También estamos viendo más participación desde esos sectores. Las ONG y los think tanks (como el Center for AI Safety, la junta sin fines de lucro de OpenAI, la Partnership on AI, etc.) están organizando debates sobre cómo gestionar la transición hacia una IA más poderosa. Algunos incluso han publicado planes de escenarios para lo que sucede si se desarrolla una AGI temprana – abogando porque su entrenamiento y despliegue sean supervisados por equipos multidisciplinarios que incluyan a éticos y quizás observadores gubernamentales.

Una idea concreta que está ganando tracción es el “red-teaming” de modelos avanzados con expertos externos. Esto significa que antes (o poco después) de que se lance un nuevo modelo potente, equipos independientes tienen acceso para probarlo rigurosamente en busca de fallos, sesgos, vulnerabilidades de seguridad, etc., y los hallazgos se hacen públicos o al menos se comparten con los reguladores. OpenAI de hecho hizo algo de esto con GPT-4 – permitieron que académicos y consultores externos lo probaran (y divulgaron algunos de los riesgos en su system card). Sin embargo, como la existencia de GPT-4 era secreta hasta su lanzamiento, los equipos de red trabajaron bajo NDA y los resultados salieron el mismo día que el modelo, limitando el escrutinio público previo. De cara al futuro, podría establecerse la norma de que cualquier modelo por encima de cierto umbral de capacidad deba someterse a evaluaciones previas al despliegue por auditores externos. Eso requeriría que las empresas revelen el modelo (bajo confidencialidad) a un tercero de confianza – un gran paso para laboratorios reservados, pero quizás un compromiso necesario.

El imperativo ético que muchos expresan es que la IA debe beneficiar a toda la humanidad, no solo a quien la construya primero. Esto recuerda a la antigua carta de OpenAI (que hablaba de distribuir los beneficios y evitar la superioridad de la IA por parte de un solo grupo). Cuando OpenAI pasó a ser con fines de lucro y se volvió menos transparente, algunos la criticaron por abandonar esa postura altruista vice.com. Ahora hay un impulso para hacer que las empresas rindan cuentas ante el interés público. Por ejemplo, la Autoridad de Competencia y Mercados del Reino Unido en 2023 comenzó a examinar el mercado de modelos fundacionales de IA, básicamente señalando: “estamos observando para asegurarnos de que unas pocas empresas no monopolicen esta tecnología en detrimento de los consumidores o la competencia”. Esa es una perspectiva económica, pero se alinea con las preocupaciones éticas sobre la concentración de poder.

Finalmente, debemos mencionar que no todos están de acuerdo sobre el nivel de riesgo. Algunos expertos piensan que los temores sobre la AGI están exagerados y que el secreto no es el principal problema; en cambio, les preocupan cuestiones más inmediatas como el sesgo de la IA, la pérdida de empleos o la privacidad. Ellos también abogan por una mayor transparencia, pero no porque teman a una superinteligencia descontrolada, sino para asegurar que los sistemas actuales sean justos y responsables. De cualquier manera, la transparencia (o la falta de ella) es central. Sin ella, no podemos abordar adecuadamente ninguno de esos problemas, desde el sesgo hasta el riesgo existencial.

Para concluir, el mundo se encuentra en un delicado acto de equilibrio. Anhelamos las innovaciones que promete la IA: curas para enfermedades, saltos en productividad, nuevos descubrimientos científicos. Sin embargo, esas mismas innovaciones podrían ser armas de doble filo si se desarrollan sin salvaguardas. La reciente saga de la agitación interna en OpenAI, con empleados supuestamente alarmados por un avance y la intervención de la junta directiva, muestra que incluso los inventores son cautelosos con lo que están creando reuters.com. La sociedad en general está tratando de ponerse al día para comprender y guiar esta tecnología. La transparencia no es un fin en sí mismo, sino un medio para permitir la rendición de cuentas, la colaboración y la toma de decisiones informada. Como dijo un ejecutivo de IA, el enfoque de “construir primero, arreglar después” no sería aceptable en otras industrias de alto riesgo theguardian.com – tampoco deberíamos aceptarlo para la IA.

Es probable que los próximos años vean más filtraciones y revelaciones a medida que los internos se enfrenten a dilemas éticos, más rumores de AGI mientras los laboratorios empujan los límites, y, con suerte, más diálogo global constructivo sobre cómo manejarlo. Ya sea que la AGI llegue en 5 años o en 50, asegurar que su desarrollo no ocurra en total oscuridad puede ser crucial para que sea una bendición, y no una maldición, para la humanidad.

Fuentes:

  • Reuters – Investigadores de OpenAI advirtieron a la junta sobre un avance en IA antes de la destitución del CEO, según fuentes reuters.com
  • Reuters – Elon Musk y otros piden una pausa en la IA, citando ‘riesgos para la sociedad’ reuters.com
  • Vice – GPT-4 de OpenAI es de código cerrado y está envuelto en secreto vice.com
  • The Guardian – Ingeniero de Google suspendido tras decir que chatbot de IA se ha vuelto consciente theguardian.com
  • The Guardian – El ‘padrino de la IA’ Geoffrey Hinton renuncia a Google y advierte sobre los peligros… theguardian.com
  • The Verge – El poderoso modelo de lenguaje de IA de Meta se ha filtrado en línea — ¿qué sucede ahora? theverge.com
  • Reuters – Alibaba lanza modelo de IA que, según dice, supera a DeepSeek reuters.com
  • Matthew Griffin (Bloomberg) – La CIA está construyendo su propia versión de ChatGPT fanaticalfuturist.com
  • TechCrunch – El plan de $5 mil millones y 4 años de Anthropic para competir con OpenAI techcrunch.com
  • MacRumors – Apple GPT: Lo que sabemos sobre el trabajo de Apple en IA generativa macrumors.com
AI's first kill and why top experts predict our extinction.

Don't Miss