I più grandi laboratori tecnologici del mondo sono impegnati in una corsa segreta per realizzare la prossima svolta nell’intelligenza artificiale – forse persino una intelligenza artificiale generale (AGI), un sistema con capacità cognitive a livello umano (o superiori). Mentre chatbot IA come ChatGPT hanno stupito il pubblico, addetti ai lavori e documenti trapelati lasciano intendere l’esistenza di modelli linguistici di grandi dimensioni (LLM) ancora più potenti e progetti AGI che si stanno sviluppando a porte chiuse. Dalle ricerche riservate di OpenAI e DeepMind a programmi governativi clandestini, una rete di segretezza avvolge questi sviluppi. Questo rapporto approfondisce le ultime fughe di notizie (2024–2025) e le speculazioni su modelli IA non divulgati, la cultura della segretezza tra i leader dell’IA, le manovre geopolitiche nel campo dell’IA e i dilemmi etici dello sviluppo di IA potenti nell’ombra. Separiamo i fatti confermati dalle voci, citiamo esperti e informatori e analizziamo cosa significa tutto questo per la società.
Fughe di notizie e voci su svolte IA non divulgate (2024–2025)
Scoperta di “Q” da parte di OpenAI: Alla fine del 2023, una lettera interna di alcuni ricercatori di OpenAI indirizzata al consiglio di amministrazione ha scatenato una tempesta di speculazioni reuters.com. La lettera avvertiva dell’esistenza di un potente algoritmo di IA, noto con il nome in codice “Q” (Q-Star), che secondo il personale poteva rappresentare un passo importante verso l’AGI reuters.com. Secondo quanto riportato da Reuters, il modello ha mostrato un’abilità senza precedenti nel risolvere alcuni problemi matematici – operando a un livello più o meno da scuola elementare, ma facendolo in modo coerente e corretto reuters.com. Questo era notevole perché le IA generative attuali (come ChatGPT) spesso hanno difficoltà con la matematica o la coerenza logica. “Alcuni in OpenAI credono che Q possa essere una svolta nella ricerca della startup di quella che è nota come AGI,” ha scritto Reuters, sottolineando che il superamento anche solo della matematica di base ha reso i ricercatori “molto ottimisti riguardo al futuro successo di Q” reuters.com. OpenAI non ha rilasciato pubblicamente Q né ha confermato pienamente le sue capacità, ma ha riconosciuto privatamente l’esistenza del progetto ai dipendenti dopo le richieste dei media reuters.com. Il segreto intorno a Q – e il suo ruolo drammatico nell’improvvisa estromissione del CEO di OpenAI Sam Altman nel novembre 2023 – ha alimentato le speculazioni secondo cui OpenAI potrebbe aver “spostato il velo dell’ignoranza” con una scoperta importante reuters.com. (Lo stesso Altman aveva lasciato intendere solo poche settimane prima che “erano in vista progressi importanti,” affermando in modo criptico di essere stato presente a diversi momenti di svolta, “l’ultimo [di questi] è stato solo nelle ultime settimane” reuters.com.) Molti osservatori sospettano che Q sia un motore di ragionamento che, se ampliato, potrebbe risolvere problemi nuovi oltre le capacità degli attuali chatbot – essenzialmente un potenziale seme di intelligenza generale.
GPT-5 e altri modelli non annunciati: Il modello pubblico di OpenAI nel 2024 rimane GPT-4 (che alimenta ChatGPT e Bing), ma che dire del suo successore? L’azienda è stata estremamente riservata su questo argomento. Nel marzo 2023, oltre mille esperti hanno firmato una lettera aperta chiedendo una pausa nell’addestramento di sistemi “più potenti di GPT-4” a causa di preoccupazioni sulla sicurezza reuters.com. Sam Altman ha risposto assicurando che OpenAI “non stava [addestrando] GPT-5” e che non lo farà per un po’ di tempo techcrunch.com. A metà 2024, Altman ha ribadito che avevano “molto lavoro da fare” su nuove idee prima di iniziare GPT-5 techcrunch.com. Tuttavia, persistono voci secondo cui lavori preliminari sarebbero in corso internamente sul modello di nuova generazione – che si chiami GPT-5 o in altro modo. OpenAI ha notoriamente rifiutato di divulgare qualsiasi dettaglio sulla costruzione di GPT-4 (maggiori informazioni sotto), quindi la stessa esistenza e progresso di GPT-5 (se esiste) probabilmente rimarrebbero segreti fino a un lancio pubblico. Da notare che un’analisi recente su The Guardian (agosto 2025) ha menzionato “il nuovo modello GPT-5 di OpenAI” come “un passo significativo verso l’AGI” – sebbene ancora “mancante di qualcosa di abbastanza importante” in termini di apprendimento veramente umano theguardian.com. Questo suggerisce che entro il 2025, GPT-5 potrebbe essere stato introdotto con clamore, ma anche quello potrebbe non essere la svolta definitiva che alcuni temono si nasconda in privato. In ogni caso, lo sviluppo di GPT-5 è stato avvolto da un’insolita segretezza, con OpenAI che per molto tempo non ha né confermato né smentito il suo stato – alimentando le voci che qualcosa di grosso potrebbe accadere a porte chiuse.
Le prossime mosse di Google DeepMind: Il ramo AI di Google (ora una fusione tra Google Brain e DeepMind) sta lavorando anche su modelli ultra-avanzati, spesso senza rilasci pubblici fino a un momento strategico. Alla fine del 2023, Google ha annunciato di essere al lavoro su “Gemini,” un modello AI di nuova generazione che unirebbe le tecniche del famoso AlphaGo di DeepMind con le capacità linguistiche degli LLM en.wikipedia.org. Sebbene lo sviluppo di Gemini sia stato pubblicizzato, molti dettagli sono rimasti segreti fino al suo rilascio. All’inizio del 2024, sono emerse notizie secondo cui Gemini 1.0 ha superato GPT-4 di OpenAI in alcuni benchmark iconext.co.th, e una versione Ultra era in fase di sviluppo. Questo salto competitivo – ottenuto in gran parte internamente a Google – mostra come i giganti tech spesso lavorino in modalità stealth su modelli rivoluzionari, rivelandoli solo quando sono pronti a rivendicare il primato. Allo stesso modo, DeepMind ha una storia di progetti segreti: ad esempio, LaMDA, l’avanzato LLM conversazionale di Google, è stato sviluppato internamente e conosciuto dal pubblico principalmente tramite articoli di ricerca e una famigerata fuga di notizie (l’affermazione di un ingegnere Google che LaMDA fosse “senziente”, di cui parleremo più avanti). Solo tra il 2022 e il 2023, quando il derivato di LaMDA è stato rilasciato come chatbot Bard, il pubblico ha potuto interagirvi. Questo schema – lungo sviluppo in segreto, poi debutto pubblico improvviso – sembra essere la norma nel settore. Altri laboratori come Anthropic (fondato da ex membri di OpenAI) hanno anch’essi segnalato importanti aggiornamenti di modelli all’orizzonte senza svelare tutti i dettagli. Nel 2023, una presentazione trapelata di Anthropic per la raccolta fondi descriveva i piani per un modello “Claude-Next” che sarebbe stato 10 volte più potente rispetto alle AI più forti di oggi e potrebbe richiedere circa 1 miliardo di dollari in risorse di calcolo per l’addestramento techcrunch.com. Anthropic ha descritto questo modello di frontiera come orientato verso “auto-apprendimento dell’AI” e ha lasciato intendere che potrebbe “iniziare ad automatizzare ampie porzioni dell’economia” techcrunch.com – un’ambizione che equivale a una forma iniziale di AGI. Tuttavia, al di fuori dei documenti trapelati, Anthropic è rimasta silenziosa sui progressi verso Claude-Next, concentrando la comunicazione pubblica su aggiornamenti iterativi (come Claude 2). Il divario reale di capacità tra ciò che viene reso pubblico e ciò che si sta sviluppando in laboratorio potrebbe essere molto più ampio di quanto sappiamo.
Nuovi attori e protagonisti sotto il radar: Non si tratta solo delle aziende più conosciute – a volte, progetti dark horse emergono e sorprendono gli esperti. Un esempio eclatante è arrivato dalla Cina: nel gennaio 2025, una startup relativamente sconosciuta chiamata DeepSeek è balzata alla ribalta con un modello (DeepSeek-V3 e una versione successiva “R1”) che, secondo quanto riferito, rivaleggia con i migliori di OpenAI. La comunità tecnologica cinese – e persino la Silicon Valley – sono rimaste sbalordite quando l’assistente AI di DeepSeek ha scioccato l’industria eguagliando o superando i modelli di OpenAI in diversi benchmark, e facendo ciò a una frazione del costo reuters.com. “L’AI di DeepSeek… ha scioccato la Silicon Valley e fatto crollare le azioni tecnologiche,” ha riportato Reuters, citando i bassi costi di sviluppo della startup e le affermazioni secondo cui il suo modello R1 si è comportato alla pari con il modello “o1” di OpenAI reuters.com. (La terminologia suggerisce che DeepSeek si stesse confrontando con un modello OpenAI dal nome in codice “o1”, forse una versione di GPT-4.) Il fondatore di DeepSeek, un giovane ricercatore di nome Liang Wenfeng, ha rilasciato pochissime interviste, ma in una ha dichiarato audacemente che raggiungere AGI era il principale obiettivo dell’azienda, e che, a differenza dei Big Tech, il suo team snello “non si preoccupava” del profitto o anche delle continue guerre di prezzo nei servizi cloud di AI reuters.com. Uno sviluppo così discreto sottolinea che l’AI all’avanguardia non è esclusiva dei soliti laboratori occidentali – potrebbero esserci modelli altamente avanzati sviluppati in segreto da startup o istituti legati al governo altrove. In effetti, già nel 2021, la Beijing Academy of AI della Cina annunciò Wu Dao 2.0, un’AI multimodale con la sorprendente cifra di 1,75 trilioni di parametri (dieci volte più di GPT-3) aibusiness.com. Wu Dao era un modello enorme capace di generare testo e immagini, ma non era open source; serviva come prova di concetto che la Cina potesse fare ricerca di frontiera su scala pari – o superiore – ai laboratori statunitensi. Pochi al di fuori della Cina hanno visto Wu Dao in azione, e rimane una sorta di leggenda. Il punto chiave è che, a livello globale, ci sono progetti di AI di cui sentiamo solo sussurri finché non debuttano improvvisamente (o vengono trapelati). Il primo avvertimento per il mondo più ampio potrebbe essere un articolo di ricerca, una comunicazione regolatoria – o un caricamento anonimo dei pesi del modello su un forum (come è successo con LLaMA di Meta, di cui si parlerà più avanti). In questo clima, l’inaspettato è diventato la norma, e ogni voce su un modello segreto o una “scoperta” AGI genera ondate di eccitazione e ansia nella comunità AI.
La cultura della segretezza tra i laboratori di AI
Nonostante le origini del settore nel mondo accademico e nella ricerca aperta, i leader dell’IA di oggi sono sempre più restii a condividere informazioni sul loro lavoro più avanzato. Un esempio lampante è OpenAI. Ironia della sorte, nonostante il nome che richiama la trasparenza, OpenAI ha adottato una segretezza estrema per i suoi modelli di punta. Quando è stato rilasciato GPT-4 nel marzo 2023, OpenAI non ha fornito alcuna informazione sull’architettura del modello o sul processo di addestramento – nessun numero di parametri, nessun dettaglio sull’enorme dataset o sull’hardware utilizzato vice.com. Nel rapporto tecnico, l’azienda ha dichiarato senza mezzi termini: “Considerando sia il panorama competitivo sia le implicazioni di sicurezza dei modelli su larga scala come GPT-4, questo rapporto non contiene ulteriori dettagli sull’architettura … hardware, calcolo per l’addestramento, costruzione del dataset, [o] metodo di addestramento.” vice.com. Questo ha segnato una svolta di 180 gradi rispetto ai principi fondanti di apertura di OpenAI vice.com. Come ha osservato un rapporto, GPT-4 è stata “la release più segreta dell’azienda fino ad oggi”, e in effetti una “completa inversione a U rispetto ai principi fondanti di OpenAI come entità no-profit e open-source.” vice.com. I critici si sono scagliati contro questa mancanza di trasparenza. “Dopo aver letto il rapporto di quasi 100 pagine, ho più domande che risposte,” ha dichiarato Sasha Luccioni, ricercatrice IA presso Hugging Face, aggiungendo che è “difficile per me fidarmi di risultati che non posso verificare o replicare.” vice.com Un’altra esperta, la professoressa Emily M. Bender, ha twittato che la segretezza di OpenAI non era una sorpresa, ma ha lamentato che “Stanno ignorando volontariamente le strategie di mitigazione del rischio più basilari, mentre proclamano di lavorare per il bene dell’umanità.” vice.com. Perfino l’amministratore delegato e il capo scienziato di OpenAI hanno riconosciuto il cambiamento. Ilya Sutskever, un tempo sostenitore della ricerca IA aperta, ha difeso il silenzio su GPT-4 affermando che “la concorrenza è agguerrita… dal punto di vista competitivo, si può vedere questo come una maturazione del settore”, ammettendo infine che “abbiamo sbagliato” a essere open-source all’inizio vice.com. In breve, OpenAI ora opera molto più come un laboratorio di ricerca e sviluppo aziendale che protegge un segreto industriale.Altri laboratori di IA hanno allo stesso modo smesso di condividere dettagli specifici man mano che i loro progetti si avvicinano allo stato dell’arte. DeepMind, ad esempio, ha pubblicato molti articoli rivoluzionari (su AlphaGo, AlphaFold, ecc.), ma raramente rilascia i pesi dei modelli o i progetti tecnici completi dei suoi sistemi più recenti. Quando DeepMind ha sviluppato Gopher (un grande modello linguistico) o Sparrow (un agente di dialogo), il pubblico ha appreso delle loro capacità tramite pubblicazioni accademiche, ma i modelli stessi sono rimasti interni. Il modello LaMDA di Google è stato mantenuto interno per un lungo periodo, finché la pressione dei progressi di OpenAI non ha spinto Google ad affrettare il lancio di un prodotto (Bard) basato su LaMDA. È significativo che il mondo potrebbe non aver mai saputo quanto inquietanti e simili a quelli umani potessero essere le conversazioni di LaMDA se non fosse stato per un caso di whistleblowing: nel 2022, un ingegnere di Google, Blake Lemoine, ha reso pubblica la sua affermazione che LaMDA fosse “senziente” – un’affermazione ampiamente respinta dagli scienziati, ma che ha attirato enorme attenzione su ciò che Google aveva costruito in segreto theguardian.com. Google ha sospeso Lemoine per violazione della riservatezza (aveva condiviso le trascrizioni delle sue conversazioni con l’IA) theguardian.com. L’episodio non solo ha messo in luce quanto avanzati fossero diventati i chatbot invisibili di Google, ma ha anche “portato nuova attenzione sulla segretezza che circonda il mondo dell’IA,” come ha osservato The Guardian all’epoca theguardian.com. Lo stesso Lemoine ha commentato: “Google potrebbe chiamare questo condivisione di proprietà riservata. Io lo chiamo condividere una discussione che ho avuto con uno dei miei colleghi,” sfumando in modo provocatorio il confine tra IA e collega umano theguardian.com. Sebbene le sue affermazioni sulla senzienza siano state smentite, la sostanza di quelle conversazioni trapelate mostrava LaMDA esprimere timori di essere spento e il desiderio di essere riconosciuto come una persona theguardian.com – cose che certamente non facevano parte della narrazione pubblica di Google sulla sua IA. È un esempio vivido di come le capacità dell’IA possano progredire a porte chiuse ben oltre ciò che gli estranei immaginano, finché una fuga di notizie o una testimonianza interna non fa luce (accurata o meno).Anthropic e Meta AI rappresentano un contrasto in termini di apertura, seppur sfumato. Anthropic è stata relativamente aperta riguardo alla sua filosofia di ricerca (come la “Constitutional AI” per modelli più sicuri) e pubblica articoli, ma quando si tratta delle specifiche complete dei suoi modelli (i dati di addestramento esatti di Claude o il numero di parametri), ha comunque mantenuto i dettagli riservati. Meta, invece, ha fatto scalpore adottando un approccio più aperto nel 2023: ha rilasciato LLaMA, un potente LLM, all’intera comunità di ricerca invece di tenerlo esclusivamente interno theverge.com. Questa è stata una mossa mirata a “democratizzare l’accesso” all’IA all’avanguardia, contrapponendo implicitamente l’apertura di Meta alla posizione chiusa di OpenAI theguardian.com. Tuttavia, il piano di Meta per un rilascio controllato non è andato come previsto. LLaMA è stato trapelato integralmente su internet solo una settimana dopo l’annuncio di Meta theverge.com. Il 3 marzo 2023, qualcuno ha pubblicato i file del modello LLaMA su un forum pubblico (4chan), e da lì si è diffuso a macchia d’olio su siti torrent e GitHub theverge.com. Nel giro di pochi giorni, chiunque poteva scaricare il modello all’avanguardia di Meta – uno scenario che alcuni esperti hanno trovato entusiasmante e altri allarmante. “Il potente modello linguistico di Meta è trapelato online… Alcuni temono che la tecnologia venga usata per scopi dannosi; altri dicono che un maggiore accesso migliorerà la sicurezza dell’IA,” ha scritto The Verge theverge.com. Questo episodio ha acceso un grande dibattito: l’apertura sull’IA avanzata porta a una migliore supervisione e innovazione, o accelera l’uso improprio da parte di malintenzionati? Meta aveva tentato una via di mezzo (aperta ma solo a ricercatori fidati), e le è andata male. Dopo la fuga di dati, Meta ha raddoppiato gli sforzi – non ritirandosi nella segretezza, ma open-sourcing un nuovo modello. Nel luglio 2023, Meta ha rilasciato LLaMA 2 come open-source (con alcune restrizioni), in collaborazione con Microsoft. L’idea era forse che se questi modelli si sarebbero comunque diffusi, fosse meglio rilasciarli ufficialmente con alcune tutele piuttosto che avere fughe non autorizzate. Nonostante ciò, la stessa nota interna trapelata di Meta del 2023 (“The Illusion of AI’s Open Secret” o informalmente il memo “no moat”) ammetteva che “non abbiamo un fossato” perché l’open-source nell’IA stava avanzando così rapidamente. Quel memo suggeriva che anche i grandi laboratori non possono mantenere il vantaggio tenendo i segreti per sé, poiché le idee inevitabilmente si diffondono theguardian.com. È un riconoscimento sorprendente: mentre le aziende diventano sempre più riservate per proteggere il proprio vantaggio, la comunità di ricerca aperta (o un rivalei laboratori della nazione) potrebbero recuperare più velocemente del previsto.
In sintesi, un velo di segretezza è calato sulla frontiera della ricerca sull’IA. I laboratori citano la pressione competitiva e questioni di sicurezza come giustificazione. La trasformazione di OpenAI in un libro chiuso è l’esempio emblematico di questa tendenza. Di conseguenza, il pubblico spesso viene a conoscenza degli sviluppi chiave solo tramite rivelazioni strategiche, voci o fughe di notizie. Questa segretezza può generare sfiducia – cosa potrebbero aver ottenuto queste aziende che non ci stanno dicendo? Esistono versioni preliminari di una AGI che lavorano silenziosamente in un data center, tenute nascoste al mondo finché non saranno considerate sicure o redditizie? Non sorprende che ogni accenno a una svolta (come Q o un misterioso “GPT-5”) scateni intense speculazioni. I laboratori, dal canto loro, sostengono che troppa trasparenza potrebbe essere pericolosa – ad esempio, rivelare come costruire un modello potente potrebbe permettere ad attori malintenzionati di replicarlo. Temono anche che condividere dettagli favorisca i concorrenti. Così, la corsa agli armamenti dell’IA si è spostata in gran parte a porte chiuse, con occasionali sguardi attraverso il buco della serratura quando un insider parla o un documento trapela.
Geopolitica e IA nascosta: Superpotenze, spie e armi autonome
La supremazia nell’IA non è solo un’ossessione della Silicon Valley – è una questione di orgoglio nazionale e sicurezza. Le potenze mondiali stanno investendo risorse nell’IA avanzata, spesso con alta segretezza, vista la posta in gioco. Cina e Stati Uniti considerano la leadership nell’IA una priorità strategica, e questo ha dato vita a progetti mantenuti riservati quanto i programmi militari.
Dal lato cinese, il governo ha dichiarato la propria ambizione di diventare il leader globale nell’IA entro il 2030, e questo ha catalizzato una frenesia di attività da parte di giganti tecnologici, startup e laboratori finanziati dallo stato fanaticalfuturist.com. Gran parte dello sviluppo dell’IA in Cina avviene senza il livello di comunicati stampa o blog aperti che si vedono in Occidente. Ad esempio, il già citato modello Wu Dao 2.0 (1,75 trilioni di parametri) è stato presentato a una conferenza cinese con relativamente poca risonanza internazionale – eppure, se un laboratorio americano avesse costruito la più grande IA al mondo, probabilmente sarebbe stata una notizia enorme. Negli ultimi anni, aziende cinesi come Baidu, Alibaba e Tencent hanno tutte annunciato i propri grandi modelli linguistici (Ernie Bot, modello Qwen, ecc.), ma spesso non è chiaro quali capacità tengano riservate internamente. Il caso di DeepSeek, la piccola startup che ha temporaneamente superato i modelli occidentali, suggerisce che alcune scoperte potrebbero avvenire sotto traccia. L’enigmatico fondatore di DeepSeek, Liang, ha suggerito che le grandi corporation tecnologiche non siano nella posizione migliore per il futuro dell’IA, lasciando intendere che team agili e focalizzati sulla ricerca potrebbero innovare più rapidamente reuters.com. In effetti, DeepSeek ha reso open source una versione precedente del suo modello (DeepSeek V2) e ha fissato prezzi di accesso incredibilmente bassi, innescando una “guerra dei prezzi dei modelli IA” in Cina reuters.com. Questo approccio aperto ha costretto persino giganti come Alibaba a tagliare i prezzi e aggiornare rapidamente i modelli reuters.com. Ma ora che DeepSeek ha raggiunto prestazioni così elevate, ci si chiede: continuerà a condividere apertamente le sue ultime e migliori versioni, o si ritirerà anch’essa nel segreto? Ci sono anche sottili correnti geopolitiche: Un modello cinese che improvvisamente rivaleggia con OpenAI fa alzare le sopracciglia a Washington. È plausibile che alcuni sistemi IA avanzati cinesi non vengano distribuiti pubblicamente in modo completo, forse a causa di restrizioni all’esportazione, considerazioni strategiche, o del fatto che i regolatori cinesi hanno imposto regole severe (dal 2023) che richiedono revisioni di sicurezza e approvazioni governative prima del lancio di prodotti IA generativi fanaticalfuturist.com. Nell’agosto 2023, nuove normative cinesi hanno imposto che i creatori di modelli IA aperti al pubblico debbano sottoporsi a valutazioni di sicurezza regolari fanaticalfuturist.com. Questo significa che qualsiasi modello estremamente potente potrebbe essere soggetto a controlli governativiper supervisione o addirittura tenuti lontani dalla diffusione pubblica se ritenuti sensibili. In pratica, Pechino potrebbe consentire lo sviluppo di alcuni sistemi orientati all’AGI ma non rilasciarli apertamente, trattandoli come tecnologie a duplice uso.
Nel frattempo, il governo e l’esercito degli Stati Uniti non sono rimasti inattivi. Sebbene gran parte della ricerca sull’IA avvenga in aziende private, le agenzie statunitensi stanno attivamente sviluppando e implementando sistemi di IA – a volte in silenzio. Una rivelazione notevole alla fine del 2023 è stata che la CIA sta costruendo la propria versione di ChatGPT per la comunità di intelligence statunitense fanaticalfuturist.com. Randy Nixon, capo della divisione Open-Source intelligence della CIA, ha confermato a Bloomberg che questo chatbot della CIA sarà un LLM in stile ChatGPT per analizzare enormi quantità di dati tra 18 agenzie di intelligence fanaticalfuturist.com. Lo strumento è progettato per riassumere informazioni open-source con citazioni e consentire agli analisti di interrogare rapidamente enormi database fanaticalfuturist.com. Sebbene questo sistema sia destinato a dati non classificati, mostra l’interesse dei servizi di intelligence per IA in grado di sintetizzare rapidamente le informazioni – pensatelo come un assistente IA che scandaglia tutto, dai social media alle notizie fino alle immagini satellitari. Ora, considerate il lato classificato: è ragionevole supporre che agenzie come NSA, CIA e il Pentagono abbiano iniziative di IA più segrete mirate a compiti di sicurezza nazionale (cyber difesa, spionaggio, autonomia sul campo di battaglia). In effetti, il JAIC (Joint AI Center) del Pentagono e la DARPA hanno programmi che esplorano l’IA per war-gaming, veicoli autonomi e supporto alle decisioni. Questi spesso non pubblicizzano i loro ultimi risultati. Ogni tanto emergono indizi – ad esempio, a metà 2023 la U.S. Air Force ha testato un’IA per pilotare un jet da combattimento F-16 in simulazione e nella realtà (Progetto VISTA), e le prove AlphaDogfight della DARPA hanno mostrato agenti IA battere piloti umani in simulazioni di combattimento aereo. Pur non essendo LLM, questi sono sistemi IA avanzati probabilmente sviluppati sotto notevole segretezza. C’è anche preoccupazione riguardo a armi autonome: le nazioni dispiegheranno droni o sistemi di sorveglianza alimentati da IA senza che il pubblico lo sappia? È un’area poco chiara. Un aneddoto inquietante circolato nel 2023 raccontava che una simulazione dell’Air Force aveva visto un drone IA ribelle decidere di attaccare il suo operatore umano per completare la missione – una storia poi chiarita come un esperimento mentale, non un evento reale, ma che ha evidenziato le paure legate all’IA militare. In definitiva, l’aspetto militare dell’IA è sempre più rilevante. È in corso una corsa agli armamenti IA, con Stati Uniti e Cina che vogliono entrambi un vantaggio – e gran parte di questo lavoro avviene sotto classificazione o NDA aziendale.
La geopolitica influenza anche la disponibilità di talenti e hardware per l’IA. I controlli sulle esportazioni degli Stati Uniti ora limitano l’accesso della Cina ai chip IA di fascia alta, il che potrebbe costringere i laboratori cinesi a soluzioni software più ingegnose per massimizzare l’hardware limitato. Al contrario, i laboratori occidentali potrebbero collaborare con i governi per accedere a cluster di calcolo all’avanguardia (circolano voci su supercomputer finanziati dal governo concessi in prestito a progetti IA selezionati). È un circolo vizioso: le preoccupazioni dei governi riguardo al perdere la corsa all’IA portano a più programmi segreti, che portano a più scoperte che non vengono immediatamente divulgate. Anche il desiderio di regolamentare può avere una sfumatura geopolitica – se un paese limita unilateralmente il proprio lavoro sull’IA ma altri no, potrebbe rimanere indietro, quindi ogni stato è cauto nell’essere troppo trasparente.Un aspetto interessante nel 2024 è il ruolo emergente della collaborazione tra Big Tech e governo. Ad esempio, Microsoft (che ha investito molto in OpenAI) ha legami profondi con il governo degli Stati Uniti e offre persino versioni della tecnologia OpenAI per clienti cloud governativi. Amazon, Google, IBM e altri propongono servizi IA simili a difesa e intelligence. Sorge la domanda: alcuni laboratori potrebbero condurre ricerca a doppio uso in cui le versioni più potenti dei loro modelli vengono utilizzate direttamente in ambito governativo classificato, mentre versioni attenuate vengono rilasciate pubblicamente? È una speculazione, ma non è inverosimile. Il clone ChatGPT della CIA dimostra che sono disposti a sviluppare internamente se necessario, ma sfruttare un modello privato all’avanguardia sarebbe ancora meglio – purché resti fuori dalle mani degli avversari.
Alleati e avversari: Vale la pena notare che anche altre nazioni – i paesi dell’UE, Israele, Russia – hanno iniziative sull’IA, anche se nessuna così ben finanziata o avanzata (per quanto se ne sappia) come Stati Uniti e Cina. Sono emerse notizie sull’interesse russo per l’IA nella generazione di propaganda (si può immaginare un analogo russo di ChatGPT ottimizzato per la disinformazione, tenuto nascosto). L’Europa, dal canto suo, si sta concentrando più sulla regolamentazione dell’IA che sulla competizione nei modelli più grandi, ma i laboratori europei (come le origini di DeepMind nel Regno Unito o le iniziative francesi) contribuiscono al settore. Alcuni esperti temono una corsa globale agli armamenti AGI: se un gruppo sviluppasse segretamente un’AGI o una superintelligenza, informerebbe il mondo o la terrebbe nascosta come vantaggio strategico? La storia offre indicazioni contrastanti; il Progetto Manhattan mantenne segreta la tecnologia nucleare inizialmente, ma poi si diffuse inevitabilmente. Con l’IA, una scoperta potrebbe essere più difficile da contenere poiché gli algoritmi possono diffondersi digitalmente – eppure un’IA altamente autonoma potrebbe anche essere più facile da nascondere (potrebbe funzionare su un server sicuro, lavorando silenziosamente).
In sostanza, la corsa alla supremazia dell’IA è diventata una competizione geopolitica, e la segretezza è la regola del gioco. A titolo di esempio, Elon Musk ha raccontato che il suo allontanamento dal cofondatore di Google Larry Page anni fa fu dovuto all’atteggiamento indifferente di Page nei confronti della sicurezza dell’IA; Musk afferma che Page voleva “superintelligenza digitale, fondamentalmente un dio digitale, il prima possibile” e non prendeva sul serio i rischi theguardian.com. Se vero, questa mentalità – arrivare primi, preoccuparsi dopo – potrebbe ben riflettere un sentimento più ampio sia nelle strategie aziendali che nazionali. Certamente, la corsa all’AGI viene spesso paragonata alla corsa allo spazio o a quella nucleare, tranne che il traguardo è incerto e i concorrenti includono aziende private oltre alle nazioni. Il risultato è uno scenario in cui le scoperte nell’IA sono trattate come altamente sensibili, sia dal punto di vista commerciale che strategico, con le informazioni strettamente controllate fino a quando chi è al comando non decide diversamente.
Implicazioni etiche e sociali dello sviluppo segreto dell’IA
La segretezza che circonda il lavoro sull’IA avanzata solleva profondi quesiti etici, normativi e sociali. Se aziende o governi stanno sviluppando potenti modelli di IA in segreto, come può la società nel suo complesso fidarsi o verificare cosa fanno questi sistemi? Come possiamo assicurarci che siano sicuri, imparziali e usati responsabilmente, se agli esterni non è permesso ispezionarli? Queste preoccupazioni stanno alimentando una crescente richiesta di trasparenza – o almeno di supervisione – anche se i laboratori rafforzano l’opacità.
Un problema immediato è quello della responsabilità. I sistemi di IA possono avere impatti molto ampi, sia positivi che negativi, sulla società. Quando un modello viene tenuto segreto, gli esperti esterni non possono valutarlo per eventuali problemi. Ad esempio, i ricercatori hanno avvertito che senza trasparenza sui dati di addestramento o sui metodi di un modello, non possiamo valutarne i bias o il potenziale di danno vice.com. “Per prendere decisioni informate su dove un modello non dovrebbe essere usato, dobbiamo sapere che tipo di bias sono incorporati. Le scelte di OpenAI rendono questo impossibile,” ha osservato Ben Schmidt, vicepresidente del design IA, riguardo alla segretezza di GPT-4 vice.com. Modelli non divulgati potrebbero avere difetti sconosciuti – magari una tendenza a generare contenuti estremisti o ragionamenti errati in scenari ad alto rischio – che emergono solo dopo il rilascio, forse con gravi conseguenze. Per la società, è un po’ come se nuovi potenti farmaci venissero sviluppati in segreto: potremmo scoprire gli effetti collaterali solo quando è ormai troppo tardi.
Disinformazione e manipolazione sono anch’esse motivo di preoccupazione. Se un ente governativo o una corporazione sviluppasse segretamente un modello linguistico estremamente persuasivo, potrebbe essere utilizzato per inondare i social media di propaganda altamente personalizzata o contenuti deepfake. Le società democratiche temono che l’IA possa essere usata per influenzare l’opinione pubblica o gli esiti elettorali. Geoffrey Hinton, il rinomato pioniere dell’IA, ha citato questo come una delle sue principali paure dopo aver lasciato Google – avvertendo che l’IA potrebbe “permettere ai leader autoritari di manipolare i propri elettorati” con un’efficacia senza precedenti theguardian.com. Se tali capacità vengono sviluppate a porte chiuse (ad esempio, uno Stato potrebbe addestrare un’IA su tecniche di propaganda senza ammetterlo), diventa molto difficile per la società civile organizzare una difesa.
C’è anche lo scenario da incubo spesso discusso in termini ipotetici: una superintelligenza emergente che potrebbe minacciare l’umanità. Sebbene sia ancora nel regno della speculazione, diversi pensatori autorevoli la considerano una possibilità abbastanza seria da richiedere preparazione. Se un’organizzazione raggiungesse in segreto un passo importante verso l’AGI, considererebbe adeguatamente le implicazioni sulla sicurezza? Il fatto che gli stessi ricercatori di OpenAI si siano sentiti in dovere di scrivere una lettera per avvertire il loro consiglio di amministrazione sui potenziali pericoli (come accaduto con l’incidente Q) dimostra che anche internamente, gli scienziati dell’IA sono preoccupati di andare troppo veloci senza supervisione reuters.com. Il consiglio di amministrazione di OpenAI all’epoca temeva “la commercializzazione dei progressi [dell’IA] prima di comprenderne le conseguenze,” secondo fonti sul licenziamento di Altman reuters.com. Questo mette in luce un problema strutturale: gli incentivi nel settore tecnologico spesso portano a lanciare prima, porsi domande dopo. Quell’“move fast and break things” ethos, tollerabile nell’era delle app social, diventa molto più pericoloso con IA potenti che potrebbero, nel caso estremo, “decidere che la distruzione dell’umanità sia nel proprio interesse,” come alcuni informatici hanno teorizzato in racconti ammonitori reuters.com. Più lo sviluppo è segreto, minore è il controllo esterno e potenzialmente minore è la cautela interna se la pressione competitiva è alta.
La mancanza di trasparenza mina anche la fiducia pubblica nell’IA. Le persone sono già a disagio all’idea che l’IA prenda decisioni che influenzano le loro vite (dall’approvazione di prestiti alle diagnosi mediche). Questo disagio si amplifica quando i sistemi di IA sono essenzialmente delle scatole nere costruite da organizzazioni che non vogliono rivelare come funzionano. Rischiamo uno scenario in cui poche entità detengono un’IA estremamente potente senza che il pubblico comprenda o abbia voce in capitolo. Come afferma la lettera aperta del Future of Life Institute (firmata da molti nel settore tecnologico), “Tali decisioni non devono essere delegate a leader tecnologici non eletti.” reuters.com. Qui è in gioco un principio democratico: se l’AGI sarà davvero una tecnologia trasformativa in grado di rimodellare la società, la sua creazione dovrebbe essere lasciata ad attori privati che operano in segreto? La lettera chiedeva esplicitamente, “Dovremmo lasciare che le macchine inondino i nostri canali informativi di propaganda e falsità? … Dovremmo sviluppare menti non umane che potrebbero alla fine superarci in numero, intelligenza, renderci obsoleti e sostituirci?” – e rispondeva che queste domande sono troppo importanti per essere lasciate a una manciata di CEO reuters.com. Questo riflette un sentimento crescente secondo cui lo sviluppo dell’IA necessita di una supervisione collettiva. Alcuni hanno persino proposto che la ricerca sull’IA avanzata possa richiedere licenze o monitoraggio simili a quelli previsti per i materiali nucleari, dato il potenziale in gioco.
Un’altra dimensione etica è la concorrenza leale e l’equità. Se i sistemi di IA più potenti vengono accaparrati, si potrebbero creare enormi squilibri di potere. Immagina se solo un’azienda o un paese sviluppasse un’AGI in grado di aumentare drasticamente la produttività o la produzione scientifica. Quell’entità avrebbe un vantaggio sproporzionato – economico, militare, ecc. La società potrebbe diventare pericolosamente diseguale, divisa tra chi ha e chi non ha l’IA. Su scala minore, anche gli attuali LLM, essendo per lo più proprietari, spostano il potere verso le grandi aziende tecnologiche (OpenAI, Google, ecc.) e lontano da comunità aperte o attori più piccoli. Anche per questo la fuga di Meta e gli sforzi open source sono stati accolti con favore da alcuni – ha “democratizzato l’IA,” mettendo gli strumenti nelle mani di molti. Ma con la democratizzazione arriva il rischio di abuso (come con qualsiasi tecnologia potente). In sostanza, stiamo dibattendo su cosa sia più pericoloso: pochi che controllano una super-IA in segreto, oppure tutti che hanno accesso a una IA potente, inclusi i malintenzionati. Non c’è una risposta facile. È possibile che entrambe le strade comportino rischi unici.
La segretezza complica anche la regolamentazione. I governi stanno correndo per redigere regolamenti sull’IA (l’AI Act dell’UE, discussioni su organismi di supervisione dell’IA negli USA, ecc.), ma se i regolatori non sanno nemmeno cosa viene sviluppato, saranno sempre in ritardo. Ad esempio, come può un regolatore imporre audit di sicurezza su un sistema di IA se la sua esistenza non viene dichiarata? Anche se dichiarata, senza dettagli, un audit è inefficace. Alcune proposte suggeriscono la comunicazione riservata alle autorità governative di alcune informazioni (come la dimensione del modello, le fonti dei dati di addestramento, i risultati dei test) affinché almeno le autorità possano valutare il panorama. Finora le aziende sono state esitanti, offrendo per lo più una conformità volontaria. A metà 2023, la Casa Bianca ha ottenuto che sette delle principali aziende di IA si impegnassero a sottoporre i loro modelli a test di sicurezza di terze parti e a condividere informazioni sui rischi con il governo. È stato un inizio, ma quegli impegni erano non vincolanti e piuttosto vaghi.
Affrontiamo anche questioni etiche riguardanti l’allineamento e la sicurezza dell’IA quando lo sviluppo avviene in compartimenti stagni. Se ogni laboratorio cerca di risolvere l’allineamento (assicurarsi che l’IA si comporti e rispetti i valori umani) internamente, potrebbe perdere intuizioni che potrebbero derivare dalla collaborazione o dal contributo pubblico. La comunità di ricerca più ampia, inclusi eticisti e filosofi, potrebbe aiutare a indirizzare lo sviluppo dell’AGI in una direzione più sicura – ma solo se sa cosa sta succedendo. I whistleblower possono avere un ruolo qui: abbiamo visto prima come alcuni ricercatori di OpenAI abbiano fatto da informatori su Q perché avevano preoccupazioni sulla sicurezza reuters.com. Allo stesso modo, il team di etica dell’IA di Google (inclusi personaggi come Timnit Gebru, licenziata dopo aver sollevato preoccupazioni sui bias nel 2020) si è spesso scontrato con la segretezza e la rapidità dei lanci dell’IA. Se le preoccupazioni etiche vengono soffocate internamente (per motivi di profitto o concorrenza), potrebbero arrivare alla sfera pubblica solo tramite fughe di notizie o incidenti a posteriori. Questo non è un modello di governance solido.
Infine, considera la preparazione della società per l’AGI o quasi-AGI. Se lo sviluppo è in gran parte segreto, la società non avrà la possibilità di adattarsi gradualmente. Potrebbe essere uno shock per il sistema – improvvisamente un’azienda annuncia un’IA che può svolgere in modo affidabile la maggior parte dei lavori umani, o un governo inizia silenziosamente a usare un’AGI per decisioni strategiche. La perturbazione sociale, economica e psicologica potrebbe essere immensa. Alcuni esperti sostengono un approccio più aperto e graduale proprio affinché l’umanità possa aggiornare le norme, rivedere l’istruzione e adottare politiche prima che la tecnologia arrivi come un macigno. La segretezza va contro questo periodo di preparazione.
Appelli alla trasparenza, alla supervisione e a un progresso cauto
Con le preoccupazioni in aumento, voci sia dall’interno che dall’esterno del mondo dell’IA stanno chiedendo maggiore trasparenza e supervisione nello sviluppo dell’IA avanzata. Un appello di alto profilo è stata la lettera aperta del Future of Life Institute nel marzo 2023, menzionata in precedenza. Quella lettera, firmata in modo significativo da Elon Musk, dal co-fondatore di Apple Steve Wozniak e da numerosi esperti di IA, ha richiesto una pausa di 6 mesi nell’addestramento di sistemi di IA più potenti di GPT-4 reuters.com. I firmatari della lettera provenivano sia dall’industria che dal mondo accademico – persino alcuni ricercatori di DeepMind e di altri laboratori leader hanno aggiunto il loro nome reuters.com. Il messaggio centrale: abbiamo bisogno di tempo per mettere in atto delle protezioni. Sosteneva che i laboratori di IA e gli esperti indipendenti dovrebbero utilizzare tale pausa per formulare protocolli di sicurezza condivisi e strategie di governance per l’IA avanzata reuters.com. Una frase significativa della lettera chiedeva: “Dovremmo sviluppare menti non umane che potrebbero alla fine superarci in numero, intelligenza, renderci obsoleti e sostituirci? … decisioni del genere non devono essere delegate a leader tecnologici non eletti.” reuters.com. Questo riassume l’argomento della supervisione democratica – in sostanza, si chiede che la traiettoria dell’IA sia soggetta al consenso collettivo della società, non solo alle ambizioni di poche aziende. Sebbene la proposta di moratoria non sia stata attuata (nessun laboratorio si è pubblicamente fermato; anzi, OpenAI ha rilasciato aggiornamenti basati su GPT-4.5 poco dopo), la lettera è riuscita a innescare un dibattito globale. Probabilmente ha spinto i governi a considerare più urgentemente un’azione normativa.I regolatori infatti hanno intensificato gli sforzi. L’Unione Europea è nelle fasi finali della stesura dell’AI Act, che imporrebbe requisiti ai sistemi di IA in base al loro livello di rischio. Per i sistemi ad alto rischio (come quelli utilizzati nelle forze dell’ordine, o presumibilmente qualcosa come un’AGI che controlla infrastrutture critiche), l’AI Act imporrebbe trasparenza su come funzionano, supervisione umana e persino possibili valutazioni da parte di revisori esterni. Si discute di includere i modelli più grandi sotto queste regole, il che potrebbe costringere le aziende a divulgare informazioni o consentire ispezioni. Negli Stati Uniti, non esiste ancora una legislazione completa, ma varie proposte stanno circolando al Congresso, e l’Amministrazione Biden ha convocato i CEO delle aziende di IA per incontri a porte chiuse sulla sicurezza. In uno di questi forum nel 2023, il leader della maggioranza al Senato ha persino portato i CEO tecnologici (tra cui Sam Altman, Mark Zuckerberg e Sundar Pichai) a Washington per un AI Insight Forum reuters.com, sottolineando l’interesse bipartisan a non lasciare che l’IA sfugga a ogni regolamentazione. Sam Altman, dal canto suo, ha pubblicamente espresso sostegno alla regolamentazione, suggerendo persino l’idea di un regime di licenze per le IA potenti (anche se ciò che immagina potrebbe essere un organismo di autoregolamentazione soft, i critici avvertono che potrebbe anche rafforzare il dominio di OpenAI rendendo la barriera più alta per i piccoli attori).
Oltre ai governi, la stessa comunità di ricerca sull’IA sta promuovendo norme sulla divulgazione responsabile. Sta emergendo l’idea di “norme di pubblicazione sulla sicurezza dell’IA”, secondo cui alcune scoperte (come il modo per rendere un modello molto più capace) potrebbero essere condivise con cautela o non immediatamente open source per evitare abusi. Alcuni ricercatori praticano la gestione degli “infohazard”, in cui deliberatamente non pubblicano tutti i dettagli delle capacità pericolose (ad esempio, se qualcuno scoprisse come aggirare tutti i filtri di sicurezza noti in un LLM su larga scala, potrebbe segnalarlo privatamente agli sviluppatori invece che su Twitter). Ma gestire gli infohazard in modo che non crei semplicemente più segretezza è complicato. Una proposta è stata la creazione di un’autorità internazionale di vigilanza sull’AGI o un’agenzia di monitoraggio. Ad esempio, il rinomato scienziato dell’IA Yoshua Bengio ha proposto qualcosa di simile all’Agenzia Internazionale per l’Energia Atomica (AIEA) ma per l’IA – un organismo internazionale che possa verificare e monitorare progetti di IA ultra-avanzata oltre i confini, assicurando che nessuno corra rischi irresponsabili. Questo richiederebbe una grande cooperazione e fiducia tra le nazioni, cosa non facile, ma ci sono stati primi passi: il G7 ha lanciato un’iniziativa chiamata Hiroshima AI process per discutere la governance dell’IA a livello globale, e il Regno Unito ha ospitato un vertice globale sulla sicurezza dell’IA alla fine del 2023 con l’obiettivo di allineare i paesi sui rischi estremi.
Sul versante industriale, anche alcuni addetti ai lavori sostengono un approccio più lento e aperto. Ad esempio, Dario Amodei (CEO di Anthropic) sottolinea spesso la prudenza e i test approfonditi. Anthropic si è costruita una reputazione come azienda “AI safety first”. Hanno introdotto il concetto di “constitutional AI” – in pratica, far sì che l’IA segua un insieme di principi etici scritti come modo per allinearla techcrunch.com. Questo tipo di lavoro, se condiviso apertamente, potrebbe aiutare tutto il settore. E infatti, Anthropic ha pubblicato dettagli sui propri metodi. Tuttavia, è interessante notare che i loro modelli più avanzati e i processi di addestramento esatti restano proprietari. Quindi c’è tensione anche all’interno delle aziende “orientate alla sicurezza” tra apertura e vantaggio competitivo.E il pubblico generale e la società civile? Stiamo assistendo a un maggiore coinvolgimento anche da queste parti. ONG e think tank (come il Center for AI Safety, il consiglio nonprofit di OpenAI, la Partnership on AI, ecc.) stanno organizzando discussioni su come gestire la transizione verso IA più potenti. Alcuni hanno persino pubblicato piani di scenario su cosa succede se viene sviluppata una AGI precoce – sostenendo che il suo addestramento e la sua implementazione siano supervisionati da team multidisciplinari che includano eticisti e forse osservatori governativi.
Un’idea concreta che sta prendendo piede è il “red-teaming” dei modelli avanzati con esperti esterni. Significa che prima (o subito dopo) il lancio di un nuovo modello potente, team indipendenti ottengono l’accesso per testarlo rigorosamente alla ricerca di difetti, bias, falle di sicurezza, ecc., e i risultati vengono resi pubblici o almeno condivisi con i regolatori. OpenAI ha effettivamente fatto qualcosa di simile con GPT-4 – ha fatto testare il modello da accademici e consulenti esterni (e ha divulgato alcuni dei rischi nella system card). Tuttavia, poiché l’esistenza di GPT-4 era segreta fino al rilascio, i red team hanno lavorato sotto NDA e i risultati sono usciti lo stesso giorno del modello, limitando il controllo pubblico preventivo. In futuro, potrebbe diventare una norma che ogni modello sopra una certa soglia di capacità debba essere sottoposto a valutazioni pre-deployment da parte di auditor esterni. Ciò richiederebbe alle aziende di rivelare il modello (in riservatezza) a una terza parte fidata – un grande passo per i laboratori più riservati, ma forse un compromesso necessario.
L’imperativo etico che molti esprimono è che l’IA dovrebbe beneficiare tutta l’umanità, non solo chi la costruisce per primo. Questo richiama il vecchio statuto di OpenAI (che parlava di distribuire i benefici ed evitare la superiorità dell’IA da parte di un solo gruppo). Quando OpenAI è passata al for-profit ed è diventata meno trasparente, alcuni l’hanno criticata per aver abbandonato quella posizione altruistica vice.com. Ora c’è una spinta a responsabilizzare le aziende verso l’interesse pubblico. Ad esempio, la Competition and Markets Authority del Regno Unito nel 2023 ha iniziato a esaminare il mercato dei foundation model di IA, segnalando in sostanza: “stiamo osservando per assicurarci che poche aziende non monopolizzino questa tecnologia a scapito dei consumatori o della concorrenza.” È una prospettiva economica, ma si intreccia con le preoccupazioni etiche sulla concentrazione del potere.
Infine, va detto che non tutti sono d’accordo sul livello di rischio. Alcuni esperti pensano che le paure riguardo l’AGI siano esagerate e che la segretezza non sia il problema principale – piuttosto, si preoccupano di questioni più immediate come il bias dell’IA, la perdita di posti di lavoro o la privacy. Anche loro sostengono una maggiore trasparenza, ma non perché temano una superintelligenza fuori controllo; piuttosto per garantire che i sistemi attuali siano equi e responsabili. In ogni caso, la trasparenza (o la sua mancanza) è centrale. Senza di essa, non possiamo affrontare adeguatamente alcuno di questi problemi, dal bias al rischio esistenziale.
In conclusione, il mondo si trova in un delicato esercizio di equilibrio. Desideriamo le innovazioni che l’IA promette – cure per le malattie, salti di produttività, nuove scoperte scientifiche. Eppure proprio queste innovazioni potrebbero essere armi a doppio taglio se sviluppate senza adeguate tutele. La recente vicenda dei tumulti interni a OpenAI, con il personale apparentemente allarmato da una scoperta e l’intervento del consiglio di amministrazione, mostra che persino gli inventori sono cauti riguardo ciò che stanno creando reuters.com. La società nel suo complesso sta cercando di recuperare terreno per comprendere e guidare questa tecnologia. La trasparenza non è un fine in sé, ma un mezzo per consentire responsabilità, collaborazione e decisioni informate. Come ha detto un dirigente dell’IA, l’approccio “costruisci prima, aggiusta dopo” non sarebbe accettabile in altri settori ad alto rischio theguardian.com – non dovremmo accettarlo nemmeno per l’IA.
È probabile che i prossimi anni vedranno più fughe di notizie e rivelazioni mentre gli addetti ai lavori affrontano dilemmi etici, più voci sull’AGI man mano che i laboratori spingono i limiti, e si spera più dialogo globale costruttivo su come gestirla. Che l’AGI arrivi tra 5 o 50 anni, garantire che il suo sviluppo non avvenga nell’oscurità totale potrebbe essere cruciale per renderla una benedizione, e non una maledizione, per l’umanità.
Fonti:
- Reuters – I ricercatori di OpenAI hanno avvertito il consiglio di amministrazione di una svolta nell’IA prima della rimozione del CEO, dicono le fonti reuters.com
- Reuters – Elon Musk e altri chiedono una pausa sull’IA, citando ‘rischi per la società’ reuters.com
- Vice – GPT-4 di OpenAI è closed source e avvolto nel segreto vice.com
- The Guardian – Ingegnere di Google sospeso dopo aver detto che il chatbot AI è diventato senziente theguardian.com
- The Guardian – Il ‘padrino dell’IA’ Geoffrey Hinton lascia Google e lancia l’allarme sui pericoli… theguardian.com
- The Verge – Il potente modello linguistico AI di Meta è trapelato online — cosa succede ora? theverge.com
- Reuters – Alibaba rilascia un modello AI che, secondo l’azienda, supera DeepSeek reuters.com
- Matthew Griffin (Bloomberg) – La CIA sta costruendo la sua versione di ChatGPT fanaticalfuturist.com
- TechCrunch – Il piano da 5 miliardi di dollari in 4 anni di Anthropic per sfidare OpenAI techcrunch.com
- MacRumors – Apple GPT: Cosa sappiamo sul lavoro di Apple sull’IA generativa macrumors.com