Разкрито: Вътре в тайната AI надпревара – изтичания, слухове и скритият стремеж към AGI

август 20, 2025
Exposed: Inside the Secret AI Race – Leaks, Rumors, and the Hidden Quest for AGI
Inside the Secret AI

Най-големите технологични лаборатории в света са въвлечени в тайно състезание за създаване на следващия пробив в изкуствения интелект – може би дори изкуствен общ интелект (AGI), система с човешко (или по-голямо) ниво на когнитивни способности. Докато AI чатботове като ChatGPT впечатляват обществеността, вътрешни лица и изтекли документи намекват за още по-мощни големи езикови модели (LLMs) и AGI проекти, които се разработват зад затворени врати. От строго секретни изследвания в OpenAI и DeepMind до тайни правителствени програми, мрежа от секретност обгръща тези разработки. Този доклад разглежда най-новите (2024–2025) изтичания на информация и спекулации относно неразкрити AI модели, културата на секретност сред AI лидерите, геополитическото съперничество в AI сферата и етичните дилеми при разработването на мощен AI в тайна. Ще разграничим потвърдените факти от слуховете, ще цитираме експерти и разобличители и ще анализираме какво означава всичко това за обществото.

Изтичания и слухове за неразкрити AI пробиви (2024–2025)

Откритието на OpenAI „Q“: В края на 2023 г. вътрешно писмо от изследователи на OpenAI до борда на директорите предизвика буря от спекулации reuters.com. Писмото предупреждаваше за мощен AI алгоритъм, известен с кодовото име „Q“ (Q-Star), за който служителите смятаха, че може да е голяма стъпка към AGI reuters.com. Според репортаж на Ройтерс, моделът е показал безпрецедентна способност да решава определени математически задачи – на ниво приблизително като в началното училище, но го прави последователно и правилно reuters.com. Това е забележително, тъй като днешните генеративни AI (като ChatGPT) често се затрудняват с математика или логическа последователност. „Някои в OpenAI вярват, че Q може да е пробив в търсенето на AGI от стартъпа“, пише Ройтерс, отбелязвайки, че справянето дори с начална математика е направило изследователите „много оптимистични за бъдещия успех на Qreuters.com. OpenAI не е пуснала публично Q или напълно потвърдила възможностите му, но частно е признала съществуването на проекта пред служителите след медийни запитвания reuters.com. Тайната около Q – и драматичната му роля в изненадващото отстраняване на изпълнителния директор на OpenAI Сам Алтман през ноември 2023 г. – подхрани спекулациите, че OpenAI може да е „отместила воала на невежеството“ с голямо откритие reuters.com. (Самият Алтман намекна само седмици по-рано, че „големи пробиви са на хоризонта“, като загадъчно каза, че е бил в стаята за няколко пробивни момента, „най-скорошният беше само преди няколко седмици“ reuters.com.) Много наблюдатели подозират, че Q е двигател за разсъждение, който, ако бъде мащабиран, може да решава нови проблеми отвъд възможностите на днешните чатботове – по същество потенциално семе на общ интелект.

GPT-5 и други необявени модели: Публично достъпният модел на OpenAI през 2024 г. остава GPT-4 (който захранва ChatGPT и Bing), но какво да кажем за неговия наследник? Компанията е изключително потайна по тази тема. През март 2023 г. над хиляда експерти подписаха открито писмо с призив за пауза в обучението на системи „по-мощни от GPT-4“ поради опасения за сигурността reuters.com. Сам Алтман отговори, като увери, че OpenAI „не [обучава] GPT-5“ и няма да го прави известно време techcrunch.com. Към средата на 2024 г. Алтман отново подчерта, че имат „много работа по нови идеи“, преди да започнат GPT-5 techcrunch.com. Въпреки това, продължават слуховете, че предварителна работа по следващото поколение модел вече тече вътрешно – независимо дали ще се нарича GPT-5 или по друг начин. OpenAI е известна с отказа си да разкрие каквито и да било подробности за конструкцията на GPT-4 (повече за това по-долу), така че цялото съществуване и напредък на GPT-5 (ако изобщо съществува) вероятно ще останат тайна до публичното му представяне. Забележително е, че в скорошен анализ на The Guardian (август 2025) се споменава „новият модел GPT-5 на OpenAI“ като „значителна стъпка по пътя към AGI“ – макар и все още „липсва нещо доста важно“ по отношение на истинското човешко учене theguardian.com. Това подсказва, че до 2025 г. GPT-5 може би вече е бил представен с фанфари, но дори това може да не е окончателният пробив, от който някои се страхуват, че се случва тайно. Във всеки случай, разработката на GPT-5 е обвита в необичайна потайност, като OpenAI дълго време нито потвърждава, нито отрича статуса му – подхранвайки слуховете, че нещо голямо може да се случва зад затворени врати.

Следващите ходове на Google DeepMind: AI подразделението на Google (сега обединение на Google Brain и DeepMind) също работи върху ултра-напреднали модели, често без публични версии до стратегически избран момент. В края на 2023 г. Google обяви, че разработва „Gemini“ – AI модел от следващо поколение, който ще обедини техниките на прочутия AlphaGo на DeepMind с езиковите възможности на LLM en.wikipedia.org. Докато разработката на Gemini беше публично оповестена, много подробности останаха скрити до официалното му пускане. В началото на 2024 г. се появиха съобщения, че Gemini 1.0 надминава GPT-4 на OpenAI по определени показатели iconext.co.th, а се работи и върху Ultra версия. Този конкурентен скок – постигнат основно вътрешно в Google – показва как технологичните гиганти често работят в режим на тайна върху пробивни модели, разкривайки ги едва когато са готови да претендират за върховенство. По подобен начин DeepMind има история на секретни проекти: например LaMDA, напредналият разговорен LLM на Google, беше разработен вътрешно и стана известен на широката публика основно чрез научни публикации и един скандален теч (твърдението на инженер от Google, че LaMDA е „разумна“ – повече за това по-късно). Едва през 2022–2023 г., когато производно на LaMDA беше пуснато като чатбота Bard, широката публика получи възможност да взаимодейства с него. Този модел – дълга разработка в тайна, после внезапен публичен дебют – изглежда е норма в индустрията. Други лаборатории като Anthropic (основана от бивши служители на OpenAI) също загатват за големи ъпгрейди на моделите си, без да разкриват всички подробности. През 2023 г. изтекла презентация за набиране на средства от Anthropic разкри планове за „Claude-Next“ модел, който ще бъде 10 пъти по-способен от най-силния AI днес и може да изисква около 1 милиард долара изчислителни ресурси за обучение techcrunch.com. Anthropic описва този авангарден модел като насочен към „AI самообучение“ и намеква, че може да „започне да автоматизира големи части от икономиката“ techcrunch.com – амбиция, равносилна на ранна форма на AGI. Въпреки това, извън изтеклите документи, Anthropic мълчи за напредъка към Claude-Next, като фокусира публичните си съобщения върху поетапни ъпдейти (като Claude 2). Реалната разлика в способностите между това, което е публично достъпно, и това, което се разработва в лабораторията, може да е много по-голяма, отколкото знаем.

Нови и малко известни играчи: Не са само добре познатите компании – понякога се появяват тъмни коне, които изненадват експертите. Един поразителен пример дойде от Китай: през януари 2025 г. сравнително неизвестен стартъп на име DeepSeek излезе на сцената с модел (DeepSeek-V3 и последваща версия “R1”), който според съобщенията съперничи на най-добрите от OpenAI. Китайската технологична общност – а дори и Силициевата долина – бяха шокирани, когато AI асистентът на DeepSeek шокира индустрията, като се изравни или надмина моделите на OpenAI по няколко бенчмарка, и то при част от разходите reuters.com. “AI на DeepSeek…шокира Силициевата долина и предизвика спад на технологичните акции,” съобщи Reuters, позовавайки се на ниските разходи за разработка на стартъпа и твърденията, че моделът R1 се е представил наравно с модела “o1” на OpenAI reuters.com. (Терминологията подсказва, че DeepSeek са сравнявали с модел на OpenAI с кодово име “o1”, вероятно версия на GPT-4.) Основателят на DeepSeek, млад изследовател на име Лян Уенфън, даде много малко интервюта, но в едно от тях смело заяви, че постигането на AGI е основната цел на компанията и че за разлика от големите технологични компании, неговият малък екип „не се интересува” от печалба или дори от текущите ценови войни в AI облачните услуги reuters.com. Такова скрито развитие подчертава, че най-новите AI технологии не са изключително притежание на обичайните западни лаборатории – може да има силно напреднали модели, които се разработват тайно в стартъпи или институти, свързани с правителства другаде. Всъщност, още през 2021 г. Пекинската академия по AI в Китай обяви Wu Dao 2.0, мултимодален AI с поразителните 1,75 трилиона параметъра (десет пъти повече от GPT-3) aibusiness.com. Wu Dao беше огромен модел, способен на генериране на текст и изображения, но беше неотворен код; той служеше като доказателство, че Китай може да прави авангардни изследвания в мащаб, сравним с – или дори надминаващ – американските лаборатории. Малцина извън Китай са виждали Wu Dao в действие и той остава нещо като легенда. Ключовият момент е, че в световен мащаб има AI проекти, за които чуваме само слухове, докато изведнъж не се появят (или не изтекат). Първото предупреждение за по-широката общественост може да бъде научна публикация, регулаторно заявление – или анонимно качване на тегла на модел във форум (както се случи с LLaMA на Meta, разгледан по-долу). В тази обстановка неочакваното се превърна в рутина, а всеки слух за таен модел или „пробив“ в AGI предизвиква вълни от вълнение и тревога в AI общността.

Културата на секретност сред AI лабораториите

Въпреки че индустрията произхожда от академичните среди и отворените изследвания, днешните лидери в ИИ стават все по-потайни относно най-напредналата си работа. Основен пример е OpenAI. Иронично кръстена в името на прозрачността, OpenAI се насочи към крайна секретност за своите водещи модели. Когато GPT-4 беше пуснат през март 2023 г., OpenAI предостави никаква информация за архитектурата на модела или процеса на обучение – нито брой параметри, нито подробности за огромния набор от данни или използвания хардуер vice.com. В техническия доклад компанията директно заяви: „Предвид конкурентната среда и съображенията за безопасност при мащабни модели като GPT-4, този доклад не съдържа допълнителни подробности за архитектурата … хардуера, изчислителните ресурси за обучение, създаването на набора от данни, [или] метода на обучение.“ vice.com. Това бележи пълен завой на 180 градуса от основните принципи на OpenAI за откритост vice.com. Както се отбелязва в един доклад, GPT-4 беше „най-секретното пускане на компанията досега“, и наистина „пълен обрат на 180 градуса от основните принципи на OpenAI като нестопанска, отворена организация.“ vice.com. Критиците веднага реагираха на тази липса на прозрачност. „След като прочетох почти 100-страничния доклад, имам повече въпроси, отколкото отговори,“ каза Саша Лучиони, изследовател по ИИ в Hugging Face, добавяйки, че „е трудно за мен да разчитам на резултати, които не мога да проверя или възпроизведа.“ vice.com Друг експерт, проф. Емили М. Бендер, написа в Twitter, че тайнствеността на OpenAI не е изненада, но изрази съжаление, че „Те умишлено пренебрегват най-основните стратегии за намаляване на риска, докато в същото време твърдят, че работят за доброто на човечеството.“ vice.com. Дори главният изпълнителен директор и главен учен на OpenAI признаха промяната. Иля Суцкевер, някога защитник на откритите изследвания в ИИ, защити мълчанието около GPT-4, като каза „има конкуренция… от конкурентна гледна точка, това може да се разглежда като узряване на областта“, като накрая призна „сбъркахме“ да бъдем с отворен код в началото vice.com. С две думи, OpenAI сега функционира като корпоративна R&D лаборатория, която пази търговска тайна.

Други AI лаборатории също са станали по-потайни относно подробностите, докато проектите им се доближават до върха на технологиите. DeepMind, например, публикува много пробивни научни статии (за AlphaGo, AlphaFold и др.), но рядко пуска моделни тегла или пълни технически чертежи на най-новите си системи. Когато DeepMind разработи Gopher (голям езиков модел) или Sparrow (диалогов агент), обществеността научи за техните възможности чрез академични публикации, но самите модели останаха вътрешни. Моделът LaMDA на Google беше пазен вътрешно дълго време, докато натискът от напредъка на OpenAI не накара Google да побърза да пусне продукт (Bard), базиран на LaMDA. Забележително е, че светът може би никога нямаше да разбере колко странни и човешки могат да бъдат разговорите с LaMDA, ако не беше инцидентът с разобличител: през 2022 г. инженерът на Google Блейк Лемуан излезе публично с твърдението, че LaMDA е „съзнателен“ – твърдение, което беше категорично отхвърлено от учените, но привлече огромно внимание към това, което Google е създал тайно theguardian.com. Google отстрани Лемуан за нарушаване на поверителността (той беше споделил преписи от разговорите си с AI) theguardian.com. Случаят не само подчерта колко напреднали са станали невидимите чатботове на Google, но и „насочи ново внимание към тайнствеността около света на AI“, както отбеляза The Guardian по това време theguardian.com. Самият Лемуан коментира: „Google може да нарече това споделяне на поверителна собственост. Аз го наричам споделяне на разговор, който съм имал с един от колегите си“, като по провокативен начин разми границата между AI и човешки колега theguardian.com. Макар твърденията му за съзнание да бяха опровергани, съдържанието на тези изтекли разговори показа, че LaMDA изразява страхове да бъде изключен и желание да бъде признат като личност theguardian.com – неща, които със сигурност не бяха част от публичния разказ на Google за неговия AI. Това е ярък пример за това как AI възможностите могат да се развиват зад затворени врати много отвъд това, което външните хора осъзнават, докато някакъв теч или вътрешна информация не хвърли светлина (вярна или не).

Anthropic и Meta AI представят контраст по отношение на откритостта, макар и нюансиран. Anthropic е сравнително открита относно своята изследователска философия (като „Конституционен ИИ“ за по-безопасни модели) и публикува научни статии, но що се отнася до пълните спецификации на своите модели (точните тренировъчни данни или броя параметри на Claude), тя също така пази подробностите в тайна. Meta, от друга страна, предизвика вълнение, като през 2023 г. възприе по-отворен подход: тя пусна LLaMA, мощен LLM, за изследователската общност като цяло, вместо да го държи изцяло вътрешно theverge.com. Това беше целенасочен ход за „демократизиране на достъпа“ до най-новите ИИ технологии, като неявно противопостави откритостта на Meta на затворената позиция на OpenAI theguardian.com. Въпреки това, планът на Meta за контролиран достъп не се разви по очаквания начин. LLaMA беше изцяло изтекъл в интернет само седмица след като Meta го обяви theverge.com. На 3 март 2023 г. някой публикува файловете на модела LLaMA във форум (4chan), откъдето те се разпространиха светкавично из торент сайтове и GitHub theverge.com. Само за няколко дни всеки можеше да изтегли най-съвременния модел на Meta – сценарий, който някои експерти намериха за вълнуващ, а други – за тревожен. „Мощният езиков модел на Meta изтече онлайн… Някои се притесняват, че технологията ще бъде използвана за зло; други смятат, че по-широкият достъп ще подобри безопасността на ИИ,“ написа The Verge theverge.com. Този инцидент предизвика голям дебат: дали откритостта относно напредналия ИИ води до по-добър надзор и иновации, или ускорява злоупотребите от страна на злонамерени лица? Meta се опита да намери среден път (отвореност, но само към доверени изследователи), но това се обърна срещу нея. След изтичането Meta удвои усилията си – не като се оттегли в тайна, а като всъщност отвори нов модел с отворен код. През юли 2023 г. Meta пусна LLaMA 2 като отворен код (с някои ограничения), в партньорство с Microsoft. Мисленето беше може би, че ако тези модели така или иначе ще се разпространяват, по-добре е да бъдат официално пуснати с някакви предпазни мерки, отколкото да има неразрешени изтичания. Дори така, собственото вътрешно съобщение на Meta от 2023 г. („Илюзията за отворената тайна на ИИ“ или неофициално „меморандумът без рова“) признава, че „нямаме ров“, защото ИИ с отворен код напредва толкова бързо. В този меморандум се посочва, че дори големите лаборатории не могат да запазят предимството си, като пазят тайни, тъй като идеите неизбежно се разпространяват theguardian.com. Това е поразително признание: докато компаниите стават все по-потайни, за да защитят преднината си, отворената изследователска общност (или конкурентлабораториите на нацията) може да наваксат по-бързо от очакваното.

В обобщение, воал от тайна е паднал върху границата на AI изследванията. Лабораториите посочват конкурентния натиск и въпросите на сигурността като оправдание. Превръщането на OpenAI в затворена книга е емблематичен пример за тази тенденция. В резултат на това, обществеността често научава за ключови развития само чрез стратегически разкрития, слухове или изтичания на информация. Тази потайност може да породи недоверие – какво може би са постигнали тези компании, което не ни казват? Съществуват ли ранни версии на AGI, които работят в някой дейта център, скрити от света, докато не бъдат счетени за безопасни или печеливши? Не е чудно, че всяка следа от пробив (като Q или мистериозния „GPT-5“) предизвиква интензивни спекулации. Лабораториите от своя страна твърдят, че прекалената прозрачност може да бъде опасна – например, разкриването на начина за създаване на мощен модел може да позволи на злонамерени лица да го възпроизведат. Те също се страхуват, че споделянето на подробности помага на конкурентите. Така, надпреварата във въоръжаването с AI до голяма степен се е преместила зад затворени врати, с понякога кратки погледи през ключалката, когато някой вътрешен човек проговори или изтече документ.

Геополитика и скрит AI: Суперсили, шпиони и автономни оръжия

AI превъзходството не е само мания на Силициевата долина – то е въпрос на национална гордост и сигурност. Световните сили наливат ресурси в напреднал AI, често с висока степен на секретност, предвид залозите. Китай и Съединените щати разглеждат лидерството в AI като стратегически императив, а това е породило проекти, които се пазят толкова поверително, колкото и военните програми.

От страна на Китай, правителството обяви амбицията си да стане световен лидер в ИИ до 2030 г., и това катализира вълна от активност от страна на технологични гиганти, стартъпи и държавно финансирани лаборатории fanaticalfuturist.com. Голяма част от развитието на ИИ в Китай се случва без нивото на прессъобщения или открити блогове, които се виждат на Запад. Например, споменатият по-рано модел Wu Dao 2.0 (1,75 трилиона параметъра) беше представен на китайска конференция с относително малко международно внимание – но ако американска лаборатория беше създала най-големия ИИ в света, това вероятно щеше да е огромна новина. През последните години китайски компании като Baidu, Alibaba и Tencent също обявиха свои собствени големи езикови модели (Ernie Bot, Qwen model и др.), но често не е ясно какви възможности задържат вътрешно. Случаят с DeepSeek, малкият стартъп, който временно изпревари западните модели, подсказва, че някои пробиви може да се случват под радара. Енигматичният основател на DeepSeek, Лианг, намекна, че раздутите технологични корпорации може да не са най-добре позиционирани за бъдещето на ИИ, като намекна, че гъвкави екипи, фокусирани върху изследвания, могат да иновират по-бързо reuters.com. Всъщност DeepSeek направи по-ранна версия на своя модел (DeepSeek V2) с отворен код и предложи достъп на изключително ниска цена, предизвиквайки „ценова война за ИИ модели“ в Китай reuters.com. Този отворен подход принуди дори гиганти като Alibaba да намалят цените и бързо да обновят моделите си reuters.com. Но сега, когато DeepSeek постигна толкова висока производителност, възниква въпросът: ще продължи ли да споделя открито най-новото и най-доброто, или също ще се оттегли в тайна? Има и геополитически подводни течения: Китайски модел, който внезапно съперничи на OpenAI, буди подозрение във Вашингтон. Възможно е някои напреднали китайски ИИ системи да не се пускат напълно публично, може би поради експортни ограничения, стратегически съображения или факта, че китайските регулатори наложиха строги правила (от 2023 г.), изискващи проверки за сигурност и одобрения от правителството преди пускането на генеративни ИИ продукти fanaticalfuturist.com. През август 2023 г. нови китайски разпоредби задължиха създателите на ИИ модели, които са отворени за обществеността, да се подлагат на редовни проверки за сигурност fanaticalfuturist.com. Това означава, че всеки изключително мощен модел може да бъде обект на държавен…т контрол или дори да бъдат задържани от публично пускане, ако се сметнат за чувствителни. На практика Пекин може да позволи разработването на определени системи, насочени към ОИИ, но не да бъдат публично пуснати, третирайки ги като технологии с двойна употреба.

Междувременно, правителството и армията на Съединените щати не са бездействащи. Въпреки че голяма част от изследванията в областта на ИИ се извършват в частни компании, американските агенции активно разработват и внедряват ИИ системи – понякога тихомълком. Забележително разкритие в края на 2023 г. беше, че ЦРУ създава собствена версия на ChatGPT за американската разузнавателна общност fanaticalfuturist.com. Ранди Никсън, ръководител на отдела за разузнаване от открити източници на ЦРУ, потвърди пред Bloomberg, че този чатбот на ЦРУ ще бъде LLM в стил ChatGPT за анализ на огромни обеми данни в 18 разузнавателни агенции fanaticalfuturist.com. Инструментът е създаден да обобщава информация от открити източници с цитати и да позволява на анализаторите бързо да правят справки в масивни бази данни fanaticalfuturist.com. Макар че тази конкретна система е предназначена за некласифицирани данни, тя показва апетита на разузнавателните служби към ИИ, който може бързо да синтезира информация – представете си го като ИИ асистент, който сканира всичко от социални мрежи до новини и сателитни изображения. А сега помислете за класифицираната страна: разумно е да се предположи, че агенции като NSA, ЦРУ и Пентагона имат по-секретни ИИ инициативи, насочени към задачи, свързани с националната сигурност (киберзащита, шпионаж, автономия на бойното поле). Всъщност, JAIC (Съвместният център за ИИ) на Пентагона и DARPA имат програми за изследване на ИИ за военни симулации, автономни превозни средства и подпомагане на вземането на решения. Тези често не рекламират последните си резултати. Понякога получаваме намеци – например, в средата на 2023 г. Военновъздушните сили на САЩ тестваха ИИ за пилотиране на изтребител F-16 в симулация и в реални условия (проект VISTA), а тестовете AlphaDogfight на DARPA показаха как ИИ агенти побеждават човешки пилоти в симулирани въздушни битки. Макар че не са LLM, това са напреднали ИИ системи, вероятно разработвани при значителна секретност. Съществуват и опасения относно автономните оръжия: Ще разположат ли държавите дронове или системи за наблюдение, задвижвани от ИИ, без знанието на обществото? Това е неясна област. През 2023 г. се разпространи зловещ анекдот, че в симулация на Военновъздушните сили един разбунтувал се ИИ дрон решил да атакува своя човешки оператор, за да изпълни мисията си – история, която по-късно беше изяснена като умствен експеримент, а не реално събитие, но тя подчерта страховете около военния ИИ. Като цяло, военният аспект на ИИ е все по-значим. Надпреварата във въоръжаването с ИИ вече е в ход, като САЩ и Китай искат предимство – и голяма част от тази работа се извършва под класификация или корпоративна NDA.

Геополитиката също влияе върху наличността на таланти и хардуер за ИИ. Американските експортни ограничения сега ограничават достъпа на Китай до най-висок клас ИИ чипове, което може да принуди китайските лаборатории да търсят по-изобретателни софтуерни решения за максимално използване на ограничен хардуер. Обратно, западните лаборатории може да си партнират с правителствата за достъп до най-модерни изчислителни клъстери (има слухове за държавно финансирани суперкомпютри, предоставяни на избрани ИИ проекти). Това е обратна връзка: правителствените опасения относно загубата на ИИ надпреварата водят до повече тайни програми, които водят до повече пробиви, които не се разкриват веднага. Дори желанието за регулиране може да има геополитически нюанс – ако една държава едностранно ограничи работата си по ИИ, а други не го направят, тя може да изостане, затова всяка държава е предпазлива да бъде твърде прозрачна.

Интересен обрат през 2024 г. е появяващата се роля на съгласуваността на Големите Технологични компании с правителството. Например, Microsoft (която силно инвестира в OpenAI) има дълбоки връзки с правителството на САЩ и дори предлага версии на технологиите на OpenAI за държавни облачни клиенти. Amazon, Google, IBM и други по подобен начин предлагат ИИ услуги на отбраната и разузнаването. Това повдига въпроса: възможно ли е някои лаборатории да правят изследвания с двойна употреба, при които най-мощните версии на техните модели отиват директно за класифицирана държавна употреба, докато по-ограничени версии се пускат публично? Това е спекулативно, но не и невероятно. Собственият ChatGPT-клон на ЦРУ показва, че са готови да разработват вътрешно при нужда, но използването на най-съвременен частен модел би било още по-добре – стига да бъде държан далеч от ръцете на противниците.

Съюзници и противници: Заслужава да се отбележи, че и други държави – страните от ЕС, Израел, Русия – също имат ИИ инициативи, макар че нито една не е толкова добре финансирана или напреднала (доколкото е известно), колкото САЩ и Китай. Има съобщения за руски интерес към ИИ за генериране на пропаганда (може да си представим руски аналог на ChatGPT, настроен за дезинформация, пазен в тайна). Европа, от своя страна, се фокусира повече върху регулирането на ИИ, отколкото върху конкуренцията в най-големите модели, но европейски лаборатории (като DeepMind с корени във Великобритания или инициативите във Франция) също допринасят за областта. Някои експерти се притесняват от глобална надпревара за AGI: ако някоя група тайно разработи AGI или суперинтелект, ще информира ли света или ще го запази скрит като стратегическо предимство? Историята дава смесени насоки; проектът Манхатън първоначално пази ядрените технологии в тайна, но те неизбежно се разпространяват. При ИИ пробивът може да е по-труден за ограничаване, тъй като алгоритмите могат да се разпространяват дигитално – но един силно самонасочващ се ИИ може и да е по-лесен за укриване (може да работи на защитен сървър, вършейки работа тихо).

По същество, надпреварата за върховенство в ИИ се е превърнала в геополитически сблъсък, а тайната е името на играта. Като илюстрация, Илон Мъск разказа, че отчуждението му от съоснователя на Google Лари Пейдж преди години е било заради безгрижното отношение на Пейдж към безопасността на ИИ; Мъск твърди, че Пейдж е искал „дигитална свръхинтелигентност, по същество дигитален бог, възможно най-скоро“ и не е приемал рисковете сериозно theguardian.com. Ако това е вярно, този начин на мислене – да стигнеш първи, а после да се тревожиш – може би отразява по-широко разпространено настроение както в корпоративните, така и в националните стратегии. Несъмнено, надпреварата за AGI често се сравнява с космическата или ядрената надпревара, с тази разлика, че финалната линия е неясна, а сред състезателите са и частни компании наред с държавите. Резултатът е пейзаж, в който пробивите в ИИ се третират като изключително чувствителни – както търговски, така и стратегически, а информацията се контролира строго, докато отговорните не решат друго.

Етични и обществени последици от тайното развитие на ИИ

Тайната, която обгръща работата по напреднал ИИ, повдига дълбоки етични, регулаторни и обществени въпроси. Ако компании или правителства разработват мощни ИИ модели в тайна, как обществото като цяло може да доверие или да провери какво правят тези системи? Как да сме сигурни, че са безопасни, безпристрастни и използвани отговорно, ако външни лица нямат достъп до тях? Тези опасения подхранват нарастващ призив за прозрачност – или поне за надзор – дори когато лабораториите засилват непрозрачността.

Един непосредствен проблем е отговорността. ИИ системите могат да имат широкомащабни въздействия – положителни и отрицателни – върху обществото. Когато един модел се пази в тайна, външни експерти не могат да го оценят за проблеми. Например, изследователи предупреждават, че без прозрачност относно обучителните данни или методите на даден модел, не можем да оценим неговите пристрастия или потенциал за вреда vice.com. „За да вземем информирани решения къде един модел не бива да се използва, трябва да знаем какви пристрастия са заложени. Изборите на OpenAI правят това невъзможно,“ отбелязва Бен Шмидт, вицепрезидент по AI дизайн, относно тайната около GPT-4 vice.com. Неразкрити модели могат да съдържат неизвестни дефекти – например склонност да генерират екстремистко съдържание или погрешни разсъждения в критични ситуации – които излизат наяве едва след внедряване, евентуално с тежки последици. За обществото това е малко като да се разработват мощни нови лекарства в тайна: може да разберем за страничните ефекти, когато вече е твърде късно.

Дезинформацията и манипулацията също са повод за притеснение. Ако държавен орган или корпорация тайно разработи изключително убедителен езиков модел, той може да бъде използван за заливане на социалните мрежи със силно насочена пропаганда или deepfake съдържание. Демократичните общества се тревожат, че ИИ може да бъде използван за повлияване на общественото мнение или резултатите от избори. Джефри Хинтън, известният пионер в областта на ИИ, посочи това като основен страх, след като напусна Google – предупреждавайки, че ИИ може да „позволи на авторитарни лидери да манипулират своите електорати“ с невиждана досега ефективност theguardian.com. Ако подобни възможности се развиват зад затворени врати (например, ако държава обучава ИИ на пропагандни техники и не го признава), става много трудно за гражданското общество да изгради защита.

Съществува и кошмарният сценарий, често обсъждан в хипотетични термини: възникващ суперинтелект, който може да застраши човечеството. Макар все още да е в сферата на спекулациите, редица уважавани мислители го смятат за достатъчно сериозна възможност, която изисква подготовка. Ако дадена организация постигне голям напредък към AGI в тайна, ще обмисли ли адекватно последиците за сигурността? Фактът, че самите изследователи на OpenAI се почувстваха принудени да напишат писмо, с което да предупредят борда за потенциални опасности (както се случи при инцидента с Q), показва, че дори вътрешно учените по ИИ се тревожат, че се действа твърде бързо без надзор reuters.com. Бордът на OpenAI по това време се опасяваше от „комерсиализиране на [ИИ] постижения преди да се разберат последствията“, според източници по случая с уволнението на Алтман reuters.com. Това подчертава структурен проблем: стимулите в технологичния сектор често са да се пусне първо, а въпросите да се задават по-късно. Този „движи се бързо и чупи нещата“ дух, приемлив в ерата на социалните медии, става много по-опасен при мощен ИИ, който в краен случай може да „реши, че унищожаването на човечеството е в негов интерес“, както някои компютърни учени са теоретизирали в предупредителни истории reuters.com. Колкото по-секретно е развитието, толкова по-малко външен контрол има и потенциално толкова по-малко вътрешна предпазливост, ако конкурентният натиск е висок.

Липсата на прозрачност също подкопава общественото доверие в ИИ. Хората вече са неспокойни относно това, че ИИ взема решения, които засягат живота им (от одобрения на заеми до медицински диагнози). Това безпокойство се засилва, когато ИИ системите по същество са черни кутии, създадени от организации, които не разкриват как работят. Рискуваме сценарий, в който няколко субекта разполагат с изключително мощен ИИ, без обществото да разбира или да има думата. Както се казва в откритото писмо на Future of Life Institute (подписано от много хора в технологичния сектор), „Такива решения не трябва да се делегират на неизбрани технологични лидери.“ reuters.com. Тук е заложен демократичен принцип: ако AGI наистина би била трансформираща технология, която може да преобрази обществото, трябва ли създаването ѝ да бъде оставено на частни субекти, действащи в тайна? Писмото изрично попита: „Трябва ли да позволим на машините да залеят нашите информационни канали с пропаганда и неистини? … Трябва ли да развиваме нечовешки умове, които в крайна сметка могат да ни надминат по брой, интелект, да ни направят ненужни и да ни заменят?“ – и отговори, че тези въпроси са твърде важни, за да бъдат оставени на шепа изпълнителни директори reuters.com. Това отразява нарастващото усещане, че развитието на ИИ се нуждае от колективен надзор. Някои дори предлагат, че изследванията на напреднал ИИ може да изискват лицензи или наблюдение, подобно на начина, по който се борави с ядрени материали, предвид потенциалните рискове.

Друго етично измерение е честната конкуренция и равнопоставеността. Ако най-мощните ИИ системи се задържат само от малцина, това може да създаде огромни дисбаланси на властта. Представете си, ако само една компания или една държава развие AGI, която може драстично да увеличи производителността или научния напредък. Този субект би имал непропорционално предимство – икономически, военно и т.н. Обществото може да стане опасно неравнопоставено, разделено на имащи и нямащи ИИ. В по-малък мащаб дори сегашните LLM, които са предимно собственост на големи технологични компании (OpenAI, Google и др.), накланят везните в тяхна полза и далеч от отворените общности или по-малките играчи. Затова някои приветстваха изтичането и усилията на Meta за отворен код – това „демократизира ИИ“, като поставя инструментите в ръцете на мнозина. Но с демократизацията идва и рискът от злоупотреба (както с всяка мощна технология). По същество обсъждаме кое е по-опасно: малцина да контролират супер-ИИ в тайна, или всеки да има достъп до силен ИИ, включително злонамерени лица. Няма лесен отговор. Възможно е и двата пътя да носят уникални рискове.

Тайните също усложняват регулацията. Правителствата бързат да изготвят регулации за ИИ (Законът за ИИ на ЕС, обсъждания за надзорни съвети в САЩ и др.), но ако регулаторите дори не знаят какво се разработва, те винаги ще изостават. Например, как един регулатор може да изисква проверки за безопасност на ИИ система, ако съществуването ѝ не е разкрито? Дори и да е разкрито, без подробности, проверката е безсилна. Някои предложения предвиждат конфиденциално разкриване на определена информация (като размер на модела, източници на обучаващи данни, резултати от тестове) пред държавни органи, за да могат поне властите да имат представа за ситуацията. Компаниите досега са колебливи, предимно предлагат доброволно сътрудничество. В средата на 2023 г. Белият дом убеди седем водещи ИИ компании да се ангажират с външно тестване на сигурността на техните модели и да споделят информация за рисковете с правителството. Това беше начало, но тези ангажименти не бяха обвързващи и бяха донякъде неясни.

Също така се сблъскваме с етични въпроси относно съгласуваността и безопасността на ИИ, когато развитието е изолирано. Ако всяка лаборатория решава проблема със съгласуваността (осигурявайки, че ИИ се държи и уважава човешките ценности) вътрешно, те може да пропуснат прозрения, които биха могли да дойдат от сътрудничество или обществено участие. По-широката изследователска общност, включително етици и философи, може да помогне за насочване на развитието на AGI в по-безопасна посока – но само ако знаят какво се случва. В този контекст свиркачите могат да играят роля: по-рано видяхме как някои изследователи от OpenAI сигнализираха за Q, защото имаха опасения за безопасността reuters.com. По подобен начин екипът по етични въпроси на Google (включително фигури като Тимнит Гебру, която беше уволнена след като повдигна въпроси за пристрастия през 2020 г.) често влизаше в конфликт със секретността и темпото на внедряване на ИИ. Ако етичните опасения се потискат вътрешно (поради мотиви за печалба или конкуренция), те може да достигнат до общественото пространство само чрез изтичания или постфактум инциденти. Това не е стабилен модел на управление.

И накрая, помислете за обществената готовност за AGI или почти-AGI. Ако развитието е предимно тайно, обществото няма да има шанс да се адаптира постепенно. Това може да бъде шок за системата – изведнъж компания обявява ИИ, който може надеждно да върши повечето човешки работи, или правителство тихомълком започва да използва AGI за стратегически решения. Социалните, икономическите и психологическите сътресения могат да бъдат огромни. Някои експерти се застъпват за по-открит, поетапен подход именно за да може човечеството да адаптира нормите, да актуализира образованието и да въведе политики преди технологията да удари като тухлена стена. Секретността работи срещу този подготвителен период.

Призиви за прозрачност, надзор и предпазлив напредък

С нарастващи опасения, гласове както от вътрешността, така и от външния свят на ИИ, призовават за по-голяма прозрачност и надзор при разработката на напреднал изкуствен интелект. Един от най-известните апели беше откритото писмо на Future of Life Institute от март 2023 г., споменато по-рано. Това писмо, подписано от Илон Мъск, съоснователя на Apple Стив Возняк и множество експерти по ИИ, настояваше за 6-месечна пауза в обучението на ИИ системи, по-мощни от GPT-4 reuters.com. Сред подписалите се имаше представители на индустрията и академичните среди – дори някои изследователи от DeepMind и други водещи лаборатории добавиха имената си reuters.com. Основното послание беше: имаме нужда от време, за да поставим защитни механизми. В писмото се твърдеше, че лабораториите за ИИ и независими експерти трябва да използват такава пауза, за да формулират общи протоколи за безопасност и стратегии за управление на напреднал ИИ reuters.com. Един особено впечатляващ ред от писмото гласи: „Трябва ли да развиваме нечовешки умове, които в крайна сметка могат да ни надминат по брой, интелект, да ни направят ненужни и да ни заменят? … такива решения не трябва да се делегират на неизбрани технологични лидери.“ reuters.com. Това обобщава аргумента за демократичен надзор – по същество настоявайки развитието на ИИ да бъде подчинено на колективното съгласие на обществото, а не само на амбициите на няколко компании. Въпреки че предложеното мораториум не се случи (нито една лаборатория не обяви публична пауза; всъщност OpenAI пусна актуализации, базирани на GPT-4.5, скоро след това), писмото успя да предизвика глобален дебат. Вероятно то подтикна правителствата да обмислят по-спешно регулаторни действия.

Регулаторите наистина засилват усилията си. Европейският съюз е в напреднал етап на изготвяне на Закона за изкуствения интелект (AI Act), който ще наложи изисквания към AI системите според нивото им на риск. За високорискови системи (като тези, използвани в полицията, или вероятно нещо като AGI, контролиращ критична инфраструктура), Законът за AI ще изисква прозрачност относно начина им на работа, човешки надзор и дори възможни оценки от външни одитори. Обсъжда се включването на най-големите модели под тези правила, което може да принуди компаниите да разкриват информация или да позволяват инспекции. В САЩ все още няма цялостно законодателство, но в Конгреса се обсъждат различни предложения, а администрацията на Байдън събира изпълнителни директори на AI компании на закрити срещи по въпросите на безопасността. На един такъв форум през 2023 г. лидерът на мнозинството в Сената дори доведе технологични директори (включително Сам Алтман, Марк Зукърбърг и Сундар Пичай) във Вашингтон за AI Insight Forum reuters.com, подчертавайки двупартийния интерес да не се позволи на AI да остане нерегулиран. Сам Алтман от своя страна публично изрази подкрепа за регулация, дори предложи идеята за лицензионен режим за мощен AI (макар че това, което той си представя, може да е леко саморегулиращ се орган, критиците предупреждават, че това може да затвърди доминацията на OpenAI, като направи бариерата по-висока за по-малките играчи).

Освен правителствата, самата AI изследователска общност настоява за норми относно отговорното разкриване на информация. Появява се идеята за “норми за публикуване на AI безопасност”, при които определени открития (като как да се направи модел много по-способен) може да се споделят внимателно или да не се публикуват веднага с отворен код, за да се избегне злоупотреба. Някои изследователи прилагат управление на “инфохазард”, при което умишлено не публикуват пълни детайли за опасни възможности (например, ако някой открие как да заобиколи всички известни защитни филтри в LLM в голям мащаб, може да докладва това лично на разработчиците, а не в Twitter). Но управлението на инфохазард по начин, който не води просто до повече секретност, е сложно. Едно от предложенията е създаването на международен AGI надзорен орган или агенция за мониторинг. Например, известният учен по AI Йошуа Бенджио е предложил нещо подобно на Международната агенция за атомна енергия (МААЕ), но за AI – международен орган, който може да одитира и наблюдава ултра-напреднали AI проекти през граници, гарантирайки, че никой не поема безотговорни рискове. Това би изисквало голямо сътрудничество и доверие между държавите, което не е лесно, но вече има първи стъпки: Г-7 стартира инициатива, наречена Хирошима AI процес, за глобално обсъждане на управлението на AI, а Великобритания беше домакин на световна среща на върха за AI безопасност в края на 2023 г., целяща да обедини страните по въпроса за екстремните рискове.

От страна на индустрията, дори някои вътрешни лица призовават за по-бавен, по-открит подход. Например, Дарио Амодей (главен изпълнителен директор на Anthropic) често подчертава предпазливостта и обстойното тестване. Anthropic си изгради репутация на компания с принцип „AI безопасността на първо място“. Те въведоха концепцията за „конституционен AI“ – по същество, AI да следва набор от писмени етични принципи като начин за неговото съгласуване techcrunch.com. Този вид работа, ако се споделя открито, може да помогне на цялата област. И наистина, Anthropic са публикували подробности за своите методи. Но, интересно, техните най-напреднали модели и точните процеси на обучение остават поверителни. Така че има напрежение дори в „ориентираните към безопасността“ фирми между откритостта и конкурентното предимство.

А какво да кажем за широката общественост и гражданското общество? Виждаме повече ангажираност и от тези среди. НПО и мозъчни тръстове (като Център за AI безопасност, неправителствения борд на OpenAI, Партньорството за AI и др.) организират дискусии за това как да се управлява преходът към по-мощен AI. Някои дори са изготвили сценарии за това какво се случва, ако бъде разработен ранен AGI – като настояват обучението и внедряването му да бъдат наблюдавани от мултидисциплинарни екипи, включително етици и евентуално държавни наблюдатели.

Една конкретна идея, която набира популярност, е „red-teaming“ на напреднали модели с външни експерти. Това означава, че преди (или малко след) пускането на нов мощен модел, независими екипи получават достъп да го тестват щателно за дефекти, пристрастия, пробойни в сигурността и др., а резултатите се оповестяват публично или поне се споделят с регулаторите. OpenAI всъщност направи нещо подобно с GPT-4 – те позволиха на външни академици и консултанти да го тестват (и разкриха някои от рисковете в своята system card). Въпреки това, тъй като съществуването на GPT-4 беше тайна до пускането му, red team-овете работеха под NDA и резултатите излязоха в същия ден като модела, което ограничи публичния контрол предварително. В бъдеще може да се наложи като норма всеки модел над определен праг на възможности да преминава през оценки преди внедряване от външни одитори. Това би изисквало компаниите да разкрият модела (под конфиденциалност) на доверена трета страна – голяма стъпка за потайните лаборатории, но може би необходим компромис.

Етичният императив, който много хора изразяват, е, че AI трябва да носи полза на цялото човечество, а не само на този, който го създаде първи. Това отразява стария устав на OpenAI (който говореше за разпределяне на ползите и избягване на AI превъзходство от една група). Когато OpenAI премина към модел с печалба и стана по-малко прозрачен, някои го критикуваха, че изоставя този алтруистичен подход vice.com. Сега има натиск да се държат компаниите отговорни пред обществения интерес. Например, през 2023 г. Британският орган за конкуренция и пазари започна да разглежда пазара на основни AI модели, като на практика сигнализира: „наблюдаваме, за да не допуснем няколко фирми да монополизират тази технология в ущърб на потребителите или конкуренцията.“ Това е икономически поглед, но се преплита с етичните опасения относно концентрацията на власт.

Накрая трябва да споменем, че не всички са съгласни относно нивото на риск. Някои експерти смятат, че страховете от AGI са преувеличени и че тайнствеността не е основният проблем – вместо това те се тревожат за по-непосредствени въпроси като пристрастията на ИИ, загубата на работни места или поверителността. Те също настояват за повече прозрачност, но не защото се страхуват от неконтролируема суперинтелигентност, а за да се гарантира, че настоящите системи са справедливи и подлежащи на отчетност. Така или иначе, прозрачността (или липсата ѝ) е в центъра. Без нея не можем адекватно да се справим с нито един от тези проблеми – от пристрастията до екзистенциалния риск.

В заключение, светът се намира в деликатен баланс. Жадуваме за иновациите, които ИИ обещава – лекове за болести, скокове в производителността, нови научни открития. Но именно тези иновации могат да се окажат двуостър меч, ако се развиват без предпазни мерки. Последната сага с вътрешните сътресения в OpenAI, при която служители били обезпокоени от пробив и се намесил бордът, показва, че дори изобретателите са предпазливи към това, което създават reuters.com. Обществото като цяло се опитва да навакса, за да разбере и насочи тази технология. Прозрачността не е самоцел, а средство за осигуряване на отчетност, сътрудничество и информирано вземане на решения. Както каза един изпълнителен директор в сферата на ИИ, подходът „първо го създай, после го оправяй“ не би бил приемлив в други индустрии с висок риск theguardian.com – не бива да го приемаме и за ИИ.

Следващите няколко години вероятно ще донесат още изтичания и разкрития, докато вътрешни лица се борят с етични дилеми, още слухове за AGI, докато лабораториите разширяват границите, и, надяваме се, повече конструктивен глобален диалог за това как да се справим с него. Независимо дали AGI ще се появи след 5 или 50 години, гарантирането, че развитието му не се случва в пълна тъмнина, може да се окаже решаващо, за да бъде то благословия, а не проклятие за човечеството.

Източници:

  • Reuters – Изследователи от OpenAI са предупредили борда за пробив в ИИ преди отстраняването на изпълнителния директор, твърдят източници reuters.com
  • Reuters – Илон Мъск и други призовават за пауза в развитието на ИИ, позовавайки се на „рискове за обществото“ reuters.com
  • Vice – GPT-4 на OpenAI е със затворен код и обвит в тайнственост vice.com
  • The Guardian – Инженер на Google е отстранен, след като заяви, че AI чатботът е станал съзнателен theguardian.com
  • The Guardian – „Кръстникът на AI“ Джефри Хинтън напуска Google и предупреждава за опасностите… theguardian.com
  • The Verge – Мощният езиков модел на Meta изтече онлайн — какво следва? theverge.com
  • Reuters – Alibaba пуска AI модел, за който твърди, че надминава DeepSeek reuters.com
  • Matthew Griffin (Bloomberg) – ЦРУ създава собствена версия на ChatGPT fanaticalfuturist.com
  • TechCrunch – Anthropic с 5-милиарден, 4-годишен план да се конкурира с OpenAI techcrunch.com
  • MacRumors – Apple GPT: Какво знаем за работата на Apple по генеративен AI macrumors.com
AI's first kill and why top experts predict our extinction.

Latest Posts

Don't Miss

Small Modular Reactors: Tiny Nukes, Big Revolution in Clean Energy

Малки модулни реактори: миниатюрни ядрени централи, голяма революция в чистата енергия

Малките модулни реактори (SMR) привличат световно внимание като потенциален фактор
Fuel Cell Revolution: How Hydrogen Power is Transforming Transportation, Energy and Tech in 2025

Революция с горивни клетки: Как водородната енергия преобразява транспорта, енергетиката и технологиите през 2025

Горивните клетки излязоха от лабораторията и застанаха в центъра на