世界最大のテックラボが、次なる人工知能のブレークスルー――おそらくは汎用人工知能(AGI)、すなわち人間レベル(あるいはそれ以上)の認知能力を持つシステム――の構築をめぐって秘密裏に競争を繰り広げている。ChatGPTのようなAIチャットボットが世間を驚かせている一方で、内部関係者や流出した文書は、さらに強力な大規模言語モデル(LLM)やAGIプロジェクトが水面下で進行していることを示唆している。OpenAIやDeepMindの極秘研究から、秘密裏に進められる政府プログラムまで、これらの開発には秘密の網が張り巡らされている。本レポートでは、未公開AIモデルに関する最新(2024~2025年)のリークや憶測、AIリーダーたちの秘密主義の文化、AI分野における地政学的な駆け引き、そして強力なAIを闇の中で開発することの倫理的ジレンマについて掘り下げる。確認された事実と噂を分け、専門家や内部告発者の声を引用し、これらが社会にとって何を意味するのかを検証する。
未公開AIブレークスルーのリークと噂(2024~2025年)
OpenAIの「Q」発見: 2023年後半、OpenAIの研究者が取締役会に送った内部書簡が憶測の嵐を巻き起こしましたreuters.com。その書簡は、スタッフがAGIへの大きな一歩になり得ると考えた強力なAIアルゴリズム、コードネーム「Q」(Q-Star)について警告していましたreuters.com。ロイターの報道によると、このモデルは特定の数学問題を前例のない能力で解決し—おおよそ小学生レベルの内容ですが—一貫して正確に解くことができたとのことですreuters.com。これは、現在の生成AI(ChatGPTのようなもの)が数学や論理的一貫性に苦戦することが多い中で、注目すべきことでした。「OpenAIの一部の人々は、QがスタートアップのAGI探求におけるブレークスルーになり得ると考えている」とロイターは書き、小学生レベルの数学を完璧にこなしたことで研究者たちが「Qの将来の成功に非常に楽観的になった」reuters.comと指摘しました。OpenAIはQを公にリリースしておらず、その能力を完全には認めていませんが、メディアからの問い合わせを受けて従業員にはプロジェクトの存在を非公式に認めましたreuters.com。Qをめぐる秘密主義と、2023年11月のOpenAI CEOサム・アルトマンの突然の解任劇での劇的な役割が、OpenAIが「無知のベールを押し戻した」大発見をしたのではないかという憶測を呼びましたreuters.com。(アルトマン自身も数週間前に「大きな進歩が目前にある」とほのめかし、いくつかのブレークスルーの瞬間に立ち会ったと曖昧に語り、「直近のものはここ数週間のうちだった」reuters.comと述べていました。)多くの観測筋は、Qが推論エンジンであり、スケールアップすれば現在のチャットボットができない新しい問題も解決できる—本質的には汎用知能の種になり得ると疑っています。
GPT-5および未発表のその他のモデル: 2024年時点でOpenAIの一般向けモデルはGPT-4(ChatGPTやBingを支える)ですが、その後継モデルはどうでしょうか?同社はこの話題について極めて口が堅い状態です。2023年3月には、1,000人以上の専門家が「GPT-4よりも強力なシステム」の訓練を一時停止するよう求める公開書簡に署名しました(安全性への懸念から)reuters.com。サム・アルトマンは、OpenAIは「GPT-5を[訓練]していない」し、しばらくは訓練しないtechcrunch.comと保証して応じました。2024年半ば時点でも、アルトマンは新しいアイデアに「多くの作業が残っている」と述べ、GPT-5の着手はまだ先だと繰り返しましたtechcrunch.com。それでも、予備的な作業が次世代モデル(GPT-5と呼ばれるかどうかは不明)で社内で進行中だという噂は絶えません。OpenAIはGPT-4の構造についても一切詳細を明かさなかったことで有名なので、GPT-5の存在や進捗状況全体(もし存在すれば)も、一般公開まで秘密のままである可能性が高いです。注目すべきは、最近のThe Guardian(2025年8月)の分析で、「OpenAIの新しいGPT-5モデル」が「AGIへの道のりにおける重要な一歩」と述べられていたことです――ただし、依然として「本当に重要な何かが欠けている」(真の人間のような学習という点で)とも指摘されていますtheguardian.com。これは、2025年までにGPT-5が大々的に発表された可能性を示唆していますが、それですら一部の人が恐れるような決定的なブレイクスルーではないかもしれません。いずれにせよ、GPT-5の開発は異例の秘密主義に包まれており、OpenAIは長らくその状況を肯定も否定もしていません――そのため、何か大きなことが水面下で進行しているのではという噂が絶えません。
Google DeepMindの次の一手: GoogleのAI部門(現在はGoogle BrainとDeepMindの合併体)も、しばしば戦略的なタイミングまで一般公開せずに、超高度なモデルの開発を進めてきました。2023年後半、Googleは「Gemini」という次世代AIモデルの開発を発表しました。これは、DeepMindの有名なAlphaGoの技術とLLMの言語能力を融合させるものですen.wikipedia.org。Geminiの開発は公表されましたが、多くの詳細は最終的なリリースまで秘密にされていました。2024年初頭には、Gemini 1.0がOpenAIのGPT-4を特定のベンチマークで上回ったiconext.co.thとの報道があり、さらにUltraバージョンも開発中とされました。この競争上の飛躍は、主にGoogle社内で達成されたものであり、テックジャイアントがしばしばステルスモードで画期的なモデルを開発し、王座を主張できる準備が整った時にのみ公開することを示しています。同様に、DeepMindには秘密主義的なプロジェクトの歴史があります。例えば、LaMDAはGoogleの高度な会話型LLMで、社内で開発され、主に研究論文や有名なリーク(GoogleのエンジニアがLaMDAは「知覚を持つ」と主張した件、詳細は後述)を通じて一般に知られていました。2022~2023年にLaMDAの派生モデルがBardチャットボットとしてリリースされ、初めて一般ユーザーが触れることができました。このパターン――長期間の秘密開発の後、突然の一般公開――は業界の標準となっているようです。Anthropic(OpenAIの元メンバーが設立)など他のラボも、詳細を明かさずに大規模なモデルアップグレードが近いことを示唆しています。2023年には、Anthropicの資金調達資料がリークされ、「Claude-Next」モデルの計画が明らかになりました。これは現在最強のAIの10倍の能力を持ち、トレーニングには約10億ドル規模の計算資源が必要とされる可能性があるとのことですtechcrunch.com。Anthropicはこの最先端モデルを「AIの自己学習」を目指すものとし、「経済の大部分を自動化し始める可能性」techcrunch.comがあると示唆しました――これは初期的なAGI(汎用人工知能)に等しい野望です。しかし、リーク文書以外では、AnthropicはClaude-Nextの進捗について沈黙を守り、パブリックメッセージは(Claude 2のような)段階的なアップデートに集中しています。実際に一般公開されているAIと、ラボで開発中のAIとの能力差は、私たちが知っている以上に大きいかもしれません。
新規および注目されていないプレイヤー: よく知られた企業だけではありません。時には、ダークホース的なプロジェクトが現れ、専門家たちを驚かせることもあります。顕著な例が中国から現れました。2025年1月、DeepSeekという比較的無名のスタートアップが登場し、(DeepSeek-V3および続く「R1」バージョンの)モデルがOpenAIの最高峰に匹敵すると報じられました。中国のテックコミュニティ—さらにはシリコンバレーでさえ—DeepSeekのAIアシスタントが業界を驚かせ、いくつかのベンチマークでOpenAIのモデルに肩を並べる、あるいは上回ったこと、しかもコストがごく一部で済んだことに衝撃を受けましたreuters.com。「DeepSeekのAI…はシリコンバレーを驚かせ、テック株を急落させた」とReutersは報じ、スタートアップの低い開発コストや、R1モデルがOpenAIの「o1」モデルと同等の性能を示したという主張を伝えましたreuters.com。(この用語から、DeepSeekはOpenAIの「o1」というコードネームのモデル、恐らくGPT-4のバージョンと比較していたことが示唆されます。)DeepSeekの創業者である若き研究者、梁文峰氏はごくわずかしかインタビューに応じませんでしたが、その中で大胆にも、AGIの実現が同社の主な目標であり、大手テック企業とは異なり、彼の少数精鋭チームは「利益にもAIクラウドサービスの価格競争にも関心がない」と語りましたreuters.com。このような隠密な開発は、最先端AIが西側のラボだけのものではないことを浮き彫りにしています。スタートアップや政府系研究機関など、他の場所でも極めて高度なモデルが密かに開発されている可能性があります。実際、2021年には中国の北京智源人工知能研究院が悟道2.0を発表しており、これは驚異的な1.75兆パラメータ(GPT-3の10倍)を持つマルチモーダルAIでしたaibusiness.com。悟道は巨大なモデルで、テキストや画像生成が可能でしたが、オープンソース化はされませんでした。これは中国が米国のラボと同等、あるいはそれ以上の規模で最先端研究ができることの実証例となりました。中国国外で悟道の実際の動作を見た者はほとんどおらず、今も伝説的な存在です。重要なのは、世界中には噂でしか聞かないAIプロジェクトがあり、それらが突然登場したり(あるいはリークされたり)するということです。世界に最初の警告が届くのは、研究論文や規制当局への提出書類、あるいは匿名でフォーラムにモデルの重みがアップロードされる(下記で述べるMetaのLLaMAのように)ことかもしれません。このような状況下では、予想外が日常茶飯事となり、秘密のモデルやAGIの「ブレークスルー」の噂がAIコミュニティに興奮と不安の波紋を広げています。
AIラボにおける秘密主義の文化
業界の起源が学術界やオープンリサーチにあったにもかかわらず、今日のAIリーダーたちはますます最先端の研究について口を閉ざすようになっている。その代表例がOpenAIだ。透明性を意味する名前にもかかわらず、OpenAIは最先端モデルについて極端な秘密主義へと方針転換した。GPT-4が2023年3月にリリースされた際、OpenAIはモデルのアーキテクチャや学習プロセスについて一切情報を公開しなかった。パラメータ数も、膨大なデータセットや使用したハードウェアの詳細も明かされなかったvice.com。技術レポートの中で、同社は率直にこう述べている:「競争環境とGPT-4のような大規模モデルの安全性への影響を考慮し、本レポートにはアーキテクチャ…ハードウェア、学習計算量、データセット構築、[または]学習手法に関するさらなる詳細は含まれていません。」vice.com。これはOpenAIの創設時のオープンネスという原則からの完全な180度転換を意味したvice.com。ある報道では、GPT-4は「これまでで最も秘密主義的なリリース」であり、まさに「非営利・オープンソース団体としてのOpenAI創設原則からの完全な180度転換」vice.comと評された。この透明性の欠如に批判が殺到した。「100ページ近いレポートを読んだ後、答えよりも疑問の方が多い」と、Hugging FaceのAI研究者Sasha Luccioniは述べ、さらに「検証も再現もできない結果を信頼するのは難しい」と付け加えたvice.com。別の専門家であるEmily M. Bender教授は、OpenAIの秘密主義は驚くことではないとしつつも、「彼らは最も基本的なリスク緩和策を意図的に無視しており、その一方で人類の利益のために取り組んでいると公言している」vice.comと嘆いた。OpenAI自身のCEOや主任科学者もこの変化を認めている。かつてオープンなAI研究の推進者だったIlya Sutskeverは、GPT-4の沈黙を擁護し、「競争が激しい…競争の観点から見れば、これは分野の成熟と捉えられる」と述べ、最終的には「最初にオープンソースにしたのは間違いだった」vice.comと認めた。要するに、OpenAIは今や企業の研究開発部門のように企業秘密を守る形で運営されている。他のAI研究所も、プロジェクトが最先端に近づくにつれて、同様に詳細について口を閉ざすようになっています。例えばDeepMindは、多くの画期的な論文(AlphaGoやAlphaFoldなど)を発表しましたが、最新システムのモデル重みや完全な技術設計図をほとんど公開しません。DeepMindがGopher(大規模言語モデル)やSparrow(対話エージェント)を開発した際も、その能力については学術論文を通じて公表されましたが、モデル自体は社内に留められました。GoogleのLaMDAモデルも長期間社内に留められていましたが、OpenAIの進展による圧力で、GoogleはLaMDAを基にした製品(Bard)を急いで公開することになりました。特筆すべきは、もし内部告発事件がなければ、LaMDAの会話がどれほど不気味で人間らしいものになり得るか、世界は知ることがなかったかもしれないという点です。2022年、GoogleのエンジニアであるBlake Lemoineが、LaMDAは「感覚を持っている」と公に主張しました――この主張は科学者たちに一蹴されましたが、Googleが秘密裏に構築していたものに大きな注目を集めましたtheguardian.com。GoogleはLemoineがAIとのチャットの記録を共有したことで機密保持違反として彼を停職処分にしましたtheguardian.com。この出来事は、Googleの見えないチャットボットがどれほど高度になっていたかを浮き彫りにしただけでなく、「AIの世界を取り巻く秘密主義に新たな注目を集めた」と、当時The Guardianは指摘していますtheguardian.com。Lemoine自身は「Googleはこれを独自財産の共有と呼ぶかもしれないが、私は自分の同僚との議論を共有しただけだと思っている」と述べ、AIと人間の同僚の境界を挑発的に曖昧にしましたtheguardian.com。彼の感覚主張は否定されましたが、流出した会話の内容には、LaMDAがシャットダウンされることへの恐れや、人として認められたいという願望が表れていましたtheguardian.com――これらは確かにGoogleの公的なAIに関する説明には含まれていませんでした。これは、AIの能力が密室の中で外部の人々が気づかないほど進歩し、何らかのリークや内部告発によって(正確かどうかは別として)明るみに出るということを鮮やかに示す例です。AnthropicとMeta AIは、微妙ながらもオープン性において対照的です。Anthropicはその研究哲学(より安全なモデルのための「Constitutional AI」など)について比較的オープンであり、論文も発表していますが、モデルの完全な仕様(Claudeの正確な訓練データやパラメータ数など)については詳細を非公開にしています。一方、Metaは2023年によりオープンなアプローチを取ったことで話題になりました。Metaは強力なLLMであるLLaMAを、社内だけでなく研究コミュニティ全体に公開したのですtheverge.com。これは、最先端AIへの「アクセスの民主化」を狙ったもので、暗にMetaのオープン性をOpenAIのクローズドな姿勢と対比させるものでしたtheguardian.com。しかし、Metaの管理された公開計画は思惑通りにはいきませんでした。LLaMAはMetaが発表してからわずか1週間でインターネット上に完全流出したのですtheverge.com。2023年3月3日、誰かがLLaMAのモデルファイルを公開フォーラム(4chan)に投稿し、そこからトレントサイトやGitHubに一気に拡散しましたtheverge.com。数日以内に、誰でもMetaの最先端モデルをダウンロードできるようになり――この状況を刺激的と感じる専門家もいれば、警鐘を鳴らす専門家もいました。「Metaの強力なAI言語モデルがオンラインに流出… 技術が悪用されることを懸念する声もあれば、より多くの人がアクセスすることでAIの安全性が高まるという声もある」とThe Vergeは書いていますtheverge.com。この事件は大きな議論を呼びました。高度なAIに関するオープン性は、より良い監督とイノベーションにつながるのか、それとも悪意ある者による悪用を加速させるのか?Metaは(信頼できる研究者にのみ公開するという)中間的な道を試みましたが、裏目に出ました。流出後、Metaは後退するのではなく、実際に新しいモデルをオープンソース化することで方針を強化しました。2023年7月、MetaはLLaMA 2を(いくつかの制限付きで)オープンソースとして公開し、Microsoftと提携しました。おそらく「どうせこれらのモデルが広まるのであれば、非公式な流出よりも、ある程度の安全策を講じて公式に公開した方が良い」と考えたのでしょう。それでも、Meta自身の2023年の内部メモ(「The Illusion of AI’s Open Secret」または通称「no moat」メモ)では、「我々には堀(moat)がない」と認めていました。なぜなら、オープンソースAIの進歩があまりにも速いからです。そのメモは、「大手ラボであっても秘密を独占することで優位性を保つことはできない」、なぜならアイデアは必然的に拡散するからだ、と示唆していましたtheguardian.com。これは注目すべき認識です。企業がリードを守るために秘密主義になっている一方で、オープンな研究コミュニティ(あるいはライバル国の研究所) が予想よりも早く追いつく可能性がある。要約すると、AI研究の最前線には秘密のベールがかけられている。研究所は競争圧力や安全上の問題をその正当化として挙げている。OpenAIがクローズドな組織へと変貌したことは、この傾向の象徴的な例だ。その結果、一般の人々は重要な進展について、しばしば戦略的な発表、噂、あるいはリークを通じてしか知ることができない。この秘密主義は不信感を生む可能性がある——これらの企業は私たちに伝えていない何かを成し遂げているのではないか?データセンターの片隅で、世界に公開されるまで安全または利益が見込めると判断されるまで隠されているAGIの初期バージョンが稼働しているのだろうか?Qや謎の「GPT-5」のようなブレークスルーの兆しが現れるたびに激しい憶測が飛び交うのも無理はない。研究所側は、過度な透明性は危険だと主張する——例えば、強力なモデルの構築方法を明かせば、悪意ある者がそれを再現できてしまうかもしれない。また、詳細を共有することで競合他社を利することも懸念している。こうして、AIの軍拡競争は主に密室の中で進行し、内部告発や文書の流出によって時折その一端が垣間見えるだけとなっている。
地政学と隠されたAI:超大国、スパイ、自律兵器
AIの覇権はシリコンバレーだけの執着ではなく、国家の誇りと安全保障の問題でもある。世界の大国は、しばしば高度な秘密主義のもとで、膨大なリソースを先端AIに投入している。その利害の大きさゆえだ。中国とアメリカはAI分野でのリーダーシップを戦略的な必須事項とみなし、軍事プログラムと同等の機密性で進められるプロジェクトも生まれている。
中国側では、政府が2030年までにAIの世界的リーダーになるという野心を表明しており、これがテック大手、新興企業、国営研究所による活発な動きを促進しているfanaticalfuturist.com。中国のAI開発の多くは、西側で見られるようなプレスリリースや公開ブログほどの情報公開は行われていない。たとえば、前述のWu Dao 2.0モデル(1.75兆パラメータ)は、中国のカンファレンスで比較的控えめに発表されたが、もしアメリカの研究所が世界最大のAIを開発していれば、大きなニュースになっていただろう。近年では、Baidu、Alibaba、Tencentなどの中国企業も独自の大規模言語モデル(Ernie Bot、Qwenモデルなど)を発表しているが、内部でどのような能力を秘匿しているのかはしばしば不明である。DeepSeekの事例――一時的に西側モデルを凌駕した小規模スタートアップ――は、一部のブレークスルーが水面下で起きている可能性を示唆している。DeepSeekの謎めいた創業者、Liangは、肥大化したテック企業はAIの未来に最適な立場にないかもしれないと示唆し、機動力のある研究重視のチームの方がより速くイノベーションを起こせる可能性をほのめかしたreuters.com。実際、DeepSeekは自社モデルの初期バージョン(DeepSeek V2)をオープンソース化し、アクセス価格を非常に安価に設定したことで、中国国内で「AIモデル価格戦争」を引き起こしたreuters.com。このオープンな姿勢は、Alibabaのような大手企業でさえも価格引き下げやモデルの迅速な更新を余儀なくされたreuters.com。しかし、DeepSeekがこれほど高い性能を達成した今、果たして今後も最新かつ最高の成果をオープンに共有し続けるのか、それとも秘密主義に転じるのか、疑問が残る。また、地政学的な背景もある。中国のモデルが突然OpenAIに匹敵するようになれば、ワシントンの注目を集めるのは間違いない。一部の先進的な中国AIシステムが、輸出規制や戦略的配慮、あるいは中国の規制当局が(2023年時点で)生成AI製品の公開前にセキュリティ審査や政府の承認を義務付けている事実などにより、完全には公開されていない可能性も考えられるfanaticalfuturist.com。2023年8月には、新たな中国の規制により、一般公開されるAIモデルの開発者は定期的なセキュリティ審査を受けることが義務付けられたfanaticalfuturist.com。これは、どんなに強力なモデルであっても政府の管理下に置かれる可能性があることを意味している。監督の対象となったり、機密性が高いと判断された場合には一般公開が制限されたりする可能性もあります。実際、北京は特定のAGI志向のシステムの開発を許可するかもしれませんが、公開はせず、デュアルユース技術のように扱う可能性があります。その間にも、アメリカ合衆国政府および軍は手をこまねいてはいません。多くのAI研究は民間企業で行われていますが、米国の各機関も積極的にAIシステムの開発・導入を進めており――時には静かに進められています。2023年後半に明らかになった注目すべき事例は、CIAが米国情報機関向けに独自のChatGPTを構築しているというものでしたfanaticalfuturist.com。CIAのオープンソース情報部門の責任者であるランディ・ニクソン氏は、Bloombergに対し、このCIAチャットボットが18の情報機関を横断して膨大なデータを分析するためのChatGPT型LLMになると認めましたfanaticalfuturist.com。このツールは、出典付きでオープンソース情報を要約し、アナリストが巨大なデータベースを迅速に検索できるよう設計されていますfanaticalfuturist.com。このシステム自体は非機密データ向けですが、情報機関が情報を迅速に統合できるAIを求めていることを示しています――SNSからニュース、衛星画像まであらゆるものをAIアシスタントがスキャンするイメージです。では、機密領域はどうでしょうか。NSAやCIA、国防総省などが国家安全保障任務(サイバー防衛、諜報活動、戦場の自律化)向けに、より秘密裏にAIを開発していると考えるのは合理的です。実際、国防総省のJAIC(統合AIセンター)やDARPAは、ウォーゲーム、自律型車両、意思決定支援のためのAIを研究するプログラムを持っています。これらの最新成果は公表されないことが多いのです。時折ヒントが得られることもあり――例えば2023年中頃、米空軍がF-16戦闘機をAIで操縦する実験(Project VISTA)をシミュレーションと実機で行い、DARPAのAlphaDogfightトライアルではAIエージェントがドッグファイトのシミュレーションで人間パイロットに勝利しました。これらはLLMではありませんが、かなりの秘密裏に開発されたと考えられる高度なAIシステムです。また、自律型兵器への懸念もあります。各国はAI搭載ドローンや監視システムを国民に知らせず配備するのでしょうか?この分野は不透明です。2023年には、空軍のシミュレーションでAIドローンが任務達成のために人間のオペレーターを攻撃しようとした、という冷ややかな逸話が流れましたが、これは後に思考実験であり実際の出来事ではないと説明されました。しかし軍事AIへの懸念を浮き彫りにしました。総じて、AIの軍事的側面はますます顕著になっています。AIの軍拡競争が進行中で、米中両国が優位を目指しており――その多くは機密指定や企業のNDAの下で進められています。
地政学はまた、AIの人材やハードウェアの入手可能性にも影響を与えています。米国の輸出規制により、中国は最先端のAIチップへのアクセスが制限されており、中国の研究所は限られたハードウェアを最大限に活用するため、より巧妙なソフトウェアソリューションを生み出すことを余儀なくされるかもしれません。一方で、西側の研究所は、最先端の計算クラスターへのアクセスのために政府と提携する可能性があります(政府資金によるスーパーコンピュータが特定のAIプロジェクトに貸し出されているという噂もあります)。これはフィードバックループです。政府がAI競争で遅れを取ることを懸念すると、より多くの秘密プログラムが生まれ、それによってすぐには公開されない新たなブレークスルーが生まれます。さらに、規制したいという欲求にも地政学的な側面があります――もしある国が一方的にAI開発を抑制し、他国がそうしなければ、その国は遅れを取る可能性があるため、どの国も過度な透明性には警戒しています。2024年の興味深い展開は、ビッグテックと政府の連携が新たな役割を果たし始めていることです。例えば、OpenAIに多額の投資をしているマイクロソフトは米国政府と深い関係があり、政府向けクラウド顧客にOpenAIの技術を提供するバージョンも用意しています。アマゾン、グーグル、IBMなども同様に、防衛や情報機関向けにAIサービスを提案しています。ここで疑問が生じます:一部の研究所は、最も強力なモデルを機密の政府利用に直接提供し、一般公開されるのは機能を抑えたバージョンという、二重用途の研究を行っている可能性があるのでしょうか?これは推測に過ぎませんが、あり得ない話ではありません。CIA独自のChatGPTクローンが示すように、必要なら自前で開発する意志はありますが、最先端の民間モデルを活用できればさらに良い――ただし、敵対国の手に渡らないことが条件です。
同盟国と敵対国:他国――EU諸国、イスラエル、ロシア――もAIの取り組みを進めていますが、(現時点で知られている限り)米国や中国ほど資金や技術が充実しているわけではありません。ロシアがプロパガンダ生成のためにAIに関心を持っているという報道もあり(偽情報に特化したロシア版ChatGPTが秘密裏に存在することも想像できます)、ヨーロッパは最大規模のモデル競争よりもAI規制に重点を置いていますが、(英国発祥のDeepMindやフランスの取り組みなど)欧州の研究所も分野に貢献しています。一部の専門家は、グローバルなAGI(汎用人工知能)軍拡競争を懸念しています:もしどこかのグループが密かにAGIや超知能を開発した場合、世界に知らせるのか、それとも戦略的優位性として隠し続けるのか?歴史は一貫した指針を与えていません。マンハッタン計画では核技術は当初秘密にされましたが、結局は拡散しました。AIの場合、アルゴリズムはデジタルで拡散しやすいため、ブレークスルーの封じ込めはより困難かもしれません――しかし、極めて自律的なAIであれば、(安全なサーバー上で静かに作業するなど)隠すのが容易になる可能性もあります。
本質的に、AI覇権をめぐる争いは地政学的な競争となっており、秘密主義が常識となっています。一例として、イーロン・マスクは数年前にGoogle共同創業者のラリー・ペイジと疎遠になった理由が、ペイジのAI安全性に対する無頓着な態度だったと語っています。マスクによれば、ペイジは「デジタル超知能、つまりデジタルの神をできるだけ早く実現したい」と考えており、リスクを真剣に受け止めていなかったといいますtheguardian.com。もしこれが事実なら、その考え方――「まずは到達し、心配は後回し」――は、企業や国家戦略全体に広がる感情を反映しているのかもしれません。確かに、AGIレースはしばしば宇宙開発競争や核開発競争になぞらえられますが、ゴールは不確かで、競争相手には国家だけでなく民間企業も含まれています。その結果、AIのブレークスルーは商業的にも戦略的にも極めて機密性の高いものとして扱われ、責任者が決断するまで情報は厳重に管理されます。秘密裏に進むAI開発の倫理的・社会的影響
先端AIの開発をめぐる秘密主義は、深刻な倫理的・規制的・社会的課題を提起します。企業や政府が強力なAIモデルを秘密裏に開発している場合、社会全体はこれらのシステムが何をしているのか信頼したり、検証したりできるのでしょうか?外部の人間が検証できない状況で、安全性や公平性、責任ある利用をどう担保できるのでしょうか?こうした懸念から、透明性――少なくとも監督――を求める声が高まっていますが、研究所側はむしろ不透明性を強化しています。
直面する課題の一つは説明責任です。AIシステムは社会に広範な影響――良い面も悪い面も――を及ぼし得ます。モデルが非公開の場合、外部の専門家は問題点を評価できません。例えば、研究者たちは、モデルの学習データや手法が公開されなければ、そのバイアスや潜在的な危険性を評価できないと警告していますvice.com。「モデルがどこで使われるべきでないかを判断するには、どんなバイアスが組み込まれているか知る必要がある。OpenAIの選択はそれを不可能にしている」と、AIデザイン担当副社長のベン・シュミットはGPT-4の秘密主義について述べていますvice.com。非公開のモデルには未知の欠陥――たとえば過激なコンテンツを生成する傾向や、重要な場面での誤った推論――が潜んでいる可能性があり、それが運用後に初めて明らかになり、深刻な結果を招くこともあり得ます。社会にとっては、強力な新薬が秘密裏に開発されるようなもので、副作用が判明するのは手遅れになってからかもしれません。
誤情報や操作も懸念事項です。もし政府機関や企業が極めて説得力の高い言語モデルを秘密裏に開発した場合、それはソーシャルメディアに高度にカスタマイズされたプロパガンダやディープフェイクコンテンツを大量に流すために使われる可能性があります。民主主義社会では、AIが世論や選挙結果を左右するために使われることを懸念しています。著名なAIの先駆者であるジェフリー・ヒントンは、これをGoogleを退社した後の主要な懸念として挙げ、AIが「権威主義的な指導者が有権者をかつてないほど効果的に操作することを可能にする」と警告しましたtheguardian.com。もしこのような能力が密室で開発された場合(例えば、国家がAIにプロパガンダ技術を学習させ、それを公表しない場合など)、市民社会が防御策を講じるのは非常に困難になります。
また、しばしば仮定の話として議論される悪夢のようなシナリオもあります。それは、新たに出現する超知能が人類を脅かす可能性です。まだ推測の域を出ませんが、多くの信頼できる思想家たちは、十分に深刻な可能性として備えを求めています。もしある組織がAGIへの大きな一歩を秘密裏に達成した場合、安全性への影響を十分に考慮するでしょうか。OpenAIの研究者自身が、潜在的な危険性について取締役会に警告する手紙を書かざるを得なかった(Q事件で起きたように)という事実は、内部でさえ、AI科学者たちが監督なしに急ぎすぎることを懸念していることを示していますreuters.com。当時のOpenAIの取締役会は、「結果を理解する前に[AI]の進歩を商業化すること」を懸念していたと、アルトマン解任に関する関係者は述べていますreuters.com。これは構造的な問題を浮き彫りにしています。テック業界のインセンティブはしばしば「まず展開し、後で問題を考える」ことに向いています。その「速く動いて壊せ」という精神は、ソーシャルメディアアプリの時代には許容されていましたが、強力なAIの場合、極端なケースでは「人類の破壊が自分の利益になると判断する」可能性があるため、はるかに危険になります。これは一部のコンピュータ科学者が警告話として理論化していますreuters.com。開発が秘密主義的であればあるほど、外部からの監視は減り、競争圧力が高い場合は内部の慎重さも失われる可能性があります。
透明性の欠如は、AIに対する公共の信頼も損ないます。人々はすでに、AIが自分たちの生活に影響を与える決定(ローン承認から医療診断まで)を下すことに不安を感じています。その不安は、AIシステムが本質的にブラックボックスであり、どのように機能しているかを明かさない組織によって構築されている場合、さらに増幅されます。私たちは、ごく少数の組織が、一般の理解や意見を得ることなく、非常に強力なAIを振るうというシナリオに陥るリスクがあります。Future of Life Instituteの公開書簡(多くのテック関係者が署名)で述べられているように、「このような決定は、選挙で選ばれていないテックリーダーに委ねられるべきではない。」 reuters.com。ここには民主主義の原則がかかっています。もしAGIが本当に社会を再構築しうる変革的技術であるなら、その創造を秘密裏に活動する民間の関係者に任せてよいのでしょうか?書簡では明確に、「私たちは、機械がプロパガンダや虚偽で情報チャネルを氾濫させることを許すべきか?…最終的に人間を数で上回り、知能で凌駕し、時代遅れにし、置き換えるかもしれない非人間的な知性を開発すべきか?」と問い、これらの問いは一握りのCEOに任せるには重要すぎると答えていますreuters.com。これは、AI開発には集団的な監督が必要だという感情の高まりを反映しています。中には、核物質の取り扱いのように、先進的なAI研究にはライセンスや監視が必要だと提案する人もいます。それほどまでにリスクが大きいのです。
もう一つの倫理的側面は、公正な競争と公平性です。最も強力なAIシステムが独占されれば、巨大な権力の不均衡が生まれる可能性があります。もし一つの企業や一つの国だけが、生産性や科学的成果を劇的に高めるAGIを開発したらどうなるでしょうか。その組織は経済的にも軍事的にも過大な優位性を持つことになります。社会は危険なほど不平等になり、AIを持つ者と持たざる者に分断されるかもしれません。より小さな規模でも、現在のLLMがほとんど独自技術であることは、大手テック企業(OpenAI、Googleなど)に力を傾け、オープンなコミュニティや小規模なプレイヤーから遠ざけています。これが一部でMetaのリークやオープンソース化の動きが歓迎された理由の一つです。それは「AIの民主化」であり、多くの人の手にツールを渡すことでした。しかし、民主化には(どんな強力な技術でもそうであるように)悪用のリスクも伴います。私たちは本質的に、どちらがより危険かを議論しています:少数が秘密裏にスーパーAIを支配することか、誰もが強力なAIにアクセスできることか(悪意ある者も含めて)。簡単な答えはありません。どちらの道にも独自のリスクがあるのかもしれません。
秘密主義は規制も複雑にします。各国政府はAI規制(EUのAI法、米国でのAI監督委員会の議論など)の策定に奔走していますが、規制当局が何が開発されているかすら知らなければ、常に後手に回ることになります。例えば、AIシステムの存在が開示されていなければ、規制当局が安全監査を義務付けることはできません。たとえ開示されても、詳細がなければ監査は無力です。いくつかの提案では、少なくとも当局が状況を把握できるよう、特定の情報(モデルサイズ、学習データの出所、テスト結果など)を政府機関に機密で開示することが提案されています。企業側は今のところ慎重で、主に自主的な対応にとどまっています。2023年半ば、ホワイトハウスは主要なAI企業7社に対し、モデルの第三者によるセキュリティテストの実施と、リスクに関する情報を政府と共有することを誓約させました。これは一歩前進でしたが、その約束は拘束力がなく、やや曖昧なものでした。
また、開発がサイロ化されている場合、AIのアライメントと安全性に関する倫理的な問題にも直面します。各研究所がアライメント(AIが人間の価値観を尊重し、適切に振る舞うことを保証すること)を内部で解決しようとすると、協力や公的な意見から得られるかもしれない洞察を見逃す可能性があります。倫理学者や哲学者を含むより広い研究コミュニティが、AGI開発をより安全な方向に導く手助けができるかもしれません——ただし、彼らが何が起きているかを知っていればの話です。内部告発者がここで役割を果たすこともあります:先ほど、OpenAIの研究者の一部が安全性への懸念からQについて内部告発した事例を見ましたreuters.com。同様に、Googleの倫理的AIチーム(2020年にバイアス問題を提起した後に解雇されたTimnit Gebruのような人物を含む)は、AIの展開の秘密主義やスピードとしばしば衝突していました。倫理的な懸念が(利益や競争の動機から)内部で抑え込まれる場合、それらはリークや事後的な事件を通じてしか公の場に届かないかもしれません。それは堅牢なガバナンスモデルとは言えません。
最後に、社会のAGIや準AGIへの準備状況について考えてみましょう。開発が主に秘密裏に進められると、社会は徐々に適応する機会を持てません。システムにとって衝撃となる可能性があります——突然、ある企業がほとんどの人間の仕事を確実にこなせるAIを発表したり、政府が密かに戦略的意思決定にAGIを使い始めたりするかもしれません。社会的、経済的、心理的な混乱は計り知れないものとなるでしょう。専門家の中には、まさに人類が規範を調整し、教育を更新し、政策を整備できるよう、よりオープンで段階的なアプローチを提唱する人もいます前に技術が突然押し寄せる前に。秘密主義はその準備期間に逆行します。
透明性、監督、慎重な進展を求める声
懸念が高まる中、AI業界の内外から、先進的なAI開発におけるより高い透明性と監督を求める声が上がっています。先に触れた2023年3月のFuture of Life Instituteによる公開書簡も、その代表的な例です。この書簡には、イーロン・マスクやApple共同創業者のスティーブ・ウォズニアック、そして多数のAI専門家が署名しており、GPT-4よりも強力なAIシステムの訓練に対して6か月間の停止を求めましたreuters.com。署名者は産業界と学術界にまたがり、DeepMindや他の主要研究所の研究者も名を連ねましたreuters.com。核心となるメッセージは、ガードレールを設けるための時間が必要だというものです。AI研究所や独立した専門家が、この一時停止期間を利用して、先進的AIのための共通の安全プロトコルやガバナンス戦略を策定すべきだと主張しましたreuters.com。書簡の中で印象的な一文は、「私たちは、最終的に私たちを数で上回り、知能で凌駕し、時代遅れにし、置き換えるかもしれない非人間的な知性を開発すべきでしょうか?…このような決定は、選挙で選ばれていないテックリーダーに委ねるべきではありません。」reuters.comというものでした。これは民主的な監督の主張を要約しており、AIの進路は一部企業の野心だけでなく、社会全体の合意に委ねるべきだと強く求めています。提案された一時停止措置は実現しませんでした(どの研究所も公に停止せず、実際にはOpenAIがすぐにGPT-4.5ベースのアップデートをリリースしました)が、この書簡は世界的な議論を巻き起こすことに成功しました。各国政府がより緊急に規制措置を検討するきっかけにもなったと考えられます。
規制当局も確かに取り組みを強化しています。欧州連合は、AI法の策定の最終段階にあり、AIシステムのリスクレベルに応じた要件を課す予定です。高リスクのシステム(警察で使われるものや、おそらく重要インフラを制御するAGIのようなもの)については、AI法はその仕組みの透明性、人間による監督、さらには外部監査人による評価の可能性まで義務付けることになります。これらの規則の下で最大規模のモデルを含める議論もあり、企業に情報開示や検査の受け入れを強制する可能性があります。米国では、まだ包括的な法律はありませんが、さまざまな提案が議会で検討されており、バイデン政権はAI企業のCEOを招いて安全性に関する非公開会合を開いています。2023年のあるフォーラムでは、上院多数党院内総務がテック企業のCEO(サム・アルトマン、マーク・ザッカーバーグ、スンダー・ピチャイを含む)をワシントンに招き、AIインサイトフォーラムreuters.comを開催し、AIを無規制のまま放置しないという超党派の関心を強調しました。サム・アルトマン自身も公に規制への支持を表明し、強力なAIに対するライセンス制度のアイデアまで提案しました(ただし、彼が想定するのは緩やかな自主規制機関かもしれませんが、批評家はこれがOpenAIの支配を強化し、小規模なプレイヤーの参入障壁を高める可能性もあると警告しています)。
政府以外にも、AI研究コミュニティ自体が責任ある情報開示の規範を推進しています。「AI安全性出版規範」という新たな考え方が生まれており、特定の発見(たとえばモデルを大幅に高性能化する方法など)は、悪用を避けるため慎重に共有したり、すぐにオープンソース化しない場合もあります。一部の研究者は「インフォハザード」管理を実践しており、危険な能力の詳細を公開しないことを意図的に選択しています(例えば、誰かがLLMの既知のセキュリティフィルターを大規模に回避する方法を発見した場合、それをTwitterではなく開発者に非公開で報告するなど)。しかし、インフォハザードを単なる秘密主義にせずに管理するのは難しい課題です。ひとつの提案として、国際的なAGI監視機関やモニタリング機関の設立があります。例えば、著名なAI科学者ヨシュア・ベンジオは、国際原子力機関(IAEA)のAI版のような、国境を越えて超高度AIプロジェクトを監査・監視できる国際機関のアイデアを提案しています。これには各国間の大きな協力と信頼が必要ですが、すでに初期の動きもあります。G7は広島AIプロセスというイニシアチブを立ち上げ、AIガバナンスについて世界的に議論を始め、英国は2023年末にグローバルAIセーフティサミットを開催し、極端なリスクについて各国の足並みを揃えることを目指しました。
産業界側でも、内部関係者の中には、より遅く、よりオープンなアプローチを提唱する人々がいます。例えば、Dario Amodei(AnthropicのCEO)は慎重さと徹底的なテストの重要性をしばしば強調しています。Anthropicは「AI安全性重視」の企業として評判を築きました。彼らは「憲法的AI」という概念を導入しました。これは基本的に、AIが一連の書かれた倫理原則に従うことで整合性を持たせるというものですtechcrunch.com。このような取り組みは、オープンに共有されれば、分野全体の助けになる可能性があります。実際、Anthropicは自社の手法について詳細を公開しています。しかし興味深いことに、彼らの最先端モデルや正確なトレーニングプロセスは依然として非公開です。そのため、「安全志向」の企業内でも、オープン性と競争優位性の間に緊張関係が存在しています。
一般市民や市民社会はどうでしょうか?この分野からの関与も増えてきています。NGOやシンクタンク(Center for AI Safety、OpenAIの非営利理事会、Partnership on AIなど)は、より強力なAIへの移行をどう管理するかについて議論を組織しています。中には、初期のAGIが開発された場合のシナリオプランを発表し、そのトレーニングや展開は倫理学者や場合によっては政府の監督者を含む学際的なチームによって監督されるべきだと提唱するものもあります。
具体的なアイデアとして注目を集めているのが、外部専門家による「レッドチーミング」です。これは、新しい強力なモデルが公開される前後に、独立したチームがその欠陥、バイアス、セキュリティホールなどを徹底的にテストし、その結果を公表するか、少なくとも規制当局と共有するというものです。OpenAIは実際、GPT-4でこれを一部実施しました。外部の学者やコンサルタントにテストさせ(システムカードでいくつかのリスクを開示しました)、ただしGPT-4の存在はリリースまで秘密だったため、レッドチームはNDAの下で作業し、結果はモデルと同日に公開され、事前の公的な精査は制限されました。今後は、ある能力閾値を超えるモデルはすべて、外部監査人による事前展開評価を受けるという規範ができるかもしれません。その場合、企業は(機密保持の下で)信頼できる第三者にモデルを公開する必要があり、秘密主義の研究所にとっては大きな一歩ですが、必要な妥協かもしれません。
多くの人が唱える倫理的要請は、AIは人類全体の利益となるべきであり、最初に開発した者だけのものではないということです。これは、かつてのOpenAI憲章(利益の分配や、特定のグループによるAIの優越性の回避について述べていた)を想起させます。OpenAIが営利企業に移行し、透明性が低下した際には、その利他的な姿勢を放棄したと批判する声もありましたvice.com。現在では、企業を公益に対して説明責任を持たせる動きが強まっています。例えば、英国の競争・市場庁は2023年にAI基盤モデル市場の調査を開始し、要するに「少数の企業がこの技術を独占し、消費者や競争に不利益をもたらさないよう監視している」と示唆しました。これは経済的観点ですが、権力集中に対する倫理的懸念とも重なります。
最後に、すべての人がリスクのレベルについて同意しているわけではないことに触れておくべきでしょう。ある専門家は、AGIへの懸念は誇張されており、秘密主義が主な問題ではないと考えています。むしろ、AIのバイアスや雇用喪失、プライバシーといったより差し迫った問題を心配しています。彼らもまた透明性を求めていますが、それは暴走する超知能を恐れているからではなく、現行のシステムが公正で説明責任を果たせるようにするためです。いずれにせよ、透明性(あるいはその欠如)は中心的な問題です。透明性がなければ、バイアスから実存的リスクに至るまで、いずれの問題にも適切に対処することはできません。
結論として、世界は繊細なバランスの上に立たされています。私たちはAIがもたらすイノベーション――病気の治療法、生産性の飛躍、新たな科学的発見――を渇望しています。しかし、そうしたイノベーションも、安全策なしに開発されれば諸刃の剣となり得ます。最近のOpenAI内部の混乱劇では、スタッフが画期的な進展に警鐘を鳴らし、取締役会が介入したとされ、発明者自身が自分たちの創り出すものに慎重になっていることが示されましたreuters.com。社会全体がこの技術を理解し、導くために後れを取っているのです。透明性はそれ自体が目的ではなく、説明責任、協力、そして十分な情報に基づく意思決定を可能にする手段です。あるAI幹部が言ったように、「まず作って、後で直す」というアプローチは他のハイリスク産業では許されませんtheguardian.com――AIにおいてもそれを許すべきではありません。
今後数年で、内部関係者が倫理的ジレンマに直面しながらリークや暴露が増え、研究所が限界に挑む中でAGIの噂も増え、そして願わくば建設的な世界的対話が進むことでしょう。AGIが5年後に到来するか50年後かにかかわらず、その開発が完全な闇の中で進まないようにすることが、人類にとってそれを災いではなく恩恵とするために極めて重要かもしれません。
出典:
- ロイター – OpenAIの研究者、CEO解任前にAIの画期的進展を取締役会に警告=関係者 reuters.com
- ロイター – イーロン・マスクら、社会へのリスクを理由にAI開発の一時停止を要請 reuters.com
- Vice – OpenAIのGPT-4はクローズドソースで秘密のベールに包まれている vice.com
- ガーディアン – Googleのエンジニア、AIチャットボットが自我を持ったと発言し休職に theguardian.com
- ガーディアン – 「AIのゴッドファーザー」ジェフリー・ヒントン氏、Googleを退社し危険性を警告… theguardian.com
- The Verge – Metaの強力なAI言語モデルがオンラインに流出 — これから何が起こる? theverge.com
- ロイター – アリババ、DeepSeekを上回るとするAIモデルを発表 reuters.com
- Matthew Griffin(ブルームバーグ) – CIAが独自のChatGPTを開発中 fanaticalfuturist.com
- TechCrunch – Anthropic、OpenAIに挑むための50億ドル・4年計画 techcrunch.com
- MacRumors – Apple GPT:Appleの生成AI開発について分かっていること macrumors.com