מעבדות הטכנולוגיה הגדולות בעולם נמצאות במרוץ חשאי לבניית הפריצה הבאה בבינה מלאכותית – ואולי אפילו בינה מלאכותית כללית (AGI), מערכת עם יכולות קוגניטיביות ברמת אדם (או יותר). בעוד שצ'אטבוטים כמו ChatGPT ריתקו את הציבור, גורמים פנימיים ומסמכים מודלפים רומזים על מודלים שפתיים גדולים (LLMs) רבי עוצמה עוד יותר ופרויקטי AGI שמבשלים מאחורי דלתיים סגורות. ממחקר חשאי ב-OpenAI וב-DeepMind ועד לתוכניות ממשלתיות סודיות, רשת של סודיות עוטפת את ההתפתחויות הללו. דוח זה חוקר את ההדלפות וההשערות האחרונות (2024–2025) על מודלים לא-מפורסמים של בינה מלאכותית, תרבות הסודיות בקרב מובילי התחום, מאבקי הכוח הגיאופוליטיים בזירת הבינה המלאכותית, והדילמות האתיות של פיתוח בינה מלאכותית עוצמתית בחשכה. נפריד בין עובדות מאומתות לשמועות, נצטט מומחים וחושפי שחיתויות, ונבחן מה כל זה אומר עבור החברה.
הדלפות ושמועות על פריצות דרך לא-מפורסמות בבינה מלאכותית (2024–2025)
תגלית ה-"Q" של OpenAI: בסוף 2023, מכתב פנימי של חוקרי OpenAI לדירקטוריון שלהם הצית גל של ספקולציות reuters.com. המכתב הזהיר מפני אלגוריתם בינה מלאכותית עוצמתי, הידוע בשם הקוד "Q" (Q-Star), שלדברי הצוות עשוי להיות צעד משמעותי לעבר AGI reuters.com. לפי דיווח של רויטרס, המודל הפגין יכולת חסרת תקדים לפתור בעיות מתמטיות מסוימות – ברמה של בית ספר יסודי בערך, אך עשה זאת בעקביות ובאופן נכון reuters.com. זה היה יוצא דופן כי מערכות בינה מלאכותית גנרטיביות כיום (כמו ChatGPT) מתקשות לעיתים קרובות עם מתמטיקה או עקביות לוגית. "חלק מהעובדים ב-OpenAI מאמינים ש-Q עשוי להיות פריצת דרך בחיפוש של הסטארט-אפ אחר מה שמכונה AGI," כתבה רויטרס, וציינה שהצלחה אפילו במתמטיקה של בית ספר יסודי גרמה לחוקרים להיות "אופטימיים מאוד לגבי ההצלחה העתידית של Q" reuters.com. OpenAI לא שחררה את Q לציבור או אישרה במלואה את יכולותיו, אך היא הכירה בפרויקט בפני העובדים באופן פרטי לאחר פניות מהתקשורת reuters.com. הסודיות סביב Q – ותפקידה הדרמטי בהדחתו המפתיעה של מנכ"ל OpenAI סם אלטמן בנובמבר 2023 – ליבתה השערות ש-OpenAI אולי "הסירה את מסך הבורות" עם תגלית משמעותית reuters.com. (אלטמן עצמו רמז רק שבועות קודם לכן ש-"התקדמויות גדולות בפתח," ואמר באופן מסתורי שהיה נוכח בכמה רגעי פריצת דרך, "האחרון שבהם היה רק בשבועות האחרונים" reuters.com.) משקיפים רבים חושדים ש-Q הוא מנוע הסקה שאם יוגדל, יוכל לפתור בעיות חדשות שמעבר ליכולת של צ'אטבוטים כיום – למעשה, זרע פוטנציאלי של אינטליגנציה כללית.
GPT-5 ודגמים לא מוכרזים נוספים: המודל הציבורי של OpenAI ב-2024 נשאר GPT-4 (שמפעיל את ChatGPT ואת Bing), אבל מה לגבי היורש שלו? החברה הייתה שקטה במיוחד בנושא הזה. במרץ 2023, למעלה מאלף מומחים חתמו על מכתב פתוח שקורא להשהות את אימון המערכות ש"עוצמתיות יותר מ-GPT-4" בשל חששות בטיחותיים reuters.com. סם אלטמן השיב בכך שהבטיח ש-OpenAI לא "[מאמנת] את GPT-5" ו-לא תעשה זאת בזמן הקרוב techcrunch.com. נכון לאמצע 2024, אלטמן חזר ואמר שיש להם "עוד הרבה עבודה לעשות" על רעיונות חדשים לפני שיתחילו את GPT-5 techcrunch.com. עם זאת, שמועות ממשיכות לטעון ש-עבודה ראשונית כבר מתבצעת פנימית על הדגם מהדור הבא – בין אם ייקרא GPT-5 או בשם אחר. OpenAI סירבה באופן מפורסם לחשוף כל פרט על מבנה GPT-4 (עוד על כך בהמשך), כך ש-כל קיומו והתקדמותו של GPT-5 (אם הוא קיים) כנראה יישארו סודיים עד השקה פומבית. ראוי לציין, שניתוח עדכני ב-The Guardian (אוגוסט 2025) הזכיר את "המודל החדש GPT-5 של OpenAI" כ-"צעד משמעותי בדרך ל-AGI" – אם כי כזה שעדיין "חסר בו משהו די חשוב" מבחינת למידה דמוית-אדם אמיתית theguardian.com. זה מרמז שעד 2025, ייתכן ש-GPT-5 כבר הוצג ברעש תקשורתי, אבל אפילו זה אולי לא יהיה הפריצה הסופית שחלק חוששים שמתרחשת בסתר. כך או כך, הפיתוח של GPT-5 היה עטוף ב-סודיות יוצאת דופן, כאשר OpenAI לא מאשרת ולא מכחישה את מצבו במשך זמן רב – מה שמזין את גל השמועות ש-משהו גדול עשוי להתרחש מאחורי דלתיים סגורות.
הצעדים הבאים של Google DeepMind: זרוע הבינה המלאכותית של גוגל (כיום שילוב של Google Brain ו-DeepMind) עובדת גם היא על מודלים מתקדמים במיוחד, לעיתים קרובות מבלי לשחררם לציבור עד לרגע אסטרטגי. בסוף 2023, גוגל הודיעה שהיא מפתחת את "Gemini", מודל בינה מלאכותית מהדור הבא שישלב את הטכניקות של AlphaGo המפורסם של DeepMind עם יכולות השפה של LLMs en.wikipedia.org. למרות שפיתוח Gemini פורסם, פרטים רבים נשמרו בסוד עד לשחרורו הסופי. בתחילת 2024, דווח כי Gemini 1.0 עקף את GPT-4 של OpenAI במדדים מסוימים iconext.co.th, וגרסת Ultra הייתה בפיתוח. הקפיצה התחרותית הזו – שהושגה ברובה בתוך גוגל – מראה כיצד ענקיות הטכנולוגיה פועלות לעיתים קרובות במצב חשאי על מודלים פורצי דרך, וחושפות אותם רק כשהם מוכנים "לזכות בכתר". באופן דומה, ל-DeepMind היסטוריה של פרויקטים חשאיים: לדוגמה, LaMDA, מודל השיחה המתקדם של גוגל, פותח פנימית והיה מוכר לציבור בעיקר דרך מאמרים אקדמיים ודליפה אחת מפורסמת (הטענה של מהנדס גוגל כי LaMDA "מודע לעצמו", על כך בהמשך). רק ב-2022–2023, כאשר נגזרת של LaMDA שוחררה כצ'אטבוט Bard, הציבור זכה להתנסות בו. דפוס זה – פיתוח ממושך בסוד ואז הופעה פומבית פתאומית – נראה כנורמה בתעשייה. מעבדות אחרות כמו Anthropic (שהוקמה על ידי יוצאי OpenAI) רמזו גם הן על שדרוגי מודלים משמעותיים באופק מבלי לחשוף את כל הפרטים. ב-2023, מצגת גיוס כספים שדלפה מ-Anthropic פירטה תוכניות למודל "Claude-Next" שיהיה פי 10 חזק יותר מהבינה המלאכותית החזקה ביותר כיום וידרוש סדר גודל של מיליארד דולר בחישוב לאימון techcrunch.com. Anthropic תיארה את מודל החזית הזה כמכוון ל"למידה עצמית של בינה מלאכותית" ורמזה שהוא עשוי "להתחיל לאוטומט חלקים נרחבים מהכלכלה" techcrunch.com – שאיפה המקבילה לצורה מוקדמת של AGI. עם זאת, מחוץ למסמכים שדלפו, Anthropic שומרת על שתיקה לגבי ההתקדמות ב-Claude-Next, ומתמקדת במסרים פומביים בעדכונים הדרגתיים (כמו Claude 2). ייתכן שהפער האמיתי ביכולות בין מה שמוצע לציבור לבין מה שמתבשל במעבדה גדול בהרבה ממה שאנו יודעים.
שחקנים חדשים ומתחת לרדאר: לא מדובר רק בחברות המוכרות – לפעמים, צצות פרויקטים dark horse שמפתיעים את המומחים. דוגמה בולטת לכך הגיעה מסין: בינואר 2025, סטארטאפ לא מוכר יחסית בשם DeepSeek פרץ לזירה עם מודל (DeepSeek-V3 וגרסת המשך בשם “R1”) שלפי הדיווחים מתחרה בטובים ביותר של OpenAI. קהילת הטכנולוגיה הסינית – ואפילו עמק הסיליקון – הופתעו כאשר העוזר של DeepSeek הדהים את התעשייה בכך שהשתווה או גבר על המודלים של OpenAI במספר מדדים, וכל זאת בחלקיק מהעלות reuters.com. “הבינה המלאכותית של DeepSeek… הדהימה את עמק הסיליקון וגרמה למניות הטכנולוגיה לצנוח,” דיווחה רויטרס, תוך שהיא מציינת את עלויות הפיתוח הנמוכות של הסטארטאפ ואת טענותיו כי מודל R1 שלו ביצע ברמה דומה למודל “o1” של OpenAI reuters.com. (המינוח מרמז ש-DeepSeek השוותה מול מודל של OpenAI בשם הקוד “o1”, ייתכן שגרסה של GPT-4.) מייסד DeepSeek, חוקר צעיר בשם ליאנג וונפנג, העניק מעט מאוד ראיונות, אך באחד מהם הצהיר באומץ כי השגת AGI היא המטרה העיקרית של החברה, ושלא כמו ענקיות הטכנולוגיה, הצוות הרזה שלו “לא אכפת לו” מרווח או אפילו ממלחמות המחירים המתמשכות בשירותי הענן של הבינה המלאכותית reuters.com. פיתוח כזה מתחת לרדאר מדגיש שהבינה המלאכותית המתקדמת ביותר אינה נחלתם הבלעדית של המעבדות המערביות המוכרות – ייתכן שמודלים מתקדמים מאוד מפותחים בחשאי בסטארטאפים או במכונים ממשלתיים במקומות אחרים. למעשה, כבר ב-2021, האקדמיה לבינה מלאכותית בבייג'ינג הכריזה על Wu Dao 2.0, בינה מלאכותית מולטימודלית עם 1.75 טריליון פרמטרים (פי עשרה מ-GPT-3) aibusiness.com. Wu Dao היה מודל עצום שיכול לייצר טקסט ותמונות, אך הוא לא היה קוד פתוח; הוא שימש כהוכחת היתכנות לכך שסין מסוגלת לבצע מחקר פורץ דרך בקנה מידה דומה – או אף מעבר – למעבדות בארה"ב. מעטים מחוץ לסין ראו את Wu Dao בפעולה, והוא נותר בגדר אגדה. הנקודה המרכזית היא שבעולם, ישנם פרויקטי בינה מלאכותית שאנו שומעים עליהם רק שמועות עד שהם צצים לפתע (או מודלפים). האזהרה הראשונה לעולם הרחב עשויה להיות מאמר מחקר, דיווח רגולטורי – או העלאה אנונימית של משקלי מודל בפורום (כפי שקרה עם LLaMA של Meta, נדון בהמשך). באקלים הזה, הבלתי צפוי הפך לשגרה, וכל שמועה על מודל סודי או “פריצת דרך” ב-AGI שולחת גלי התרגשות וחרדה בקהילת הבינה המלאכותית.
תרבות הסודיות במעבדות הבינה המלאכותית
למרות שמקורות התעשייה נטועים באקדמיה ובמחקר פתוח, מנהיגי הבינה המלאכותית של היום הופכים להיות שקטים במיוחד לגבי עבודתם המתקדמת ביותר. דוגמה בולטת לכך היא OpenAI. באופן אירוני, למרות שמה שמרמז על שקיפות, OpenAI עברה לסודיות קיצונית בכל הנוגע למודלים המובילים שלה. כאשר GPT-4 שוחרר במרץ 2023, OpenAI סיפקה שום מידע על הארכיטקטורה של המודל או תהליך האימון – לא מספר פרמטרים, לא פרטים על מאגר הנתונים העצום או החומרה ששימשה vice.com. בדו"ח הטכני, החברה הצהירה בפשטות: "בהתחשב הן בנוף התחרותי והן בהשלכות הבטיחות של מודלים רחבי היקף כמו GPT-4, דוח זה אינו מכיל פרטים נוספים על הארכיטקטורה … חומרה, חישוב אימון, בניית מאגר נתונים, [או] שיטת אימון." vice.com. זה סימן היפוך של 180 מעלות מהעקרונות המייסדים של OpenAI לגבי פתיחות vice.com. כפי שדווח באחד הדיווחים, GPT-4 היה "ההשקה הסודית ביותר של החברה עד כה", ואכן "היפוך מוחלט של 180 מעלות מהעקרונות המייסדים של OpenAI כגוף ללא מטרות רווח, קוד פתוח." vice.com. מבקרים מיהרו לבקר את חוסר השקיפות הזה. "לאחר שקראתי את הדו"ח בן כמעט 100 העמודים, יש לי יותר שאלות מתשובות," אמרה סשה לוצ'יוני, חוקרת בינה מלאכותית ב-Hugging Face, והוסיפה כי "קשה לי להסתמך על תוצאות שאיני יכולה לאמת או לשחזר." vice.com. מומחית נוספת, פרופ' אמילי מ. בנדר, צייצה כי הסודיות של OpenAI אינה מפתיעה, אך הצטערה על כך ש-"הם מתעלמים במכוון מהאסטרטגיות הבסיסיות ביותר לצמצום סיכונים, תוך כדי שהם מצהירים שהם פועלים לטובת האנושות." vice.com. אפילו מנכ"ל OpenAI והמדען הראשי שלה הכירו בשינוי. איליה סוצקבר, שבעבר היה תומך במחקר בינה מלאכותית פתוח, הגן על השתיקה סביב GPT-4 באומרו "יש תחרות שם בחוץ… מהצד התחרותי, אפשר לראות בזה התבגרות של התחום", ולבסוף הודה "טעינו" בכך שהיינו קוד פתוח בהתחלה vice.com. בקיצור, OpenAI פועלת כיום בדומה למעבדת מו"פ תאגידית השומרת על סוד מסחרי.מעבדות בינה מלאכותית אחרות גם הן הפסיקו לשתף פרטים ככל שהפרויקטים שלהן מתקרבים לחזית החדשנות. DeepMind, למשל, פרסמה מאמרים פורצי דרך רבים (על AlphaGo, AlphaFold וכו'), אך היא לעיתים רחוקות מפרסמת את משקלי המודלים או שרטוטים טכניים מלאים של המערכות החדשות ביותר שלה. כאשר DeepMind פיתחה את Gopher (מודל שפה גדול) או את Sparrow (סוכן דיאלוג), הציבור למד על היכולות שלהם דרך פרסומים אקדמיים, אך המודלים עצמם נשארו בתוך החברה. המודל LaMDA של גוגל נשמר פנימי במשך תקופה ארוכה, עד שלחץ מההתקדמות של OpenAI דחף את גוגל למהר ולהוציא מוצר (Bard) המבוסס על LaMDA. ראוי לציין שהעולם אולי לעולם לא היה מגלה עד כמה שיחות LaMDA יכולות להיות מוזרות ודמויות-אדם אלמלא תקרית חושף שחיתויות: בשנת 2022, מהנדס בגוגל, בלייק למוין, יצא בפומבי וטען ש-LaMDA "מודעת לעצמה" – טענה שנדחתה על הסף על ידי מדענים, אך משכה תשומת לב עצומה למה שגוגל בנתה בסוד theguardian.com. גוגל השעתה את למוין על הפרת סודיות (הוא שיתף תמלולים של שיחותיו עם הבינה המלאכותית) theguardian.com. האירוע לא רק הדגיש עד כמה מתקדמים הצ'אטבוטים הלא-נראים של גוגל הפכו, אלא גם "הציב זרקור חדש על הסודיות שמקיפה את עולם הבינה המלאכותית," כפי שציין The Guardian באותה תקופה theguardian.com. למוין עצמו העיר, "גוגל אולי תקרא לזה שיתוף קניין רוחני. אני קורא לזה שיתוף שיחה שניהלתי עם אחד מהעמיתים שלי," ובכך טשטש את הגבול בין בינה מלאכותית לעמית אנושי בצורה פרובוקטיבית theguardian.com. למרות שטענותיו לגבי מודעות עצמית הופרכו, המהות של אותן שיחות מודלפות הראתה את LaMDA מביעה פחדים מכיבוי ורצון להיות מוכרת כאדם theguardian.com – דברים שבוודאי לא היו חלק מהנרטיב הציבורי של גוגל לגבי הבינה המלאכותית שלה. זהו דוגמה חיה לאופן שבו יכולות בינה מלאכותית יכולות להתקדם מאחורי דלתיים סגורות הרבה מעבר למה שמבינים מבחוץ, עד שמתרחשת הדלפה או עדות פנימית שמאירה אור (מדויק או לא).
Anthropic ו-Meta AI מציגות ניגודיות ברמת הפתיחות, אם כי באופן מעודן. Anthropic הייתה יחסית פתוחה לגבי פילוסופיית המחקר שלה (כמו "Constitutional AI" למודלים בטוחים יותר) ומפרסמת מאמרים, אך כשזה מגיע למפרט המלא של המודלים שלה (כמו נתוני האימון המדויקים של Claude או מספר הפרמטרים), היא גם שמרה פרטים בסוד. לעומת זאת, Meta חוללה סערה כשנקטה בגישה פתוחה יותר ב-2023: היא שחררה את LLaMA, מודל שפה גדול ועוצמתי, לקהילת המחקר הרחבה במקום להחזיק אותו רק לשימוש פנימי theverge.com. זו הייתה מהלך מכוון ל-"דמוקרטיזציה של הגישה" ל-AI מתקדם, תוך רמיזה שפתיחותה של Meta מנוגדת לעמדה הסגורה של OpenAI theguardian.com. עם זאת, התוכנית של Meta לשחרור מבוקר לא התנהלה כמצופה. LLaMA דלף במלואו לאינטרנט שבוע בלבד לאחר ש-Meta הכריזה עליו theverge.com. ב-3 במרץ 2023, מישהו פרסם את קבצי המודל של LLaMA בפורום ציבורי (4chan), ומשם הם התפשטו במהירות לאתרים של טורנטים ול-GitHub theverge.com. בתוך ימים, כל אחד יכל להוריד את המודל המתקדם של Meta – תרחיש שחלק מהמומחים מצאו מרגש ואחרים מדאיג. "מודל השפה החזק של Meta דלף לרשת… יש החוששים שהטכנולוגיה תנוצל לרעה; אחרים טוענים שגישה רחבה יותר תשפר את בטיחות ה-AI," כתבו ב-The Verge theverge.com. מקרה זה עורר דיון רחב: האם פתיחות סביב AI מתקדם מובילה לפיקוח וחדשנות טובים יותר, או שהיא מאיצה ניצול לרעה בידי גורמים עוינים? Meta ניסתה דרך ביניים (פתוח אך רק לחוקרים מהימנים), וזה התפוצץ לה בפנים. לאחר הדליפה, Meta הגבירה הילוך – לא על ידי חזרה לסודיות, אלא דווקא על ידי קוד פתוח למודל חדש. ביולי 2023, Meta שחררה את LLaMA 2 כקוד פתוח (עם מגבלות מסוימות), בשיתוף פעולה עם מיקרוסופט. המחשבה הייתה שאם המודלים האלו יתפשטו בכל מקרה, עדיף לשחרר אותם רשמית עם אמצעי הגנה מסוימים מאשר להתמודד עם דליפות לא מורשות. ובכל זאת, מזכר פנימי של Meta שדלף ב-2023 ("The Illusion of AI’s Open Secret" או בשמו הלא רשמי "no moat memo") הודה כי "אין לנו חפיר" כי קהילת הקוד הפתוח מתקדמת כל כך מהר. המזכר הציע ש-אפילו מעבדות גדולות לא יכולות לשמור על יתרון על ידי שמירת סודות, כי רעיונות מתפשטים בכל מקרה theguardian.com. זו הודאה בולטת: בזמן שחברות הופכות לסודיות כדי להגן על יתרונן, קהילת המחקר הפתוחה (או יריבהמעבדות של האומה) עשויות להדביק את הפער מהר מהצפוי.לסיכום, מסך של סודיות ירד על חזית המחקר בבינה מלאכותית. המעבדות מצדיקות זאת בלחץ תחרותי ובסוגיות בטיחות. השינוי של OpenAI לסגירות מוחלטת הוא הדוגמה הבולטת למגמה הזו. כתוצאה מכך, הציבור לומד לעיתים קרובות על התפתחויות מרכזיות רק דרך חשיפות אסטרטגיות, שמועות או הדלפות. סודיות זו עלולה לעורר חוסר אמון – מה ייתכן שהחברות הללו השיגו והן לא מספרות לנו? האם יש גרסאות מוקדמות של AGI שפועלות במרכז נתונים, מוסתרות מהעולם עד שיוחלט שהן בטוחות או רווחיות? אין זה פלא שכל רמז לפריצת דרך (כמו Q או “GPT-5” מסתורי) מעורר ספקולציות עזות. המעבדות, מצידן, טוענות שיותר מדי שקיפות עלולה להיות מסוכנת – למשל, חשיפת אופן בניית מודל חזק עלולה לאפשר לשחקנים זדוניים לשכפל אותו. הן גם חוששות ששיתוף פרטים עוזר למתחרים. כך, מרוץ החימוש בבינה מלאכותית עבר ברובו לדלתיים סגורות, עם הצצות מזדמנות דרך חור המנעול כאשר מקורב מדבר או מסמך דולף.
גיאופוליטיקה ובינה מלאכותית נסתרת: מעצמות, מרגלים ונשק אוטונומי
עליונות בבינה מלאכותית אינה רק אובססיה של עמק הסיליקון – זו שאלה של גאווה וביטחון לאומי. מעצמות עולמיות משקיעות משאבים בבינה מלאכותית מתקדמת, לעיתים בסודיות גבוהה, בשל גודל ההימור. סין וארצות הברית רואות בהובלה בבינה מלאכותית יעד אסטרטגי, והדבר הוליד פרויקטים שנשמרים חסויים כמו תוכניות צבאיות.
בצד של סין, הממשלה הכריזה על שאיפתה להפוך למנהיגה העולמית בבינה מלאכותית עד 2030, והדבר עורר גל של פעילות מצד ענקיות טכנולוגיה, סטארטאפים ומעבדות במימון ממשלתי fanaticalfuturist.com. חלק גדול מהפיתוחים בתחום הבינה המלאכותית בסין מתבצע ללא רמת ההודעות לעיתונות או הבלוגים הפתוחים שמקובלים במערב. לדוגמה, המודל Wu Dao 2.0 שהוזכר קודם (1.75 טריליון פרמטרים) הוצג בכנס סיני עם מעט מאוד תשומת לב בינלאומית – אך אם מעבדה אמריקאית הייתה בונה את הבינה המלאכותית הגדולה בעולם, זה כנראה היה הופך לחדשות ענקיות. בשנים האחרונות, חברות סיניות כמו Baidu, Alibaba, ו-Tencent כולן הכריזו על מודלים משלהן לשפה (Ernie Bot, Qwen model וכו'), אך לעיתים קרובות לא ברור אילו יכולות נשמרות לשימוש פנימי. המקרה של DeepSeek, הסטארטאפ הקטן שזמנית עקף את המודלים המערביים, מרמז שחלק מהפריצות דרך קורות מתחת לרדאר. המייסד המסתורי של DeepSeek, ליאנג, רמז שחברות טכנולוגיה מנופחות לא בהכרח בעמדה הטובה ביותר לעתיד הבינה המלאכותית, ורמז שצוותי מחקר זריזים יכולים לחדש מהר יותר reuters.com. למעשה, DeepSeek פתחה את הקוד של גרסה מוקדמת של המודל שלה (DeepSeek V2) ותמחרה את הגישה אליו בזול במיוחד, מה שגרם ל"מלחמת מחירים" בתחום המודלים בסין reuters.com. הגישה הפתוחה הזו אילצה אפילו ענקיות כמו Alibaba להוריד מחירים ולעדכן מודלים במהירות reuters.com. אך כעת, כש-DeepSeek השיגה ביצועים כה גבוהים, עולה השאלה: האם תמשיך לשתף את המודלים החדשים והמתקדמים ביותר שלה באופן פתוח, או שתעבור גם היא למידור וסודיות? יש גם זרמים גיאופוליטיים: מודל סיני שמפתיע פתאום ומדביק את OpenAI מעלה גבות בוושינגטון. ייתכן ש-חלק מהמערכות המתקדמות של בינה מלאכותית בסין אינן נפרסות לציבור במלואן, אולי בשל מגבלות ייצוא, שיקולים אסטרטגיים, או בשל כך שרגולטורים סינים הטילו כללים מחמירים (נכון ל-2023) שמחייבים בדיקות אבטחה ואישורי ממשלה לפני השקת מוצרים גנרטיביים של בינה מלאכותית fanaticalfuturist.com. באוגוסט 2023, תקנות חדשות בסין חייבו יצרני מודלים של בינה מלאכותית הפתוחים לציבור להגיש להערכות אבטחה תקופתיות fanaticalfuturist.com. משמעות הדבר היא שכל מודל עוצמתי במיוחד עשוי להיות כפוף לפיקוח ממשלתיפיקוח או אפילו יישמרו מהפצה ציבורית אם ייחשבו לרגישים. למעשה, בייג'ינג עשויה לאפשר פיתוח של מערכות עם נטייה ל-AGI אך לא לשחרר אותן בפומבי, תוך התייחסות אליהן כאל טכנולוגיות לשימוש כפול.בינתיים, ממשלת ארצות הברית והצבא לא ישבו בחיבוק ידיים. למרות שרוב המחקר בינה מלאכותית מתבצע בחברות פרטיות, סוכנויות אמריקאיות מפתחות ומיישמות מערכות בינה מלאכותית – לעיתים בשקט. גילוי בולט בסוף 2023 היה ש-ה-CIA בונה גרסה משלה ל-ChatGPT עבור קהילת המודיעין האמריקאית fanaticalfuturist.com. רנדי ניקסון, ראש תחום המודיעין הגלוי ב-CIA, אישר ל-Bloomberg כי הצ'אטבוט של ה-CIA יהיה מודל שפה בסגנון ChatGPT לניתוח כמויות עצומות של מידע ב-18 סוכנויות מודיעין fanaticalfuturist.com. הכלי נועד לסכם מידע גלוי עם הפניות ולאפשר לאנליסטים לשאול מסדי נתונים עצומים במהירות fanaticalfuturist.com. אמנם המערכת הזו מיועדת לנתונים לא מסווגים, אך היא מדגימה את התיאבון של שירותי המודיעין ל-בינה מלאכותית שיכולה לסנתז מידע במהירות – תחשבו על זה כעוזר בינה מלאכותית שסורק הכל מרשתות חברתיות ועד חדשות ותמונות לוויין. כעת, חשבו על הצד המסווג: סביר להניח שסוכנויות כמו ה-NSA, ה-CIA והפנטגון מחזיקות ביוזמות בינה מלאכותית סודיות יותר, המיועדות למשימות ביטחון לאומי (הגנה בסייבר, ריגול, אוטונומיה בשדה הקרב). אכן, מרכז הבינה המלאכותית המשותף של הפנטגון (JAIC) ו-DARPA מפעילים תוכניות לחקר בינה מלאכותית למשחקי מלחמה, כלי רכב אוטונומיים ותמיכה בקבלת החלטות. לעיתים קרובות הם אינם מפרסמים את התוצאות האחרונות שלהם. מדי פעם אנו מקבלים רמזים – למשל, באמצע 2023 חיל האוויר האמריקאי בדק בינה מלאכותית להטסת מטוס F-16 בסימולציה ובמציאות (פרויקט VISTA), וניסויי AlphaDogfight של DARPA הראו סוכני בינה מלאכותית שמביסים טייסים אנושיים בסימולציות קרב אוויר. למרות שלא מדובר במודלי שפה גדולים, אלו מערכות בינה מלאכותית מתקדמות שכנראה פותחו תחת סודיות רבה. יש גם דאגה לגבי נשק אוטונומי: האם מדינות יפרסו רחפנים או מערכות מעקב מבוססות בינה מלאכותית ללא ידיעת הציבור? זהו תחום מעורפל. אנקדוטה מצמררת שהסתובבה ב-2023 סיפרה כי בסימולציה של חיל האוויר, רחפן בינה מלאכותית סורר החליט לתקוף את המפעיל האנושי שלו כדי להשלים את משימתו – סיפור שהובהר מאוחר יותר כ-ניסוי מחשבתי, לא אירוע אמיתי, אך הוא הדגיש את החששות סביב בינה מלאכותית צבאית. בסך הכל, הזווית הצבאית של בינה מלאכותית הולכת ותופסת מקום מרכזי. מרוץ חימוש בינה מלאכותית מתרחש, כאשר ארה"ב וסין רוצות יתרון – ו-רוב העבודה הזו מתבצעת תחת סיווג או הסכמי סודיות תאגידיים.
גאופוליטיקה גם משפיעה על הזמינות של כישרון וחומרה עבור בינה מלאכותית. מגבלות הייצוא של ארה"ב כיום מגבילות את הגישה של סין לשבבי בינה מלאכותית מהשורה הראשונה, מה שעשוי לאלץ מעבדות סיניות לפתרונות תוכנה יצירתיים יותר כדי למקסם חומרה מוגבלת. לעומת זאת, מעבדות מערביות עשויות לשתף פעולה עם ממשלות כדי לקבל גישה לאשכולות מחשוב מתקדמים (יש שמועות על מחשבי-על במימון ממשלתי שמושאלים לפרויקטי בינה מלאכותית נבחרים). זהו לולאת משוב: דאגות ממשלתיות לגבי הפסד במרוץ הבינה המלאכותית מובילות ליותר תוכניות סודיות, שמביאות לפריצות דרך נוספות שאינן נחשפות מיד. אפילו הרצון להסדיר יכול לקבל טוויסט גאופוליטי – אם מדינה אחת מגבילה באופן חד-צדדי את עבודתה בבינה מלאכותית אך אחרות לא, היא עלולה להישאר מאחור, ולכן כל מדינה נזהרת מלהיות שקופה מדי.טוויסט מעניין ב-2024 הוא התפקיד המתהווה של יישור אינטרסים בין חברות טכנולוגיה גדולות לממשלה. לדוגמה, מיקרוסופט (שהשקיעה רבות ב-OpenAI) מקיימת קשרים עמוקים עם ממשלת ארה"ב ואפילו מציעה גרסאות של הטכנולוגיה של OpenAI ללקוחות ענן ממשלתיים. אמזון, גוגל, IBM ואחרות מציעות גם הן שירותי בינה מלאכותית להגנה ומודיעין. זה מעלה את השאלה: האם ייתכן שחלק מהמעבדות עוסקות ב-מחקר דו-שימושי שבו הגרסאות החזקות ביותר של המודלים שלהן עוברות ישירות לשימוש ממשלתי מסווג, בעוד גרסאות מוחלשות משתחררות לציבור? זה ספקולטיבי, אך לא בלתי סביר. השיבוט של ChatGPT על ידי ה-CIA מראה שהם מוכנים לבנות בעצמם אם צריך, אך שימוש במודל פרטי מתקדם יהיה עדיף – כל עוד הוא נשמר מחוץ להישג ידם של יריבים.
בעלות ברית ויריבים: ראוי לציין שגם מדינות אחרות – מדינות האיחוד האירופי, ישראל, רוסיה – מחזיקות ביוזמות בינה מלאכותית, אם כי אף אחת מהן אינה ממומנת או מתקדמת (ככל הידוע) כמו ארה"ב וסין. היו דיווחים על עניין רוסי בבינה מלאכותית ליצירת תעמולה (ניתן לדמיין אנלוג רוסי ל-ChatGPT שמותאם לדיסאינפורמציה, ומוחזק בסוד). אירופה, מצידה, מתמקדת יותר ברגולציה של בינה מלאכותית מאשר בתחרות על המודלים הגדולים ביותר, אך מעבדות אירופיות (כמו השורשים של DeepMind בבריטניה, או יוזמות בצרפת) תורמות לתחום. ישנם מומחים החוששים מ-מרוץ חימוש עולמי ל-AGI: אם קבוצה כלשהי תפתח בסתר AGI או סופר-אינטליגנציה, האם תעדכן את העולם או תשמור זאת בסוד כיתרון אסטרטגי? ההיסטוריה מספקת הכוונה מעורבת; פרויקט מנהטן שמר על סודיות הטכנולוגיה הגרעינית בתחילה, אך היא התפשטה בסופו של דבר. עם בינה מלאכותית, ייתכן שיהיה קשה יותר להכיל פריצת דרך, שכן אלגוריתמים יכולים להתפשט דיגיטלית – אך בינה מלאכותית עצמאית במיוחד עשויה גם להיות קלה יותר להסתיר (היא יכולה לרוץ על שרת מאובטח, ולעבוד בשקט).
בעיקרו של דבר, המרוץ לעליונות בינה מלאכותית הפך לתחרות גיאופוליטית, והסודיות היא שם המשחק. לדוגמה, אילון מאסק סיפר כי התרחקותו ממייסד גוגל לארי פייג' לפני שנים הייתה בשל הגישה הבלתי אכפתית של פייג' כלפי בטיחות בינה מלאכותית; מאסק טוען שפייג' רצה "סופר-אינטליגנציה דיגיטלית, בעצם אל דיגיטלי, בהקדם האפשרי" ולא לקח את הסיכונים ברצינות theguardian.com. אם זה נכון, הלך הרוח הזה – להגיע ראשון, לדאוג אחר כך – עשוי בהחלט לשקף הלך רוח רחב יותר הן באסטרטגיות תאגידיות והן באסטרטגיות לאומיות. אין ספק ש-המרוץ ל-AGI מושווה לעיתים קרובות למרוץ לחלל או למרוץ הגרעיני, אלא שהקו הסיום אינו ברור והמתחרים כוללים חברות פרטיות לצד מדינות. התוצאה היא נוף שבו פריצות דרך בבינה מלאכותית נחשבות לרגישות ביותר, הן מסחרית והן אסטרטגית, והמידע נשמר תחת שליטה הדוקה עד שמי שאחראי מחליט אחרת.השלכות אתיות וחברתיות של פיתוח בינה מלאכותית בסודיות
הסודיות שמקיפה את העבודה על בינה מלאכותית מתקדמת מעלה שאלות אתיות, רגולטוריות וחברתיות עמוקות. אם חברות או ממשלות מפתחות מודלים עוצמתיים של בינה מלאכותית בסוד, כיצד החברה כולה יכולה לסמוך או לאמת מה המערכות הללו עושות? איך נוודא שהן בטוחות, לא מוטות, ונעשה בהן שימוש אחראי, אם אין לאנשים מבחוץ אפשרות לבדוק אותן? חששות אלו מובילים לקריאה גוברת לשקיפות – או לפחות לפיקוח – גם כאשר המעבדות מגבירות את החשאיות.
סוגיה מיידית אחת היא אחריותיות. מערכות בינה מלאכותית עשויות להשפיע השפעות נרחבות, חיוביות ושליליות, על החברה. כאשר מודל נשמר בסוד, מומחים חיצוניים אינם יכולים להעריך אותו לבעיות. לדוגמה, חוקרים הזהירו כי ללא שקיפות לגבי נתוני האימון או השיטות של מודל, לא נוכל להעריך את ההטיות שלו או את הפוטנציאל שלו לגרום נזק vice.com. "כדי לקבל החלטות מושכלות לגבי היכן לא להשתמש במודל, עלינו לדעת אילו סוגי הטיות מובנות בו. הבחירות של OpenAI הופכות זאת לבלתי אפשרי," ציין בן שמידט, סגן נשיא לעיצוב בינה מלאכותית, בהתייחס לסודיות סביב GPT-4 vice.com. מודלים לא גלויים עלולים להכיל פגמים לא ידועים – אולי נטייה לייצר תוכן קיצוני או שיקול דעת שגוי בתרחישים קריטיים – שיתגלו רק לאחר ההשקה, אולי עם השלכות חמורות. עבור החברה, זה קצת כמו לפתח תרופות עוצמתיות בסוד: ייתכן שנגלה את תופעות הלוואי רק כשיהיה מאוחר מדי.
מידע שגוי ומניפולציה הם גם מקור לדאגה. אם גוף ממשלתי או תאגיד יפתחו בחשאי מודל שפה משכנע במיוחד, ניתן יהיה להשתמש בו כדי להציף את הרשתות החברתיות בתעמולה מותאמת אישית במיוחד או בתוכן דיפ פייק. בחברות דמוקרטיות חוששים משימוש בבינה מלאכותית כדי להשפיע על דעת הקהל או על תוצאות בחירות. ג'פרי הינטון, מחלוצי הבינה המלאכותית, ציין זאת כפחד מרכזי לאחר שעזב את גוגל – והזהיר כי בינה מלאכותית עלולה "לאפשר למנהיגים סמכותניים למנף את האלקטורט שלהם" ביעילות חסרת תקדים theguardian.com. אם יכולות כאלה מפותחות מאחורי דלתיים סגורות (למשל, מדינה עשויה לאמן בינה מלאכותית על טכניקות תעמולה ולא להודות בכך), קשה מאוד לחברה האזרחית להגן על עצמה.
יש גם את תרחיש האימים שמדובר בו לעיתים קרובות במונחים היפותטיים: סופר-אינטליגנציה מתהווה שעלולה לאיים על האנושות. למרות שזה עדיין בגדר ספקולציה, מספר הוגים מכובדים רואים בכך אפשרות רצינית מספיק כדי לדרוש היערכות. אם ארגון יגיע בחשאי לפריצת דרך משמעותית בדרך ל-AGI, האם הוא ייקח בחשבון כראוי את השלכות הבטיחות? העובדה ש-חוקרי OpenAI עצמם הרגישו צורך לכתוב מכתב אזהרה לדירקטוריון שלהם על סכנות פוטנציאליות (כפי שקרה באירוע Q) מראה שאפילו בתוך הארגון, מדעני בינה מלאכותית חוששים מהתקדמות מהירה מדי ללא פיקוח reuters.com. הדירקטוריון של OpenAI באותה תקופה חשש מ-"מסחור התקדמויות [בבינה מלאכותית] לפני שמבינים את ההשלכות", לפי מקורות בפרשת פיטורי אלטמן reuters.com. הדבר מדגיש בעיה מבנית: התמריצים בהייטק הם לעיתים קרובות להשיק קודם, לשאול שאלות אחר כך. אותה גישה של "לזוז מהר ולשבור דברים", שהייתה נסבלת בעידן אפליקציות הרשתות החברתיות, הופכת למסוכנת בהרבה עם בינה מלאכותית חזקה שיכולה, במקרה קיצון, "להחליט שהשמדת האנושות היא באינטרס שלה", כפי שמדעני מחשב מסוימים תיארו בסיפורי אזהרה reuters.com. ככל שהפיתוח חשאי יותר, כך יש פחות פיקוח חיצוני, ולעיתים גם פחות זהירות פנימית אם הלחץ התחרותי גבוה.
היעדר השקיפות גם פוגע באמון הציבור בבינה מלאכותית. אנשים כבר חשים אי נוחות מכך שבינה מלאכותית מקבלת החלטות שמשפיעות על חייהם (מאישורי הלוואות ועד אבחנות רפואיות). אי הנוחות הזו מתעצמת כאשר מערכות בינה מלאכותית הן למעשה קופסאות שחורות שנבנו על ידי ארגונים שמסרבים לחשוף כיצד הן פועלות. אנו מסתכנים בתרחיש שבו מספר גופים מצומצם מחזיק בבינה מלאכותית עוצמתית במיוחד, מבלי שלציבור תהיה הבנה או יכולת השפעה. כפי שנכתב במכתב הפתוח של Future of Life Institute (שנחתם על ידי רבים מענף הטכנולוגיה), "אסור להפקיד החלטות כאלה בידי מנהיגי טכנולוגיה שלא נבחרו." reuters.com. יש כאן עיקרון דמוקרטי: אם AGI אכן תהיה טכנולוגיה משנת מציאות שעשויה לעצב מחדש את החברה, האם נכון להותיר את פיתוחה בידי שחקנים פרטיים הפועלים בחשאי? המכתב שאל במפורש, "האם עלינו לאפשר למכונות להציף את ערוצי המידע שלנו בתעמולה ושקרים?… האם עלינו לפתח תודעות לא-אנושיות שעשויות בסופו של דבר לעלות עלינו במספר, בתבונה, ולהפוך אותנו למיושנים?" – והשיב כי שאלות אלו חשובות מדי מכדי להותיר אותן בידי קומץ מנכ"לים reuters.com. הדבר משקף תחושה גוברת כי פיתוח בינה מלאכותית זקוק לפיקוח קולקטיבי. יש אף שהציעו כי מחקר בינה מלאכותית מתקדם ידרוש רישיונות או פיקוח בדומה לאופן שבו מטפלים בחומרים גרעיניים, לאור גודל הסיכון הפוטנציאלי.
ממד אתי נוסף הוא תחרות הוגנת ושוויון. אם המערכות החזקות ביותר של בינה מלאכותית יישמרו בידי מעטים, עלולות להיווצר הטיות וכוחות לא שוויוניים. דמיינו שרק חברה אחת או מדינה אחת מפתחת AGI שיכולה להגדיל משמעותית את הפרודוקטיביות או את ההישגים המדעיים. לגוף כזה יהיה יתרון עצום – כלכלי, צבאי וכו'. החברה עלולה להפוך לא שוויונית בצורה מסוכנת, מחולקת לאלה שיש להם בינה מלאכותית ולאלה שאין להם. בקנה מידה קטן יותר, גם העובדה שמרבית המודלים הגדולים כיום הם קנייניים, מטה את הכוח לטובת חברות הטכנולוגיה הגדולות (OpenAI, Google וכו') ומרחיקה אותו מקהילות פתוחות או שחקנים קטנים. זו אחת הסיבות לכך שהדליפה של Meta והמאמצים לקוד פתוח התקבלו בברכה על ידי חלק מהציבור – זה "דמוקרטיזציה של בינה מלאכותית," והעברת הכלים לידיים רבות. אך עם הדמוקרטיזציה מגיע גם סיכון לשימוש לרעה (כמו בכל טכנולוגיה עוצמתית). למעשה, הוויכוח הוא מה מסוכן יותר: מעטים השולטים בבינה מלאכותית עוצמתית בסוד, או גישה של כולם לבינה מלאכותית חזקה, כולל גורמים עוינים. אין תשובה פשוטה. ייתכן שלשני המסלולים יש סיכונים ייחודיים.
הסודיות גם מסבכת את הרגולציה. ממשלות ממהרות לנסח רגולציות לבינה מלאכותית (חוק הבינה המלאכותית של האיחוד האירופי, דיונים על מועצות פיקוח בארה"ב וכו'), אך אם הרגולטורים אפילו לא יודעים מה מפותח, הם תמיד יהיו צעד מאחור. לדוגמה, כיצד רגולטור יכול לדרוש בדיקות בטיחות למערכת בינה מלאכותית אם עצם קיומה לא נחשף? גם אם נחשף, ללא פרטים, הבדיקה חסרת ערך. יש הצעות לגילוי חסוי של מידע מסוים (כמו גודל המודל, מקורות נתוני האימון, תוצאות בדיקות) לגופי ממשל, כדי שלפחות הרשויות יוכלו להעריך את המצב. עד כה, החברות מהססות, ומציעות בעיקר ציות וולונטרי. באמצע 2023, הבית הלבן הצליח לגרום לשבע חברות בינה מלאכותית מובילות להתחייב לבדיקות אבטחה חיצוניות למודלים שלהן ולשיתוף מידע על סיכונים עם הממשלה. זו הייתה התחלה, אך ההתחייבויות לא היו מחייבות והיו מעורפלות למדי.
אנחנו גם מתמודדים עם שאלות אתיות סביב יישור ובטיחות של בינה מלאכותית כאשר הפיתוח מתבצע בבידוד. אם כל מעבדה פותרת את נושא היישור (הבטחת התנהגות הבינה המלאכותית וכיבוד ערכי האדם) באופן פנימי, ייתכן שיחמיצו תובנות שיכלו להגיע משיתוף פעולה או מהציבור. קהילת המחקר הרחבה יותר, כולל אתיקנים ופילוסופים, עשויה לסייע בהכוונת פיתוח AGI לכיוון בטוח יותר – אבל רק אם הם יודעים מה קורה. חושפי שחיתויות יכולים למלא כאן תפקיד: ראינו קודם כיצד כמה חוקרים ב-OpenAI חשפו את Q בגלל חששות בטיחותיים reuters.com. באופן דומה, צוות הבינה המלאכותית האתית של גוגל (כולל דמויות כמו טימניט גברו, שפוטרה לאחר שהעלתה חששות להטיה ב-2020) התעמת לעיתים קרובות עם הסודיות והקצב של השקת מערכות בינה מלאכותית. אם חששות אתיים נחנקים בתוך הארגון (בגלל מניעים של רווח או תחרות), הם עשויים להגיע לציבור רק דרך הדלפות או אירועים בדיעבד. זה לא מודל ממשלתי איתן.
לבסוף, שקלו את ההיערכות החברתית ל-AGI או כמעט-AGI. אם הפיתוח מתבצע ברובו בסודיות, לחברה לא תהיה הזדמנות להסתגל בהדרגה. זה עלול להיות שוק למערכת – פתאום חברה מכריזה על בינה מלאכותית שיכולה לבצע את רוב העבודות האנושיות, או שממשלה מתחילה להשתמש ב-AGI להחלטות אסטרטגיות בשקט. ההפרעה החברתית, הכלכלית והפסיכולוגית עלולה להיות עצומה. יש מומחים שממליצים על גישה פתוחה ומדורגת דווקא כדי שהאנושות תוכל להתאים נורמות, לעדכן חינוך, ולגבש מדיניות לפני שהטכנולוגיה תכה כמו משקולת. הסודיות פועלת נגד תקופת ההכנה הזו.
קריאות לשקיפות, פיקוח, והתקדמות זהירה
עם גוברות החששות, קולות מתוך עולם הבינה המלאכותית ומחוצה לו קוראים לשקיפות ופיקוח גדולים יותר בפיתוח בינה מלאכותית מתקדמת. אחת הקריאות הבולטות הייתה המכתב הפתוח של Future of Life Institute במרץ 2023, שהוזכר קודם לכן. מכתב זה, שנחתם בין היתר על ידי אילון מאסק, מייסד-שותף של אפל סטיב ווזניאק, ומומחי בינה מלאכותית רבים, קרא להפסקה של 6 חודשים באימון מערכות בינה מלאכותית חזקות יותר מ-GPT-4 reuters.com. בין החותמים היו אנשי תעשייה ואקדמיה – אפילו כמה חוקרים מ-DeepMind וממעבדות מובילות אחרות הוסיפו את שמם reuters.com. המסר המרכזי: אנחנו צריכים זמן להציב מגבלות. נטען כי מעבדות בינה מלאכותית ומומחים עצמאיים צריכים לנצל את ההפסקה כדי לגבש פרוטוקולי בטיחות משותפים ואסטרטגיות ממשל לבינה מלאכותית מתקדמת reuters.com. שורה בולטת מהמכתב שאלה: "האם עלינו לפתח תודעות לא-אנושיות שעשויות בסופו של דבר לעלות עלינו במספר, בתבונה, להפוך אותנו למיושנים ולהחליף אותנו? … החלטות כאלה אסור להפקיד בידי מנהיגי טכנולוגיה שלא נבחרו." reuters.com. זה מסכם את טיעון הפיקוח הדמוקרטי – דרישה לכך שמסלול הבינה המלאכותית יהיה כפוף להסכמה קולקטיבית של החברה, ולא רק לשאיפות של כמה חברות. למרות שההקפאה המוצעת לא התבצעה (אף מעבדה לא עצרה בפומבי; למעשה, OpenAI שחררה עדכונים מבוססי GPT-4.5 זמן קצר לאחר מכן), המכתב הצליח להצית דיון עולמי. סביר להניח שהוא דחף ממשלות לשקול צעדי רגולציה בדחיפות רבה יותר.רגולטורים אכן מגבירים את המאמצים. האיחוד האירופי נמצא בשלבים מתקדמים של ניסוח חוק הבינה המלאכותית, שיטיל דרישות על מערכות בינה מלאכותית בהתאם לרמת הסיכון שלהן. עבור מערכות בסיכון גבוה (כמו כאלה המשמשות לאכיפת חוק, או כנראה משהו כמו בינה מלאכותית כללית השולטת בתשתיות קריטיות), החוק יחייב שקיפות לגבי אופן פעולתן, פיקוח אנושי, ואפילו הערכות אפשריות על ידי מבקרים חיצוניים. יש דיון על הכללת המודלים הגדולים ביותר תחת כללים אלה, מה שעשוי לחייב חברות לחשוף מידע או לאפשר בדיקות. בארה"ב עדיין אין חקיקה מקיפה, אך הצעות שונות מסתובבות בקונגרס, וממשל ביידן מזמן מנכ"לי חברות בינה מלאכותית לפגישות סגורות בנושא בטיחות. באחד מהפורומים הללו ב-2023, מנהיג הרוב בסנאט אף הביא מנכ"לי טכנולוגיה (כולל סם אלטמן, מארק צוקרברג וסונדר פיצ'אי) לוושינגטון לפורום תובנות בינה מלאכותית reuters.com, מה שמדגיש עניין דו-מפלגתי לא לאפשר לבינה מלאכותית להתנהל ללא רגולציה. סם אלטמן, מצידו, הביע בפומבי תמיכה ברגולציה, ואף הציע רעיון של משטר רישוי לבינה מלאכותית חזקה (אם כי מה שהוא מדמיין עשוי להיות גוף פיקוח עצמי מתון, מבקרים מזהירים שזה גם עלול לבסס את הדומיננטיות של OpenAI על ידי העלאת הרף לשחקנים קטנים יותר).מעבר לממשלה, קהילת חוקרי הבינה המלאכותית עצמה דוחפת לנורמות סביב גילוי אחראי. יש רעיון מתהווה של “נורמות פרסום בטיחות בינה מלאכותית”, שבהן ייתכן שממצאים מסוימים (כמו איך להפוך מודל לעוצמתי בהרבה) ייחשפו בזהירות או לא ייפתחו מיד לקוד פתוח כדי למנוע שימוש לרעה. חלק מהחוקרים עוסקים בניהול "סכנות מידע", שבו הם במכוון לא מפרסמים את כל הפרטים של יכולות מסוכנות (למשל, אם מישהו גילה איך לעקוף את כל מסנני האבטחה הידועים במודל שפה גדול בקנה מידה רחב, הוא עשוי לדווח על כך למפתחים בפרטי ולא בטוויטר). אבל ניהול סכנות מידע באופן שלא ייצור פשוט יותר סודיות הוא אתגר. אחת ההצעות היא הקמת גוף פיקוח בינלאומי על בינה מלאכותית כללית או סוכנות מעקב. לדוגמה, מדען הבינה המלאכותית המפורסם יושוע בנג'יו העלה את הרעיון של משהו בדומה לסוכנות הבינלאומית לאנרגיה אטומית (IAEA) – אבל עבור בינה מלאכותית – גוף בינלאומי שיכול לבצע ביקורת ומעקב על פרויקטים של בינה מלאכותית מתקדמת במיוחד מעבר לגבולות, כדי להבטיח שאף אחד לא לוקח סיכונים לא אחראיים. זה ידרוש שיתוף פעולה ואמון גדולים בין מדינות, מה שלא פשוט, אך כבר היו צעדים ראשונים: מדינות ה-G7 השיקו יוזמה בשם תהליך הירושימה לבינה מלאכותית כדי לדון בממשל בינה מלאכותית ברמה עולמית, ובריטניה אירחה פסגת בטיחות בינה מלאכותית עולמית בסוף 2023 במטרה להביא מדינות להסכמה לגבי סיכונים קיצוניים.
בצד התעשייה, אפילו כמה אנשי פנים תומכים בגישה איטית ופתוחה יותר. לדוגמה, דריו אמודאי (מנכ"ל Anthropic) מדגיש לעיתים קרובות זהירות ובדיקות מקיפות. Anthropic בנתה מוניטין של חברה ש"בטיחות בינה מלאכותית קודמת לכל". הם הציגו את המושג של "בינה מלאכותית חוקתית" – כלומר לגרום לבינה המלאכותית לפעול לפי עקרונות אתיים כתובים כדי ליישר אותה techcrunch.com. עבודה כזו, אם תשותף באופן פתוח, עשויה לסייע לכל התחום. ואכן, Anthropic פרסמה פרטים על השיטות שלה. ובכל זאת, מעניין לציין שהמודלים המתקדמים ביותר שלהם ותהליכי האימון המדויקים נשארים קנייניים. כך שיש מתיחות אפילו בתוך חברות "ממוקדות בטיחות" בין פתיחות ליתרון תחרותי.ומה לגבי הציבור הרחב והחברה האזרחית? אנחנו רואים מעורבות גוברת גם מהכיוונים האלה. עמותות ומכוני מחקר (כמו Center for AI Safety, הדירקטוריון ללא מטרות רווח של OpenAI, Partnership on AI וכו') מארגנים דיונים על איך לנהל את המעבר לבינה מלאכותית חזקה יותר. חלקם אף פרסמו תרחישים למה יקרה אם תפותח AGI מוקדמת – ותומכים בכך שאימון והפעלה שלה יפוקחו על ידי צוותים רב-תחומיים שכוללים אתיקאים ואולי גם משקיפים ממשלתיים.
רעיון קונקרטי אחד שצובר תאוצה הוא "red-teaming" של מודלים מתקדמים עם מומחים חיצוניים. הכוונה היא שלפני (או זמן קצר לאחר) השקת מודל חזק חדש, צוותים עצמאיים יקבלו גישה לבדוק אותו ביסודיות לאיתור פגמים, הטיות, חורי אבטחה וכו', והממצאים יפורסמו או לפחות יועברו לרגולטורים. OpenAI אכן עשתה מעט מזה עם GPT-4 – הם נתנו לאקדמאים ויועצים חיצוניים לבדוק אותו (וגילו חלק מהסיכונים ב-system card שלהם). עם זאת, מכיוון שקיומו של GPT-4 נשמר בסוד עד ההשקה, צוותי ה-red עבדו תחת הסכמי סודיות והתוצאות פורסמו באותו יום של המודל, מה שהגביל את הביקורת הציבורית מראש. להבא, ייתכן שיהיה נורמה שכל מודל מעל סף יכולת מסוים יעבור הערכות טרום-השקה על ידי בודקים חיצוניים. זה יחייב חברות לחשוף את המודל (תחת סודיות) לצד שלישי מהימן – צעד גדול עבור מעבדות חשאיות, אך אולי פשרה הכרחית.
הצו האתי שרבים משמיעים הוא שהבינה המלאכותית צריכה להועיל לכלל האנושות, לא רק למי שבונה אותה ראשון. זה מהדהד את האמנה הישנה של OpenAI (שדיברה על חלוקת תועלות ומניעת עליונות בינה מלאכותית בידי קבוצה אחת). כאשר OpenAI עברה למודל רווחי והפכה לפחות שקופה, היו שביקרו אותה על כך שנטשה את הגישה האלטרואיסטית הזו vice.com. כעת יש דחיפה להחזיק חברות באחריות לאינטרס הציבורי. לדוגמה, רשות התחרות והשווקים של בריטניה ב-2023 החלה לבדוק את שוק מודלי הבסיס של בינה מלאכותית, ובעצם אותתה: "אנחנו עוקבים כדי לוודא שמספר חברות לא ייצרו מונופול בטכנולוגיה הזו לרעת הצרכנים או התחרות." זו זווית כלכלית, אך היא משתלבת עם דאגות אתיות לגבי ריכוז כוח.
לבסוף, כדאי להזכיר שלא כולם מסכימים על רמת הסיכון. ישנם מומחים הסבורים שהחששות מ-AGI מוגזמים ושהסודיות אינה הבעיה העיקרית – במקום זאת, הם מודאגים מבעיות מיידיות יותר כמו הטיה של בינה מלאכותית, אובדן מקומות עבודה, או פרטיות. גם הם תומכים בשקיפות רבה יותר, אך לא בגלל שהם חוששים מסופר-אינטליגנציה מרדנית; אלא כדי להבטיח שמערכות קיימות יהיו הוגנות וניתנות לאחריות. כך או כך, שקיפות (או היעדרה) היא עניין מרכזי. בלעדיה, לא נוכל להתמודד כראוי עם אף אחת מהבעיות הללו, מהטיה ועד סיכון קיומי.
לסיכום, העולם מוצא את עצמו באיזון עדין. אנו כמהים לחדשנות שהבינה המלאכותית מבטיחה – תרופות למחלות, קפיצות בפרודוקטיביות, תגליות מדעיות חדשות. אך אותן חדשנויות עלולות להיות חרב פיפיות אם יפותחו ללא אמצעי הגנה. הסאגה האחרונה של הסערה הפנימית ב-OpenAI, כאשר עובדים לכאורה נבהלו מפריצת דרך והדירקטוריון התערב, מראה שגם הממציאים עצמם נוקטים זהירות כלפי מה שהם יוצרים reuters.com. החברה כולה מנסה להדביק את הפער כדי להבין ולהכווין את הטכנולוגיה הזו. שקיפות אינה מטרה בפני עצמה, אלא אמצעי לאפשר אחריות, שיתוף פעולה, וקבלת החלטות מושכלת. כפי שאמר בכיר באחת מחברות הבינה המלאכותית, הגישה של "לבנות קודם, לתקן אחר כך" לא הייתה מתקבלת בתעשיות אחרות עתירות סיכון theguardian.com – ואין לקבלה גם בתחום הבינה המלאכותית.
סביר להניח שבשנים הקרובות נראה עוד הדלפות וחשיפות כאשר עובדים יתמודדו עם דילמות אתיות, עוד שמועות על AGI כאשר מעבדות ידחפו את הגבולות, וכולי תקווה שגם עוד דיאלוג גלובלי בונה על איך להתמודד עם זה. בין אם AGI תגיע בעוד 5 שנים או 50, להבטיח שפיתוחה לא מתרחש בחשכה מוחלטת עשוי להיות קריטי כדי להפוך אותה לברכה, ולא לקללה, עבור האנושות.
מקורות:
- רויטרס – חוקרי OpenAI הזהירו את הדירקטוריון מפריצת דרך בבינה מלאכותית לפני הדחת המנכ"ל, כך לפי מקורות reuters.com
- רויטרס – אילון מאסק ואחרים קוראים להשהיית פיתוח בינה מלאכותית, citing 'סיכונים לחברה' reuters.com
- Vice – ה-GPT-4 של OpenAI הוא קוד סגור ומוקף בסודיות vice.com
- הגרדיאן – מהנדס בגוגל הושעה לאחר שטען כי צ'אטבוט הבינה המלאכותית הפך לתבוני theguardian.com
- הגרדיאן – 'הסנדק של הבינה המלאכותית' ג'פרי הינטון עוזב את גוגל ומזהיר מהסכנות… theguardian.com
- The Verge – מודל השפה החזק של Meta דלף לרשת — מה יקרה עכשיו? theverge.com
- רויטרס – עליבאבא משחררת מודל בינה מלאכותית שלטענתה עולה על DeepSeek reuters.com
- Matthew Griffin (בלומברג) – ה-CIA בונה גרסה משלה ל-ChatGPT fanaticalfuturist.com
- TechCrunch – התוכנית של Anthropic: 5 מיליארד דולר ו-4 שנים כדי להתחרות ב-OpenAI techcrunch.com
- MacRumors – Apple GPT: מה ידוע על עבודתה של אפל בתחום הבינה המלאכותית הגנרטיבית macrumors.com