מדוע שקיפות בפיתוח AI חזיתי היא הכרחית?

פיתוח מודלי AI חזיתיים דורש שקיפות מוגברת כדי להבטיח את בטיחות הציבור ואת אחריותן של החברות המפתחות טכנולוגיה עוצמתית זו. בעוד ש-AI מתקדמת בקצב מסחרר, וגורמים רבים – בהם התעשייה, ממשלות ואקדמיה – פועלים לגיבוש תקני בטיחות ושיטות הערכה מקיפות (תהליך שעשוי להימשך חודשים ואף שנים), יש צורך בצעדים ביניים כדי להבטיח שמודלי AI חזקים במיוחד יפותחו באופן בטוח, אחראי ושקוף.

לפיכך, אנו מציעים מסגרת שקיפות ממוקדת, הניתנת ליישום ברמה הפדרלית, המדינתית או הבינלאומית. מסגרת זו תחול אך ורק על מערכות ה-AI הגדולות והמפתחות המובילות, ותקבע דרישות גילוי ברורות בנוגע לפרקטיקות בטיחות.

גישתנו נמנעת בכוונה מקביעת כללים נוקשים מדי. אנו מכירים בכך שעם התפתחות המדע שמאחורי ה-AI, כל מאמץ רגולטורי חייב להישאר קל משקל וגמיש. הוא אסור שיבלום חדשנות ב-AI או יאט את יכולתנו לממש את יתרונותיה – לרבות גילוי תרופות מצילות חיים, אספקת שירותים ציבוריים מהירה ותפקודי ביטחון לאומי קריטיים. תקנים ממשלתיים נוקשים יהיו הרסניים במיוחד, בהתחשב בכך ששיטות הערכה מתיישנות בתוך חודשים בודדים, בשל קצב השינוי הטכנולוגי המהיר.

סטנדרטים מינימליים לשקיפות ב-AI

  • הגבלת היישום למפתחי המודלים הגדולים ביותר: דרישות השקיפות ב-AI צריכות לחול רק על מפתחי מודלי החזית הגדולים ביותר, אלו שבונים את המודלים בעלי היכולות הגבוהות ביותר – כאשר מודלי חזית מוגדרים על פי שילוב של ספי יכולת חישוב, עלות חישוב, ביצועי הערכה, הכנסות שנתיות והשקעה במו"פ. כדי לא להכביד על אקוסיסטם הסטארט-אפים והמפתחים הקטנים עם מודלים בעלי סיכון נמוך לביטחון הלאומי או לגרימת נזק קטסטרופלי, המסגרת צריכה לכלול פטורים מתאימים למפתחים קטנים יותר. אנו מקדמים בברכה משוב מקהילת הסטארט-אפים לגבי ספי הדרישה. פנימית, דנו בדוגמאות כמו סף הכנסות שנתיות בסדר גודל של 100 מיליון דולר; או הוצאות מו"פ או השקעות הון בסדר גודל של מיליארד דולר בשנה. ספי הגדרה אלו ישונו באופן תקופתי ככל שהטכנולוגיה והנוף התעשייתי יתפתחו.
  • יצירת מסגרת פיתוח מאובטחת (Secure Development Framework): יש לדרוש ממפתחי מודלי חזית עליהם חלות הדרישות, לקיים מסגרת פיתוח מאובטחת שתפרט כיצד הם יעריכו וימתנו סיכונים בלתי סבירים במודל. סיכונים אלו חייבים לכלול יצירת נזקים כימיים, ביולוגיים, רדיולוגיים וגרעיניים (CBRN), וכן נזקים הנגרמים מאוטונומיית מודל שאינה מיושרת (misaligned). מסגרות פיתוח מאובטחות הן עדיין כלי בטיחות מתפתח, ולכן כל הצעה צריכה לשאוף לגמישות.
  • חשיפת מסגרת הפיתוח המאובטחת לציבור: מסגרת הפיתוח המאובטחת צריכה להיחשף לציבור, בכפוף להגנות עריכה סבירות למידע רגיש, באתר ציבורי הרשום ומתוחזק על ידי חברת ה-AI. הדבר יאפשר לחוקרים, לממשלות ולציבור להישאר מעודכנים לגבי מודלי ה-AI הנפרסים כיום. החשיפה צריכה לכלול הצהרה עצמית כי המעבדה עומדת בתנאי מסגרת הפיתוח המאובטחת שפורסמה.
  • פרסום כרטיס מערכת (System Card): כרטיסי מערכת או תיעוד דומה צריכים לסכם את הליכי הבדיקה וההערכה, התוצאות וההפחתות הנדרשות (בכפוף לעריכה מתאימה של מידע שעלול לסכן את בטיחות הציבור או את בטיחות ואבטחת המודל). כרטיס המערכת צריך גם להיחשף לציבור בזמן הפריסה, ולהתעדכן אם המודל עבר שינויים מהותיים.
  • הגנה על חושפי שחיתויות באמצעות איסור הצהרות כוזבות: יש לקבוע במפורש כי שקר של מעבדה בנוגע לעמידתה במסגרת הפיתוח שלה מהווה עבירה על החוק. הבהרה זו יוצרת עבירה חוקית ברורה המאפשרת להחיל הגנות קיימות על חושפי שחיתויות ומבטיחה שמשאבי אכיפה יתמקדו במעבדות שהיו מעורבות בהתנהגות פסולה מכוונת.
  • תקני שקיפות: מסגרת שקיפות ישימה ל-AI צריכה לכלול סט מינימלי של תקנים, כך שתוכל לשפר את האבטחה והבטיחות הציבורית תוך התחשבות באופי המתפתח של פיתוח ה-AI. בהתחשב בכך שפרקטיקות הבטיחות והאבטחה ב-AI עדיין בחיתוליהן, ומפתחי חזית כמו אנתרופיק חוקרים באופן אקטיבי את שיטות העבודה המומלצות, כל מסגרת חייבת להיות מתוכננת לאבולוציה. התקנים צריכים להתחיל כדרישות גמישות וקלות משקל, שיוכלו להסתגל ככל שיתגבשו שיטות עבודה מומלצות מוסכמות בקרב התעשייה, הממשלה ובעלי עניין אחרים.

גישת שקיפות זו מאירה זרקור על שיטות העבודה המומלצות בתעשייה בתחום הבטיחות ויכולה לסייע בקביעת קו בסיס לאופן שבו מעבדות אחראיות מאמנות את המודלים שלהן. היא מבטיחה שמפתחים עומדים בסטנדרטים בסיסיים של אחריות ומאפשרת לציבור ולקובעי המדיניות להבחין בין פרקטיקות אחראיות לבלתי אחראיות. לדוגמה, מסגרת הפיתוח המאובטחת שאנו מתארים כאן דומה למדיניות ה-Responsible Scaling Policy של אנתרופיק עצמה ולמסגרות דומות של מעבדות מובילות נוספות (Google DeepMind, OpenAI, Microsoft), שכולן כבר יישמו גישות דומות בעת השקת מודלי חזית. הפיכת דרישת השקיפות של מסגרת פיתוח מאובטחת לחוק לא רק תאפשר סטנדרטיזציה של שיטות העבודה המומלצות בתעשייה מבלי לקבע אותן, אלא גם תבטיח שהגילויים (שהם כיום וולונטריים) לא יוכלו להימשך בעתיד, ככל שהמודלים יהפכו חזקים יותר.

קיימות דעות חלוקות לגבי האם ומתי מודלי AI עלולים להוות סיכונים קטסטרופליים. דרישות שקיפות עבור מסגרות פיתוח מאובטחות וכרטיסי מערכת יכולות לסייע לספק לקובעי המדיניות את הראיות הנדרשות כדי לקבוע אם רגולציה נוספת מוצדקת, וכן לספק לציבור מידע חשוב על טכנולוגיה חדשה ועוצמתית זו.

ככל שהמודלים מתקדמים, אנו עומדים בפני הזדמנות חסרת תקדים להאיץ תגליות מדעיות, שירותי בריאות וצמיחה כלכלית. אך ללא פיתוח בטוח ואחראי, כשל קטסטרופלי אחד עלול לעצור את ההתקדמות למשך עשורים. מסגרת השקיפות המוצעת שלנו מציעה צעד ראשון מעשי: חשיפה ציבורית של פרקטיקות הבטיחות, תוך שמירה על גמישות הסקטור הפרטי לממש את הפוטנציאל הטרנספורמטיבי של ה-AI.