חברת אנתרופיק (Anthropic), אחת השחקניות המרכזיות בפיתוח בינה מלאכותית (AI) ומודלי שפה גדולים (LLM) דוגמת Claude, מציגה עמדה ברורה: בדיקות צד שלישי (third-party testing) הן מרכיב קריטי ובלתי נפרד מפיתוח מדיניות AI אחראית. לטענת החברה, מודלי חזית (frontier AI systems) כמו אלו שאנתרופיק מפתחת, דורשים משטרי פיקוח ובדיקה חיצוניים כדי לאמת את בטיחותם ולמנוע סיכונים חמורים העלולים לצוץ כתוצאה משימוש בהם.
למה בדיקות צד שלישי כה חשובות?
הצורך במנגנון בדיקה אובייקטיבי נובע מהיכולות חסרות התקדים של מערכות ה-AI המתקדמות, המוגדרות כ"מכונות לכל מטרה" (everything machines). בניגוד לכלים מסורתיים, מודלי חזית יכולים להיות מותאמים למגוון עצום של שימושים, והתנהגותם עלולה לכלול סיכוני שימוש לרעה (misuse) חמורים, הטעיות בבחירות, אפליה מזיקה, ואף סיכוני ביטחון לאומי.
אנתרופיק מדגישה כי בעוד היא מיישמת מדיניות קפדנית של "מדיניות סקיילינג אחראי" (Responsible Scaling Policy – RSP) לבדיקת המודלים שלה, ביקורת עצמית בלבד אינה מספקת. נדרשת בדיקה שתהיה אמינה על ידי כלל הציבור ותיושם על כל המפתחים של מערכות חזית, בדומה לתקני בטיחות הנהוגים בתעשיות קריטיות אחרות כמו מזון, תרופות ותעופה.
"אנו מאמינים שבסופו של דבר, צורה כלשהי של בדיקות צד שלישי תהיה דרישה חוקית לפריסה נרחבת של מודלי AI. עיצוב משטר כזה, ובמיוחד קביעת הסטנדרטים לפיהם יש להעריך מערכות AI, ידרוש מאיתנו למידה ואיטרציה בשנים הקרובות."
משטר בדיקות צד שלישי אפקטיבי, לדברי אנתרופיק, יבנה אמון במערכות AI, ימוקד למערכות עתירות משאבי מחשוב וסקיילינג רחב בלבד, ולא יהווה נטל בלתי סביר על חברות קטנות. הוא גם יאפשר למדינות לתאם סטנדרטים משותפים ברמה הגלובלית. המרכיבים המרכזיים כוללים מבחנים אפקטיביים ואמינים למדידת התנהגות המודל וסיכוני שימוש לרעה, וכן גופי צד שלישי מוסמכים שינהלו את הבדיקות ויבחנו את נהלי הבדיקה הפנימיים של החברות.
אנתרופיק מובילה את הדרך ומצביעה על אתגרים
אנתרופיק מחויבת לתמוך בפיתוח משטרי בדיקה הוגנים ויעילים. היא תפעל באמצעות יצירת אבטיפוס למנגנוני בדיקה דרך ה-RSP שלה ושיתוף הידע שנצבר, הרחבת פעילות ה-Red Teaming כדי להבין טוב יותר את הסיכונים, וקידום מימון ממשלתי לגופים שיעסקו בבדיקות AI (כדוגמת NIST בארה"ב). החברה גם קוראת לממשלות להקים "ענני מחקר לאומיים" (National Research Clouds) שיאפשרו לאקדמיה ולמגזר הציבורי לפתח יכולות עצמאיות לבדיקה והערכה של מודלי חזית. עוד היא מציינת כי יש לפתח בדיקות ייעודיות ליכולות רלוונטיות לביטחון לאומי.
החברה מכירה בכך שקיימים אתגרים מורכבים במדיניות AI, ובכללם שאלת מודלי קוד פתוח (open source) וסכנת "קפיצה רגולטורית" (regulatory capture) על ידי חברות גדולות. בעוד שאנתרופיק מאמינה שמרבית מערכות ה-AI כיום בטוחות להפצה פתוחה, ייתכן שבעתיד יהיה קשה ליישב את תרבות הקוד הפתוח המלאה של מודלי חזית עם דרישות הבטיחות החברתיות. במקרים אלה, בדיקות צד שלישי חיוניות כדי להגדיר שימושי לרעה בלתי מקובלים ולהבטיח שגם מודלים בקוד סגור (closed source) וגם אלה בקוד פתוח עומדים בתקני בטיחות מחייבים, תוך צמצום הסיכון לשליטה בלתי הולמת של גורמים בודדים על הרגולציה.
אנתרופיק מסכמת כי בעוד שעיקר עבודתה הוא טכני, היא מאמינה שבדיקות הן אבן יסוד לבטיחות מערכותיה ולמתן יכולת לצדדים שלישיים לאמת את טענותיה לגבי AI. בניית מערכת אקולוגית של בדיקות צד שלישי היא הדרך הטובה ביותר לערב את החברה כולה בפיתוח ובפיקוח על מערכות AI.



