
25 במרץ 2024
אנתרופיק: בדיקות צד שלישי – המפתח לבטיחות AI ומדיניות אחראית
אנתרופיק (Anthropic), מפתחת מודלי שפה גדולים (LLM) כמו Claude, קוראת למדיניות אגרסיבית של בדיקות צד שלישי למערכות בינה מלאכותית (AI) מסוג מודלי חזית (frontier AI systems). לטענת החברה, מנגנון בדיקה אפקטיבי, בשיתוף פעולה בין תעשייה, ממשלה ואקדמיה, הוא הדרך הטובה ביותר למנוע נזקים חברתיים – מכוונים או מקריים – ממערכות AI מתקדמות. גישה זו, שחורגת ממנגנוני ביקורת עצמית של חברות בודדות, נועדה לבנות אמון ציבורי, להתמודד עם סיכוני שימוש לרעה וסיכוני ביטחון לאומי, וליצור תשתית רגולטורית יציבה לעתיד ה-AI. אנתרופיק עצמה תפעל ליצירת אבטיפוס למנגנוני בדיקה ותדרוש מימון ממשלתי לתשתיות מחקר ורגולציה בתחום.
קרא עוד