
25 בפברואר 2025
אנתרופיק חושפת שיטה חדשנית לחיזוי התנהגויות AI נדירות ומסוכנות
חברת אנתרופיק (Anthropic) פרסמה מחקר חדש שמציג שיטה לחיזוי התנהגויות AI נדירות ולא רצויות במודלי שפה גדולים (LLM). הבעיה העיקרית במדדי ביצועים (benchmarks) קיימים היא חוסר היכולת לזהות סיכונים נדירים מאוד בסקאלה של מיליארדי שאילתות בעולם האמיתי. המחקר מראה כיצד ניתן להשתמש בחוקי חזקה (power laws) כדי להרחיב את החיזוי מכמה אלפי שאילתות למיליוני שאילתות, ובכך לאפשר זיהוי מוקדם של סיכונים קטסטרופליים לפני פריסה. השיטה הוכיחה את יעילותה בחיזוי מידע מסוכן, פעולות סוכניות (agentic) לא מיושרות וייעול Red Teaming, והיא מהווה צעד משמעותי לקראת בטיחות AI משופרת.
קרא עוד