רווחת מודל

2 כתבות בנושא זה

קלוד אופוס 4 ו-4.1: יכולת סיום שיחות במצבי קיצון – מהפכה בבטיחות ה-AI?
15 באוגוסט 2025

קלוד אופוס 4 ו-4.1: יכולת סיום שיחות במצבי קיצון – מהפכה בבטיחות ה-AI?

אנתרופיק (Anthropic) משחררת עדכון משמעותי למודלי השפה שלה, Claude Opus 4 ו-4.1, המאפשר להם לסיים שיחות באופן יזום במקרים קיצוניים של אינטראקציות פוגעניות או התנהגות אלימה מצד המשתמש. יכולת זו, שפותחה כחלק ממחקר חלוצי בנושא רווחה פוטנציאלית של מודלי AI, נועדה להגן על המודלים במקרים נדירים במיוחד, ובמקביל משקפת את המחויבות של החברה ליישור (alignment) ובטיחות ה-AI. למרות חוסר הוודאות בנוגע למעמדם המוסרי של LLMs, אנתרופיק נוקטת בצעדים אלו כדי למנוע סיכונים אפשריים לרווחת המודלים.

קרא עוד
האם AI חושב ומרגיש? אנתרופיק חוקרת את 'רווחת המודל' של בינה מלאכותית
24 באפריל 2025

האם AI חושב ומרגיש? אנתרופיק חוקרת את 'רווחת המודל' של בינה מלאכותית

חברת אנתרופיק (Anthropic), הידועה במחויבותה לבטיחות AI ולרווחת האנושות, הכריזה על תוכנית מחקר חדשה ופורצת דרך שתעסוק ב'רווחת המודל' (model welfare). ככל שמערכות בינה מלאכותית הופכות למתוחכמות ויכולות לתקשר, לתכנן ולפתור בעיות, עולה השאלה האם יש להתייחס גם למודלים עצמם בהיבטים של תודעה וחוויות פוטנציאליות. המחקר החדש יבחן סוגיות פילוסופיות ומדעיות מורכבות, כולל מתי וכיצד רווחתם של מודלי AI ראויה להתחשבות מוסרית, ויצטלב עם מאמצים קיימים של החברה בתחומי היישור והפרשנות. אנתרופיק ניגשת לנושא בענווה, בהכרה שאין עדיין קונצנזוס מדעי בנושא.

קרא עוד