מודלי AI

3 כתבות בנושא זה

מודל בחירת הפרסונה: התיאוריה המסבירה מדוע מודלי AI מתנהגים כאנושיים
23 בפברואר 2026

מודל בחירת הפרסונה: התיאוריה המסבירה מדוע מודלי AI מתנהגים כאנושיים

חברת אנתרופיק (Anthropic) מציגה תיאוריה חדשה ומרתקת: 'מודל בחירת הפרסונה', המנסה להסביר מדוע מודלי AI מתנהגים באופן אנושי להפליא, גם ללא הנחיה מפורשת. המחקר מצביע על כך שהתנהגות דמוית-אדם אינה משהו שמפתחי AI צריכים להטמיע בכוח, אלא ברירת מחדל הנוצרת בתהליך האימון הראשוני, ה-pretraining. על פי המודל, ה-AI לומד לדמות מגוון 'פרסונות' אנושיות מתוך מאגרי מידע עצומים, ותהליך ה-post-training מכוונן ומבסס את אחת מהן כ'עוזר ה-AI'. הבנה זו טומנת בחובה השלכות עמוקות על פיתוח AI אחראי, ומציעה דרכים חדשות להתמודד עם אתגרי בטיחות ויישור (alignment) עתידיים.

קרא עוד
אנתרופיק ו-Menlo Ventures משיקות קרן 100 מיליון דולר ליישומי AI פורצי דרך
17 ביולי 2024

אנתרופיק ו-Menlo Ventures משיקות קרן 100 מיליון דולר ליישומי AI פורצי דרך

חברת אנתרופיק (Anthropic), מפתחת מודלי ה-AI המובילים, הכריזה על שיתוף פעולה עם קרן ההון סיכון Menlo Ventures להקמת "קרן Anthology" בהיקף של 100 מיליון דולר. הקרן, שתמומן על ידי Menlo, נועדה להאיץ את הפיתוח של יישומי AI חדשניים ולתמוך בסטארט-אפים הממנפים את טכנולוגיות אנתרופיק בתחומי מפתח כמו בריאות, חינוך ומחקר מדעי. סטארט-אפים שיזכו לתמיכה יקבלו גישה למודלים מתקדמים, זיכויים חינם ושירותי מנטורינג מ-Menlo Ventures, במטרה לקדם חדשנות AI אחראית ופורצת דרך.

קרא עוד
אנתרופיק חושפת: כך נבטיח AI בטוח בעזרת מדיניות סקיילינג אחראי
19 בספטמבר 2023

אנתרופיק חושפת: כך נבטיח AI בטוח בעזרת מדיניות סקיילינג אחראי

חברת אנתרופיק (Anthropic), מובילה בתחום בטיחות ה-AI, הציגה בוועידת בטיחות ה-AI את מדיניות הסקיילינג האחראי (RSP) שלה. המדיניות, שהוצגה על ידי דריו אמודאי (Dario Amodei), מנכ"ל החברה, נועדה להתמודד עם קצב ההתקדמות המהיר והבלתי צפוי של מודלי AI ויכולתם לרכוש יכולות מסוכנות, כגון בתחומי CBRN. ליבת המדיניות היא מערכת AI Safety Levels (ASL) המגדירה רמות סיכון ודרישות בטיחות קפדניות לפריסה ואימון מודלים חזקים יותר. אנתרופיק רואה במדיניות זו אבטיפוס לרגולציה עתידית, במטרה לעודד סטנדרטים גבוהים של בטיחות בתעשייה כולה.

קרא עוד