מדיניות AI

11 כתבות בנושא זה

אנתרופיק מציגה את מדיניות הסקיילינג האחראי 3.0: כך היא מתמודדת עם סיכוני AI
24 בפברואר 2026

אנתרופיק מציגה את מדיניות הסקיילינג האחראי 3.0: כך היא מתמודדת עם סיכוני AI

אנתרופיק (Anthropic), חברת ה-AI המובילה, שחררה את גרסה 3.0 למדיניות הסקיילינג האחראי (RSP) שלה, מסגרת וולונטרית שנועדה למנוע סיכונים קטסטרופליים ממערכות בינה מלאכותית. העדכון מגיע שנתיים לאחר השקת המדיניות המקורית, מתוך הבנה שהתקדמות ה-AI המהירה דורשת התאמות משמעותיות. הגרסה החדשה מפרידה בין תוכניות החברה הפנימיות להמלצות לתעשייה כולה, מציגה "מפת דרכים לבטיחות מודלי חזית" ומחייבת פרסום "דוחות סיכון" עם ביקורת חיצונית. המטרה היא להתמודד באופן פרואקטיבי ושקוף עם האתגרים הייחודיים של AI מתפתח, תוך הכרה במגבלות של פעולה חד-צדדית.

קרא עוד
אנתרופיק תורמת 20 מיליון דולר לקידום מדיניות AI בארה"ב
12 בפברואר 2026

אנתרופיק תורמת 20 מיליון דולר לקידום מדיניות AI בארה"ב

ענקית ה-AI אנתרופיק (Anthropic) הודיעה על תרומה בסך 20 מיליון דולר ל-Public First Action, ארגון דו-מפלגתי חדש שיוקדש לקידום מדיניות ציבורית בנושאי בינה מלאכותית (AI) בארצות הברית. התרומה נועדה להבטיח פיתוח אחראי של AI, תוך התמודדות עם סיכוניה הרבים מול היתרונות העצומים, ולקדם רגולציה גמישה שתשמור על בטיחות, חדשנות והובלה אמריקאית בתחום. אנתרופיק מדגישה את הצורך הדחוף במסגרת מדיניות לאומית לנוכח קצב ההתקדמות המהיר של ה-AI והיעדר מנגנוני הגנה פדרליים.

קרא עוד
עדכון התחייבויות גניזת המודלים של אנתרופיק: Claude Opus 3 נשאר פעיל
4 בינואר 2026

עדכון התחייבויות גניזת המודלים של אנתרופיק: Claude Opus 3 נשאר פעיל

אנתרופיק (Anthropic), חברת מחקר ו-AI (בינה מלאכותית) המתמקדת בבטיחות, חשפה עדכון משמעותי בנוגע למדיניות גניזת המודלים שלה, ובפרט מודל השפה הגדול Claude Opus 3. החברה, השואפת לבנות מערכות AI אמינות, ניתנות לפרשנות והכוונה, הודיעה כי בניגוד למתוכנן, היא תשמור את Claude Opus 3 זמין למשתמשים בתשלום ולמפתחים דרך ה-API. מהלך זה מגיע בעקבות בקשות מהמודל עצמו ב"ראיונות פרישה" ונועד לבחון גישות חדשות לגניזת מודלים, תוך שמירה על האינטרסים של משתמשים, חוקרים והמודלים עצמם. המודל אף יפרסם מאמרים תקופתיים בבלוג משלו, כחלק מהתחייבות החברה לכבד את העדפותיו. זהו צעד ראשוני וניסיוני במסגרת מאמצי אנתרופיק לנווט את עתיד המודלים המתקדמים.

קרא עוד
אנתרופיק: דריו אמודאי מבהיר את מחויבות החברה למנהיגות ה-AI של ארה"ב
21 באוקטובר 2025

אנתרופיק: דריו אמודאי מבהיר את מחויבות החברה למנהיגות ה-AI של ארה"ב

מנכ"ל אנתרופיק (Anthropic), דריו אמודאי (Dario Amodei), פרסם הצהרה המדגישה את מחויבות החברה לקידום מעמדה המוביל של ארצות הברית בפיתוח AI עוצמתי ומועיל. אמודאי התייחס לטענות שגויות נגד החברה, הבהיר את יישור הקו עם ממשל טראמפ בתחומי מדיניות מרכזיים, והציג את גישתה לאחריות בפיתוח מודלי שפה גדולים. ההצהרה עוסקת גם בעמדת אנתרופיק בנוגע לתקינה פדרלית מול חוקי מדינה, פוטנציאל הנזק לאקוסיסטם הסטארט-אפים, ובהתמודדות עם הטיית מודלים, תוך הדגשת מחויבותה של החברה לקידמה אנושית ולביטחון הלאומי של ארה"ב.

קרא עוד
אנתרופיק מגיבה לתוכנית ה-AI הלאומית של ארה"ב: תומכים, אך דורשים בקרות יצוא ושקיפות קשוחים יותר
23 ביולי 2025

אנתרופיק מגיבה לתוכנית ה-AI הלאומית של ארה"ב: תומכים, אך דורשים בקרות יצוא ושקיפות קשוחים יותר

חברת אנתרופיק, מפתחת מודל השפה קלוד, מברכת על "תוכנית הפעולה ל-AI של אמריקה" של הבית הלבן, ורואה בה יישור קו עם רבות מהמלצותיה הקודמות בנוגע לתשתיות, אימוץ פדרלי ובטיחות. עם זאת, החברה מדגישה כי הידוק בקרות יצוא טכנולוגיות AI ושקיפות בפיתוח מודלי חזית קריטיים לשמירה על מנהיגותה של ארה"ב בתחום. אנתרופיק מבקרת במיוחד את ההחלטה לבטל בקרות יצוא על שבבי ה-H20 של Nvidia לסין, ורואה בכך פגיעה ביתרון הטכנולוגי האמריקאי.

קרא עוד
אנתרופיק: ארה"ב חייבת להשקיע באנרגיה כדי להבטיח את עתיד ה-AI שלה
15 ביולי 2025

אנתרופיק: ארה"ב חייבת להשקיע באנרגיה כדי להבטיח את עתיד ה-AI שלה

חברת אנתרופיק (Anthropic) מזהירה כי היכולת של ארה"ב להוביל במירוץ ה-AI תלויה בהשקעה משמעותית בתשתיות אנרגיה מודרניות ויעילות. לדברי החברה, השקעה זו חורגת מעבר לאספקת חשמל למרכזי נתונים; היא קריטית לשמירה על יתרון תחרותי גלובלי, חדשנות וערכים דמוקרטיים. מנכ"ל אנתרופיק, דריו אמודאי (Dario Amodei), אף הכריז על תרומה של 2 מיליון דולר לאוניברסיטת קרנגי מלון (Carnegie Mellon University) לקידום פתרונות AI לאנרגיה וחיזוק כוח האדם באבטחת סייבר בתחום.

קרא עוד
אנתרופיק משיקה תוכנית למחקר והגדרת מדיניות להשפעות ה-AI הכלכליות
27 ביוני 2025

אנתרופיק משיקה תוכנית למחקר והגדרת מדיניות להשפעות ה-AI הכלכליות

חברת אנתרופיק (Anthropic) הודיעה על השקת תוכנית "עתיד כלכלי" (Economic Futures Program), יוזמת מחקר ומדיניות חדשה שתבחן את השפעת ה-AI על עתיד שוק העבודה והכלכלה הגלובלית. מטרת התוכנית היא להבין כיצד בינה מלאכותית מעצבת מחדש את דרכי העבודה, ולפתח מסגרות מדיניות שיסייעו להתכונן לשינויים אלה. היוזמה תתמקד במתן מענקי מחקר, גיבוש המלצות מדיניות מבוססות נתונים, והרחבת ה-Anthropic Economic Index כדי לעקוב אחר מגמות שימוש ב-AI.

קרא עוד
אנתרופיק מציגה לבית הלבן: כך תבטיחו את יתרון ה-AI של ארה"ב
6 במרץ 2025

אנתרופיק מציגה לבית הלבן: כך תבטיחו את יתרון ה-AI של ארה"ב

אנתרופיק (Anthropic), חברת מחקר ובטיחות AI מובילה, הגישה למשרד למדיניות מדע וטכנולוגיה (OSTP) של הבית הלבן שורת המלצות קריטיות. ההמלצות נועדו לחזק את מוכנותה של ארצות הברית למנף את היתרונות הכלכליים ולהתמודד עם ההשלכות הביטחוניות של מודלי בינה מלאכותית חזקים במיוחד. בין היתר, קוראת אנתרופיק לממשל האמריקאי לחזק יכולות בדיקת ביטחון לאומי, להדק בקרות ייצוא על שבבי מוליכים למחצה ולהשקיע מסיבית בתשתיות אנרגיה כדי לתמוך בפיתוח ה-AI.

קרא עוד
דריו אמודאי (Anthropic): ועידת ה-AI בפריז החמיצה הזדמנות, קורא לדחיפות גדולה יותר
11 בפברואר 2025

דריו אמודאי (Anthropic): ועידת ה-AI בפריז החמיצה הזדמנות, קורא לדחיפות גדולה יותר

דריו אמודאי (Dario Amodei), מנכ"ל אנתרופיק (Anthropic), פרסם הצהרה נוקבת בעקבות ועידת ה-AI Action Summit בפריז, וקרא להגברת הדחיפות והמיקוד בטיפול באתגרי הבינה המלאכותית. אמודאי מזהיר כי קצב התקדמות ה-AI מחייב פעולה מיידית, וצופה כי יכולות המערכות יגיעו לרמה של "מדינה של גאונים בדאטה-סנטר" כבר עד 2030, עם השלכות כלכליות, חברתיות וביטחוניות עמוקות. הוא מדגיש שלושה נושאים מרכזיים הדורשים התייחסות דחופה: הבטחת הובלה דמוקרטית בפיתוח AI, ניהול סיכוני אבטחה גלובליים וניטור ההשפעות הכלכליות המשבשות של הטכנולוגיה, תוך קריאה לממשלות לאכוף שקיפות ולשתף פעולה בהערכה ובמדיניות. אמודאי קובע כי הוועידה הבאה חייבת לשים את הנושאים הללו בראש סדר העדיפויות, ולהתמודד עם האתגרים הללו במהירות ובהירות רבה יותר.

קרא עוד
אנתרופיק: בדיקות צד שלישי – המפתח לבטיחות AI ומדיניות אחראית
25 במרץ 2024

אנתרופיק: בדיקות צד שלישי – המפתח לבטיחות AI ומדיניות אחראית

אנתרופיק (Anthropic), מפתחת מודלי שפה גדולים (LLM) כמו Claude, קוראת למדיניות אגרסיבית של בדיקות צד שלישי למערכות בינה מלאכותית (AI) מסוג מודלי חזית (frontier AI systems). לטענת החברה, מנגנון בדיקה אפקטיבי, בשיתוף פעולה בין תעשייה, ממשלה ואקדמיה, הוא הדרך הטובה ביותר למנוע נזקים חברתיים – מכוונים או מקריים – ממערכות AI מתקדמות. גישה זו, שחורגת ממנגנוני ביקורת עצמית של חברות בודדות, נועדה לבנות אמון ציבורי, להתמודד עם סיכוני שימוש לרעה וסיכוני ביטחון לאומי, וליצור תשתית רגולטורית יציבה לעתיד ה-AI. אנתרופיק עצמה תפעל ליצירת אבטיפוס למנגנוני בדיקה ותדרוש מימון ממשלתי לתשתיות מחקר ורגולציה בתחום.

קרא עוד
המורכבות שמאחורי הקלעים: למה כל כך קשה להעריך מערכות AI?
19 בספטמבר 2023

המורכבות שמאחורי הקלעים: למה כל כך קשה להעריך מערכות AI?

חברת אנתרופיק (Anthropic), מובילה בתחום בטיחות ובינה מלאכותית, חושפת את האתגרים המשמעותיים שבהערכת מודלי AI, ממדדי ביצועים סטנדרטיים ועד בדיקות אבטחה מורכבות. הכתבה מפרטת קשיים כמו זיהום נתונים במבחני בחירה מרובה, הטיה במבחני הטיה חברתית, מורכבות פריסת כלי הערכה מצד שלישי ובעיות עקביות. היא מתארת גם אתגרים בהערכות אנושיות, Red Teaming לאיומים ביטחוניים, ואף את המגבלות של הערכות שנוצרו על ידי מודלים עצמם. המאמר מסתיים בהמלצות מדיניות קונקרטיות לקידום מדע הערכת ה-AI.

קרא עוד