רגולציה

12 כתבות בנושא זה

אנתרופיק תורמת 20 מיליון דולר לקידום מדיניות AI בארה"ב
12 בפברואר 2026

אנתרופיק תורמת 20 מיליון דולר לקידום מדיניות AI בארה"ב

ענקית ה-AI אנתרופיק (Anthropic) הודיעה על תרומה בסך 20 מיליון דולר ל-Public First Action, ארגון דו-מפלגתי חדש שיוקדש לקידום מדיניות ציבורית בנושאי בינה מלאכותית (AI) בארצות הברית. התרומה נועדה להבטיח פיתוח אחראי של AI, תוך התמודדות עם סיכוניה הרבים מול היתרונות העצומים, ולקדם רגולציה גמישה שתשמור על בטיחות, חדשנות והובלה אמריקאית בתחום. אנתרופיק מדגישה את הצורך הדחוף במסגרת מדיניות לאומית לנוכח קצב ההתקדמות המהיר של ה-AI והיעדר מנגנוני הגנה פדרליים.

קרא עוד
אנתרופיק תומכת בחוק בקליפורניה: רגולציה חדשה למודלי AI חזית
8 בספטמבר 2025

אנתרופיק תומכת בחוק בקליפורניה: רגולציה חדשה למודלי AI חזית

ענקית ה-AI אנתרופיק (Anthropic) הודיעה על תמיכתה בהצעת חוק SB 53 בקליפורניה, שמטרתה להסדיר את פעילותם של מפתחי מודלי AI חזית עוצמתיים. החוק, המהווה שיפור על פני ניסיונות רגולציה קודמים, מתמקד בדרישות שקיפות, פיתוח מנגנוני בטיחות ודיווח על סיכונים קטסטרופליים, במקום הטלת דרישות טכניות כופות. אנתרופיק מדגישה כי בעוד שהיא מעדיפה רגולציה פדרלית, החוק הקליפורני יוצר שטח משחק שווה ומבטיח שקיפות חיונית בתחום ה-AI, תוך מתן פטורים לחברות קטנות יותר.

קרא עוד
אנתרופיק מחזקת את המגבלות: מניעת גישה למדינות אויב, גם דרך חברות-בת
4 בספטמבר 2025

אנתרופיק מחזקת את המגבלות: מניעת גישה למדינות אויב, גם דרך חברות-בת

אנתרופיק (Anthropic), חברת בטיחות ומחקר ה-AI המובילה, הודיעה על עדכון משמעותי במגבלות השירות שלה. החברה, שמטרתה לפתח מערכות AI אמינות, בעלות יכולת פרשנות וניתנות לכיוון, מבקשת למנוע גישה של חברות הנמצאות בשליטת מדינות בעייתיות, כמו סין, לשירותיה. המהלך נועד להתמודד עם פרצות שאפשרו עד כה לחברות אלו לעקוף את המגבלות הקיימות באמצעות חברות-בת, ובכך להגן על האינטרסים הביטחוניים והדמוקרטיים.

קרא עוד
אנתרופיק תחתום על קוד ההתנהגות של האיחוד האירופי לבטיחות ושקיפות AI
21 ביולי 2025

אנתרופיק תחתום על קוד ההתנהגות של האיחוד האירופי לבטיחות ושקיפות AI

אנתרופיק (Anthropic), חברת מחקר ובטיחות AI מובילה, הודיעה כי בכוונתה לחתום על קוד ההתנהגות הכללי לבינה מלאכותית של האיחוד האירופי. הצעד משקף את מחויבותה של החברה לעקרונות <strong>השקיפות, הבטיחות והאחריותיות</strong> בפיתוח מודלי AI חזיתיים. אנתרופיק רואה בקוד כלי חשוב שיאפשר לאירופה למנף את טכנולוגיית ה-AI לחדשנות ותחרותיות, תוך שמירה על גמישות שתקדם פריסת AI רחבה ותסייע בפתרון אתגרים חברתיים וכלכליים.

קרא עוד
אנתרופיק דורשת שקיפות מוגברת בפיתוח מודלי AI חזיתיים
7 ביולי 2025

אנתרופיק דורשת שקיפות מוגברת בפיתוח מודלי AI חזיתיים

חברת אנתרופיק (Anthropic), מפתחת מודל ה-AI קלוד, מציעה מסגרת שקיפות ממוקדת לפיתוח מודלי AI חזיתיים. ההצעה מתמקדת בחיזוק תקני בטיחות ובקביעת מדדי אחריות למערכות בינה מלאכותית מתקדמות ביותר, במטרה להבטיח פיתוח אחראי ובטוח לטכנולוגיות בעלות עוצמה רבה. אנתרופיק קוראת לאמץ גישה גמישה שאינה פוגעת בחדשנות, אך מחייבת חשיפה של נהלי בטיחות ותיעוד מפורט למודלים הגדולים והמסוכנים ביותר. היא מדגישה כי שקיפות זו קריטית להגנה על הציבור ולאיסוף ראיות לקראת רגולציה עתידית, ומהווה צעד ראשון מעשי למימוש הפוטנציאל הטרנספורמטיבי של ה-AI.

קרא עוד
אנתרופיק חושפת את 'מרכז השקיפות' שלה: צעד קריטי לאבטחת AI אחראי
27 בפברואר 2025

אנתרופיק חושפת את 'מרכז השקיפות' שלה: צעד קריטי לאבטחת AI אחראי

חברת אנתרופיק (Anthropic), מובילה בתחום בטיחות ומחקר ה-AI, השיקה לאחרונה את 'מרכז השקיפות' (Transparency Hub) שלה. המרכז נועד לספק הצצה מעמיקה לאמצעים הקונקרטיים שהחברה מיישמת כדי להבטיח שמערכות הבינה המלאכותית שלה יהיו בטוחות, מועילות ואמינות. ביוזמה זו, אנתרופיק מפרטת את המתודולוגיות שלה להערכת מודלים, בדיקות בטיחות וצעדים למיתון סיכונים, במטרה לבנות אמון ואחריות בתעשייה המתפתחת במהירות. המרכז מציג דוח תקופתי ראשון הכולל נתונים על חשבונות חסומים, ערעורים ובקשות ממשלתיות, ומדגיש את מחויבות החברה לשקיפות מתמשכת מול משתמשים, קובעי מדיניות ובעלי עניין.

קרא עוד
רגולציה ממוקדת ל-AI: אנתרופיק קוראת לפעולה דחופה
31 באוקטובר 2024

רגולציה ממוקדת ל-AI: אנתרופיק קוראת לפעולה דחופה

אנתרופיק, מפתחת מודלי LLM מובילה, מזהירה כי עליית מודלי AI חזקים טומנת בחובה סיכונים משמעותיים לצד פוטנציאל אדיר לקידום המדע והכלכלה. החברה קוראת לממשלות לפעול בדחיפות לגיבוש מדיניות AI ממוקדת ב-18 החודשים הקרובים, שכן חלון ההזדמנויות למניעת סיכונים אקטיבית הולך ונסגר במהירות. רגולציה נבונה וממוקדת, בדומה למודל ה-Responsible Scaling Policy (RSP) של אנתרופיק, חיונית כדי למנף את יתרונות ה-AI תוך מזעור הסכנות.

קרא עוד
אנתרופיק: בדיקות צד שלישי – המפתח לבטיחות AI ומדיניות אחראית
25 במרץ 2024

אנתרופיק: בדיקות צד שלישי – המפתח לבטיחות AI ומדיניות אחראית

אנתרופיק (Anthropic), מפתחת מודלי שפה גדולים (LLM) כמו Claude, קוראת למדיניות אגרסיבית של בדיקות צד שלישי למערכות בינה מלאכותית (AI) מסוג מודלי חזית (frontier AI systems). לטענת החברה, מנגנון בדיקה אפקטיבי, בשיתוף פעולה בין תעשייה, ממשלה ואקדמיה, הוא הדרך הטובה ביותר למנוע נזקים חברתיים – מכוונים או מקריים – ממערכות AI מתקדמות. גישה זו, שחורגת ממנגנוני ביקורת עצמית של חברות בודדות, נועדה לבנות אמון ציבורי, להתמודד עם סיכוני שימוש לרעה וסיכוני ביטחון לאומי, וליצור תשתית רגולטורית יציבה לעתיד ה-AI. אנתרופיק עצמה תפעל ליצירת אבטיפוס למנגנוני בדיקה ותדרוש מימון ממשלתי לתשתיות מחקר ורגולציה בתחום.

קרא עוד
אנתרופיק חושפת: כך נבטיח AI בטוח בעזרת מדיניות סקיילינג אחראי
19 בספטמבר 2023

אנתרופיק חושפת: כך נבטיח AI בטוח בעזרת מדיניות סקיילינג אחראי

חברת אנתרופיק (Anthropic), מובילה בתחום בטיחות ה-AI, הציגה בוועידת בטיחות ה-AI את מדיניות הסקיילינג האחראי (RSP) שלה. המדיניות, שהוצגה על ידי דריו אמודאי (Dario Amodei), מנכ"ל החברה, נועדה להתמודד עם קצב ההתקדמות המהיר והבלתי צפוי של מודלי AI ויכולתם לרכוש יכולות מסוכנות, כגון בתחומי CBRN. ליבת המדיניות היא מערכת AI Safety Levels (ASL) המגדירה רמות סיכון ודרישות בטיחות קפדניות לפריסה ואימון מודלים חזקים יותר. אנתרופיק רואה במדיניות זו אבטיפוס לרגולציה עתידית, במטרה לעודד סטנדרטים גבוהים של בטיחות בתעשייה כולה.

קרא עוד
אנתרופיק קוראת לרגולציה: מפת דרכים לאחריות מודלי AI מתקדמים
20 באפריל 2023

אנתרופיק קוראת לרגולציה: מפת דרכים לאחריות מודלי AI מתקדמים

חברת המחקר והבטיחות בתחום ה-AI, אנתרופיק (Anthropic), הגישה לאחרונה מסמך המלצות מפורט לממשל האמריקאי, המתווה דרכים להבטחת אחריות ופיקוח על מערכות בינה מלאכותית מתקדמות. המסמך קורא להקמת תשתית ופרוטוקולים אחידים להערכה, ניהול סיכונים ופריסה בטוחה של מודלי AI, תוך שיתוף פעולה בין גורמי ממשל, חברות טכנולוגיה וחוקרים. המטרה היא לגשר על הפער הקיים כיום בהערכה מקיפה של מערכות AI, ולהבטיח שהשפעותיהן העתידיות יהיו חיוביות ובטוחות.

קרא עוד
אנתרופיק מברכת: צעדי רגולציה גלובליים חדשים לבטיחות AI
20 באפריל 2023

אנתרופיק מברכת: צעדי רגולציה גלובליים חדשים לבטיחות AI

חברת אנתרופיק (Anthropic), מובילה בתחום בטיחות ומחקר בינה מלאכותית, פירסמה לאחרונה את עמדתה בנוגע לשלושה אירועים מדיניים מכוננים שהתרחשו בשבוע האחרון: הצו הנשיאותי המקיף על AI בארה"ב, קוד ההתנהגות הבינלאומי של מדינות ה-G7, ופסגת בטיחות ה-AI בבלצ'לי פארק (Bletchley Park) בבריטניה. החברה, שמטרתה לפתח מערכות AI אמינות, ניתנות לפרשנות וניתנות לשליטה, מברכת על המאמצים הגלובליים הללו. היא רואה בהם אבן דרך חשובה לקביעת סטנדרטים ורגולציה שתבטיח את פיתוחה הבטוח והאחראי של בינה מלאכותית, ותקדם שיתוף פעולה בינלאומי בנושא.

קרא עוד
אנתרופיק: השקיעו ב-NIST כדי למדוד ולאבטח את ה-AI
15 בפברואר 2022

אנתרופיק: השקיעו ב-NIST כדי למדוד ולאבטח את ה-AI

חברת אנתרופיק (Anthropic), המובילה בתחום בטיחות ומחקר ה-AI, קוראת לממשל האמריקאי להשקיע משמעותית במכון התקנים הלאומי (NIST). לטענת החברה, יכולת מדויקת למדידה ולכימות של יכולות וסיכוני מערכות AI היא תנאי הכרחי לרגולציה אפקטיבית ובטיחות AI. אנתרופיק מציינת כי NIST, בעל ניסיון רב שנים בפיתוח תקני מדידה, סובל מתת-תקצוב בתחומי ה-AI, מה שמקשה עליו לפתח כלי מדידה ובדיקה חיוניים למודלי AI מתקדמים. הגדלת התקציב תאפשר ל-NIST לבנות תשתית קריטית שתסייע להבטיח מערכות AI בטוחות ואמינות יותר, תקדם אמון הציבור ותעודד חדשנות אחראית בתחום.

קרא עוד