מודלי ה-AI של אנתרופיק מגיעים לממשל האמריקאי
אנתרופיק (Anthropic), חברת ה-AI המובילה, הודיעה כי מודלי הבינה המלאכותית שלה Claude 3 Haiku ו-Claude 3 Sonnet זמינים כעת דרך AWS Marketplace עבור קהילת המודיעין האמריקאית (US Intelligence Community – IC) וב-AWS GovCloud. המהלך משקף את המשימה של אנתרופיק לבנות מערכות AI אמינות, שניתנות לפרשנות ושניתן לנהל ולשלוט בהן, ומרחיב את הנגישות לכלים הטכנולוגיים שלה, שכבר נמצאים בשימוש בתחומים כמו קידוד, שירות לקוחות, גילוי תרופות ומחקר רפואי.
ההיצע המורחב מאפשר לגופים ממשלתיים לרתום את יכולות Claude למגוון יישומים, בהווה ובעתיד. כיום, סוכנויות ממשלתיות יכולות להשתמש ב-Claude לשיפור שירותים אזרחיים, ייעול סקירת והכנת מסמכים, שיפור קבלת החלטות מבוססת נתונים, ויצירת תרחישי אימון מציאותיים. בעתיד הקרוב, AI עשוי לסייע בתיאום תגובה לאסונות, שיפור יוזמות בריאות ציבוריות, או אופטימיזציה של רשתות אנרגיה לקיימות. בשימוש אחראי, לבינה המלאכותית יש פוטנציאל לשנות את האופן שבו ממשלות משרתות את אזרחיהן ומקדמות שלום וביטחון.
התאמה לצרכים הייחודיים של הממשל
אנתרופיק שקלה בקפידה את הצרכים הייחודיים של נותני שירותים ציבוריים ושל משתמשים ממשלתיים. בנוסף להפיכת המודלים לזמינים בפלטפורמות AWS העומדות בתקני אבטחה ממשלתיים מחמירים, החברה מתאימה גם את הסכמי השירות שלה לצרכים, למשימות ולסמכויות החוקיות הייחודיות של הממשלות.
לדוגמה, אנתרופיק יצרה חריגים חוזיים ספציפיים ל-Usage Policy הכללי שלה, המאפשרים שימושים מועילים על ידי סוכנויות ממשלתיות נבחרות בקפידה. חריגים אלו מאפשרים להשתמש ב-Claude לניתוח מודיעין חוץ מורשה על פי חוק, כגון לחימה בסחר בבני אדם, זיהוי קמפייני השפעה סמויים או חבלה, ומתן התרעה מוקדמת לגבי פעילויות צבאיות פוטנציאליות, ובכך לפתוח חלון לדיפלומטיה למניעתן. כל שאר ההגבלות ב-Usage Policy הכללי של החברה, כולל אלה הנוגעות לקמפייני דיסאינפורמציה, תכנון או שימוש בנשק, צנזורה ופעולות סייבר זדוניות, נשארות בתוקף.
בשלב זה, מדיניות זו חלה רק על מודלים העומדים ב-AI Safety Level 2 (ASL-2) במסגרת ה-Responsible Scaling Policy (RSP) של אנתרופיק. החברה מתחייבת להעריך באופן קבוע את השותפויות שלה ואת השפעותיהן, במטרה להבטיח ש-AI ישרת את האינטרס הציבורי, תוך שמירה על הגישה האמפירית שלה להפחתת סיכונים פוטנציאליים. אנתרופיק ממשיכה לפעול בשיתוף פעולה הדוק עם ממשלות, כולל מתן גישה מוקדמת ל-Claude 3.5 Sonnet למוסדות כמו UK Artificial Intelligence Safety Institute (UK AISI) ו-US AI Safety Institute (US AISI) לצורך בדיקות טרום-פריסה, מתוך אמונה ששיתוף פעולה זה חיוני למעבר בטוח לעידן ה-AI הטרנספורמטיבי.



