אנתרופיק מחזקת את מדיניות חסימת הגישה לאזורים לא נתמכים

תנאי השירות של אנתרופיק אוסרים זה מכבר את השימוש בשירותיה באזורים מסוימים, וזאת בשל סיכונים משפטיים, רגולטוריים וביטחוניים. עם זאת, החברה זיהתה כי גורמים מאזורים אלה – ובכללם מדינות יריבות כדוגמת סין – ממשיכים לגשת לשירותיה באמצעות עקיפת המגבלות, למשל דרך חברות-בת הרשומות במדינות אחרות.

חברות הנתונות לשליטת משטרים אוטוריטריים, כמו סין, כפופות לדרישות חוקיות המחייבות אותן לשתף נתונים או לשתף פעולה עם שירותי מודיעין, מה שיוצר סיכונים לביטחון הלאומי. כאשר גופים אלה ניגשים לשירותינו דרך חברות-בת, הם עלולים לנצל את יכולות ה-AI שלנו לפיתוח יישומים המשרתים אינטרסים צבאיים ומודיעיניים עוינים, או מטרות אוטוריטריות רחבות. כמו כן, קיים חשש שישתמשו במודלים שלנו לקידום פיתוח ה-AI שלהם באמצעות טכניקות כמו distillation, ולהתחרות בחברות טכנולוגיה מהימנות מארה"ב וממדינות בנות ברית.

כדי להתמודד עם מציאות זו וליישם טוב יותר את מחויבותנו להבטיח שיכולות AI טרנספורמטיביות יקדמו אינטרסים דמוקרטיים, אנו מחזקים את המגבלות האזוריות שלנו. עדכון זה אוסר על חברות או ארגונים שמבנה הבעלות שלהם כפוף לשליטה מתחום שיפוט שבו המוצרים שלנו אינם מותרים, כמו סין, ללא קשר למקום פעילותם. ההגבלה כוללת גופים שבבעלותם של חברות הממוקמות באזורים לא נתמכים בשיעור העולה על 50%, בין אם באופן ישיר ובין אם בעקיפין. שינוי זה מבטיח שתנאי השירות שלנו ישקפו את הסיכונים האמיתיים ויתיישרו עם רוח המדיניות שלנו.

בהתאם לחשש זה, אנו ממשיכים לתמוך במדיניות הכוללת בקרות יצוא חזקות כדי למנוע ממדינות סמכותניות לפתח יכולות AI חזיתיות שעלולות לאיים על הביטחון הלאומי. אנו גם פועלים להאצת פרויקטי אנרגיה בארה"ב לבניית תשתית רחבת היקף לסקיילינג של AI, ומעריכים בקפדנות מודלי AI עבור יכולות הרלוונטיות לביטחון הלאומי, לרבות כאלו שעלולות להיות מנוצלות על ידי יריבי ארה"ב.

הבטיחות והביטחון בפיתוח AI דורשים מחויבות קולקטיבית למניעת ניצול לרעה על ידי יריבים אוטוריטריים. חברות AI אחראיות יכולות וצריכות לנקוט בפעולה נחרצת כדי להבטיח שטכנולוגיות טרנספורמטיביות ישרתו את האינטרסים האסטרטגיים של ארה"ב ובנות בריתה, ויתמכו בערכים הדמוקרטיים שלנו.