חברת אנתרופיק (Anthropic) פרסמה עדכון למדיניות השימוש במוצריה, שיכנס לתוקף ב-15 בספטמבר 2025. העדכונים משקפים את היכולות המתפתחות של המודלים ואת הרחבת השימושים בהם, ונועדו לספק בהירות רבה יותר למשתמשים, בהתאם למשוב שהתקבל, שינויים במוצרים, התפתחויות רגולטוריות וסדרי עדיפויות באכיפה. מדיניות השימוש משמשת כמסגרת להגדרת השימושים המותרים והאסורים ב-Claude.
מתמודדים עם סייבר, סוכנים ורגולציה פוליטית
במהלך השנה האחרונה, אנתרופיק הבחינה בהתקדמות מהירה ביכולות סוכני. המודלים של החברה, כולל Claude Code, מפעילים כיום רבים מהסוכנים המובילים בעולם בתחום הקידוד. עם זאת, יכולות עוצמתיות אלו מציגות גם סיכונים חדשים, ביניהם פוטנציאל לשימוש לרעה בהיקף נרחב, יצירת תוכנות זדוניות ומתקפות סייבר. כדי להתמודד עם סיכונים אלו, נוסף סעיף למדיניות השימוש האוסר במפורש על פעילויות זדוניות של פגיעה במחשבים, ברשתות ובתשתיות. יחד עם זאת, החברה ממשיכה לתמוך בשימושים המחזקים את אבטחת הסייבר, כמו גילוי פגיעויות בהסכמת בעל המערכת, כפי שפורסם גם בדו"ח איומי הסייבר הראשון שלה, "Detecting and Countering Malicious Uses of Claude: March 2025".
בנוסף, אנתרופיק עדכנה את הגישה שלה לתוכן פוליטי. בעבר, מדיניות השימוש כללה איסורים גורפים על כל סוגי התוכן הפוליטי. כעת, המגבלות מותאמות באופן ספציפי לאסור שימושים מטעים או משבשים של תהליכים דמוקרטיים, או כאלה הכרוכים במיקוד בוחרים ובקמפיינים. גישה זו מאפשרת שיח ומחקר פוליטי לגיטימי, תוך איסור על פעילות מטעה או פולשנית.
שינויים נוספים כוללים הבהרות לגבי שימוש במוצרי החברה על ידי גורמי אכיפת החוק. השפה עודכנה להיות ברורה וישירה יותר, אך אין שינוי במה שמותר או אסור: אנתרופיק ממשיכה להגביל את אותם תחומי דאגה, כגון מעקב, פרופיילינג וניטור ביומטרי. בנוסף, חברת ה-AI הבהירה כי דרישותיה עבור שימושים צרכניים בסיכון גבוה (בתחומי משפט, פיננסים ותעסוקה) חלות במקרים בהם הפלטים של המודלים מיועדים ישירות לצרכנים, ולא לאינטראקציות עסקיות (B2B).
אנתרופיק רואה במדיניות השימוש מסמך חי, המתפתח יחד עם סיכוני ה-AI. החברה מתחייבת להמשיך לעבוד עם קובעי מדיניות חיצוניים, מומחי תוכן וארגוני חברה אזרחית כדי להעריך ולעדכן את מדיניותה באופן שוטף.



