אנתרופיק (Anthropic) הוקמה על עיקרון פשוט: AI צריך להיות כוח לקידמה אנושית, לא לסכנה. זוהי התפיסה המובילה את החברה לפיתוח מוצרים שימושיים באמת, תוך דיון כן בסיכונים וביתרונות של הטכנולוגיה. דריו אמודאי (Dario Amodei), מנכ"ל אנתרופיק, מבהיר בהצהרה רשמית את עמדת החברה בנוגע למנהיגות ה-AI של ארה"ב, ומציין כי הוא תומך בהשקפתו של סגן הנשיא ג'יי.די ואנס (JD Vance) למקסם את היישומים המועילים של AI, כמו פריצות דרך ברפואה, תוך צמצום הנזקים הפוטנציאליים. אנתרופיק היא חברת התוכנה הצומחת ביותר בהיסטוריה, כשהכנסותיה זינקו ממיליארד ל-7 מיליארד דולר בתשעת החודשים האחרונים, והיא עושה זאת תוך פריסת AI באופן מתחשב ואחראי. אמודאי מדגיש כי ניהול ההשפעות החברתיות של AI צריך להיות עניין של מדיניות מעל פוליטיקה, ולאור טענות לא מדויקות שפורסמו לאחרונה, אנתרופיק מבקשת להבהיר את עמדותיה ואת מחויבותה לביטחון הלאומי של ארה"ב.
אנתרופיק ומדיניות ה-AI האמריקאית
אנתרופיק מעורבת באופן פעיל עם הממשל הפדרלי במספר דרכים: היא קיבלה הסכם ממשרד ההגנה (Department of Defense) לפיתוח יכולות AI חזיתיות לביטחון לאומי, מציעה את מודלי Claude שלה לממשל הפדרלי דרך מינהל השירותים הכלליים (General Services Administration), ופרוסה ברשתות מסווגות עם שותפים כמו Palantir ובמעבדות Lawrence Livermore. החברה שיבחה בפומבי את תוכנית הפעולה ל-AI של הנשיא טראמפ, תמכה בהרחבת אספקת האנרגיה בארה"ב למען מירוץ ה-AI, ומנהליה נפגשו עם גורמים בממשל לקידום יישומי AI בבריאות ובחינוך. אנתרופיק מעסיקה מומחי מדיניות משתי המפלגות ובנתה מועצה מייעצת הכוללת בכירים לשעבר בממשל טראמפ, תוך התבססות על מומחיות ולא על השתייכות פוליטית. החברה התנגדה לתיקון ספציפי בחוק "One Big Beautiful Bill" שהציע הקפאה של עשר שנים על חוקי AI ברמת המדינה – תיקון שנדחה על ידי הסנאט ברוב גורף – וממשיכה לדגול בגישה פדרלית אחידה לרגולציה.
על אף העדפה זו לתקן AI לאומי, לנוכח קצב התפתחות ה-AI, אנתרופיק תמכה בחוק SB 53 בקליפורניה, המחייב את מפתחי ה-AI הגדולים לפרסם את פרוטוקולי הבטיחות של מודלי החזית שלהם, תוך פטור חברות עם הכנסות שנתיות נמוכות כדי להגן על סטארט-אפים. אמודאי מפריך את הטענה כאילו החברה מעוניינת לפגוע באקוסיסטם הסטארט-אפים, ומדגיש כי הם בין לקוחותיה החשובים ביותר, ו-Claude מניע דור חדש של חברות AI-נייטיב. הסיכון האמיתי למנהיגות ה-AI האמריקאית, לדברי אמודאי, הוא מילוי מרכזי הנתונים של סין (PRC) בשבבים אמריקאיים. לכן, אנתרופיק היא חברת ה-AI החזיתית היחידה המגבילה מכירת שירותי AI לחברות הנשלטות על ידי סין, תוך ויתור על הכנסות משמעותיות כדי למנוע תדלוק פלטפורמות ויישומי AI שיכולים לשרת את שירותי המודיעין והצבא של המפלגה הקומוניסטית הסינית.
התמודדות עם הטיית מודלים ב-AI
טענות מסוימות לפיהן מודלים של אנתרופיק מוטים פוליטית באופן ייחודי אינן מבוססות ונעמדות בסתירה ישירה לנתונים. מחקר של מכון מנהטן (Manhattan Institute), צוות חשיבה שמרני, מצא כי מודל Claude Sonnet 3.5 היה פחות מוטה פוליטית ממודלים של רוב הספקיות הגדולות האחרות. מחקר של אוניברסיטת סטנפורד (Stanford) בנוגע לתפיסות משתמשים לגבי הטיה, אינו מצביע על סיבה לבודד את אנתרופיק, כאשר מודלים רבים מספקים אחרים דורגו כמוטים יותר. כרטיסי המערכת של Sonnet 4.5 ו-Haiku 4.5 מראים התקדמות מהירה לקראת המטרה של ניטרליות פוליטית. יחד עם זאת, חשוב להבין שאף מודל AI, מכל ספקית שהיא, אינו מאוזן פוליטית לחלוטין בכל תגובה, שכן מודלים לומדים מנתוני אימון (training data) בדרכים שעדיין אינן מובנות היטב, והמפתחים אינם בשליטה מלאה על הפלטים שלהם, מה שמאפשר "cherry-picking" של פלטים.
אנתרופיק מחויבת למעורבות קונסטרוקטיבית בענייני מדיניות ציבורית. כשהיא מסכימה, היא מצהירה על כך בגלוי, וכשלא, היא מציעה חלופה לבחינה. החברה פועלת כתאגיד לתועלת הציבור, עם משימה להבטיח ש-AI יועיל לכולם, וכן כדי לשמר את מנהיגותה של ארה"ב בתחום ה-AI. אנו מאמינים כי אנו חולקים מטרות אלו עם ממשל טראמפ, שני בתי הקונגרס והציבור הרחב. סגן הנשיא ואנס אמר בדבריו האחרונים על AI:
"האם הוא טוב או רע, או האם הוא יעזור לנו או יפגע בנו? התשובה היא כנראה גם וגם, ואנחנו צריכים לנסות למקסם כמה שיותר את הטוב ולמזער כמה שיותר את הרע."אמירה זו לוכדת באופן מושלם את השקפתה של אנתרופיק, והחברה מוכנה לעבוד בתום לב עם כל גורם פוליטי כדי להפוך חזון זה למציאות, שכן ההימור בטכנולוגיה זו גדול מדי בכדי לנהוג אחרת.



