אבטחת AI

2 כתבות בנושא זה

אנתרופיק: מודלי Claude ב-Amazon Bedrock אושרו לסביבות FedRAMP High ו-DoD IL4/5
11 ביוני 2025

אנתרופיק: מודלי Claude ב-Amazon Bedrock אושרו לסביבות FedRAMP High ו-DoD IL4/5

אנתרופיק (Anthropic) הודיעה כי מודלי ה-AI שלה, Claude, אושרו לשימוש בסביבות עבודה ממשלתיות וביטחוניות ברמות האבטחה הגבוהות ביותר: FedRAMP High ו-DoD Impact Level 4 ו-5. אישור זה, המתייחס לפריסה דרך Amazon Bedrock באזורי AWS GovCloud (US) המאובטחים, מאפשר לסוכנויות פדרליות וארגוני ביטחון אמריקאיים לנצל את יכולות הבינה המלאכותית המתקדמות של Claude. בכך, הם יוכלו לעמוד בתקני האבטחה המחמירים ביותר ולפתוח אופקים חדשים ליישומים קריטיים במגזרי ההגנה, המודיעין והפעולות האזרחיות הרגישות.

קרא עוד
אנתרופיק מחמירה את אמצעי הבטיחות: מפעילה הגנות ASL-3 עבור Claude Opus 4
22 במאי 2025

אנתרופיק מחמירה את אמצעי הבטיחות: מפעילה הגנות ASL-3 עבור Claude Opus 4

אנתרופיק (Anthropic) הודיעה על הפעלת תקני בטיחות ופריסה ברמה 3 (ASL-3) עבור מודל השפה הגדול החדש שלה, Claude Opus 4. צעד זה, המתואר במדיניות הסקיילינג האחראי (RSP) של החברה, נועד להגן מפני סיכוני AI מתקדמים. תקן האבטחה ASL-3 כולל אמצעי אבטחה פנימיים מוגברים למניעת גניבת משקולות מודל, ואילו תקן הפריסה ASL-3 מתמקד בהגבלת הסיכון לניצול לרעה של קלוד (Claude) לפיתוח או רכישת נשק כימי, ביולוגי, רדיולוגי וגרעיני (CBRN). מדובר בצעד יזום וזהיר, שכן החברה עדיין בוחנת אם המודל אכן חצה את סף היכולות המחייב הגנות אלו, אך נקיטת פעולה מוקדמת מפשטת את תהליך השחרור ומאפשרת שיפור מתמיד של ההגנות.

קרא עוד