מדענים ישראלים מלמדים מודלי AI לשכוח מידע רגיש בצורה בטוחה
חוקרים מאוניברסיטת תל אביב יחד עם קולגות מארצות הברית הגיעו למסקנה שהשיטות הנוכחיות למחיקת מידע ממודלי AI עשויות להוביל לדליפות של מידע רגיש שנותר. הצורך לגרום למודלי AI מאומנים "לשכוח" מידע מסוים, בהתאם לחוקי הגנת המידע, כמו החוק האירופי על "זכות השכחה", טומן בחובו סיכונים מסוימים.
באופן מסורתי נחשב שהפתרון האידיאלי יהיה תוצאה השווה לאימון מחדש של המערכת מהתחלה, תוך כדי השמטת הנתונים המוחקים. עם זאת, המדענים הוכיחו שהשאיפה לדייקנות כזו יוצרת פגיעויות. תוקף יכול להזין את הנתונים שלו למודל ולאחר מכן לבקש למחוק אותם. על ידי שליטה רק בחלק קטן מהנתונים, הוא יכול לחשוף מידע רגיש על ידי ניתוח השינויים בתגובות המודל. זה נכון במיוחד עבור מודלים שמתאמנים בזמן אמת על נתוני משתמשים.
מחקרים הראו שכאשר המודל משנה את הפרמטרים שלו לאחר מחיקת נתונים, ההבדלים בין המצבים "לפני" ו"אחרי" יכולים לחשוף מידע עודף על הנתונים שנותרו. אמצעי אבטחה קיימים לעיתים קרובות מתעלמים מסיכון זה, תוך התמקדות בלעדית במוחק מלא ולא בהגנה על המידע הנותר. זה הופך את השיטות הנוכחיות של "שכחת מכונה" לפגיעות להתקפות.
כדי לשפר את המצב, מחברי המחקר הציעו תקן אבטחה חדש, שמזיז את הדגש מהדמיה של "אימון מחדש אידיאלי" להגנה פעילה על נתונים שאינם ניתנים למחיקה. גישה זו מאפשרת לשמור על תפקודיות של מודלי AI מבלי לסכן גילוי מידע מוגן. השיטה החדשה מדגימה שהתהליך של מחיקת נתונים הוא לא תהליך טכני פשוט, אלא אינטראקציה מורכבת בין פרטיות לתפקודיות.
Комментарии 0