במשך שנים אפל היתה מחויבות ארוכה כלפי הפרטיות לא משותף על ידי רבים ממתחריה. בעוד גוגל ומיקרוסופט שמחות למצוץ נתונים אישיים אשר האקרים והממשלה יכולה לנצל, אפל סירבה לעשות זאת. כדוגמה, הודיעה אפל בכנס מפתחים ברחבי העולם שלה כי כל יישומי iOS חייבים להצפין את התקשורת באינטרנט עד סוף השנה.

אבל אפל צריכה נתונים על מנת להתאים אישית את השירותים שלה ולדעת מה התאמות הלקוחות שלהם רוצים, כך ביום שלישי אפל סגן נשיא בכיר של הנדסת תוכנה קרייג Federighi דנו מושג שנקרא הפרטיות הפרטית אשר יהיה בתוכנת iOS 10.

על פי הפרטיות של אפל דיפרנציאלי "תעזור לגלות את דפוסי השימוש של מספר רב של משתמשים מבלי לפגוע בפרטיות הפרטית". הרעיון הוא שבעוד אפל יכולה לראות נתוני משתמשים במצטבר כדי לשפר את השירותים שלה, זה יהיה בלתי אפשרי עבור אף אחד למצוא נתונים על כל משתמש. זה כולל את אפל עצמה, כמו גם האקרים וממשלות.

הבעיות עם פרטיות

כיצד ניתן לקבל נתונים במצטבר, אך לא ברמת הפרט? כדי להבין שאנחנו צריכים להתחיל עם האתגרים מאחורי שמירה על פרטיות המשתמש.

רוב החברות לעשות קצת מאמץ כדי להגן על הפרטיות שלך, והם לעתים קרובות אנונימיזציה הנתונים שלך מסרבים לפרסם מידע אישי. אבל אנשים יכולים להשתמש בנתונים שנחשפו כדי להבין את הנתונים האישיים שלך.

זה דומה למציאת באינטרנט של המשתמש בפורום זהותו האמיתית של המשתמש. לא יהיה לך את השם האמיתי או מספר הטלפון, אבל אתה יכול לציין כי המשתמש בפורום חי בניו יורק והלך על תאריך במסעדה זו. באמצעות עובדות כאלה אתה יכול לצמצם את זה עד שאתה יכול לגלות את זהותם האמיתית. וכפי שציין Wired, החוקרים הצליחו לעשות דבר כזה ב -2007, כשנטפליקס פירסמה רשימה של לקוחות "אנונימיים".

זה מראה כי גם אם החברה מנסה להסתיר מידע אישי, האקרים יכולים להשתמש במידע שהם צריכים לעשות כדי ללקט נתונים אישיים. ואם החברה מנסה להסתיר את כל המידע שיש להם, אז הם לא יכולים להשתמש בו על הסוף שלהם.

אבל מה אם כל המידע הוא מוסתר?

הרעיון מאחורי פרטיות דיפרנציאלית

זה מה הפרטיות הדיפרנציאלית קובע לעשות. זה עובד על ידי אלגוריתמי מסתיר את הנתונים עם רעש, כך האקרים לא יכולים באמת להבין מה כל אדם אחד אמר.

הרבה מן הרעיונות שמאחורי הפרטיות הדיפרנציאלית הם תיאורטיים, שעובדו על ידי מדעני טכנולוגיה וקריפטולוגים. אבל סינתיה Dwork, הממציא שותף של הפרטיות הפרטית לפי Engadget, נותן דוגמה איך זה יכול לעבוד, באמצעות מודד מי שואל מישהו אם הם בוגדים בבחינה:

לפני להגיב, האדם מתבקש להפוך מטבע. אם זה ראשי, התגובה צריכה להיות כנה אבל את התוצאה של המטבע לא צריך להיות משותף. אם המטבע מגיע זנבות, האדם צריך להפוך מטבע השני; אם זה הוא ראש, התגובה צריכה להיות "כן". אם השני הוא זנבות, זה "לא".

מאחר שמטבע בטווח הארוך צריך לעלות בראש או בזנבות בערך בחמישים אחוז מהזמן, הסוקר יכול לנחש כמה אנשים באמת בוגדים בבחינה שלהם על המצרפי. אבל אם סוכנות זדונית מגלה כי אדם מסוים ענה "כן", אין לו מושג אם זה בגלל הפרט מרומה במבחן או כי הוא אמר זאת לאחר קבלת זנבות ולאחר מכן הראש על המטבע שלו להעיף.

בפועל אלגוריתם הפרטיות הפרטיות הרבה יותר מסובך אבל יהיה דומה לדגם להעיף מטבע. על ידי יצירת "רעש" מתמטי כדי לטשטש נתונים בודדים, זה בלתי אפשרי עבור אף אחד כדי לדעת כל נקודת נתונים אחת, גם אם הוא ידע את האלגוריתם.

חששות פוטנציאליים

הפרטיות הדיפרנציאלית עלולה לגרום לכך שאפל וחברות אחרות יוכלו לקבל נתונים שעוזרים להם, תוך הגנה על פרטיות הלקוחות שלהם. אבל העובדה היא כי רוב העבודה סביב הפרטיות הדיפרנציאלית כבר תיאורטית במידה רבה, ולא היו בדיקות בקנה מידה קטן של איך זה יכול לעבוד.

יישום זה בקנה מידה גדול, כמו Apple מתכננת לעשות עם iOS, ללא ניסויים בקנה מידה קטן הוא מסוכן.

עם זאת, הפרטיות הדיפרנציאלי הוא לא כמעט שימושי כמו בקנה מידה קטן. הרעש המתמטי יטשטש במידה ניכרת את הנתונים בגודל מדגם קטן, ויגדיל את הסיכויים לנתונים לא מדויקים לחלוטין. תחשוב על דוגמה מטבע לעיל. אם הסוקר רק סקר 10 אנשים, ייתכן כי שמונה אנשים יכלו להפוך "זנבות", וסקר שלו יהיה חסר ערך. אבל אם הוא יסקור 10, 000, זה הרבה פחות סביר ש -8, 000 אנשים הפכו "זנבות", ולכן הוא יכול לבטוח יותר בנתונים שלו.

הפרטיות הדיפרנציאלית היא מושג שקשה להבנה. אבל אם אפל תצליח, זה יכול לשנות באופן רציני איך חברות לרכוש נתונים. בעוד יהיו חברות שמאושרות לקחת נתוני משתמש, העובדה שיש דרך לאסוף נתונים מבלי להשפיע על הפרטיות הפרטית יכולה להיות השפעה עצומה בין החברה לבין הלקוח.