פרוטוקול של ישיבת ועדה
הכנסת העשרים-וחמש
הכנסת
16
ועדת החוקה, חוק ומשפט
18/12/2023
מושב שני
פרוטוקול מס' 203
מישיבת ועדת החוקה, חוק ומשפט
יום שני, ו' בטבת התשפ"ד (18 בדצמבר 2023), שעה 9:15
ישיבת ועדה של הכנסת ה-25 מתאריך 18/12/2023
חוק הגנת הפרטיות (תיקון מס' 13), התשפ"ד-2024
פרוטוקול
סדר היום
הצעת חוק הגנת הפרטיות (תיקון מס' 14), התשפ"ב–2022
מוזמנים
¶
עמית יוסוב עמיר - עו"ד במחלקת ייעוץ וחקיקה, משרד המשפטים
לירון מאוטנר לוגסי - עו"ד, משרד המשפטים
ראובן אידלמן - יועמ"ש, הרשות להגנת הפרטיות
שירה גרטנברג - רפרנטית, משרד המשפטים
חמדת קב - עו"ד בלשכה המשפטית, משרד הבריאות
יונתן אמסטר - מנל תחום רגולציה, משרד הבריאות
דן אור-חוף - חבר המועצה, המועצה להגנת הפרטיות
ניר גרסון - ס' מנהל מחלקת יעוץ משפטי ואסדרה, הרשות להגנת הפרטיות
עדו אילי - מתמחה, הרשות להגנת הפרטיות
גלעד סממה - ראש הרשות, הרשות להגנת הפרטיות
נעמה בן צבי - ראש היחידה היחידה להזדהות וישומים ביומטר, מערך הסייבר הלאומי
מיכל בלאו אור - ממונה, ייעוץ משפטי מערך הסייבר, מערך הסייבר הלאומי
יוסף פולסקי - עו"ד, הלשכה המשפטית, המוסד לביטוח לאומי
צחי שלום - ראש מינהל טכנולוגיה ומידע, מרכז שלטון מקומי
רחל ארידור הרשקוביץ - חוקרת, המכון הישראלי לדמוקרטיה
לירון בנדק - עו"ד, סמנכ"ל רגולציה, נשיאות המגזר העסקי
יעקב עוז - יו״ר ועדת הגנת הפרטיות והסייבר, להב
טל מימרן - ראש תוכנית המחקר, תכלית – המכון למדיניות ישראלית
טמיר בר - רכז קשרי ממשל, תכלית – המכון למדיניות ישראלית
אייל שגיא - שותף, משרד עורכי דין AYR
ענר רבינוביץ׳ - מנכ״ל, ProvacyTeam
הילה היבש - יועצת משפטית ראשית, מיקרוסופט
דלית בן-ישראל - שותפה ראש תחום פרטיות, משרד נשיץ, ברנדס, אמיר ושות'
אלן יוסף - שותפה - ראש תחום הגנת הפרטיות, AOI
איה מרקביץ - Privacy Director
עמרי רחום טוויג - שדלן
שחף קצלניק - שדלן, יועץ משפטי, התאחדות התעשיינים
רישום פרלמנטרי
¶
אסתר מימון
רשימת הנוכחים על תואריהם מבוססת על המידע שהוזן במערכת המוזמנים הממוחשבת. ייתכנו אי-דיוקים והשמטות.
הצעת חוק הגנת הפרטיות (תיקון מס' 14), התשפ"ב–2022, מ/1496
היו"ר שמחה רוטמן
¶
בוקר טוב, אנחנו בהצעת חוק הגנת הפרטיות (תיקון מס' 14), התשפ"ב–2022. דווקא בבוקר זה חשוב להזכיר, אנחנו מנהלים את הדיון הזה, למרות שלכאורה הוא לא עוסק באופן ישיר בנושא המלחמה, לבקשת המל"ל שהועברה וגורמים נוספים על החשיבות בהגנה על מאגרי המידע של מדינת ישראל. אנחנו חווים עליה במתקפות הסייבר, ויש צורך באבטחה, צורך בעיצומים, לכן אנחנו משתדלים לקדם את החוק הזה כמה שיותר מהר, כדי לשפר את ההגנה, ובסופו של דבר גם האדווקסי הוא כלי כלכלי משמעותי מאוד שיסייע בעזרת השם למדינת ישראל לצאת מהמשבר הכלכלי שמלווה את המלחמה בצורה מהירה וטובה, ולכן אנחנו עוסקים בנושא הזה במלוא המרץ.
אני כבר מתנצל שבמהלך הדיונים האלה נצטרך לעשות קצת הפסקות, כי זה יום מאוד מאוד עמוס בכנסת, ולצערי אין מספיק חברי כנסת שמלווים את הדיונים האלה באופן קבוע, שיכולים להחליף אותי בחלק מהדיונים. ככל שנצטרך לצאת להפסקה, נצא להפסקה ואז נשוב בהמשך.
גברתי היועצת המשפטית, תזכירי לנו איפה היינו.
נעמה מנחמי
¶
עברנו על הגדרות "מידע", "מידע אישי" ו"מאגר מידע", דיברנו גם על הנושא של "ידיעה על ענייניו הפרטיים של אדם", והתחלנו בסיום הדיון הקודם את "מידע בעל רגישות מיוחדת". אולי משרד המשפטים רק יחזור בקצרה על הרציונל של ההגדרה ונאפס את כולם.
עמית יוסוב עמיר
¶
כיום, בסעיף 7 לחוק הגנת הפרטיות, יש הגדרה ל"מידע רגיש", שהיא הגדרה שהתיישנה במהלך השנים. יש רשימה יותר עדכנית בתוספת לתקנות הגנת הפרטיות (אבטחת מידע). התפיסות של מה רגיש ומה לא רגיש הן בוודאי גם תלויות זמן וגם תלויות מקום. לא בהכרח כל מה שמתאים לחברה אחת כהגדרה של מידע רגיש, או כמו שאנחנו מציעים לנסח את זה כאן, "מידע בעל רגישות מיוחדת", מתאים גם בישראל.
ההצעה שמונחת בפנינו יש לה שתי נפקויות: הנפקות הראשונה היא הנפקות לפי סעיפי החוק המוצעים עצמם. כאן זה מתחלק לשניים. יש השפעה אחת לשאלה אם מידע הוא בעל רגישות מיוחדת או לא לעניין חובת רישום המאגרים, שאליה נגיע בהמשך הדרך, והנפקות השנייה היא לעניין גובה העיצומים הכספיים, לפי המודל המוצע, שגם הוא יידון בהמשך. אלה הנפקויות המעשיות של ההגדרה של "מידע בעל רגישות מיוחדת".
חוק הגנת הפרטיות הוא חוק תשתיתי. לא פעם ולא פעמיים דברי חקיקה שונים מצטטים או מביאים הגדרות יסודיות מתוכו, ויש פה אמירה מעבר לנפקות הנורמטיבית הקונקרטית, אמירה ערכית קצת יותר רחבה מה נכלל בגדר מידע בעל רגישות מיוחדת.
נעבור על סעיפי ההגדרה המוצעים, לפעמים העניין הוא יותר משפטי קונקרטי, אבל הרבה פעמים מדובר בהחלטת מדיניות משפטית ומדיניות חקיקתית. בסופו של דבר לרוב הרציונל, חוץ מאותם מקרים שיש בהם עניין מקצועי, ספציפי, שאפשר להצביע עליו, הוא עניין תפיסתי חברתי של מה נחשב בעינינו רגיש במיוחד.
לפי הראייה הזאת אני מציע אחר כך לעבור על פרטי ההגדרה אחד-אחד ולראות מה עמדת הוועדה בעניינה.
היו"ר שמחה רוטמן
¶
בסדר גמור. נקודה שצריכה ללוות אותנו כבר מההתחלה זה מה שכתוב פה במסמך ההכנה של הייעוץ המשפטי. השאלה שתלווה אותי לאורך ההגדרות השונות זה בסופו של דבר השאלה האם יש מידע שהוא לא רגיש. אם יש את המושג 13 מידות שהתורה נדרשת בהן, כלל ופרט, פרט וכלל, אין בכלל אלא מה שבפרט ולהפך, אז אם אנחנו נמצאים בסיטואציה שכל מידע כמעט שאנחנו יכולים לדמיין נכלל איכשהו בהגדרת מידע רגיש, לא עשינו כלום, וגם רימינו את עצמנו קצת עם ההגנה המוגברת, גם עם חובות רישום כאלה ואחרות וגם עם עיצומים כספיים גדולים יותר, כי זה אומר שזה הדיפולט. העיצום הכספי תמיד יהיה בגבוה, ולא תהיה אף פעם סיטואציה שבה יהיה מידע. לכן אני אומר שצריך בסופו של דבר גם בפרט-פרט וגם בהסתכלות הכוללת לשאול האם יש מידע שאיננו מידע רגיש.
כמובן הסתכלנו כבר בדיון הקודם על ההשוואה הבין-לאומית, מה מוגדר מידע רגיש או מידע בעל רגישות מיוחדת ב-GDPR ובחוקי פרטיות אחרים בעולם.
עמרי רחום טוויג
¶
אני רוצה רק לחזור על מה שאמרנו, גם בסיום הדיון הקודם כתשתית לדיון הנוכחי, על שאלת התחולה של ההגדרה החדשה הזאת בשים לב לנפקויות הנוכחיות שלה אל מול דיון עתידי שיהיה ותיקון 15 או בעתיד. זאת אומרת, האמירה הערכית לגבי מהו "מידע בעל רגישות מיוחדת" לא צריכה להשפיע על השאלה על מה הוא חל כרגע בתוך החוק. אם נחיל למשל את סעיף ההגדרות הזה רק על פרק ה', פרק סמכויות האכיפה, הקנסות המינהליים, שזאת הנפקות העיקרית של ההגדרה החדשה, זה לא גורע מזה שתהיה הגדרה בחוק שחוקים אחרים יכולים להפנות אליה, וכשנגיע לדון בתיקון 15, שבו יהיו נפקויות חדשות להגדרה הזאת, למשל דרישות נוספות על השוק, יהיה אפשר לדון מחדש - - -
היו"ר שמחה רוטמן
¶
בכל מקרה אפשר יהיה לדון מחדש. הנקודה המרכזית שאם הכול רגיש, אז שום דבר לא רגיש, היא מאוד משמעותית.
נתחיל לצלול לסעיפים. הראשון זה "מידע על צנעת חייו האישיים של אדם, לרבות התנהגותו ברשות היחיד".
עמית יוסוב עמיר
¶
זאת אולי הליבה הכי יסודית של מהי הפרטיות הקלסית כשהיא נמצאת ברשות היחיד. צריך לומר, כמו שעו"ד מנחמני גם כתבה במסמך ההכנה, שהפסיקה נתנה פרשנות לסעיף הזה, היא לא צמצמה אותו במיוחד, אבל אנחנו כן מדברים על נושאים שהם בהחלט בד' אמותיו האישיות של אדם, כמובן מה שמתרחש בתוך ביתו, בבית המגורים, וזאת הגדרה יסודית ובסיסית, כשגם מבחינה חברתית, ציבורית, הדברים האלה בהחלט נתפסים כבעלי רגישות מיוחדת.
היו"ר שמחה רוטמן
¶
מה קיים? כלומר, כשמדובר על צנעת חייו, מתכוונים לדברים בהקשרי ההתנהלות המינית או דברים כאלה, לא על כלל התנהגותו ברשות היחיד. אם אני אוהב לשיר באמבטיה שירים של שרית חדד, זה לא נחשב. זה יכול להיות דבר מאוד רגיש, אבל זה לא כלול בהגדרה.
דן אור-חוף
¶
עם זאת, אני חושב שיש פסיקה ענפה ועשירה בעניין של צנעת הפרט, וזה גם חלק מההגדרה בסעיף 7 לחוק-יסוד: כבוד האדם וחירותו. זו הוויה של הזכות.
היו"ר שמחה רוטמן
¶
זה ברור. השאלה היא עכשיו איך נראה הפלייליסט שלי בספוטיפיי – האם זה מידע רגיש לפי ההגדרה הזאת? אפשר לחפש הגדרות אחרות שכן. זה מה שאני שומע ברשות היחיד, אני שומע שירים. זו התנהלותי ברשות היחיד.
ראובן אידלמן
¶
טעמו התרבותי של אדם, אני לא חושב שזה נחשב התנהגות ברשות היחיד, ולא מידע על צנעת חייו של אדם. גם כאן אפשר להעביר את הגבול.
היו"ר שמחה רוטמן
¶
אגב, הדוגמה פה מהפסיקה שהובאה במסמך ההכנה, היא יותר קשורה לסעיף 2. כלומר, ברור לי שאם האדריכל מהרבה מאוד סיבות מפרסם את התוכנית של הבית שלי, הוא פגע - - -
היו"ר שמחה רוטמן
¶
יש חלוקת חדרים, אבל לא אמירה מה עושים בכל חדר. ברור לפי סעיף 2 שהוא פגע בפרטיות שלי. האם זה מידע רגיש לעניין מאגרי מידע?
עמית יוסוב עמיר
¶
לא היה מדובר בפסק דין במאגר מידע. האמירה פה שביתו של אדם מבצרו, והשאלה היא על התנהגותו של אדם ברשות היחיד. המעקב אחר אדם ולא מה הוא שומע בספוטיפיי. אדם יושב בסלון ביתו, אתה אומר שעכשיו הוא שומע מוזיקה, סליחה - - -
עמית יוסוב עמיר
¶
אם יש מאגר מידע, חברת טכנולוגיה קיבלה את הסכמתנו לעקוב עם אחד המכשירים החכמים שבבית על התנהגותי ברשות היחיד. אני עכשיו יושב ורואה טלוויזיה, עכשיו אני מכין קפה. סליחה, זה מה שאני עושה בתוך ביתי, בד' אמותיי.
היו"ר שמחה רוטמן
¶
למה ב-GDPR זה לא קיים? איך חיים אזרחי אירופה ה"מופקרים" מבחינת פרטיותם בנושא הזה? אני מבין את הרצון לבוא ולהגיד על ההגדרה של התנהלות מינית, גם בהקשר הרחב ביותר של התנהגות מינית, אני מבין למה זה מידע בעל רגישות מיוחדת או מידע רגיש, אבל עצם המושג "צנעת חייו האישיים" הוא סופר-סופר רחב, "לרבות התנהגותו ברשות היחיד". על פניו איזה שירים אני שומע בספוטיפיי זה התנהגות ברשות היחיד, בהנחה שאני לא יושב בגן הציבורי עם בוקסה, אבל בדרך כלל אנשים שומעים שירים בספוטיפיי באוטו או בבית, שזה ברשות היחיד. לכאורה הפלייליסט שלי בספוטיפיי נכנס לפה.
עמית יוסוב עמיר
¶
אני חושב למה ב-GDPR זה לא – קודם כול, הרגישות נובעת לא מתוכן המידע, אלא מאיפה הוא נאסף, מהציפייה. כשאני בד' אמותיי, אני וכל אדם, יש לו הנחה שהוא לא נתון למבט החיצוני הממשטר, שהוא יכול לעשות מה שהוא רוצה.
ניר גרסון
¶
נכון או גם מידע שנאסף עליי באמצעות אחד העוזרים: מסירי או מהטלוויזיה. מה שאני עושה בתוך ביתי, מלכתחילה, בגלל אופן האיסוף - - -
היו"ר שמחה רוטמן
¶
תסתכל שנייה על הבעיה. אני עכשיו היצרן של סירי. יש לי אפשרות לעקוב דרך הסירי על מגוון רחב של מידע. אני יכול לקלוט איזה שירים שומעים בחלל הבית, ולהפעיל עליהם את המנגנון של איתור השירים, וכך לזהות את טעמך המוזיקלי, וכך אולי להציע לך בהמשך גם כל מיני הקלטות או שירים, או כשאתה תפתח את הטלפון שלך יקפוץ לך המידע שמעניין אותך, ואז אני לכאורה לפי הסעיף הזה לא נכנס להגדרה אם אני ב-GDPR וכן נכנס להגדרה אם אני בישראל, ואני יכול לאסוף מידע גם על התנהגותך המינית, באמצעות אותו רמקול שטח. אתה אומר לי: מה אכפת לך? תאסוף הכול כי בכל מקרה אתה נכנס להגדרת מידע רגיש, בכל מקרה תחטוף את הביקורת ברמה הגבוהה, בכל מקרה תחטוף את העיצומים הגבוהים, אז אתה לא מספק הגנה אקסטרה לצנעת חיי המינית.
ניר גרסון
¶
מה שאנחנו אומרים שההגנה העודפת, שהיא לא מפחיתה מההגנה על הנטייה המינית, אוריינטציה מינית - - -
היו"ר שמחה רוטמן
¶
היא ודאי מפחיתה. זה אני לא מקבל. אם אתה אומר לי שהכול ברמה הגבוהה, אז אתה לא מייצר - - -
ניר גרסון
¶
לא הכול ברמה הגבוהה. אדוני, אם תשב עם בוקסה בגינה זה לא ברשות היחיד. זה מיועד להגן על משהו שאנחנו לפי הניסיון שלנו, וגם ההכרה של התחום, שלאנשים יש ציפייה בצדק שהרבה דברים שהם עושים - - -
ניר גרסון
¶
לגבי ה-GDPR, לא חשבנו עד תום על זה, אבל ההגדרה ב-GDPR נוגעת לסוג המידע ולא לאופן האיסוף שלו. יש שיטות שונות.
היו"ר שמחה רוטמן
¶
נכון, אבל יש לזה סיבה מאוד טובה. כאשר אתה מדבר על מאגר מידע, אני לא יודע כשאני מחזיק את המאגר, בטח אם הוא עבר שלוש ידיים.
היו"ר שמחה רוטמן
¶
יכול להיות שהן לא טובות, הן גם התיישנו. אתה מבקש לשנות את ההגדרות, אבל אני אומר חכה: אני עכשיו מגיע לפגישה עסקית עם מנכ"ל ספוטיפיי, ואני מציע לו הצעה שהוא לא יכול לסרב לה, אני אשלם לו על מאגר המידע שלו X שקלים או דולרים, כי אני מאוד רוצה לפתח משהו לנושא הזה. הוא אומר לי: אני אספתי את המידע ממה שאנשים שומעים, יכול להיות שיש לו רובריקה מה אנשים שומעים בבוקסה ומה אנשים שומעים בבית, יכול להיות שכן, יכול להיות שלא. אני לא יודע איפה הבן אדם הפעיל את הספוטיפיי, אני לא יודע אם הוא ציפה או לא ציפה, אם הוא ידע שישמעו לו, אני יודע שזה נאסף באמצעות אפליקציית הספוטיפיי שלו - -
היו"ר שמחה רוטמן
¶
- - אבל המידע ששם, אתה בא ומטיל עליי חובה לבוא ולהגיד – ואולי נעשה את זה לפי קבוצות גיל, מאחר שיש נטייה לבעלי קבוצות עד גיל 16 להסתובב ברחוב ולשמוע את השירים בווליום גבוה מדי, בוודאי לטעמם של זקנים כמוני – זה בסדר, את זה אתה יכול לאסוף, כי זה לא ברשות היחיד, אבל אם זה מבני 80, רוב הסיכויים שהם משתמשים בספיטופיי, אם הם יודעים להשתמש בספוטיפיי, בתוך רשות היחיד, ולכן אסור לך לאסוף את המידע עליהם. אתה מכניס אותי למקום שאני לא יכול להיות בו כאשר מאגר המידע הוא בסופו של דבר איזה שירים פלוני אוהב.
ראובן אידלמן
¶
אנחנו בעולם של Internet of things, והרשות פרסמה לאחרונה מסמך מקיף בנוגע לפרטיות במוצרי Internet of things, בתים חכמים וכל הדבר הזה. זה לא רק סירי. יש היום הרבה מאוד דברים שבתוך הבית אנחנו מכניסים כולנו מכשירי מעקב באופן וולונטרי אלינו הביתה, שאוספים עלינו הרבה מאוד מידע אישי, בד' אמות הבית, ברשות היחיד.
עמית יוסוב עמיר
¶
רק הבהרה אם אפשר. אני חושב שנגררנו למקום לא נכון, לפלייליסט. נקודת המוצא פה היא ההתנהגות ברשות היחיד, זאת אומרת, אם המידע אומר: ככה אדם מתנהג ברשות היחיד - - -
היו"ר שמחה רוטמן
¶
באופן עקרוני, בכל פעם שההגדרה תהיה רחבה, בוודאי רחבה משמעותית מהגדרות ה-GDPR, אנחנו ניגרר.
עמית יוסוב עמיר
¶
רק אמירה אחת טכנית על ה-GDPR. המשמעות של הכללה עכשיו של פרט מידע בסיווגים של ה-GDPR, סוגי המידע המיוחדים, היא שחלות מגבלות קשות על העיבוד של המידע הזה. זאת אומרת, אנחנו לא כאן. לכן הקדמתי ואמרתי שהנפקויות שונות מאוד.
ניר גרסון
¶
ב-GDPR יש איסור לעבד מידע רגיש, אלא אם יש חריגים מאוד מצומצמים. המשמעות שם הרבה יותר - - -
היו"ר שמחה רוטמן
¶
נכון. הן מרחיבות על המצב בישראל, לא מחמירות. בואו נשמע את היושבים מסביב לשולחן. באופן עקרוני בכל פעם שנהיה בהגדרה שהיא לא קרובה או דומה או בשינויים המחויבים, תבוא ותגיד לי שאנחנו בתרבות האמריקאית, ביתו הוא מבצרו, אנחנו לא שם. בהרבה מאוד תחומים אנחנו לא שם. אנחנו לא המדינה עם הכי הרבה כבוד לרשות היחיד שיש, גם לא המדינה עם הכי הרבה ציפיית פרטיות ברשות היחיד שיש, אז למה אנחנו צריכים להיות הכי מיוחדים? צריך לשאול פה שאלה. ככל שההגדרות שלנו יהיו יותר קרובות ל-GDPR, שיש בזה ערך בפני עצמו, כמו שאמרנו, השאלות יהיו אחרות, ואין מה לעשות, אנחנו חייבים לשאול את השאלות האלה וחייבים להתמודד איתן.
רחל ארידור הרשקוביץ
¶
אני רוצה להמשיך בדיוק באותו קו, כי העולם שלנו התקדם, זה כבר לא הפרטיות שלא לשים דלת מול דלת של אוהל, אלא מכשירי המעקב האלה נותנים לנו הרבה מאוד מידעים. לכן דווקא מה שנמחק מההגדרה, "הנתונים על אישיותו של אדם וצנעת אישותו" הם אלה שרלוונטיים מבחינת המידע הרגיש, הם אלה שמגלים לנו את הדברים הקריטיים. והאמירה הכוללת של צנעת חייו של אדם, שאפשר להכניס אליה המון-המון דברים היא מאוד מאוד מרחיבה. אם רוצים לדייק, צריך דווקא את הדברים שהורדתם להחזיר.
היו"ר שמחה רוטמן
¶
לצורך העניין, אם אנחנו מדברים למשל על נטייה מינית או התנהגות מינית זה גם פחות משנה לי בהקשר של מאגר המידע אם היא נעשית ברשות היחיד או ברשות הרבים. ולכן ההגדרה כמו שהיא כרגע מושכת אותי למקום איסוף המידע ולא טיב המידע, ואני חושב שכאשר אנחנו עוסקים במאגר מידע, בטח אם אנחנו חושבים על מאגרי מידע שמחליפים ידיים, ואנחנו לא רוצים שמאגרי מידע לא יחליפו ידיים, אנחנו רוצים שהם יחליפו ידיים בצורה מפוקחת ומבוקרת, ובהתאם לחוק, אנחנו לא רוצים למנוע את החלפת הידיים של המאגר או את השימוש, אנחנו רוצים להסדיר את זה, אנחנו לא רוצים למנוע את זה.
ככל שאתה מתחבר לשאלה איפה נאסף המידע, אתה עושה הקשרים מאוד מאוד קשים לשימוש במאגר, ולא מסתכל על המאגר לפי מה שהוא. מה יש לי פה בסופו של דבר? מידע על צנעת חייו של אדם או מידע לא על צנעת חייו של אדם, והשאלה איפה הוא נאסף היא שאלה חשובה, אבל תגביל אותה בסוג העיבוד, תגביל אותה בסוג האיסוף, תבוא ותגיד: אסור לאסוף מידע ברשות הפרט של אדם אלא בהסכמה, בניגוד לאיסוף מידע ברשות הרבים שיש לה משהו אחר או הסכמה מודעת וכל מיני דברים.
עמית יוסוב עמיר
¶
רק להבהיר. הכוונה היא לא להגיד איפה נאסף המידע במובן של כל פרט מידע, השאלה מה מתאר המידע. אם המידע מתאר איך בן אדם מתנהג ברשות היחיד, לשם הכוונה.
טל מימרן
¶
אני מציע להסתכל גם על היכולת של טכנולוגיות לתרגם מידע תמים לכאורה למידע שהוא מידע רגיש. למשל יש דיווחים על זה שקופת חולים כללית מ-2022 הכניסה מערכות שמאפשרות לרופא לזהות מצב נפשי של אדם, נושא שעלה בפגישה הקודמת, באמצעות הרגלי גלישה. למשל יש לנו פה הגדרה של הרגלי צריכה, אבל לא ברור למשל איפה הרגלי גלישה באים לידי ביטוי.
טל מימרן
¶
בעיקרון צריך להסתכל גם על הטכנולוגיה שיכולה להיתרגם למידע וגם להסתכל על ההבדל בין מידע שנאסף באופן רצוני או שלא.
היו"ר שמחה רוטמן
¶
נניח שאני מקים מאגר מידע של הרגלי גלישה. נדון כרגע לפי הסעיף הזה, אני לא מדבר כרגע על סעיף אחר. לפי הסעיף הזה, מאגר מידע להרגלי גלישה, הוא לא בהכרח מידע על צנעת חייו האישיים של אדם, לרבות התנהגותו ברשות היחיד. האם ניתן על בסיס ביג דאטה או סמול דאטה, תלוי במובהקות המידע, לקחת את נתוני הגלישה ולזהות? יש אתרים שאם אתה לא בתפיסה מסוימת של צנעת חייך האישיים, אתה לא תגלוש שם בחיים, ולהפך. ככל שהמידע יותר מובהק, זה יכול להיות לפי כמה זמן השתהית על תמונה בפייסבוק.
היו"ר שמחה רוטמן
¶
זה יכול להיות אלף דברים אחרים. אם איסוף המידע הזה כשלעצמו, בלי פעולת העיבוד הזאת לא יביא אותי לצנעת חייו האישיים של אדם, אני רוצה שהוא לא יהיה פה. לעומת זאת, אם אני בהגדרה הרחבה, הוא יהיה פה, כי גלישה בדרך כלל אדם עושה ברשות היחיד. זו בדיוק התמונה.
טל מימרן
¶
נכון, אבל צריכים לאבחן בין מצב שאני גולש בבחירה, באתר שאני רוצה או לא רוצה לגלוש בו, או כי אני מחויב להיכנס לאתר כללית, כי אני מחויב להיות בקופת חולים מסוימת וכן הלאה.
אייל שגיא
¶
הצורה הזאת של הגדרה תוביל אותנו, אם דיברנו על השוק – עורכי הדין של השוק ייקחו, כי הרגולטורים לוקחים, גם באירופה, את כל ההגדרות, ותמיד הולכים לקצה. אין מצב שרשימת השירים בספוטיפיי לא תיחשב מידע רגיש בצורה הזאת, ולו מהטעם שיש אנשים שלגביהם רשימת השירים הזאת מספרת הרבה מאוד על הרגליהם, על העדפותיהם והתנהגותם.
הזכירו פה ממשרד המשפטים IOT. כל דבר שניקח, אם זו ההגדרה, כמו שאדוני אומר, אפשר לכתוב. כל מידע על אדם הוא מידע רגיש, ובזה נגמר, ונתקדם כך. אפשר לקחת מהיסטוריית גלישה מכל דבר.
אני קופץ רגע להגדרה של מידע רפואי. בזמן הקורונה היה צריך לאסוף הצהרות של אנשים שהם בריאים. זה גם מידע רפואי. אין לזה סוף. אם אנחנו הולכים בכיוון כזה, בואו נכתוב ישר: נא להגן על המידע האישי ברמה הגבוהה ביותר.
אגב, בסטנדרטים של אבטחת מידע מה אומרים? הגן על המידע בסטנדרט שמגיע לו, לפי הרגישות שאתה חושב שמגיע לו. אז אם יש לי רשימת גלישה בספוטיפיי, ואני חושב שזה יכול להביא למידע על הרגלים מיניים, אני אגן על זה מאוד. אם אני מעבד את זה רק למטרה שאולי אתה אוהב את מדונה, אולי תאהב גם זמרת אחרת, מצוין. אם אני רוצה להוציא, נדע מי כל הדו-מיניים אצלנו ברשימה, זה לא. פה הסכמה, עצור, זה לא מתאים.
אם אנחנו מראש אומרים שרק בגלל שאפשר לקחת את המידע הזה, אז הכול רגיש, חבל על הדיונים. אנחנו עוברים כל כך הרבה על כל הגדרה.
דן אור-חוף
¶
המידע על צנעת חייו בסעיף לקוח מן הסתם בתוספת בתקנות אבטחת המידע. אם אנחנו מוותרים על הסעיף הזה, המונח שקיים היום בסעיף 7, "צנעת אישות", חייב להישאר, כי על זה בוודאי אני חושב שיש קונצנזוס שזה כן מידע רגיש. וגם נטייה מינית שמופיעה ב-GDPR, לא מופיעה אצלנו לא בחוק, לא בהצעת החוק ולא בחוק הקיים, זה משהו בוודאי רגיש, וחשיפה שלו ללא הסכמה יכולה להביא לפגיעה, ולכן זה נושא שצריך להביא בחשבון בהגדרה של הסעיף הזה.
יעקב עוז
¶
יש פה אבולוציה של סעיף 2 ו-3 בפרק א', שמדבר רק על צילום של אדם ברשות היחיד. ההסכמה, אני מזכיר לכולם, נמצאת בכלל בפרק א', ולא מדברת על פרק ב', שבו אנחנו עוסקים בתחום מאגרי המידע ואבטחת המידע.
המדרון החלקלק של כל מה שקשור בצנעת הפרט והרגלי הצריכה, תישאל פה שאלה הכרחית לאור ההערה של ראובן, האם הכנסתי כרגע את גוגל מיני הום, או את אלקסה, או את סירי, או את המצלמה הביתית, הבעתי הסכמה לפגיעה בפרטיות שלי, כן או לא. הצמצום והניקוז של הדבר הזה, שמנתק אותנו מההסכמה, הוא בעייתי.
יעקב עוז
¶
ולכן אנחנו לא יכולים להתעלם, כי ה-concent הוא לא ההסכמה שנדרשת כאן, ואם שמתי כרגע - - - בבית, לא משנה איזה device, הסכמתי במפורש או מכללה לשים את אותו אמצעי?
היו"ר שמחה רוטמן
¶
שאלת ההסכמה היא שאלה פרלימינרית, היא לא קשורה לטיב המידע. אם בן אדם הלך ברחוב, בהסכמה מלאה שאל בסקר רחוב: אתה סטרייט או גיי? הוא שאל ורשם, שאל ורשם, זה הכניס את זה גם לדיגיטלי, כי אם הוא רשם בפנקס זה לא מאגר מידע. המידע התקבל בהסכמה בוודאי, אפילו ברשות הרבים, כי הוא שאל אותו ברחוב, הכול בסדר. זה ודאי מאגר מידע בעל מידע רגיש. שאלת ההסכמה ורשות הרבים לא קשורים לאירוע.
יעקב עוז
¶
אני אקח את זה עוד שלב קדימה. אתה מאזין בספוטיפיי שלך, ואחרי זמן מה קיבלת הזמנה להופעה של להקה שאתה מאוד מאוד אוהב. האם זה הרגלי צריכה שלך?
עמרי רחום טוויג
¶
שאלת מה עמדת השוק, ויש פה הרבה אנשים מהשוק. אני חושב שאם המונח הזה לא היה מתייחס לצנעת חייו האישיים של אדם, לרבות התנהגותו ברשות היחיד, אלא לצנעת אישותו של אדם ונטייתו המינית, אני חושב שאף אחד לא היה מתווכח עם ההגדרה הזאת.
זה מתכתב עם סוגיה שאדוני העלה, והיא הפרדה בין דאטה שיכול להעיד לבין הסקת נתונים שזה יכול להיות בעל רגישות מיוחדת. זה נכון לכל אחד מתתי-הסעיפים כאן. נגיע לזה בכל אחד, אבל גם כאן. זה צריך להיות מידע המעיד באופן ישיר על צנעת אישותו של אדם, מידע המעיד באופן ישיר על מצבו הרפואי וכן הלאה, וזה יעשה את ההפרדה בין ה-Raw data שלא עבר עיבוד לבין ה-Infer data, שכבר מעיד באופן ישיר על מידע בעל רגישות מיוחדת, אחרת שוב, אנחנו ניכנס לסחרור, כי כל מידע בסיסי, שעוד לא עבר עיבוד, כמו שאמרת: נתוני עתק או נתונים קטנים, יכול בסוף על בסיס עיבוד מסוים להגיד דברים רגישים.
היו"ר שמחה רוטמן
¶
זה דבר שצריך להתייחס אליו. גם כשדיברנו על מידע, אמרנו שניתן לזיהוי במישרין או בעקיפין באמצעים סבירים. עשינו את זה כאילו - - -
היו"ר שמחה רוטמן
¶
נכון. פה אפילו זה לא עניין של מאמץ סביר, כי פעולת עיבוד יכולה להפוך מאגר מידע למאגר מידע רגיש. השאלה אם אני רוצה שכבר בשלב של הניתן, הוא כבר יהיה מידע רגיש.
עמית יוסוב עמיר
¶
אני אתייחס גם לדברים האחרים שנאמרו, אבל אני חושב שזה מסוכן ללכת. יש חברות ענק שמחזיקות מאגרי מידע ענקיים, יש להן יכולת רגישה מאוד להפוך המון פרטי מידע שלנו, לכאורה טריוויאליים, למידע רגיש ביותר.
עמית יוסוב עמיר
¶
לא. ההחזקה של מאגר המידע הזה, להגיד שבהחזקת מאגרי המידע הענקיים של ענקיות הטכנולוגיה אין רגישות מיוחדת, אני חושב שזה פשוט לא משקף.
היו"ר שמחה רוטמן
¶
לא. זו לא המשמעות. אני אתן דוגמה מהקשר אחר. דיברנו בהקשר אחר על הנושא של מאגר מידע גנטי. מדינת ישראל אוספת דגימות גנטיות בכל מיני סיטואציות, היא יכולה לאסוף דגימות גנטיות כשבן אדם מתגייס לצבא, מאגר מח עצם, דם טבורי – יש כל מיני מנגנונים של איסוף של דגימות. אתה בא ואומר לי שמאחר שדגימות זה לא ממוחשב, אני לא יכול לסרוק, אני לא יכול לאתר מי זה, אני צריך לשמור על הדגימות ברמת שמירה מסוימת. אם אני אפענח את הדגימות, אז כל בן אדם שיש לו גישה למאגר, יוכל ישר לאתר את הבן אדם ורמת הרגישות תעלה. יכול להיות שיהיה לי אינטרס שיפענחו, ואז להפוך את מאגר הדגימות שהוא לא מפוענח ליותר קשה לשימוש, לדורש שאילתה פרטנית ספציפית על אדם מסוים ופענוח, ואני יכול לבוא ולהגיד: תפענח לי את כל המאגר. אם אני אגיד למדינה שבכל מקרה, גם אם היא לא תעשה שום פעולה, היא תצטרך להשקיע את אותם מאמצי הגנה, פיקוח וכו' על מאגר מפוענח או על מאגר לא מפוענח, היא תגיד: את אותם מאמצים אני משקיעה, את התועלות אני רואה בקלות, אז אני כבר אפענח. ובגלל שלא יצרתי את המנגנון השונה, מנגנון הפיקוח, מנגנון הרגולציה השונה, אז יצרתי תמריץ להחזיק את המידע הכי פוגעני, הכי רגיש, כל הזמן, כמה שיותר, כי עלויות יהיו לי כבר בכל מקרה: עלויות ההגנה, עלויות הרגולציה, עלויות הרישום, החשיפה לעיצומים – הכול יהיה אותו דבר. אם כבר, אז כבר. וזו לא גישה נכונה. אני רוצה שגוגל לא יפענחו את הרגלי הגלישה שלי כדי לזהות את הנטייה המינית שלי, אלא אם כן יש להם צורך בזה, ואז שיעשו את זה למאגר ספציפי וירשמו אותו כמו שצריך.
עמית יוסוב עמיר
¶
זאת לא הגישה שאנחנו מציעים. ועוד שנייה אני גם אגיע אולי להצעה שתוכל טיפה לצמצם את הנוסח. כמובן המטרה היא לא להגיד שהכול בעל רגישות מיוחדת, אבל צריך להבדיל בין המכולת לבין גוגל, או בין עסק בינוני לבין פייסבוק ואמזון.
עמית יוסוב עמיר
¶
אני אציע את הנוסח שחשבנו עליו, כי המטרה לא להגיד שאם אספתי שיר, ובמקרה מי שהקשיב לשיר הזה הוא יושב עכשיו בביתו, ובגלל שאני יודע שהוא הקשיב לשיר, זה כבר הופך להיות בעל רגישות מיוחדת.
אפשר לחדד ולומר שמדובר על מידע על צנעת חייו האישיים של אדם ואופן התנהגותו ברשות היחיד. זאת אומרת, המטרה היא לא להגיד מאיפה אספתי את פרט המידע כשהוא יושב בביתו. אם אני עוקב איך אדם מתנהג בתוך ביתו, זה רגיש.
היו"ר שמחה רוטמן
¶
במחילה. אני רוצה פה קו אחר. אני מבין את הקו הזה, אני לא חושב שהוא נכון. אני חושב שהוא גישת הכול או לא כלום, שמביאה אותנו ללא כלום במידה מסוימת. אני חושב שאנחנו צריכים להתמקד בהגדרות המידע הרגיש, להיצמד ככל הניתן ל-GDPR כשני קווים מנחים, כדי לוודא שזה לא הכול, אלא אם כן יש סיבה ממש טובה.
אני כן חושב שאנחנו צריכים בהגדרה האחת הזאת ללכת למקום של "צנעת אישותו ונטייתו המינית". ההגדרה של ה-GDPR זה בעצם צנעת אישותו ונטייתו המינית. זה העתק-הדבק. יש עוד הגדרות, וגם כשנסיים את ההגדרה הזאת נסתכל הוליסטית ואם נשכח משהו או נראה שצריך להוסיף משהו שמתאים לחברה הישראלית, נעשה את זה. אבל באופן עקרוני ההגדרה פה היא סופר רחבה וכוללת בתוכה פחות או יותר כל דבר.
עמית יוסוב עמיר
¶
אני מבין את הכיוון של אדוני, אבל רק להבהיר. נניח שבהסכמה עשיתי שטות או לא שטות, אני מסכים שעכשיו הטלוויזיה החכמה שלי תצלם אותי בבית. אין פה פגיעה בפרטיות לפי סעיף 2, כי הסכמתי, ועכשיו המצלמה מצלמת אותי מסתובב בבית ואת כל מה שאני עושה, או מערכת הפעלת המחשב שלי מתעדת את כל הפעולות שאני עושה במחשב, מהראשונה עד האחרונה. זה קרוב לקריאת מחשבות, הדברים האלה.
היו"ר שמחה רוטמן
¶
יכול להיות שככל שזה יהיה Raw data, יכול להיות שזה יהיה מזהה ביומטרי, יכול להיות שזה יהיה הרגלי צריכה של אדם שיש בהם כדי ללמד על (1) עד (8), יכול להיות שזה יגלה את המוצא שלי, כי בהסתובבות בבית יגלו באיזה מנגינה אני שר את הפיוטים. זה שאנחנו יכולים לתאר סיטואציה שיכול להיות שהיא מאוד נפוצה, ויכול להיות שבביג דאטה היא עושה משהו, יכולים להיות כל מיני דברים, אבל האם זה רגיש? יכול להיות שאם ויתרת על זה, אז לא.
היו"ר שמחה רוטמן
¶
ויתרתי על הפרטיות, אבל לא ויתרתי שיישלח למאגר מידע, כי נורא מטרידה אותי שאלת המאגר, לא שאלת הפרטיות שלי.
היו"ר שמחה רוטמן
¶
יכול להיות שאתה בהתנהלותך הפכת אותו ללא רגיש, יכול להיות שכן, זה תלוי בהקשר אחר, לא לפי הגדרה אחת, לא לפי סעיף אחד. נעבור על כל הסעיפים. לא נצא מזה.
נעמה מנחמי
¶
(2) – ההצעה המקורית הייתה "מידע רפואי כהגדרתו בחוק זכויות החולה, התשנ"ו–1996", ומאז עברנו כמה תהליכים, בין היתר הבנו שהקישור לחוק זכויות החולה מתייחס רק ליחסי מטפל-מטופל, וזאת לא הייתה הכוונה, והיו עוד כמה ניסוחים בדרך.
הניסוח שהוצע ומוסכם עכשיו על הייעוץ המשפטי של שני הצדדים זה "מידע המתייחס למצב בריאותו של אדם".
אייל שגיא
¶
כמו שאמרתי קודם, אני בריא, הגעתי היום לכנסת. יש לכנסת מידע על מצבי הבריאותי בקורונה, כולם אספו מידע על מצבי הבריאותי. זה יחזור בכל ההגדרות, אין פה מסנן בסיסי של היגיון שאומר איפה הקו עובר, והתוצאה היא שאנחנו מתקדמים כרגע במסלול, כמו שאדוני אמר, שהכול יהיה מידע רגיש כי כל דבר יכול להיות מידע רגיש. ראו אותי הולך ברחוב ולא צולע, זה שאיני צולע זה מידע על מצבי הבריאותי. זה המצב.
שאלת איך השוק מפרש, כשבא לקוח ואומר: בריא זה מצב בריאותי, אני אגיד: מה אתם צריכים - - - הולכים להיות עליכם עיצומים כספיים עצומים, כי כתוב "מצב בריאותי", מצבו טוב זה מצב בריאותי טוב, יופי. הגעתי לעבודה חולה, כל מעסיק יש לו מידע בריאותי. לא נצא מזה.
היו"ר שמחה רוטמן
¶
ב-GDPR מצד אחד ההגדרה מאוד רחבה, אבל ב- recitalשם הם נותנים את הדוגמאות, ומהדוגמאות עולה שלכאורה ראיתי אותו הולך ברחוב ולא צולע זה לא נחשב. הצהרת בריאות פשוטה – אני בריא, לא הצהרת בריאות שאני סובל מקורונה. אגב, אני ודאי חושב שזה שאתה אומר שאתה בריא כרגע ואין לך קורונה זה מידע רפואי, אולי לא רגיש, אבל כשיש לך קורונה זה כן רגיש. יכולה להיות שם סיטואציה שתגיד: אני בריא היום. אני זוכר כמה טרלול של פרטיות היה סביב נושא הצהרת הבריאות – חוק הקורונה התבטל על כל האנשים שחתמו הצהרות בריאות חצי שנה כשהילד יוצא לגן – השרבוט הזה על הנייר שהם כתבו לילד, הפך להיות מידע רפואי שצריך להגן עליו ברמה הגבוהה ביותר, ואם הגננת אמרה למנהלת שהגיעו אליה היום 30 ילדים בריאים, היא עברה על החוק? יש פה צדדים לא שווים.
הדוגמאות של ה- recital הן לא שוות. וה- recital מאוד חשוב בהקשר הזה, כי ה- recital בא ומדבר על - - -
היו"ר שמחה רוטמן
¶
הוא רחב הרבה יותר, אבל כל המשלים שלו זה או "כהגדרתו בחוק זכויות החולה", דהיינו ביחסי מטפל-מטופל. זה הרבה מאוד מהדוגמאות, או מחלה, נכות, סכנה למחלה, היסטוריה רפואית, שזה קשור לזכויות החולה, השתתפות בטיפולים, בפסיכולוגיה, בביומדיקל. הוא באמת יותר מתכתב עם ההגדרה שהציעו מלכתחילה בהצעה של "מידע רפואי כהגדרתו בחוק זכויות החולה". ה- recital מאוד מתכתב עם ההגדרה הזאת. השאלה גם איך זה עובד בפועל.
ראובן אידלמן
¶
אני רק אגיד לפרוטוקול שאם המידע היחיד הוא על כך שבן אדם בריא, אנחנו לא נראה בזה מידע בעל רגישות מיוחדת, שמתייחסת למצבו הבריאותי של אדם, בהתאם להגדרה שמוצעת כאן. זאת לא הכוונה.
היו"ר שמחה רוטמן
¶
שבנו. דיברנו על הגדרת המידע הרפואי ועל כך שאומנם המילה של ההגדרה מאוד מאוד רחבה ב-GDPR, אבל הדוגמאות רובן ככולן יותר קרובות להגדרה של חוק זכויות החולה.
שחף קצלניק
¶
תודה רבה, אדוני. אני חושב שהמשמעות של השארת ההגדרה כמו שהיא כיום על מידע רפואי, אומרת למעשה שכל עסק בישראל הולך להחזיק מידע בעל רגישות מיוחדת, ואני אסביר.
שחף קצלניק
¶
ההגדרה כמו שהיא "מידע רפואי כהגדרתו בחוק זכויות החולה". כמעט כל עסק בישראל היום מקבל אישור מחלה של עובד. באישור המחלה בדרך כלל לא כתוב שום מידע פרט לעובדה שהעובד נעדר מהעבודה. המשמעות של זה על העסקים היא שכל אישור מחלה כזה שייאסף, ייכנס תחת ההגדרה של מידע בעל רגישות מיוחדת.
היו"ר שמחה רוטמן
¶
אני כבר אומר לך, בלי קשר לזה, אני מניח איפה עסק רושם אישורי מחלה של העובדים, במאגר העובדים שלו. אני מניח שמאגר העובדים שלו מכיל מידע רגיש מאלף סיבות אחרות, וזאת הבעיה הכי קטנה שלו.
שחף קצלניק
¶
לא תמיד, ויש החרגה לכך גם בתקנות אבטחת מידע. לפעמים יש מידע שנאסף לפי דרישה חוקית, ובאישור מחלה זה לא תמיד המצב.
היו"ר שמחה רוטמן
¶
לא הבנתי. מידע המתייחס למצב בריאותו של אדם – יש מיעוט ממידע רגיש אם הוא נאסף לפי חובה חוקית?
שחף קצלניק
¶
זה לא מה שאמרתי. אמרתי שמידת האבטחה על אותו מידע יורדת אם המידע הזה נאסף לפי דרישה חוקית. זו תקנה 2(ב) לתקנות אבטחת מידע בתוספת השנייה.
היו"ר שמחה רוטמן
¶
אני לא חושב שזה רלוונטי. יותר מזה, במאגר עובדים מן הסתם יכול להיות מידע גם על בן הזוג, זה בדרך כלל יגלה לנו נטייה מינית, לא תמיד. כאשר מדובר באישה, יהיה מתי היא יצאה לחופשת לידה, מתי לא, שזה מידע רפואי פר אקסלנס, חד-וחלק, בלי ויכוחים. בקיצור, במאגר מידע של עובדים יש שם פרטי מידע רגישים מאלף סיבות אחרות, זו הבעיה הכי קטנה שלנו האישור מחלה, כולל האמירה, ככל שבאישור מחלה כתוב "נעדר מעבודתו בשל מחלה", אני בספק אם זה נכנס להגדרה. תיאורטית אם יהיה לנו בן אדם שנעדר כל שבוע ליום, אז אפשר יהיה לדעת. אבל שוב, יהיה שם מידע של אנשים שנעדרים מעבודתם בשביל טיפולי פוריות.
היו"ר שמחה רוטמן
¶
ודאי שכן, כי זאת עילה ספציפית לאיסוף המידע, זו עילה ספציפית לשחרר. כשבא עובד ואומר: אני רוצה שחרור לצורך טיפולי פוריות, הוא מקבל עוד 40 שעות מחלה בחודש, כל מה שיש בדיני עבודה.
ראובן אידלמן
¶
אם לא כתוב למה בן אדם נעדר, אלא רק עצם זה שהוא נעדר ליום מחלה, זה לא בהכרח יהיה מידע על מצבו הבריאותי של אדם.
רחל ארידור הרשקוביץ
¶
אני חושבת שאת ההגדרה כרגע לא צריך לצמצם משתי סיבות. היא צריכה להישאר מידע המתייחס למצב בריאותו של אדם. הסיבה הראשונה היא שברגע שהורדנו את צנעת חייו של אדם מהסעיף הראשון, אנחנו צריכים לחשוב איפה פריטי המידע החשובים לנו והרגישים נכנסים. אחד מהמקורות שנכנסים בהם זה מידע על בריאות. בנוסף, ב-GDPR אני לא רואה צמצום, לא למידע שמתייחס במישרין, לא רק לבדיקות, להפך גם כתוב: מידע מ-medical device, שזה כל השעונים החכמים.
היו"ר שמחה רוטמן
¶
זו שאלה אם שעון חכם נחשב medical device, אני לא יודע, אבל מן הסתם יש על זה פרשנות.
היו"ר שמחה רוטמן
¶
אנחנו כבר נכנסים לשאלת העיבוד. במשרד הבריאות מאגר בזמן הקורונה, כל הילדים שהגיעו עם חתימה על הצהרות בריאות. זה גם קצת שאלת נישה. נאמרה פה אמירה לפרוטוקול שהיא מאוד חשובה, אני חושב שהפעלה של שכל ישר היא גם תמיד חשובה ככלל – למרות ש"שכל ישר", מכלל הן אתה שומע לאו, ויש שכל עקום, ואז זה מצב בריאותי, מנטלי – אני אומר שרוב הדוגמאות שם כן לוקחות אותנו למחוזות האלה. הדוגמה של המצלמה בבית, האם מאגר המידע של המצלמה בבית, בהנחה שעשינו את זה רק על צנעת אישותו של אדם, היא רואה שאני הולך על שתי רגליים, ללכת על שתי רגליים זה מצב בריאותי. כלומר, עד איזה רמה? מצב בריאותו של אדם בהגדרה הכי רחבה זה הכול, וכל דבר מעיד על מצב הבריאות, בוודאי אם אנחנו עושים "מעיד על", ולכן מאוד חשוב רמות ההסקה הנדרשות, כי כל דבר מעיד על מצב בריאותי. זה שאני יושב פה עכשיו זה מעיד על המצב הבריאותי שלי.
עמית יוסוב עמיר
¶
אנחנו הצענו את נוסח המידע המתייחס למצב בריאותו של אדם. זאת אומרת, זה קצת יותר מ"מעיד".
היו"ר שמחה רוטמן
¶
אני בינתיים משאיר את זה "מידע המתייחס למצב בריאותו של אדם". נמשיך הלאה. אין לנו פה דברי הסבר, אני כן חושב שעיקר השימוש כן אמור להיות בהגדרה הזאת. אולי הייתי עושה "מידע המתייחס למצב בריאותו של אדם, לרבות מידע רפואי כהגדרתו בחוק זכויות החולה", כדי כן לעשות את ההכוונה. לנסות לייצר הצעה שמכוונת אותנו לעולם איסוף המידע הרפואי, שנמצא במסגרת משהו מיוחד ולא סתם כמו החולצות עם הסמיילים איך אני מרגיש היום.
רחל ארידור הרשקוביץ
¶
אדוני, צריך גם לחשוב על זה שגוגל למשל בשאילתות החיפוש שלה יכולה לדעת משאילתות החיפוש בסופו של דבר גם אם אני לא חולה.
היו"ר שמחה רוטמן
¶
לכן אני אומר שלא צריך לצמצם, אני חושב שההגדרה הזאת נכונה. אני כן חושב שהדוגמה שלך על גוגל זה מידע, הרגלי צריכה שמעידים על פרט לפי 2. זה בהגדרה אחרת, זה לא פה. אחרת, רשימת הנוכחים פה היא מידע על מצב בריאותי, כי אם אתם פה, בוודאי בזמן הקורונה, אבל גם לא בזמן הקורונה, אני מקווה שלא באתם לפה עם מחלות מידבקות שידביקו אותנו.
עמרי רחום טוויג
¶
אם כבר גוגל מסביב לשולחן, הוויכוח הוא לא על מצב בריאותי של אדם. כמובן הרפרנס צריך להתייחס למצבו הרפואי, אני לא חושב שיש ויכוח לגבי זה. הוויכוח או ההצעה הם כמובן לדייק מה מידת דיוק ההסקה, כדי שתעיד באמת - - -
היו"ר שמחה רוטמן
¶
מידת הדיוק על ההסקה זה נכון לגבי הכול. וכשנגיע לסעיף שמעיד על (1) עד (8), נדבר על דיוק ההסקה.
עמרי רחום טוויג
¶
יכול להיות שנכון גם ברישא של ההגדרה של "מידע בעל רגישות מיוחדת", הרי כתוב "כל אחד מאלה". יכול להיות שכבר בפתח הרשימה נכון לייצר איזה ייחוס של מה מידת הדיוק. אני מזכיר את זה, כי זו נקודה חשובה.
היו"ר שמחה רוטמן
¶
נשמור את זה לסוף ההגדרה. "מידע גנטי כהגדרתו בחוק מידע גנטי". איך ההגדרה בחוק מידע גנטי? '"מידע גנטי" – מידע הנובע מבדיקה גנטית'.
עמית יוסוב עמיר
¶
ואם רוצים לצלול אפילו יותר לעומק, אז בדיקה גנטית מוגדרת כבדיקת דגימת דנ"א של אדם לשם אפיון והשוואה של רצפים של דנ"א. זה מאוד ממוקד.
נעמה מנחמי
¶
(4) – "מידע על אודות דעותיו הפוליטיות, או אמונותיו", הוספנו "הדתיות של אדם או השקפת עולמו". התוספות שמופיעות באפור, המטרה שלהן הייתה רק לדייק ולהבהיר מה הכוונה בהצעה של "אמונותיו של אדם", שהייתה בהצעת החוק הממשלתית.
עמית יוסוב עמיר
¶
חשוב לומר, זאת ההגדרה של היום, שדעותיו ואמונותיו של אדם מוגדרות כמידע רגיש. הכוונה היא לפרט למה בדיוק מתכוונים, ומה שלא מתכוונים לא ייכלל כמידע רגיש. אלה נראים הדברים שיש להם רגישות מיוחדת.
היו"ר שמחה רוטמן
¶
השאלה היא מה זה דעה פוליטית. האישי הוא הפוליטי כידוע. המונח פוליטי מפורש לפעמים כפוליטי-מפלגתי, תלוי בסיטואציה, כפוליטי לא מפלגתי. איסור תעמולה פוליטית זה בדרך כלל על תעמולה מפלגתית או שקוראת להצביע לאדם זה או אחר, או להימנע מהצבעה של זה או אחר. לכאורה יש אנשים בדעות פוליטיות שונות, אבל הם באותה מפלגה. יש מדינות ששאלות מסוימות הן בכלל לא שאלות פוליטיות אצלן, כי אין עליהן ויכוח פוליטי, ואז אולי זה נכנס להשקפות, אולי נכנס לדתות. זה שונה ממדינה למדינה. לצורך העניין, העמדות Pro-Life ו-Pro-Choice בארצות-הברית הן עמדות פוליטיות, בישראל זה לא קו שבר פוליטי בשום מקום. אין מפלגות שעוסקות בזה בכלל. זה יכול להיות עניין דתי, זה יכול להיות עניין אמוני, עניין פילוסופי, אבל זה לא עניין פוליטי כהגדרתו. אין לנו שום מפלגה שבמצע שלה שאלת ההפלות בכלל עולה.
עמית יוסוב עמיר
¶
אני חושב שהרעיון פה שהסיווג הוא פוליטי. אם יש מאגר מידע שאומר שדעתו הפוליטית של אדם מסוים היא כזאת ושל אדם מסוים היא אחרת. יש מאגר מידע שהמאפיין שלו הוא פוליטי, מסווגים אנשים לפי דעותיהם הפוליטיות. לא חייבים לדבוק דווקא במפלגתיות, יש, כמו שאתה אומר, פוליטיקה שהיא לאו דווקא מפלגתית, אבל זה חייב להיות מאפיין פוליטי. אם נושא ההפלות לדוגמה הוא לא נושא פוליטי בישראל, זה לא ייחשב כמאגר מידע - - -
היו"ר שמחה רוטמן
¶
הוא ייחשב אולי לעניין אמונות דתיות. המאפיין של משהו כפוליטי או לא פוליטי זו השאלה האם הדבר הזה שנוי במחלוקת פוליטית.
אני יודע שזה נושא רגיש, בטח מסביב לשולחן הזה, אבל למשל כאשר עלתה טענה, ואני מביא את זה בכוונה כדוגמה, עלתה טענה בשאלה האם נאומה של נשיאת העליון בסוגיית הרפורמה, האם זה פוליטי או לא. אם זה פוליטי, אסור היה לה להתבטא, אם זה לא פוליטי, זה מקצועי? השאלות האלה נידונות בהרבה הקשרים אחרים, ולכן ההבחנה מהו פוליטי, מהי השקפת עולם, מה שנוי במחלוקת, האם העובדה שמשהו שנוי במחלוקת פוליטית בין מפלגות הופך אותי לפוליטי או לא לפוליטי היא שאלה שנדונה בהרבה מאוד הזדמנויות, וזה יכול להיות מרחיב וזה יכול להיות מצמצם.
כאשר אנחנו עוסקים בסופו של דבר בפוטנציאל החשיפה, אם כל דבר יכול להפוך לפוליטי, אז ממילא כל מידע על אדם משקף איזה עמדה פוליטית. אם אנחנו לוקחים פוליטיקה מפלגתית, אולי זה מצמצם מדי. צריך פה איפשהו לחשוב וגם באיזה רזולוציה.
ניר גרסון
¶
ההתלבטות נכונה, אבל יש פה כמה רכיבים וחוט השני בהגדרה של כולם. לא חייבים להבחין דווקא מה השקפת עולם, מה אמונה דתית או מה - - -
היו"ר שמחה רוטמן
¶
אין ספק, אבל אז זה אומר שאני מוסיף את המילה "השקפת עולמו", כדי לוודא שאני כולל את זה.
ניר גרסון
¶
חוט השני בין כולם שפשוט הם לא סתם דברים כמו אמונה שוורוד זה צבע יפה, שאני מאמין שוורוד זה צבע יפה. לא לזה זה מכוון, אלא להשקפה יותר כוללת, יותר מלמדת על אדם באופן יותר מהותי, דברים יותר מובהקים ויותר גדולים.
היו"ר שמחה רוטמן
¶
שוב, תחשוב, במדינה כמו ארצות-הברית, רפובליקני או דמוקרטי, ככל שהסיווג זה חצי-חצי, להגיד שבן אדם הוא רפובליקני או דמוקרטי זה מידע רגיש? לא יודע. ודאי כן בהגדרה פה.
ראובן אידלמן
¶
גם ב-GDPR, אדוני. כך מקובל. צריך להגיד שצמצמנו לעומת החוק הקיים, שמדבר על דעותיו ואמונותיו באופן כללי. ההצעה שלנו מצומצמת.
היו"ר שמחה רוטמן
¶
השאלה שלך חידדה מבחינתי את הצורך להוסיף את המילים "או השקפת עולמו", מבחינתי זו הייתה החשיבות בשיח הזה, כדי להבין שאנחנו רוצים טיפה יותר רחב, אבל לא שוורוד זה צבע יפה. זה שוורוד זה צבע יפה זה אולי מעיד על תחומים אחרים, אבל לא על השקפת עולם.
לירון בנדק
¶
חברת הסעות שארגנה רשימה ממוחשבת של כל מי שנסע להפגין נגד הרפורמה בחקלאות. קרה מקרה בהתאחדות האיכרים. האם זה נחשב? זה כן היה פוליטי?
היו"ר שמחה רוטמן
¶
על פניו כן. ככל הנראה מפלגת ימין פוליטית כלכלית, לא תרצה את המפגינים האלה, או שתדע להיזהר מהם. זה מידע פוליטי פר אקסלנס.
לירון בנדק
¶
לאו דווקא. זה לא היה פוליטי ברמה המפלגתית. זה ספציפית רפורמה שלא הייתה כזאת. לא כל הימין היה כאן ולא כל השמאל היה כאן.
היו"ר שמחה רוטמן
¶
כנראה שזה ייפול יותר להשקפת עולם. פוליטי זה לא חייב להיות בין-מפלגתי. בתוך הליכוד יש קבוצת מתפקדים של נהגי מוניות, אז התמיכה ברגולציה כזאת וכזאת על נהגי מוניות היא שאלה פוליטית, שיש לה השלכות על הפריימריז בתוך הליכוד.
צחי שלום
¶
מצלמה שמצלמת שטח ציבורי, ומתקיימת שם הפגנה. זה מסמן אותנו באופן אוטומטי. וזה כל מצלמה שנמצאת בשטח הציבורי, שמצלמת עסק.
היו"ר שמחה רוטמן
¶
נכון. כשנגיע לשם.
נצא להפסקה של עשר דקות.
(הישיבה נפסקה בשעה 10:44 ונתחדשה בשעה 11:08.)
נעמה מנחמי
¶
הזמן שלנו לא מאוד ארוך, ויש לנו כאן אנשים שנערכים בכל פעם לדיון, ואנחנו לא מצליחים להגיע אליהם, שזה אנשי הזיהוי הביומטרי.
היו"ר שמחה רוטמן
¶
נסיים גם את 6, "מידע על אודות עברו הפלילי של אדם", זה לא מעורר בעיות. "מזהה ביומטרי – נתון ביומטרי המשמש לזיהוי אדם או לאימות זהותו, או אמצעי [זיהוי] ביומטרי שניתן להפיק ממנו נתון כאמור; לעניין זה "ביומטרי" – מאפיין אנושי, פיסיולוגי או התנהגותי ייחודי, הניתן למדידה ממוחשבת."
נעמה מנחמי
¶
יש פה הגדרה של מזהה ביומטרי, שהיא הגדרה בתוך הגדרה, אז כבר נאשר את שתיהן, ככל שהוועדה - - -
היו"ר שמחה רוטמן
¶
ההגדרה, לפחות ממה שאני רואה, ב-GDPR, זה כבר המידע המעובד, לא הניתן לעיבוד. זה דרמטי מאוד, בגלל שכמו שאמרנו, כל מצלמה ברחוב מכילה מידע ביומטרי שניתן לעיבוי וזיהוי אדם לפי מאפיינים מיוחדים, כל מיקרופון, כל הקלטה – הכול מכול וכול הוא מזהה ביומטרי, לפי ההגדרה של "ניתן ל-". לפי ההגדרה שעכשיו הוא מזהה ייחודי של אדם, אחרי העיבוד, אחרי ה-" specific technical processing" של ה-GDPR. שם אנחנו על קרקע בטוחה ומצוקה במה אנחנו מדברים, אז אני אשמח שתתייחסו לזה.
נעמה בן צבי
¶
תודה אחרי הבילד-אפ שהיה פה שלושה ימים. רק בשורה אחת מי אנחנו, זו יחידה שקמה אי שם ב-2011. אנחנו למעשה הרגולטור הממשלתי לעולם הביומטריה. אנחנו מפקחים על פרויקט התיעוד הלאומי והמאגר הביומטרי, אנחנו מנחים את כלל הממשלה, יש לנו מדיניות מפורסמת על פי החלטת ממשלה, guidelines וכו', ואנחנו גם עוסקים בתהליכי הזדהות, לאו דווקא ביומטריים. כלומר, אנחנו רואים את כל ה-360 - - -
נעמה בן צבי
¶
אני מיד אתייחס לנושא של הווידיאו, אני אתייחס לכול.
כאמור אנחנו שייכים למערך הסייבר הלאומי. תפקידו של מערך הסייבר באופן כללי הוא הגנת סייבר, אבל היחידה שלנו עוסקת לא רק בהגנת סייבר, בנושא הזה הדגש הוא דווקא יותר על ביצועי מערכות, איך המערכות האלה עובדות, וגם פרטיות ואתיקה.
ביחס להגדרה שהציג אדוני, שכרגע מופיעה בהצעת החוק. ההגדרה הזאת תואמת להגדרות קודמות בחקיקה ישראלית, שעסקה בביומטריה. בישראל למעשה מבחינת המטריה המשפטית עד כה יש חקיקות פרטניות לפרויקטים ביומטריים. הבולט זה כמובן המאגר הביומטרי הלאומי, התעודות והדרכונים, שכולכם ודאי מכירים, וגם יש את החסד"פ שעוסק בנושא הזה בהקשרים של המשטרה, יש תזכיר חקיקה שנוגע לביומטריה מזרים ולתיקון חוק הכניסה לישראל שאמור להגיע בקרוב לדיונים פה.
ההגדרה בחקיקה הישראלית התייחסה לאמצעי ביומטרי ולנתון ביומטרי, כשאמצעי ביומטרי הוא המידע הגולמי והנתון הביומטרי הוא התרגום הממוחשב, הקובץ הבינארי שאיתו המערכת משתמשת לצורך השוואה.
כאשר מסתכלים על ההגדרות של המדיניות שלנו, גם שם אנחנו מתייחסים לאמצעי ביומטרי ונתונים ביומטריים, ומתייחסים לשניהם כביומטריה. כמובן יש הבדל, אני מיד אסביר מהו. ההגדרות האלה גם נובעות מתקן ICO ומתקנים מקצועיים נוספים בנושא.
הדבר הראשון שחשוב לי להגיד שמבחינת הצד הקוהרנטי ההגדרה הזאת תואמת קוהרנטית להגדרות של התקנים המובילים, להגדרות של התקנים המקצועיים ולהגדרות בחקיקה עד כה.
ביחס למשמעות של ההבדל בין אמצעי לנתון. כמובן האמצעי הוא המידע הגולמי והנתון הוא התרגום הממוחשב.
אני אגיד באופן גס, למעשה כדי ליצור את הנתון, שהוא תבנית שאיתו מבצעים את ההשוואה, התבנית נוצרת פר אלגוריתם שבו משתמשים. אני בכוונה אשתמש בזיהוי פנים, כי אני יודעת שזה מודל שמסתכלים עליו פה בדיון.
כל מערכת ביומטרית לזיהוי פנים, ברגע שאתה מייצר את התבניות, התבניות האלה תואמות לאלגוריתם הספציפי. כלומר, אינהרנטית מלכתחילה זה מאגר שאנחנו קוראים לו "מאגר ביומטרי", אבל הוא פחות רגיש, כי אני לא יכולה להשתמש בו עם כל אלגוריתם. אם תפסתי מאגר כזה וקיבלתי אותו, אני לא יכולה לקחת אלגוריתם אחר, ואם אין לי את האלגוריתם הספציפי, למעשה אני לא יכולה להשתמש בו.
ולכן אנחנו מתנגדים לרידוד של ההגדרה כאן של המזהה הביומטרי, גם בגלל שהיא לא תואמת את - - -
נעמה בן צבי
¶
לא. קודם כול אמצעי. כלומר, גם בניסוח הייתי מחליפה את הסדר, הייתי מתחילה באמצעי ואחר כך בנתון מבחינת סדר החשיבות של הדברים. למעשה הערך החשוב ביותר מצוי במידע הגולמי, לא בנתון, לא בתבנית.
היו"ר שמחה רוטמן
¶
אני שואל שוב, האם לצורך העניין מאגר סרטי הווידיאו של ערוץ הכנסת, שמשדר לנו עכשיו, ותודה לכם על כך, הוא מאגר מידע רגיש, וממילא אנחנו איתו בבעיה מאוד מאוד קשה, כי הוא גם מפורסם לרבים אפילו?
נעמה בן צבי
¶
קודם כול, מקצועית זה מאגר ביומטרי, ודאי. כל סרטוני הווידיאו אני יכולה להשתמש בהם, ויש מערכות שיודעות להשתמש בזה, מערכות שעוסקות במה שנקרא "in the wild", אני יכולה להשתמש במערכות מסחריות כאלה לא מעטות. אנחנו מבינים את הקושי, ואני עכשיו אתמקד במודלים ספציפיים.
יש מודלים שזה ברור, טביעת אצבע, תמונת טביעת אצבע, אני לא מכירה שימוש אחר למעט השימוש של ההשוואה הביומטרית. פנים זה משהו אחר. לפנים יש משמעות כפולה, אפילו משולשת, כי תמונות פנים זה דבר שהיה קיים עוד קודם, ומבחינה חברתית, סוציולוגית, פסיכולוגית, אנחנו משתמשים בזה להמון צרכים אחרים, ולכן קיים פה קושי. וכבר חברינו ברשות להגנת הפרטיות רידדו למשל בתקנות אבטחת המידע את ההתייחסות לתמונות פנים – אני זוכרת מהדיונים אז – מאותה סיבה.
לכן ההצעה שלנו היא לתת ביטוי למודל הזה וגם למודל של הקלטות קוליות, אבל בעיקר לדעתי הקושי המשמעותי ביותר הוא לגבי תמונות פנים ביחס להכבדה הקיימת בסעיף של העיצומים הכספיים, בהתייחס לגודל המאגר. זה הפתרון שאני רואה.
ביחס למודלים האלה, שאנחנו יודעים שהם בשימוש חברתי יום-יומי וכו', ההצעה שלנו שעד למאגר של 100,000 למעשה יקראו למאגר הזה "מאגר בעל רגישות מיוחדת", זה גם מאוד מתאים, זה לא נכון להתייחס עם ההגדרה של הסוג של המידע, אלא במאפיינים של המאגר, כי על זה לדעתי צריך להסתכל. מאגר של עד 100,000 צריך לדעתנו לקבוע שיהיה עיבוד ביומטרי - - -
היו"ר שמחה רוטמן
¶
אני הולך ומשתכנע שההבחנה בין ביג דאטה לבין לא ביג דאטה צריכה להיעשות בהגדרה נפרדת, ואולי אפילו יהיה כתוב לפי פרט (1) שלא צריך ביג דאטה, כי לצורך העניין התנהגות מינית, מבחינתי כבר בשניים יש בעיה. בדברים אחרים יכול להיות שזה צריך לרדת לתקנות.
נעמה בן צבי
¶
אני אשלים את דבריי. לדעתנו במודלים, שגם הכנסת במסמך ההכנה פה התייחסה אליהם, שהם המודלים שנמצאים גם בהמון מקומות אחרים, אנחנו משתמשים בהם ביום-יום שלנו, לאו דווקא בהקשרים של השוואה ביומטרית, אבל הם ניתנים להשוואה ביומטרית, וזה כלי. זאת אומרת, המידע הביומטרי כשלעצמו ברוב המקרים, אני אגיד באופן גס, כי זה לא מדויק – כשלעצמו עם תמונת טביעת אצבע אין לי הרבה מה ללמוד על הבן אדם, הוא כלי לזיהוי שלו. זה לא נכון לכל המודלים, למשל דנ"א זה משהו אחר - - -
נעמה בן צבי
¶
אם זה ה-Index finger, זה יותר נפוץ. אבל ככל שהמאגרים האלה יותר גדולים הם הופכים להיות נכס אסטרטגי. תמונת הפנים הבודדת שלי, תמצאו את התמונה שלי, אם תגגלו את השם שלי או תיכנסו לפרופיל הפייסבוק שלי, אבל ברגע שהמאגר הוא גדול, ואנחנו מציעים למתוח את הקו בהתאם לדרגות שמציעה הרשות, וזה גם תואם למסמכים שלנו, לקווים שלנו של מעל 100,000, זה הופך להיות נכס אסטרטגי, ולכן לדעתנו פה כן צריך להתייחס גם למאגר כזה עם מידע גולמי כמאגר בעל רגישות מיוחדת, ולהטיל את העיצומים בהתאם.
נעמה בן צבי
¶
נכון, אז עכשיו אני רוצה רגע להתייחס להשוואה ל-GDPR. כזכור, ה-GDPR זו חקיקה שנכתבה אי שם בשנת 2012, לפני יותר מעשר שנים, היא נכנסה לתוקף בסביבות 2016. למעשה במיוחד בעולם זיהוי הפנים הקפיצה האדירה לזיהוי פנים נעשתה החל מ-2014, והיום אחרי עשור זו קפיצה. אין לי איך להגדיר אותה אלא כקפיצה מטורפת, גם מבחינת נגישות כלי הזיהוי או מערכות ההשוואה וגם מבחינת הדיוק. היום היכולת שלי לעבור ממצב שיש לי מאגר תמונות לתהליך של זיהוי ביומטרי הוא די פשוט. היום אני יכולה להשתמש למשל בשירות של Amazon Rekognition. אני מכירה חברה עם אלגוריתמים מאוד מתקדמים, שאתה יכול לקנות את זה באון-ליין ולהוריד תמורת סכום של 800 יורו. אפרופו הדיונים הקודמים על מאמץ סביר, אני חושבת שזה עלה באחד הדיונים הקודמים פה - - -
נעמה בן צבי
¶
הקפיצה הזאת מלהגיע לתהליך הביומטרי היא קפיצה שהיום היא יחסית נגישה. יש מוצרי מדף, העלויות לא יקרות, אתה יכול לקנות את זה כשירות. לכן צריך להביא את זה בחשבון. זה לא היה מזמן, אבל בעולם הטכנולוגיה עשור זה המון זמן. וגם צריך לזכור שהמבנה של החקיקה, לפחות כרגע אצלנו בישראל, הוא לא המבנה של ה-GDPR שמתייחס לדברים ששמענו פה בדיונים קודמים. יש פה עדיין התייחסות לגדלים של מאגרים. וכך אנחנו אגב מנחים את משרדי הממשלה. אנחנו בשנה האחרונה עשינו עבודת מטה - - -
נעמה בן צבי
¶
נכון, אבל למשל אנחנו רואים בכפל מאגרים, אני נותנת את הדוגמה הממשלתית, למרות שברור לי שהיא לא חלה על רוב הקליינטים של החקיקה הזאת, אבל כתפיסה שלנו למשל, ככל שיש יותר מאגרים זה מכפיל את הסיכון. אם המאגרים יותר גדולים, הסיכון יותר גבוה. לכן לדעתנו בהקשר הזה גודל המאגר הוא פרמטרי בלבד.
היו"ר שמחה רוטמן
¶
ברור. אני פשוט חושב לצורך העניין שאם את מזהה גודל מאגר שמהווה נכס אסטרטגי וכדומה, את יכולה לזהות נכס אסטרטגי בלי שום קשר לשאלת הגדרת הפרטיות שבו.
היו"ר שמחה רוטמן
¶
אני לא בטוח שאני זורם איתך על הגדרת המושג נכס אסטרטגי, אני לא מספיק יודע בשביל להתווכח איתך, אבל בלי לקבל את זה כנתון, אלא מה שאת אומרת, זה בסדר, זה לגיטימי, זה מספיק חשוב בלי שאני אמרתי, באופן עקרוני אנחנו לא נותנים לאנשים פרטיים להחזיק את הנכסים האסטרטגיים של מדינת ישראל, גם אם אין להם שום אלמנט של פרטיות.
כשאנחנו עושים פיקוח על הייצוא הטכנולוגי, אנחנו לא דנים בשאלה האם הפיתוח הזה עונה להגדרת סוד מסחרי בחוק עוולות מסחריות, או אם נרשם עליו פטנט, לעניין פטנטים. יכול להיות שזה לא מספיק לפטנט, זה לא מספיק חידוש לעניין פטנט, יכול להיות שאם אני אביא את זה לבוחן הפטנטים הוא יגיד שזה לא מספיק חידוש, יכול להיות שזה לא סוד מסחרי, יכול להיות שזה כן סוד מסחרי, אבל אם זה נכס אסטרטגי של מדינת ישראל, אני אשמור עליו באמצעים האסטרטגיים של מדינת ישראל.
נעמה בן צבי
¶
לא אמרתי שמדובר על נכס אסטרטגי למדינת ישראל דווקא, אני מדברת על נכס אסטרטגי באופן כללי, זה יכול להיות גם אסטרטגי מבחינה עסקית, זה יכול להיות נכס בעל משמעות. אם אני אתן לאדוני דוגמה ספציפית למשל, אני חושבת שכדאי אולי לדבר על Use cases, אני חושבת שזה יכול לעזור לדיון, למשל חברת Clearview, שאני בטוחה שכולכם מכירים, הנכס שלה, עם כל הכבוד, הוא אלגוריתם ההשוואה שלה, הנכס שלה הוא העובדה שהיא עשתה scraping ממקורות גלויים לחלוטין, ואספה תמונות בהיקפים משמעותיים מאוד. זו חברה שהיא כל הזמן under debate ותחת תהליכים משפטיים כאלה ואחרים, והיא ממשיכה לפעול. אתם יכולים להיכנס לאתר שלהם, אתם יכולים לראות מי הלקוחות שלהם. הנכס שלהם זה המאגר העצום שלהם, למרות שזה מאגר שנלקח ממקורות גלויים לחלוטין ברשת. אני מסבירה שמבחינת המשקל של הדברים ואיפה החשש נמצא, צריך להביא את זה בחשבון.
היו"ר שמחה רוטמן
¶
שוב, השאלה היא נכונה. יכול להיות שצריך לפתח כלי רגולטורי לנושא הזה. יכול להיות שצריך לדאוג שהמידע הזה לא ידלוף. לא בהכרח המשמעות של זה היא שהוא מידע פרטי עם רגישות מיוחדת. אין פה סימן שוויון בין הטענות האלה. לצורך העניין, תאגידי המים בישראל, השאלה כמה מים צרכתי בבית שלי, בוודאי אחרי שהורדנו את ההגדרה הרחבה של שימוש ברשות היחיד, אני לא חושב שהשאלה אם צרכתי 21 קוב או חמישה קוב בחודש האחרון זה מידע בעל רגישות מיוחדת, אבל זה ודאי מידע. עדיין תעשי אותה בביג דאטה, אני יכול לדמיין כמה נזקים אסטרטגיים שיכולים להיווצר למדינת ישראל, וברמה מסוימת אם תשמרי את המעקב לאורך זמן, אפילו שזה לא מידע לצילום מצב עכשווי – אם תעשי את זה ביג דאטה עם אורך זמן מסוים וכמות מידע מסוימת, תוכלי לגזור ממנו אחורה כל מיני דברים. ואם עוד לא פיתחו את השיטה, יושבים פה מספיק הייטקיסטים, קדימה, אפשר לפתח.
איסוף המידע הזה ממקורות גלויים, יכול להיות שקל, יכול להיות שלא. שעון המים שלי – אני מקווה שאני לא מגלה פה סודות מדינה – נמצא בחוץ. לא צריך להיכנס אליי לרשות היחיד בשביל לראות את שעון המים שלי, ויכול להיות שחברה תעשה ים כסף מלבדוק את מוני המים בעיר מסוימת על מידע שהוא יחסית גלוי. האם בגלל שייתכן לזה שימוש או שמחר בבוקר גם יהיה שימוש, תבואו ותציגו לי את המידע הזה, אני אבוא ואגיד שבגלל שזה כמות הקובים של מים שנצרכו ביחידת דיור מסוימת, בגלל זה זה מידע רגיש?
נעמה בן צבי
¶
לא. קודם כול, אני חושבת שהניסיון לעשות השוואה בין מידע ביומטרי לסוגי מידעים אחרים שדנים פה הוא קצת בעייתי, כי כמו שאמרתי קודם בגדול, באופן גס, המידע עצמו כשלעצמו, המשמעות שלו, החשיבות שלו, הרגישות שלו נובעת מזה שהוא מפתח למידעים אחרים.
המידע שאדוני הציג, בהנחה שהיו אוספים אותו, כשלעצמו הוא לא מידע - - -
היו"ר שמחה רוטמן
¶
נכון לעכשיו, כי עוד לא פיתחת את השיטה הסטטיסטית בביג דאטה לזהות לפי כמות הקובים מה אני חושב על האומנים בספוטיפיי.
עמית יוסוב עמיר
¶
אם אפשר לחדד, קודם כול צריך להבין שיש לנו פה הגדרה של מזהה ביומטרי, שהיא הגדרת עזר, ואחר כך הגדרה בתוך מידע בעל רגישות מיוחדת. קודם כול השאלה מהו מזהה ביומטרי היא גם נכללת בהגדרה של מידע, ופשוט יש פה את ההתייחסות המקצועית שקודם כול ברמת הסדר - - -
עמית יוסוב עמיר
¶
ככלל, המאפיינים עצמם של מידע ביומטרי לגישתנו, לגישת גורמי המקצוע, לגישת הפסיקה לצורך העניין – המאפיינים עצמם של מידע ביומטרי, בניגוד לצריכת המים של אדוני - - -
עמית יוסוב עמיר
¶
גם של אמצעי, ככלל. עוד שנייה אני אגיע לחריג. ככלל, הנתון הביומטרי הוא מפתח לא ניתן לשינוי. תיאורטית אפילו מספר תעודת זהות אני יכול להחליף, את טביעת האצבע שלי, את תמונת הפנים שלי, אלה מפתחות כמעט לא ניתנים לשינוי, ולכן גם הספרות, גם הפסיקה, גם החקיקה הקיימת, הכירו בהם כבעלי רגישות מיוחדת. קטגורית זה בעל רגישות מיוחדת, חד-משמעית.
אנחנו מודעים היטב לעובדה, וזה נידון גם עם הייעוץ המשפטי. יש פה קושי בגלל שתמונות פנים והקלטות קול הם כמו חומרים דו-שימושיים. בסוף יש פה שתי נפקויות: נפקות אחת אמרנו לעניין רישום מאגרי מידע, ונגיע לזה, גם ככה הספים שם הם מאוד מאוד גבוהים, לצורך העניין מידע בעל רגישות מיוחדת נכנס שם בתמונה על מאגרים של חצי מיליון - - -
עמית יוסוב עמיר
¶
ולעניין העיצומים הכספיים חשבנו להציע החרגה, גם לעניין הקלטות קול, ובעיקר לעניין תמונות פנים, שהתייחסו או למאגרים מעל 100,000 איש – שוב, האסטרטגיות, הרגישות, זה לעניין הפרטיות כרגע. אני מסכים עם אדוני שאנחנו לא מכניסים צרכים אסטרטגיים אחרים, אבל היקפי הפגיעה בפרטיות שיכולים להיות מדליפת מאגרים כאלה, גם אם זה רק אמצעי, גם אם זה רק חומר הגלם, לא מה שאומרים לנו פה גורמי המקצוע לגבי קלות ההעברה, דליפה של - - -
עמית יוסוב עמיר
¶
עזוב רגע מידע גלוי. מה שגלוי, הוא גלוי. איך אני צריך לאבטח מאגר מידע שברשותי, כמה אני צריך להקפיד על הוראות הדין, אנחנו מציעים לסכם את ההצעה שיהיה חריג למאגרים שלא נעשה בהם בפועל השימוש הביומטרי שקובע את הסף על 100,000 - - -
היו"ר שמחה רוטמן
¶
יש לי הצעה יותר טובה במחילה, אני חושב, כי זה משהו שיחזור על עצמו בעוד דברים, שנבוא ונגיד שיש מידע, יש מידע בעל רגישות מיוחדת, ויש סוגים שגם פה כדאי להשאיר, ואולי בשביל זה צריך את הסעיף של הכרזת תקנות באישור ועדה, לא יודע, עם הפניה לכמות. ואז נבוא ונגיד: מידע על תמונות מעל 10,000, מידע על קול מעל 100,000, לפי הטכנולוגיה, לפי המאמץ, זה גם יכול להשתנות ולהיות יותר גמיש, אבל נקרא לזה "סעיף הביג דאטה". לכאורה מאגר סרטי הווידיאו של ערוץ הכנסת, עם תוכנה של פחות מ-800 יורו, אני יכול להושיב מתכנת שיאתר לי בקלות. אולי יום אחד אני אחבר את זה למערכת הנוכחות של הכנסת, ואז אני אטפס בגרפים אצלנו, תחפשו לי באיזה ועדות נכח שמחה רוטמן, ובאיזה דקה ושנייה, ובהליך לא מאוד מורכב יאתר לי את זה. מילא אני דמות ציבורית, אין לי פרטיות בכלל, הלך עליי, אבל אני אוכל לעשות את זה גם על כל גורם שנמצא בכל ועדה, לפי אלגוריתם של זיהוי פנים. ואם הטכנולוגיה הזאת עוד לא קיימת בנגישות, בעוד שנה היא תהיה קיימת בנגישות.
היו"ר שמחה רוטמן
¶
היום רק את יודעת איך, אני עוד לא יודע איך זה מופעל, מחר זה יהיה אפליקציה בטלפון של כל אחד.
עמית יוסוב עמיר
¶
אדוני הביא קודם מהמקורות את ההבחנה בין הכלל לחריג. אנחנו אומרים שיש לנו פה חריג, אומנם הוא חריג מרכזי, הסיפור של תמונות הפנים והקלטות הקול, אבל אני אומר שמידע ביומטרי, לצורך העניין טביעות אצבע, הדוגמה הכי קלסית - - -
היו"ר שמחה רוטמן
¶
היום תמונות פנים, מחר בבוקר עוד לפני המערכון הידוע של מונטי פייטון על ההליכות המשונות, אפשר לזהות לפי צורת הליכה של אדם בדיוק מי הוא.
נעמה בן צבי
¶
דווקא פה אני חייבת להגיד, אדוני, שבעולם הביומטריה לקחת מודל ולהפוך אותו למסחרי ולסקלבילי זה לא דבר פשוט, זה לוקח לא מעט שנים.
היו"ר שמחה רוטמן
¶
שוב, האם מחר בבוקר לא יהיה מישהו שיוכל לעשות את זה גם אם כולנו נלך עם כיסוי פנים למשל לפי צורת הליכה?
נעמה בן צבי
¶
ודאי יש היום אלגוריתמים. למשל בתקופת הקורונה האלגורתמיקה התגברה על הנושא הזה בתוך ארבעה-חמישה חודשים.
עמית יוסוב עמיר
¶
אדוני, מה שאנחנו מבקשים להציע שיהיה כלל ויהיו לו חריגים. אנחנו פה בשלב החריגים. קודם כול אנחנו מבקשים לתקף את הכלל, שככלל מידע ביומטרי הוא מידע רגיש. אם יש, ויש, אנחנו מודעים לזה, פריטים מסוימים שהם דו-שימושיים, ואדוני אומר שאולי יהיו בעתיד עוד כאלה, או כנראה יהיו עוד כאלה, יצרנו מנגנון החרגה מסוים, אפשר לחשוב על מנגנון החרגה אחר, אולי ברמת חקיקת משנה. קודם כול להגיד שככלל מידע ביומטרי, שוב טביעת האצבע שלי, גם אם היא לא - - -
היו"ר שמחה רוטמן
¶
נחשוב על זה. הייתי נוטה לחשוב דווקא שנתון הייתי מכניס יותר בקלות מאשר אמצעי. אני יודע שאמצעי זה יותר רגיש לכם.
נעמה בן צבי
¶
אני רק אומרת שוב שזה אומר שיש פה מאגרים ביומטריים שיסתכלו על החקיקה הזאת, ובניגוד למה שהיה עד עכשיו ב-15 השנים האחרונות יפרשו אותם כמאגרים לא רגישים.
היו"ר שמחה רוטמן
¶
לא לעניין ההגדרה של מזהה. אני מדבר לעניין המידע הרגיש. ההגדרה של מזהה מקובלת. זה ודאי יהיה מידע מוגן בהגנת הפרטיות. לגבי השאלה של הגדרת מידע רגיש, נתון, משהו שכבר נעשה עליו עיבוד, לפי ה-GDPR בעיניי פשוט, כי כבר עכשיו הוא מזהה ייחודי, בלי הפעלת שום אלגוריתם, שום איתור, כל סרטון וידיאו הוא מאגר של מזהים.
נעמה בן צבי
¶
אני חייבת להתייחס לנקודה הזאת. אני חושבת שזאת תהיה טעות מקצועית לומר שתבנית היא נתון רגיש ואילו המידע הגולמי הוא המידע הרגיל. התבנית מבחינתנו היא המידע הפחות רגיש, אנחנו גם מתייחסים לזה כך בכל התהליכים שאנחנו עושים מול מעברים כאלה.
היו"ר שמחה רוטמן
¶
מה יותר רגיש? הרי כשלוקחים בדיקת דנ"א, אפשר לבדוק אתרים מסוימים, אפשר לפענח את כל הדנ"א. לפענח את כל הדנ"א זה דבר מסוים, לפענח אתרים מסוימים, זה גם יותר מהר, גם יותר זול. בסופו של דבר פענוח של ארבעה, חמישה, שישה, שבעה אתרים בדנ"א מספק לי מזהה ביומטרי ייחודי, דגימה של מקום אחד לא מספקת לי.
נעמה בן צבי
¶
פענוח בדרך מסוימת של דגימת דם נניח תיתן לנו מזהה ביומטרי, זה נקרא "Rapid DNA", ההבדל הוא שכדי לעשות את הפענוח הזה, נדרש די הרבה, מכשור מיוחד. קודם כול, דווקא בנושא של הדנ"א, הנחת המוצא שלנו זה שאנחנו לא מדברים על אוסף של דגימות ביולוגיות בהקשר הביומטרי, אנחנו מדברים על ייצוג ממוחשב, על מעבר של הדנ"א לייצוג הממוחשב.
היו"ר שמחה רוטמן
¶
סרטון וידיאו במידה מסוימת, אני מסתכל עליו יותר כדגימת דנ"א, לפני שהפעלת עליו את האלגוריתם. אחרי שהפעלת עליו את האלגוריתם, הוא כבר ה-Rapid DNA. זה הפשטה, אבל בסופו של דבר אחרת כל סרטון וידיאו שמצלם את המרחב הציבורי, הכי ציבורי שיש, הוא הופך להיות מאגר מידע בעל - - -
נעמה בן צבי
¶
גם אנחנו היינו רוצים למשל שימחקו את הסרטונים האלה, ואולי בתדירות יותר גבוהה, וזה הפתרון.
היו"ר שמחה רוטמן
¶
אני מסכים, ולכן אני חושב שהדרך לבוא ולהגיד שהמזהה הביומטרי, מה שהופך מידע למידע רגיש, הוא נתון, ולגבי האמצעי, שם או מה שאנחנו יודעים לכתוב עכשיו, נכתוב עכשיו, או שלא, אבל לגבי האמצעי, מאחר שאמצעי זה הכול, ומה שאנחנו כותבים היום, אני לא יודע מה יהיה בעתיד, אמצעי הוא הכול, לגבי אמצעי נעשה את ההגדרה לפי כמות.
נעמה בן צבי
¶
זה לא יהיה נכון לומר שהנתון הוא המידע הרגיש יותר וצריך להתייחס לרגישות באמצעות פרמטרים אחרים.
נעמה בן צבי
¶
הרגישות נובעת מהפעלת התהליך הביומטרי. המידע עצמו שחשוב לתהליך הזה, והוא בעל ערך, הוא לא הנתון.
נעמה בן צבי
¶
נכון, לכן אני מציעה לאדוני ולפורום הזה, כאשר מדברים על רגישות, לדבר על התהליך של ההשוואה, ולא על ההגדרה של המידע, כי אז תצא שגיאה תחת ידינו.
נעמה בן צבי
¶
זה מה שאני מציעה. לכן צריך לעבור לאזורים שבו המאגרים האלה מתוארים, כאשר כרגע זה בפרק העיצומים. אני לא יודעת מה כלול - - -
(הישיבה נפסקה בשעה 11:38 ונתחדשה בשעה 11:41.)
עמרי רחום טוויג
¶
אני רוצה להגיד שני דברים, ואני חושב שהחשוב ביניהם הוא שוב עניין התאימות. אנחנו מתייחסים ל-GDPR וכולם מפנים להגדרה של מידע ביומטרי ב-GDPR, כשאני מסכים עם אדוני לחלוטין שמתייחס לנתון ולא לאמצעי, אבל אנחנו מתעלמים מעוד דבר, סעיף ה-special categories of personal data, אותו סעיף 9 ב-GDPR, לא מתייחס רק למונח "biometric data", הוא מתייחס ל-"biometric data for the purpose of uniquely identifying", כלומר, הוא מביא בחשבון שימוש בפועל.
עמרי רחום טוויג
¶
כן, את מטרת השימוש בפועל, ואי-אפשר להתעלם מזה. לפטור את ה-GDPR בזה שהוא חקיקה ישנה, סליחה, עם כל הכבוד, זו אמירה, אני חושב, שלא מדויקת. אומנם הנוסח הראשון עלה ב-2012, אבל החוק נחקק רק ב-2016.
דבר שני, ה-AI act האירופי שנמצא בחקיקה עכשיו, אותו חוק בינה מלאכותית, שהולך להיות אולי אחד הדברים הכי מחמירים בעולם, מפנה בהגדרת "biometric data" ל-GDPR. זו ההגדרה גם ב-AI act שנדון היום. אי-אפשר לפטור את זה שזה ישן וכבר לא מעודכן. ה-AI act בהחלט מביא בחשבון מידע ביומטרי ואת היכולת לנטר אותו במרחב הציבורי, אי-אפשר להגיד שהוא מתעלם ממנו.
ולכן ההגדרה של "biometric data", שמגלמת גם נתון קודם כול ולא אמצעי, ודבר שני, כוללת גם את דרישת השימוש בפועל, for the purpose of identifying, זה ייצור חוסר תאימות אמיתי בין ה-GDPR לישראל וזה ייצור בעיה.
ענר רבינוביץ׳
¶
אנחנו מדברים פה על שימוש, על הגבלה למטרה, אז "המשמש לזיהוי חוזר". זה מאוד הולם איך שזה מתואר כרגע בתקנות אבטחת מידע, זה מאוד הולם את הרוח של ה-GDPR, כמו שעמרי אמר, זה מפשט את הדיון, אמצעי, נתון. בסוף השימוש זה מה שמדאיג אותנו, לא זה שיש תמונות או אין תמונות, או אם זה 100,000 תמונות או - - -
היו"ר שמחה רוטמן
¶
מה אתה אומר? שהגדרה של מזהה ביומטרי זה לא יהיה נתון ביומטרי המשמש אמצעי שניתן להפיק אלא רק האמצעי הנתון המשמש?
ענר רבינוביץ׳
¶
המשמש לזיהוי חוזר. לא סתם משמש לזיהוי, כי אז כל תמונה נכנסת לכאן, ואני לא חושב שלשים כאן מספר, כמות, זה מה שמשנה. גם ב-GDPR לא הלכו בהגדרות האלה לעניין של Scale, או של ווליום של דאטה. Scale נשמר לסעיפים אחרים, לצורך במינוי DPO, למינוי אי-רפרזנטיטיב. הם לא שם.
דן אור-חוף
¶
עוד מילה אחת בקונטקסט של ההגדרות בחקיקה הישראלית. אולי דבר אחד שלא הוזכר זה שתקנות אבטחת המידע שהותקנו מכוח חוק הגנת הפרטיות, תקנות שהותקנו ב-2018, הן מגדירות מידע ביומטרי ולא מזהה ביומטרי. קודם כול, נדרש יישור קו בין ההגדרות הללו. וההגדרה הזאת, אולי אפשר לקרוא אותה בכל מיני דרכים, אבל ההגדרה בתקנות הללו, לפחות בהבנה שלי, כן מתייחסת לנתון וגם לעובדה של השימוש לצורכי זיהוי. זאת אומרת, גם המטרה וגם העובדה שזה ניתן למדידה ממוחשבת. וזה אולי מקום למחשבה נוספת איפה אנחנו שמים את הקו.
דן אור-חוף
¶
עוד מילה אחת להשוואה, אדוני. בארצות-הברית יש מספר חוקים שמתייחסים באופן ספציפי למידע ביומטרי, והמוביל שבהם הוא חוק ממדינת אלינוי. הוא אכן חוק די מבוגר, הוא בן 20 שנה בערך, אבל שם בהגדרה הם מחריגים במפורש תמונות. יש שם אמירה מפורשת שאנחנו לא מתקרבים לתמונות, זאת אומרת, לא מתקרבים למידע הגולמי של התמונות כשאנחנו מדברים על מידע ביומטרי. וזה אולי עוד אינדיקטור מסוים. החוק הזה לא השתנה. החוק הזה הוא בסיס להרבה מאוד פסיקה בארצות-הברית והוא לא השתנה. וזאת באמת שאלה עקרונית על מה אנחנו מגנים כאן ובאיזה רמה, בגלל שנכס אסטרטגי לארגון מול הרשות זה אולי משהו מאוד חשוב, אבל לאו דווקא חוק הגנת הפרטיות זו האכסניה הנכונה לדון בזה. יכול להיות שזה אולי בהקשרים אחרים.
נעמה בן צבי
¶
כשאני אומרת נכס אסטרטגי, אני מתכוונת שככל שלמאגר תמונות יש ווליום יותר גדול, יש יכולת לעשות בו שימוש לחיפוש מסיבי של בני אדם בקפיצה יחסית פשוטה, ויותר אטרקטיבי לעשות שימוש במאגר בגדלים כאלה. מי שרוצה להציג את היכולת הזאת, ברגע שהוא יישען על מאגר כמה שיותר גדול, יש לזה משקל יותר משמעותי, והנזק יכול להיות יותר גדול. לכן אנחנו חשבנו שקו פרשת המים בסיפור הזה, ואנחנו מכירים בקושי, צריך להתייחס לגודל של המאגר כאן. אבל אם אדוני רוצה שנחזור ונחשוב על זה - - -
דן אור-חוף
¶
אני רק אציג ברשותך עוד אנומליה נוספת שאולי היא נקודה למחשבה, כי בסופו של דבר אנחנו עושים הסדרה שמחריגים לחלוטין מאגרים שהם לא למטרות עסקיות, ואם אנחנו קובעים שהאמצעי, זאת אומרת, שתמונות שיש בהן פנים של בני אדם הן אכן מידע רגיש, והוא נכנס גם להגדרה של מזהה ביומטרי, יש מאגרי ענק בידיים פרטיות, שהן למטרות אישיות. ואם באמת האמצעים להפיק מהם זיהויים ביומטריים היום הם זולים מאוד, אנחנו יוצרים מצב שמצד אחד החוק מתייחס אל היבטים עסקיים בצורה קשוחה מאוד, מידע רגיש צריך לאבטח אותו ברמה גבוהה וכו', ומצד שני, היקף עצום של מידע כזה שנמצא בידיים פרטיות למטרות פרטיות, שאין עליו שום הסדרה.
היו"ר שמחה רוטמן
¶
כל מצלמה שמצלמת את המרחב הציבורי של תושב תל אביב, שאני מתקין אצלי בבית, אם אני גר בתל אביב.
היו"ר שמחה רוטמן
¶
זה יכול להיות רעיון מצוין, אני מאוד אשמח, אבל זה לא קשור לחוק. התושב שגר במגדלי U ושם מצלמה שצופה לרחוב שמתחתיו, ההארד דיסק שלה הוא מאגר מידע שמכיל מידע על מאות אלפי אנשים שעוברים ברחוב.
היו"ר שמחה רוטמן
¶
אתה אומר שזה לא חל, אבל לצורך העניין, ההרצה של האלגוריתם, ולהפך, היכולת בגלל שזה מידע אישי, שמן הסתם אולי גם יאובטח פחות, האירנים יפרצו למצלמה הזאת יותר בקלות.
נעמה בן צבי
¶
בסדר גמור, אבל יש כנראה גם רצון להשית רגולציה על גורמים שיש להם מטרות עסקיות, ולכן לנכסים האלה יש תשובות אחרות.
היו"ר שמחה רוטמן
¶
אצלי לפחות אין אף פעם רצון להשית רגולציה כרצון. פוטנציאל הנזק לצורך העניין לא קשור לשאלת המחזיק במידע, לא קשור לשאלת - - -
היו"ר שמחה רוטמן
¶
לא קשור בהכרח לשאלת המחזיק במידע, הוא לא קשור בהכרח לשאלה האם המידע הוא פרטי או לא פרטי, כהגדרתו, הוא בוודאי לא רגיש או לא רגיש. ופוטנציאל הנזק יכול להיות מאוד מקיף, גם אם המידע הוא ציבורי.
נעמה בן צבי
¶
אם אני למשל בתור אדם פרטי אוספת פרטים על צנעת חייו של אדם, כל פרט אחר שאנחנו הגדרנו אותו כאן כמידע רגיש, ואני עושה את זה מכל מיני סיבות, גם החקיקה - - -
גלעד סממה
¶
אדוני, הרי ברור שמדובר כאן בניהול סיכונים. הרי בסופו של דבר אנחנו מבינים שיש במקומות מסוימים סיכונים יותר משמעותיים ומוטיבציות אחרות. אנחנו לא רוצים עכשיו להחיל כאן רגולציה על כל אדם ואדם.
היו"ר שמחה רוטמן
¶
ברור שלא. אבל אני הייתי רוצה בלי שום קשר לשאלת מאגר המידע והגנת הפרטיות שבנושא, שבעניין האסטרטגי של מדינת ישראל – ענר יכול לבוא ולהגיד שהוא היה רוצה, וזה יכול להיות בחוק אחר, זה יכול להיות בחוק הזה ולא בפרק שעוסק במאגרי מידע, או בחוק איסור צילום רשות הרבים ושמירת מידע, אני לא יודע – הסכנות שמצביעים עליהן העוסקים בתחום הביומטרי, והסכנות האסטרטגיות והנזקים והיכולות הם דבר אחד. ושאלת הרגולציה על בעל המכולת ששם מצלמה על המרחב הציבורי למטרת מניעת גניבה ואיתור, אם הוא גר בעיר קטנה, הוא לא יגיע ל-100,000, אבל אם החנות שלו נמצאת במרכז תל אביב, הוא יצטרך למחוק בכל ארבעה ימים, כדי לא להגיע ל-100,000. הפער הזה הוא פער לא נכון. ולכן שאלת השימוש או כוונת השימוש, כפי שאמרו פה, הוא מאוד מאוד משמעותי. והשאלה היא האם אנחנו יכולים להכניס את השימוש או את כוונת השימוש להגדרת המידע הרגיש, בוודאי כאשר אנחנו עוסקים בפלט וידיאו או אודיו. זה אפילו לא עניין של תמונות פנים, זה פלט של וידיאו או אודיו, כי כמו שאמרתי, אפשר לחבר את זה לתנועות גוף, אפשר לעשות תוך ארבעה חודשים התאמה לבן אדם שיש לו מסכה.
עמרי רחום טוויג
¶
אני רק אגיד שעניין השימוש כבר קיים לצורך הנתון. הוא לא קיים לצורך האמצעי. וזה הקושי שנוצר.
אייל שגיא
¶
יש הרבה מאוד חברות שחייבות להקליט את כל השיחות של שירות הלקוחות, לשמור אותן לפחות שנתיים. לפי זה כל המאגרים האלה, גם אם לא עושים בהם שום דבר - - -
ראובן אידלמן
¶
הצענו חריג מסוג מסוים בפרק העיצומים לגבי גודל המאגר, ואמרנו שמתחת ל-100,000 לא נראה - - - רגיש לעניין העיצומים. אדוני מכוון לחריג מסוג אחר. אולי נעשה איזה עבודה ונחזור עם הצעה.
טל מימרן
¶
רק ראוי לציין שפער בגישה בין ישראל למקומות אחרים ביחס למידע ביומטרי צריך להביא בחשבון את ההבדלים במציאות, למשל חובה שלנו להעניק מידע, למשל ביקורות משנת 2020 גם על ידי מבקר המדינה, גם על ידי הממונה על היישומים הביומטריים ממערך הסייבר על איכות ההגנה על מידע ביומטרי, ודבר שלישי, אנחנו מדברים הרבה על בעלי המכולת וכן הלאה, אני מודאג יותר מהביג-טק, כי אותה מערכת של כללית שדיברתי עליה, מי שמתפעל אותה זה מיקרוסופט.
כל ההבחנה הזאת של עולם האתמול בין החזקה של מידע ועיבוד שלו בידי ביג-טק, זה לא אישיו, כי אני יכול להכיל מערכות של בינה מלאכותית שעושות באופן אוטומטי את העיבוד.
היו"ר שמחה רוטמן
¶
אז תחשוב עכשיו איפה האינטרס של החברה. מיקרוסופט, אני לא מכיר את האינטרסים שלה, אבל החברה היותר קטנה, שהאינטרס שלה שהיא נותנת את שירותי הקול-סנטר ושמירת השיחות לאותה חברה שחייבת לשמור את השיחות, ושומרת להם את זה למשך שנתיים, נותנת להם את שירותי הקול-סנטר, האם היא תחשוב להתקרב אפילו עם מקל לניתוח ביומטרי של הדברים האלה או שהיא לא תעשה את זה. אם אתה אומר לה: בשנייה שאת אוגרת את האמצעי, אז היא תגיד: אני כבר בכל מקרה עושה את זה, אני אעשה את זה זיהוי ביומטרי וזה יקל עליי, הם גם יעשו את זה למטרה עסקית לגיטימית, פשוט כדי לוודא שאותו אדם שמתקשר, כל השיחות שלו, גם אם הוא מתקשר מהטלפון של אישתו, גם הן נספרות לטובת ההיסטורי שלו, אבל התוצאה תהיה שכל המאגר הזה יהיה ביומטרי, ואני לא רוצה את זה, כי אז הוא באמת יהפוך להיות בעייתי הרבה-הרבה יותר, אבל אם אני אומר שבשנייה שאגרת את הקולות אתה כבר בעולם הזה, אני אומר להם: תעשו את זה. וככל שהטכנולוגיה הזאת תהיה יותר קלה וזמינה, אני מעורר את הסכנה הזאת יותר, לא פחות.
טל מימרן
¶
צריך להיזהר שלא להתנתק מהמציאות, ולהכיר בזה שאם עד היום התרגלתי לזה שכאשר אני מדבר למיקרופון, אני אקבל פרסומת למקום שדיברתי על זה שאני רוצה לנסוע אליו, מחר המיקרופון יוכל לקרוא את המצב הנפשי שלי.
נעמה בן צבי
¶
חוץ מהתמריץ הזה שאדוני הציג עכשיו, גם יש תמריצים לדעת לאבטח את המאגרים האלה כמו שצריך, שחברי הציג את זה.
נעמה מנחמי
¶
בסוף שתי הפסקאות לפני (8), יש נוסח חלופי מוצע, "נתוני תעבורה, כהגדרתם בחוק סדר הדין הפלילי (סמכויות אכיפה – נתוני תקשורת), התשס"ח–2007, לגבי אדם ונתוני מיקום, למעט נתון יחיד לעניין נושא מידע שאין בו כדי ללמד על מידע לפי פרטים (1) עד (6) או (8) עד (9)".
עמרי רחום טוויג
¶
איך זה מצמצם? נתוני מיקום זה הרחבה מאוד מאוד גדולה, ונתוני מיקום שלא מעידים על שום מידע רגיש אחר, מה הופך אותם למידע רגיש? מה רמת האבסטרקציה של נתוני מיקום? מדינת ישראל? עיר? מחוז? נתון מיקום מדויק?
עמרי רחום טוויג
¶
לא. הוציאו את נתוני מיקום החוצה, וזאת הרחבה עצומה. וה-GDPR לא כולל אגב נתוני מיקום.
עמרי רחום טוויג
¶
אין בכלל. אם נתון מיקום מסוים מעיד על מידע בעל רגישות מיוחדת אחר ברשימה לצורך העניין - - -
ניר גרסון
¶
ההגדרה היא פונקציונלית. לפונקציות שאנחנו מגדירים עכשיו, ה-GDPR יחייב לעשות תסקיר, אפשר יהיה להטיל בגינו עיצומים בסכומים מאוד גבוהים. הוא מתייחס למשל לסיכון. החובה לעשות תסקיר למשל מתייחס לסיכון שנוצר לחירויות ולזכויות של אדם. נתוני מיקום של אדם יכולים - - -
ראובן אידלמן
¶
יש גוף באיחוד האירופי שתפקידו לפרש את ה-GDPR, הוא נקרא EDPB – European Data Protection Board – חשוב להגיד שבמסמכי פרשנות של ה-GDPR הוא מתייחס במסמכים, בחוות דעת גם מ-2020 לנתוני מיקום כמידע רגיש מאוד. נאמר שם בהקשר למכוניות מקושרות ודברים כאלה. בית המשפט העליון בישראל, בשורה של פסקי דין מהשנים האחרונות, כולל בהרכב מורחב ביחס לאיכונים שנעשו בתקופת הקורונה, מדבר על נתוני מיקום כמידע רגיש מאוד, שאפשר ללמוד ממנו הרבה מאוד על אדם, על קשריו החברתיים, מקומות שהוא נמצא בהם. צריך לזכור שנתוני מיקום זה מרפאה שאדם נמצא בה, זה בית תפילה שאדם נמצא בו.
היו"ר שמחה רוטמן
¶
כאשר אנחנו מדברים על נתוני מיקום, כהגדרתם בחוק סדר הדין הפלילי (סמכויות אכיפה – נתוני תקשורת), זה רדיוס מאוד מצומצם. להגיד שאני אתמול הייתי בתל אביב והיום בירושלים, זה שני נתוני מיקום שאין בהם כדי ללמד יותר מדי. הם לא נתוני מיקום כהגדרתם בחוק סדר הדין הפלילי (סמכויות אכיפה – נתוני תקשורת), כי הם לא אומרים באיזה טווח של מטרים ממגדל התקשורת הייתי. הם נתוני מיקום באופן כללי. זה אפילו האמירה שאני היום ואתמול הייתי בישראל, ברמה הכי כללית שיש.
ראובן אידלמן
¶
גם כשמעסיק מחייב עובד להתקין אפליקציה שעוקבת אחריו, וזה נושא שעסקנו בו לא מעט, והאפליקציה עוקבת אחריו לכל מקום שהוא הולך, ויש מאגר כזה אצל המעסיק, המאגר הזה הוא מידע רגיש.
אייל שגיא
¶
בשעון נוכחות הוא בא למשרדו, יש לי היסטוריה של כל החודש. הגיע ב-09:00 לעבודה, הלך ב-18:00, זה לא נתון יחיד - - -
היו"ר שמחה רוטמן
¶
א', מטריד אותי נושא הנתון היחיד ו-ב', רמת הרזולוציה של המיקום, כי לכאורה להגיד שאני נמצא בישראל, זה גם נתון מיקום. נתוני מיקום שאין בהם כדי ללמד על מידע לפי פרטים וכו', זה נתוני מיקום, בין אם זה אחד, בין אם זה שניים, בין אם זה עשרה. להגיד נתון יחיד, אתה אומר ששניים, למרות שאין בהם ללמד שום דבר עליי, בוודאי ברזולוציה הכי גבוהה שיש - - -
עמית יוסוב עמיר
¶
אני חושב שהכוונה, ואולי אפשר לחדד את זה בנוסח – הכוונה פה היא להבדיל בין נתון מיקום בודד, לא רציף, לבין העובדה שיש אוסף של נתוני מיקום. אוסף נתוני המיקום הוא הרגיש. ההפניה לחוק נתוני תקשורת הייתה טעות, כי בסוף היא מדברת על שהות בזק, לצורך העניין אפילו אפליקציות למיניהן שאוספות עלינו נתוני מיקום רציפים, לא היו נכללים בהגדרה, כי זאת לא הגדרת - - -
היו"ר שמחה רוטמן
¶
אתה צודק. אני מסכים איתך שהאפליקציה של גוגל, שמספרת לי בדיוק מפחיד איפה הייתי בכל דקה, היא מידע רגיש, אין ספק. היא יכולה והיא מלמדת עליי המון-המון דברים שנמצאים בסעיף (1) עד (8), לא כולל (7). כולל (7), אבל (7) זה הפניה עצמית. אין ספק. בלי שום קשר לשאלה אם הגדרה היא נתוני מיקום כהגדרתם בחוק. אני מסכים. לעומת זאת, נתוני מיקום בהגדרה רחבה או ברמת הרזולוציה שאני נמצא בירושלים, אני נמצא בישראל, גם זה יכול לגלות עליי מידע מאוד רגיש, ולכן השאלה היא לא רק הרזולוציה ולא רק הרצף, אלא השאלה בסופו של דבר האם נתוני המיקום, יש בהם כדי ללמד על מידע לפי פרטים מ-(1) עד (6).
אם אמרתי לבת הזוג שלי שאני בכנסת, והיא מגלה שבמקום להיות בכנסת אני בתל אביב, זה יכול לגלות עליי המון-המון מידע רגיש – על היחס ביני לבין אישתי, על מה יש לי בתל אביב. יכול לגלות עליי המון גם נתון יחיד וגם ברמת רזולוציה של עיר.
לכן השאלה היא לא האם נתון יחיד או מספר נתונים. נתוני מיקום שאין בהם כדי ללמד על מידע לפי פרטים (1) עד (6) או (8) עד (9) זה האירוע.
עמית יוסוב עמיר
¶
העניין הוא שצריך להעביר איפשהו את הגבולות. בחדר הזה הוועדה יכולה לאשר שנתוני מיקום רציפים הם רגישים.
היו"ר שמחה רוטמן
¶
הם רציפים. סליחה, יש פה לוח בכניסה. מילא חברי כנסת, אין פרטיות בכלל, כבר מזמן ויתרנו, גם על עובדי הכנסת. יש עובדי כנסת שנמצאים שם, היועצת המשפטית של הכנסת. אני יכול לדעת מתי היא נכנסה לכנסת, מתי יצאה מהכנסת. האם זה מידע רגיש? יכול להיות. האם ברמת רזולוציה? להגיד שהיועצת המשפטית נמצאת בכנסת, להערכתי זה לא מידע רגיש בדרך כלל, אין בו כדי ללמד על פריטים (1) עד (6) או (8), להגיד לך באיזה חדר בדיוק היא בכנסת, זה כבר משהו אחר, אבל ההגדרה של נתוני מיקום מכסה את הכול, ולכן זה תלוי הקשר.
ההגדרה מהותית היא טובה, וצריך לבוא ולהתייחס אליה, לנתוני מיקום, למעט נתונים שאין בהם כדי ללמד על מידע לפי פרטים (1) עד (6) או (8) עד (9).
עמית יוסוב עמיר
¶
אני רק מנסה שוב פעם להגיד שכאשר יש לי מכשיר טכנולוגי שעוקב אחריי באופן רציף, והיום זה לא משהו תיאורטי, אלא כל הזמן יש מכשירים טכנולוגיים שעוקבים - - -
היו"ר שמחה רוטמן
¶
אז הוא ייכנס לשם, כי מה שעוקב אחריי באופן רציף כמעט בהגדרה יגלה על פריטים (1) עד (6) אצלי.
לירון מאוטנר לוגסי
¶
לא עדיף במסגרת הוודאות להגיד לפחות על זה שמשהו באופן רציף, בלי הצורך להיכנס עוד פעם למבחן האם זה כן מעיד או לא מעיד, כדי לפשט את הדברים ולא כל הזמן להיכנס לדיון הזה?
היו"ר שמחה רוטמן
¶
אני שואל אותך שוב, האם יש לי עילה עכשיו לתביעה נגד כנסת ישראל שמספרת באופן רציף שהמיקום שלי הוא פה בכנסת?
עמית יוסוב עמיר
¶
עקרונית, לצורך העניין, אם אני עכשיו עובד במקום עבודה שלא נוהג לפרסם את הדברים האלה, ולא הסכמתי לזה, ופתאום עכשיו מפרסמים באופן רציף באיזה ממתקני המשרד אני נמצא כל יום, יכול להיות שכן, המידע רגיש.
היו"ר שמחה רוטמן
¶
המילים "יכול להיות" הן מופלאות. אני מאוד אוהב את המילים "יכול להיות". יכול להיות גם שלא?
עמית יוסוב עמיר
¶
לא כיוונתי לזה. יש הבדל בין העובדה שנתון מיקום - - - לבין אמצעי שכל הזמן עוקב אחריי.
היו"ר שמחה רוטמן
¶
אני מתקשה לחשוב על אמצעי שכל הזמן עוקב אחריי, שהנתונים שלו לא ילמדו על פרטים (1) עד (6), אבל אם יצליחו לעשות את זה, לצורך העניין ייצרו ברכיב שלהם שהם עוקבים אחריך באופן רציף רק בשעות העבודה, ואז העובדה שאני שוהה במקום העבודה בשעת העבודה איננה מידע רגיש. ולכן צריך פה לא לייצר אב טיפוס בפני עצמו, אב נזיקין בפני עצמו, אלא בדומה להרגלי הצריכה.
היו"ר שמחה רוטמן
¶
נתוני תעבורה זה יותר מזהה ייחודי, כי הוא בודק למי התקשרתי, זה סוד שיחו של אדם, זה מזהה מכשיר - - -
היו"ר שמחה רוטמן
¶
הספקנו בסוף עם קצת חריגה גם את פרט (7), וזה מצוין. דילגנו על פרט (5), הערכת אישיות. נפתח בפעם הבאה בהערכת אישיות. תודה רבה לכולם. ישיבה זו נעולה.
הישיבה ננעלה בשעה 12:08.