פרוטוקול של ישיבת ועדה
הכנסת העשרים-וחמש
הכנסת
39
ועדת הבריאות
06/05/2025
מושב שלישי
פרוטוקול מס' 336
מישיבת ועדת הבריאות
יום שלישי, ח' באייר התשפ"ה (06 במאי 2025), שעה 12:09
ישיבת ועדה של הכנסת ה-25 מתאריך 06/05/2025
אתיקה ורגולציה בשימוש בבינה מלאכותית על ידי צוותים רפואיים
פרוטוקול
סדר היום
אתיקה ורגולציה בשימוש בבינה מלאכותית על ידי צוותים רפואיים
מוזמנים
¶
לירון זהר - סגנית ראש חטיבת הטכנולוגיות, משרד הבריאות
ד"ר מרים פינק לביא - סגנית ראש חטיבת רפואה, משרד הבריאות
יואל בן אור - בריאות דיגיטלית, משרד הבריאות
רן מילמן - בריאות דיגיטלית, משרד הבריאות
אוראל שריקי בן צבי - רפרנטית עיצומים כספיים וחילוט, מחלקת משפט פלילי, משרד המשפטים
ירדן חפר - עו"ד, ייעוץ וחקיקה (חדשנות ומדע), משרד המשפטים
יואב סטשבסקי - משרד המשפטים
יוסף גדליהו - מנהל תחום בכיר מדיניות בינה מלאכותית, משרד החדשנות, המדע והטכנולוגיה
רחלי פרנקל - צמיחה וחדשנות, משרד הכלכלה והתעשייה
ד"ר לילך צולר - ראש אגף טכנולוגיות רפואיות ובריאות דיגיטלית, שירותי בריאות כללית
אדם ערוץ - מנהל הגנת מידע וסייבר, לאומית שירותי בריאות
ד"ר איתן בהירי - מנהל תחום אינפורמטיקה, קופת חולים מאוחדת
ענבר קמחי לוי - ר' תחום מדיניות ציבורית ואתיקה רפואית, ההסתדרות הרפואית בישראל
קרן משיח צוונג - רכזת הלשכה לאתיקה, ההסתדרות הרפואית בישראל
ד"ר יוסף ולפיש - יו"ר, הלשכה לאתיקה, ההסתדרות הרפואית בישראל
מלי קושא - יו"ר, לשכת האתיקה של האחים והאחיות בישראל
ברוך ליברמן - מנכ"ל ומייסד, חברים לרפואה
פרופ' יוסף פרס - נשיא, ארגון למענכם
ד"ר גד נוימן - סגן נשיא, ארגון למענכם
אשר רוכברגר - בית איזי שפירא
ד"ר עמיחי תמיר - יו"ר, ארגון הנכים זכויות הנכים
רישום פרלמנטרי
¶
נועם כהן, חבר תרגומים
רשימת הנוכחים על תואריהם מבוססת על המידע שהוזן במערכת המוזמנים הממוחשבת. ייתכנו אי-דיוקים והשמטות.
אתיקה ורגולציה בשימוש בבינה מלאכותית על ידי צוותים רפואיים
היו"ר רון כץ
¶
בוקר טוב, חברים, תודה שהגעתם, אני מתכבד לפתוח את ועדת הבריאות של הכנסת, התאריך 6 במאי 2025. אנחנו ממשיכים כחלק מסדרת דיונים על טכנולוגיה במערכת הבריאות, הנושא שלנו היום הוא אתיקה ורגולציה בשימוש בבינה מלאכותית על ידי צוות הרופאים. אני מאוד שמח שחבר הכנסת יעקב אשר, יושב ראש ועדת הפנים, פנה בנושא. זו פנייה שמתחברת גם לבקשה של שר הבריאות אוריאל בוסו וגם יו"ר הוועדה, יוני מישרקי, שכולנו מאוד, מאוד מודאגים ממה שקורה.
הקדמה פרצה בצורה מאוד משמעותית, גם למערכת הבריאות, אבל ככל שרצים קדימה, צריכים רגע להסתכל אחורה ולהבין על מה אנחנו מסתמכים ומה היסודות של אותם כלים שעושים בהם שימוש. למרות השחיקה המאוד משמעותית של הרופאים וההתעסקות המסיבית מדי לפעמים בפניות ציבור שמגיעות דרך אמצעים דיגיטליים, בטח אחרי הקורונה, שזה גדל בצורה משמעותית, עדיין בראש ובראשונה אנחנו צריכים לוודא שבריאות הציבור נשמרת ושהרפואה הישראלית שידועה כטובה מאוד נשמרת ככזו.
למרות הרצון להתייעל ולמרות הרצון והפיתוי גם ללכת צעד קדימה, כי זה נורא מהר, נורא טוב ולפעמים גם נותן מענה נכון, אם יש אחוז קטן לטעות שתפגע בחיי אדם או תפגע בבריאותו של אדם, אנחנו בוועדה הזו חייבים להרים את הדגל. כל הסובבים סביב השולחן הזה שותפים לאותה דאגה. ועם זאת, לאותו רצון לקדם את הטכנולוגיה הרפואית ולקדם את הקדמה. ולכן המטרה הסופית שלנו באמת תהיה למצוא את דרך המלך, לאזן בין הקדמה הרפואית שחייבת להתפתח ולהתקדם לבין שמירה על חיי מטופלים ובריאותם.
ונעבור לראשון הדוברים, חבר הכנסת יעקב אשר, בבקשה.
יעקב אשר (יהדות התורה)
¶
תודה רבה, אדוני היושב ראש. אני גם רוצה להודות ליושב ראש הוועדה יוני מישרקי על קיום הדיון. הוא גם אמר לי בשיחות שניהלנו שאתה משמש גם כיושב ראש ועדת משנה, שאלה בדיוק הממשקים הנכונים, ולכן אני שמח קודם כול על עצם קיום הישיבה ועל כך שאתה גם מנהל אותה, ואני בטוח שגם הוא וגם השר ילוו את התהליך הזה הלאה.
אין פה עניין של בעיות או תלונות, בסך הכול אנחנו מתעוררים לדבר שפה אני צריך להזכיר גם שמי שעורר אותנו לעניין הזה, לפחות אותי, וגם ראיתי על זה הרבה מאוד שיח והרבה מאוד מלל וחומרים רפואיים כאלה ואחרים, באמת ארגון למענכם בראשותו של הרב יוסי ערבליך שהעלה את הנושא הזה על סדר היום, נמצאים איתנו כאן מהארגון פרופ' פרס וד"ר נוימן.
והנקודה היא אחת, כמובן שאנחנו מברכים על טכנולוגיות חדשות, הטכנולוגיות החדשות הן חשובות מאוד, אין ספק שהן יהיו הקטר בהרבה מאוד דברים וכבר עכשיו אנחנו רואים שימוש נרחב בטכנולוגיות הללו, ולכן קודם כול אנחנו כמובן מברכים על כך. אבל ברור דבר אחד, שכניסה של טכנולוגיה כזו, ופה זו לא כניסה, זו פריצה, אין פה איזה לוח זמנים.
הפריצה של הטכנולוגיה הזאת, אם היא תיכנס בצורה לא סדורה, בלי רגולציה מתאימה, בלי הנחיות, וכמו שקראת לזה, אדוני היושב ראש, איזונים, איפה החלק האנושי ואיפה החלק הזה, כי הקדמה והטכנולוגיה באה לשרת את בן האנוש, וכשאנחנו מדברים כרגע על לשרת, אני לא מדבר כרגע על החולה, בוא נשים רגע את החולה בצד, את הפציינט בצד. הקדמה הזאת והטכנולוגיה הזאת של ה-AI אמורה לשרת את הרופא, אבל היא יכולה גם להפוך להיות משהו של לשים על אוטומט ויעבור. כל פעם מראים לי, בדרך כלל אלה ילדים במשפחה או משהו באים ומראים, תראו, הנה הרצאה על זה, הנה מבחן ב-GPT, הנה זה.
יעקב אשר (יהדות התורה)
¶
אמרתי שהראו לי את זה שכנים. שכנים אמרתי, ילדים שכנים. אתה יודע, אני כל כך שמח שיש לי משגיח כשרות, זה טוב לבריאות גם כן. ובסופו של דבר, אסור לנו שיהיה דבר, אני זוכר כשאני הייתי ראש עיר, רצו להכניס בעירייה את המערכת, אז זה היה דבר, מענה טלפוני. כלומר, טלפון שאתה מתקשר, משאירים הודעות וכולי, זה ישפר את השירות, יתן שירות והכול. ואני התנגדתי לזה, לא בגלל שאני חושב שהדבר הזה הוא לא נכון, הוא דבר נכון, אבל אם פקיד יודע שבסוף גם אם הוא לא מרים את הטלפון זה עובר לאיזשהו מקום, לא יגידו שלא ענו והכול, יורד ממנו חלק גדול.
כשאנחנו מדברים על רופאים, כשאנחנו מדברים על רופאים מומחים, כשאנחנו מדברים על רפואה שבאה קודם כול מידע ובאה מכישרון של הרופא ובא מניסיון של רופא, ואת הטאצ', לפעמים יש את הטאצ', אנחנו מכירים כולנו את הרופא שאתה כבר מגיע, הוא כבר זיהה עליך את הבעיה או שזיהה להגיד לך: תירגע, אתה סתם בסטרס. זה גם שכנים שלי סיפרו לי, אגב.
ולכן אנחנו חייבים לשמור ולשמר, וברור לי שכולם חושבים ככה, את המומחיות, את הידע ואת האבחון האמיתי, שהוא יכול לבוא, בטח כשמדברים על גוף האדם, הוא יכול לבוא רק בצורה גופנית ובצורה של ראייה, הסתכלות ותהייה. המחשוב והטכנולוגיות הם עזרים מצוינים שיכולים להקל מאוד על עבודת הרופא.
ולכן כל הדיון כאן, שאני מצפה שהוא יהיה דיון ראשון ותעשה גם דיוני מעקב, אבל באמת אחרי שנשמע גם את האנשים, אנשי המקצוע, כי אני באמת לא מבין גדול בתחום, אבל אני כן מבין בניהול אנושי. בסוף בני אדם הם בני אדם, ואם מערכות ייכנסו בצורה לא נכונה, ואם לא תהיה רגולציה של מה אסור בשימוש ומה מותר, מה מומלץ ומה עדיף שלא, כמה כובד משקל נותנים באבחון ובבדיקות לחלק הטכנולוגי וכמה לחלק האנושי, אם לא תהיה רגולציה כזאת, אם לא תיעשה היום הכנה לקראת העתיד שהעתיד הזה כבר פה, פרץ כבר אלינו עכשיו, אנחנו עלולים להגיע לסיכון גם בחיי אדם.
כי בסופו של דבר, אנשים מתרגלים, מערכות מתרגלות. ואם ההרגל הראשוני יהיה שהמערכות האלה, כי אני מבין שכרגע המערכות האלה מותרות לשימוש, אפשר להכניס אותן בכל בית חולים, בכל קופת חולים, כל רופא יכול בקליניקה שלו לעשות את זה, ואם אין היום הנחיות שמתחילות להבנות איך, זה יהפוך להיות משהו שהוא בלי חוקים, בלי מגבלות, בלי רגולציה, בלי כלום.
אני רואה בדיון הזה דיון חשוב מאוד, אדוני היושב ראש, ואני מודה לך שוב על העניין. ואני באמת מקווה שנעשה את זה בצורה, אתה תוביל את זה ביחד עם יושב ראש הוועדה, ידידי מישרקי, בסופו של דבר לאיזושהי ועדה של מומחים בטכנולוגיה, מומחי רפואה וכולי, ועדה שתקבל את הגיבוי או שתוקם על ידי משרד הבריאות, או שתלווה על ידי משרד הבריאות, שהיא תיתן את האסור והמותר בדבר הזה. אלה יהיו עשרת הדיברות, איך מכניסים את המערכת הזאת לפעולה. תודה רבה.
היו"ר רון כץ
¶
תודה רבה, אדוני. נמצא איתנו פרופ' יוסף פרס, נשיא ארגון למענכם ומנהל בית חולים שניידר לשעבר. אני שכן.
יוסף פרס
¶
בוקר טוב. ארגון למענכם הוקם לפני כ-14 שנים על ידי הרב יוסי ערבליך, זה ארגון שנותן הכוונה רפואית להרבה מאוד אנשים, כ-200-150 מקרים ויותר פניות כל יום שאנחנו נותנים בהתנדבות מלאה לאנשים תשובות. בתקופה האחרונה שמנו לב שיש פניות, כשמתעמקים בפניות, אנחנו מרגישים שיש שימוש יתר ב-Chat GPT, יש אנשים ששואלים שאלות שהן מוטעות ולא נכונות.
יוסף פרס
¶
Chat GPT וכל מיני, כמובן. אנשים פונים, בעיקר כשהם מקבלים כל מיני תשובות או תשובות מעבדה או תשובות אבחנה או מינונים, דלקת גרון, מה לטפל וזה, פונים ושואלים שאלות, וה-Chat GPT, לא תמיד, אם כל אחת מאיתנו ישלח עכשיו שאלה מסוימת ל-Chat GPT, אני חושב שחצי יקבלו תשובות שונות. ולא תמיד כל בן אדם יכול להיות אחראי על מה שהוא עושה. בעיקר אני אתייחס לנושא שאנחנו מדברים עליו היום בשלושה דברים: כרופא, כחוקר וכמנהל בית חולים לשעבר.
כרופא אני אומר שזה חייב להיות מעקב חד משמעי. Chat GPT נותן תשובות גם לאבחנות וגם למינון תרופות לאדם הרגיל, מה שכותבים. אבל כמובן שאנחנו יודעים, ילד קטן הוא לא מבוגר, בן אדם חולה שיש לו בעיות כבדיות או כלייתיות, פירוק התרופות הוא שונה. ההתאמה צריכה להיות על ידי רופא, נקודה. המכשיר לא יכול לתת תשובה לכולם אותו דבר.
היו"ר רון כץ
¶
אבל פרופ', גם אם הוא נותן את התשובה, אתה לא יכול ללכת ולקנות את התרופה, צריך מרשם רופא בכל מקרה, איך?
יוסף פרס
¶
לא משנה, אבל יש גם תרופות שאתה נותן. אחת הסיבות לאי ספיקה כבדית אצל ילדים שמגיעים להשתלה זה אקמול, ואקמול אתה יכול לקנות על המדף. ויש הרבה מאוד תרופות על המדף שאתה יכול להשתמש בלי מרשם רופא, כך שזה לא בדיוק מדויק. נכון שזה מה שאתה אומר, אבל בכל מקרה ישנם אנשים עם מחלות, ישנם אנשים קטנים וגדולים ומבוגרים וחולי סרטן שצריכים להתאים ולתת תשובות לכל אחד ואחד על ידי רופא.
מחקר – אתה חייב גם במחקרים הרפואיים כשאתה משתמש בבינה מלאכותית, אתה צריך לקחת את הנתונים הנכונים. אם אתה תשתמש במחקרים רפואיים עם נתונים שהם מוטים, המחקר יהיה מוטה ותהיה בעיה מאוד קשה. אני לא ממליץ לעשות ועדה להגביל מאוד שימוש בבינה המלאכותית במחקרים ולא להשתמש בזה, זו חובה להשתמש, אין כל ספק שזו קדמה, אבל צריכים חד משמעית להגביל ולבדוק אפשרות רגולציה כלשהי של שימוש בבינה המלאכותית גם בשימוש במחקרים.
הנושא השלישי, זה באמת חשוב, כמנהל בית חולים, איך שאני מסתכל על הנושא. הייתי מגביל גם את הרופאים והייתי אומר להם שאתה לא יכול לעשות העתק-הדבר ולהעביר למכתב שחרור או המלצות לפי מה שכתוב, מה שממליץ לך המכשיר. נכון, אנחנו מאוד ממליצים להשתמש, זו קדמה, שימוש בבינה מלאכותית, אבל ללא כל ספק יש צורך ברגולציה, בבדיקה, בהתאמה, ולתת גם ללמד.
כשניהלתי את בית החולים שניידר תמיד אנשים היו באים עם בעיות. תמיד הייתי מקבל את הבעיות והייתי אומר מה הפתרונות, תמיד חשוב לקבל פתרונות. אני חושב שאחד הפתרונות לנושאים שאנחנו מדברים עליהם היום הוא הדרכה, גם הדרכת אנשים של האוכלוסייה הכללית, איך להשתמש בבינה המלאכותית, מי שמשתמש, אבל לא פחות חשוב ללמד את הרופאים הצעירים, לתת שאלות מכוונות, ללמד אותם לקחת אנמנזה, כמו שמלמדים בבית ספר לרפואה שנה ד', שנה ו', לקחת אנמנזה מחולה, צריכים ללמד אותם איך גם להשתמש בבינה המלאכותית.
היו"ר רון כץ
¶
אתה חושב שהתופעה הזאת היא כל כך נפוצה? כלומר, מה אחוז הרופאים שלדעתך משתמשים בבינה המלאכותית?
יוסף פרס
¶
מאוד קשה לדעת, אני לא חושב שישנם, אבל ישנם מחקרים שאנשים בודקים. יש גם מחקר שהתפרסם לפני כחודש, דווקא מחבר המחקר הוא דן זלצר מאוניברסיטת תל אביב, שהוא פרסם מאמר ב-Annals of Internal Medicine, עיתון בין-לאומי למחלות פנימיות די ידוע, והוא חיבר 461 רופאים ובדק שימוש של מקרים מסוימים.
ב-57% מתוך כל המקרים הייתה באמת התאמה בין בינה מלאכותית והתשובות של הרופאים. היו 20% שבינה מלאכותית נתנה תשובות אפילו יותר נכונות מרופא, אבל היו מקרים מסכני חיים שבינה מלאכותית לא עלתה על זה, וזה יכול לגרום למוות.
בגלל זה אני אומר, ברוב המקרים זה כלי עזר מצוין, בינה מלאכותית היא כלי עזר מצוין לרופא, אבל צריכים למצוא דרך על ידי משרד הבריאות או גורמים אחרים שהרופא, בסופו של דבר הוא יהיה אחראי על המידע שמקבלים מבינה מלאכותית.
אנחנו בארגון למענכם, שאנחנו באמת מחפשים לעזור ולהדריך ולהקל על האנשים ועל הרופאים, יוסי ערבליך – יושב ראש הארגון – מצא לנכון לפנות לוועדת הפנים, לוועדת הבריאות ולשר הבריאות, להעלות את הנושא בכנסת ולמצוא פתרונות והמלצות איך להשתמש נכון בבינה המלאכותית.
היו"ר רון כץ
¶
תודה רבה, אדוני. ד"ר גדי נוימן, סגן נשיא למענכם וסגן מנהל בית החולים בילינסון לשעבר. אתם ממש קולגות.
יוסף פרס
¶
ברשותך, אם אנחנו כבר מדברים, אנשים לא יודעים להעריך את פתח תקווה בעיניי. אני תמיד הייתי אומר, כשאני ניהלתי את שניידר, פתח תקווה זו עיר הבירה של מדינת ישראל לרפואה.
יוסף פרס
¶
חמישה בתי חולים בעיר קטנה, לא גדולה. ואנשים לא יודעים לנצל, תמיד מפרסמים את פתח תקווה כ-20 דקות מתל אביב, אבל זה לא נכון.
גד נוימן
¶
איפשהו צריכים לגור. בוקר טוב לכולם, לי קוראים גדי נוימן, אני אורולוג במקצועי, שזה המקצוע הכי חשוב פה לכולם אני רואה. אני רוצה לתת כמה מילים. אני סגן נשיא ארגון למענכם ואני כאן כנציג הארגון, ותודה רבה על ההזדמנות לדבר. אני רוצה לתת סקירה קטנה, כי לא כולם, אולי חלק יודעים, חלק לא, חלק מחברי הכנסת אולי, אני לא ארבה במילים, סך הכול ה-AI נכנס למערך הרפואה כבר לפני שנים.
גד נוימן
¶
לא, בדיוק, זה מה שאני רוצה להדגיש. הבינה המלאכותית, Artificial Intelligence, זאת אומרת, זה לא רק Chat GPT, יש עוד הרבה מאוד אפליקציות, חלקן מדף, חלקן בפיתוח.
גד נוימן
¶
וסך הכול זה כלי עזר מאוד חשוב ומרכזי, אבל כמו כל כלי עזר, צריכים להכיר גם ביכולותיו וגם במגבלותיו. סך הכול הבינה המלאכותית בכלל מתבססת על Big Data. סקירה של Big Data, Machine Learning, מה שנקרא, לימוד מכונה, ובזה גדולתה, אבל בזה גם חסרונה. יישומים כמו Chat GPT רוצים הרבה מאוד לרצות את השואל וממציאים לעתים מזומנות הזיות, מה שנקרא Hallucinations. כלומר ממציאים עובדות כביכול ונתונים שלא היו. היה גם מקרה מפורסם שפורסם בבית המשפט, המציא תקדימים שלא היו.
גד נוימן
¶
אתמול פורסמה כתבה ב-Ynet שכתוב "פישלנו: גרסת Chat GPT החדשה מעוררת פאניקה ב-OpenAI". "עדכון שגרתי לכאורה הפך את Chat GPT לצ'אט בוט צייתן ומעודד יתר, גם כשמשתמשים מביעים מחשבות קשות. ב-OpenAI מודים בטעות נדירה, מציגים את שיטת האילוף ומזהירים מסכנות ממשיות לבריאות הנפש". במקרה, Scientific Ynet.
המחקר שפורסם בארצות הברית, אני אביא פה כמה ציטוטים רק. 65% מהרופאים פספסו טעויות קריטיות של AI, כולל טעות שעלולה להרוג. וזה פורסם בקרב רופא משפחה אומנם, אבל זה - - -
גד נוימן
¶
בעיה נוספת היא מידע חסר, זו אחת הבעיות ב-Artificial Intelligence, ב-AI, שיש מידע חסר או מידע חלקי ב-Big Data, ואז אנחנו פוגעים במיוחד באוכלוסיות, הרי הכול זו עקומת גאוס, ובאוכלוסיות המיוחדות שמבוססות על שינויים אתניים או על שינויים של גזע, מין, אוכלוסיות שוליים שמגיעות גם לטיפול כמובן, גיל, כמו שפרופ' פרס ציין, הן המועדות יותר לפגיעה.
הבעיה היא עוד יותר חריפה בתחום הפארמה, מפני שיש היעדר שקיפות מסוים, יש חוסר מידע, יש אי יכולת לאבחן וריאנטים שונים, מוגבלות בתחום האינטרפרטציה של תוצאות וביו-פרמקולוגיה.
גד נוימן
¶
לא, אם אתה מתבסס על, אתה לא תמיד יודע כשאתה נותן תרופה מה הביו-אקוויוולנט, מה התפקוד של הכליות, כמה צריך להתאים אותו למשקל גוף, כימותרפיה מותאמת לפי שטח משקל גוף.
גד נוימן
¶
מסתמך כי זה קל. אחרת זה לחשב, זה נוסחאות. רפואה היא הרבה יותר מאוסף של מידע סך הכול, והיא מתבססת על הקשרים רפואיים, זאת אומרת, על שיפוט, על אמפתיה, על ניסיון.
הבעיה הגדולה ביותר של הבינה המלאכותית היא ניפוק תשובות שהן False Positive, מה שנקרא מענה או תשובה שהיא חיובית כביכול, אבל היא בעצם שלילית. כי אמרנו שהוא רוצה לרצות, הוא רוצה להביא את התשובה הנכונה. עשו סקר בארצות הברית בפברואר 2025 בקרב נשאלים המבוטחים בביטוח בריאות, והראו, הסקר פה איתי, 66% מהנשאלים ציינו שאין להם אמון במערכת הבריאות אם היא תתבסס על AI. שבועת היפוקרטס שלנו, של הרופאים, מתבססת על העיקרון שאומר בכל מחלה צריך לעזור, אבל לפחות שלא תנסה להזיק. Primum non nocere.
הבעיה הנוספת של ה-AI, של הבינה המלאכותית, היא חוסר היכולת שלה להסביר ולנמק את התוצאות, בעיה גדולה מאוד. זאת אומרת, היא נותנת את התשובה, אבל כשאתה אומר לה תנמק מדוע הגעת לתוצאה הזאת, הוא לא יודע לנמק את זה, הוא לא יודע להגיע לתוצאה הזאת. כמו שהיה לנו בבגרויות, היה צריך להגיע לתשובה, אבל היה צריך גם להראות את הדרך, לא מספיק להגיע לתשובה. ואז גם הרופא לא יודע להסביר את הרציונל למטופל. הוא מאבד בעצם את ההיענות, את ה-Compliance, את ההיענות של המטופל.
גד נוימן
¶
מטופל אינטליגנטי רוצה לדעת, אבל למה? נגיד בתחום האורולוגי, זה עוזר לרוקן לכיס השתן? זה מקטין את הערמונית, דוקטור, הכדור הזה? לא, זה לא מקטין את הערמונית. ה-Chat GPT או דומיו יתנו את התרופה הנכונה, אבל הוא לא יסביר למה. אם רופא נתן, החולה אומר, טוב, אם הוא נתן. חוזרים לרפואה הפטריארכלית. זאת אומרת, מי שזוכר, הוותיקים, פה כולם צעירים, לא כמוני, אבל הוותיקים זוכרים את זה, הדוקטור אמר, תצא, אדוני בבקשה מהחדר, הדוקטור אמר, זו התרופה. זו לא הרפואה של שנת 2025 ועוד קצת קודם גם.
גד נוימן
¶
לא, החולה שואל את השאלות האינטליגנטיות, הוא גם בא עם חומר, הוא שואל. אני לקראת סיום. פרסום מעניין מאוד של ה-NIH, של ה-National Health Institute, נתנו 207 תמונות דימות לפיענוח על ידי רופאים בנפרד, CT, MRI, צילום חזה.
גד נוימן
¶
כן, בטח. ועל ידי AI בנפרד. מעניין, שיעור הפיענוח הנכון היה דומה, ממש. אבל כששאלו את ה-AI, תן הסבר למה, זאת אומרת, נגיד ראית אפילו מוקד בערמונית, במקרה אורולוגיה, או מוקד בחזה, תסביר שמדובר בכתם שהוא אינו סדיר, שהוא לא מסודר. הוא לא יודע להסביר למה, לא יודע להסביר למה, אי אפשר להתקדם.
גד נוימן
¶
- - - מתקדמים. שני מאמרים חשובים שפורסמו החודש כותבים את הכותרת Who's Fault When AI Fails? מי אשם כאשר ה-AI נכשל?
גד נוימן
¶
שאלה טובה. זה מסטנפורד. היעדר הרגולציה יוצר בעיה מבנית. אני נותן דוגמה מאוד חשובה בעולם התרופות והפארמה. כל תרופה וכל טיפול צריך לעבור אישור של FDA, בלי זה בכלל לא מתקדמים היום. אני כבר לא מדבר על רגולציה של אירופה אחר כך שבדרך כלל ממשיכה. פה, לעומת זאת, כל כלי בינה מלאכותית, אם אני מספיק טוב - - -
גד נוימן
¶
- - - אני יושב בחוץ, כותב איזשהו אלגוריתם סך הכול, אף אחד לא צריך פה אישורים, שום דבר, מכניסים את זה פנימה.
גד נוימן
¶
טוב או לא טוב, לא יודע, אולי הכלי מצוין. אבל בתרופות אנחנו צריכים לעבור איזשהו FDA שהוא נגיד הגולד סטנדרט, שאנחנו יודעים שתרופה שאושרה על ידי ה-FDA לפחות לא מזיקה, אולי גם יש את שיעור התועלת שלה כמובן, וכולי וכולי, תלוי באיזה פאזה.
גד נוימן
¶
רפואי, כן, ברור. ולסוף, היעדר רגולציה גורם לכך פורמלית, יוצר מצב שבו בית המשפט יאלץ יום אחד להכריע האם הטכנולוגיה שעליה התבסס הרופא או המטפל היא נכונה ומבוססת. זה לא הגיוני שבית המשפט יתערב בדברים כאלה, זה לא הגיוני שבית המשפט יקבע אם זה נכון או לא נכון.
יש פה עוד מאמר מאוניברסיטת טקסס, אני לא ארחיב. בקיצור, סך הכול היושב ראש של ארגון למענכם שהעלה את הדגל, יוסי ערבליך, הבהיר את עמדתו במכתב ששלח לשר הבריאות. כמובן שיש גם את הבעיה האתית, זה גם דיון אחר. האם הרופא צריך לגלות למטופל שהוא התבסס על AI? שאלה, שאלה מעניינת. כן? לא? בעידן כזה שנכנס דבר כזה חדש, מה חובת הגילוי? יש לנו חובת גילוי, לרופאים. אין ספק שכשיוסי ערבליך כתב את זה, את העמדה לשר הבריאות וביקש שתוקם ועדה שתמליץ על הסדרת הנושא וקביעת הרגולציה והנחיות ברורות, וגם בתי חולים ומוסדות רפואיים צריכים לקבוע אמות מידה וסטנדרטים ברורים לשימוש בבינה מלאכותית במוסדות שלהם בדרך שתאזן בין התועלת שיש לכלי כזה לנזק הפוטנציאלי שהוא יכול לגרום. תודה רבה.
היו"ר רון כץ
¶
תודה לך. יש לי רק שאלה. פשוט זה חלק מסדרת דיונים שאת הנושא הספציפי הזה חבר הכנסת יעקב אשר הרים והניף את זה כדגל, אבל האם לדעתך או לדעתכם בינה מלאכותית ייעודית לרופאים זה משהו שצריך לשקול, להמציא כלי כזה, או שאתם חושבים שהקיים הוא משהו שצריך לעשות לו רגולציה?
היו"ר רון כץ
¶
לא, השאלה האם אנחנו ניתן לו גישה למאגרים של קופות חולים, של בתי חולים. כלומר, האם צריך לעשות כלי ייעודי.
היו"ר רון כץ
¶
תודה רבה. כן. אנחנו נעבור, אנחנו נעשה מין פינג-פונג כזה, כי הדברים מאוד מעניינים ואני רוצה לשמוע דווקא את הקופות עכשיו. נמצאת איתנו ד"ר לילך צולר, ראש אגף הטכנולוגיות הרפואיות ובריאות דיגיטלית, שירותי בריאות כללית. דווקא בהסתמך על הדברים ששמעת, אלה דברים מטרידים, אני יכול לומר לך שכמי שבקדנציה הקודמת וגם קצת בקדנציה הזאת התעסק ברפורמה של השמיים הפתוחים של אירופה, מה שטוב לאירופה טוב לישראל, הנושאים שהיה הכי קשה להכניס לרפורמה היו הנושאים של משרד הבריאות, כי הנציגים ישבו על כל פריט, על כל דבר, על כל מילה ממש ברזולוציות, והבנתי אותם, כי זו באמת אחריות גדולה של בריאות הציבור. דווקא פה, כשאת שומעת ש-65%, 55%, אני לא יודע מה המספרים, מסתמכים על טכנולוגיות שהן יחסית פרוצות, מעניין אותי לשמוע איפה אתם ואחרי זה איפה משרד הבריאות נכנסים לתמונה. בבקשה, דוקטור.
לילך צולר
¶
צוהריים טובים ותודה גם על דיון מאוד חשוב. רגע לפני שאני אפרט אני אגיד שהרגולציה, קודם כול, יש רגולציה במדינת ישראל, גם על נושא של בריאות, אני תכף אפרט. זאת אומרת, אנחנו נמצאים במרחב שגם לגבי AI יש בו רגולציה. כשאנחנו מדברים על בינה מלאכותית, יש כל מיני סוגים של בינה מלאכותית. למשל יש למידת מכונה, ויש Deep Learning, ויש כל מיני מוצרים, בין אם אלה תוכנות ובין אם זה מכשור רפואי שמבוסס בינה מלאכותית.
לילך צולר
¶
רגע, אני תכף אפרט, אני אגיע לזה כמובן. כל הדברים שכללית משתמשת בהם, הם כמובן מקבלים את האישורים הרגולטוריים בעולם, אבל בישראל האישור הרגולטורי הרלוונטי הוא אמ"ר, זה אישור שמשרד הבריאות נותן לכל תוכנה או מכשור רפואי שיש בהם בינה מלאכותית ושהם קשורים בטיפול במטופל. אנחנו לא מדברים על סקר שירות של חוויית המטופל, אלא באמת תוכנות או מכשור רפואי משולב AI שמשתמשים בהם לנושא של טיפול במטופל.
לילך צולר
¶
קודם כול, יש אישורים רגולטוריים במדינת ישראל, כללית פועלת לפיהם. כללית הגדילה לעשות ואת כל הנושא של הכנסת מכשור רפואי מבוסס AI או תוכנות מבוססות AI, ממש בנינו כלי של איך מכניסים מוצרי בינה מלאכותית לארגון, לכלי הזה קוראים אופטיקה, אנחנו פרסמנו את זה ב-New England Journal of Medicine AI, שזה כתב עת מוביל בנושא, ויש התעניינות גם בארץ, ואנחנו כמובן בדיאלוג עם משרד הבריאות לגבי המשמעויות והתובנות בנושא.
בינה מלאכותית מהסוג של Deep Learning ואחרות, כאשר היא מגיעה לשימושים ברפואה, גם בישראל היא נמצאת תחת איזשהו סוג של פיקוח. אני אגיד שמעבר לזה יש גם בקרות מסוגים שונים שעושים למוסדות רפואיים, שמקורם גם מהארץ גם מהעולם, האקרדיטציה, יש להם פרק על בינה מלאכותית. זאת אומרת, אנחנו לא נמצאים בעולם כאוטי, אנחנו נמצאים בעולם הבריאות בעולם שהוא הרבה יותר מוסדר, למרות שהבינה המלאכותית היא חדשה לכולנו בכל התחומים שאנחנו עוסקים בהם.
היו"ר רון כץ
¶
רק שאלה לגבי נתונים. לכם יש נתונים כמה מהרופאים שלכם משתמשים בזה? לכי למרפאות, אני מניח שבבתי חולים זה יותר מסודר, אבל נגיד מרפאה, מרפאה של רופא משפחה, באחוזים, אתם יודעים כמה משתמשים בתוכנה?
יעקב אשר (יהדות התורה)
¶
לא, את דיברת עד עכשיו על דברים שמשמשים אתכם בדימות או בכל מיני דברים מהסוג הזה, זה לא הדבר הקלאסי של רופא. רופא, ייעוץ.
לילך צולר
¶
רגע, אני כבר נכנסת לזה גם. אני אומרת, כללית פיתחה גם כלים שעוזרים לנו לנבא הידרדרות של מטופל, יש כלי שמערך החדשנות פיתח לרופאי משפחה שנקרא C-Pi שעוזר באמת לרופא לכנס את כל הנתונים על המטופל יחד עם גיידליינס. אנחנו לא מדברים פה על דברים סתם ברשת שהם לא מבוססים, אלא רק על הדברים שהם הכי מבוססים בעולם הבריאות.
אני רוצה להגיע לנושא של Chat GPT כי זה עלה פה הרבה פעמים. אני רוצה להתייחס לזה ולהגיד שהעולם שלנו והמרחב שלנו הוא פתוח ורגע לפני Chat GPT היה לנו את גוגל או את כל כלי החיפוש, אנחנו כרופאים השתמשנו בזה. ידענו שאנחנו לא יכולים כל דבר שגוגל מוצא לנו להשתמש As Is, אוקיי? אנחנו פה ועכשיו גוגל כתב לנו, עכשיו זה תורה משמיים. אותו דבר בכל מה שקשור ל-Chat GPT.
ההכשרה של רופא היא הכשרה שמלמדת אותו להיות ביקורתי, מלמדים אותו בתהליך ההכשרה שלו לקרוא מאמרים, להטיל ספק, לראות איך הגיעו למסקנות, מה הרפרנסים של כל אמירה. ולכן כמו שגוגל לא לוקח - - -
לילך צולר
¶
אני אומרת, לכן גם כמו שאת גוגל לא לוקחים As Is, גם Chat GPT. הרי אנחנו שומעים בכל מקום את הנושא של איפה הסכנות של אותם כלים של בינה יוצרת. בקופות, אני אדבר על כללית, אבל באופן כללי במערכת הבריאות יש בקרות. כל רופא עובר בקרה על הרשומה הרפואית שלו ועל מה שהוא עושה, כל רופא, בטח בכללית.
אנחנו מנגישים כלי עזר לרופאים שהם מבוססים, משולחן הרופא, אנחנו נותנים לו את מאגר התרופות הכי מתקדם, את מאגר האינטראקציות בין תרופות הכי מתקדם. אין לו סיבה להיכנס ל-Chat GPT כשיש לו על שולחן העבודה כלים מאוד, מאוד מתקדמים שהם גם מאוד פופולריים בקרב רופאים.
ובכל שנה אנחנו גם עוסקים בחינוך של רופאים, והנושאים האלה של בינה מלאכותית נכנסים גם לתוכניות של השתלמויות רופאים, מה אפשר, מה אי אפשר, או מה מומלץ, או מה לא מומלץ.
יעקב אשר (יהדות התורה)
¶
זאת אומרת, את חושבת שלא צריך לעשות כרגע שום רגולציה כי הכול קיים והכול בסדר?
לילך צולר
¶
אני חושבת קודם כול שיש רגולציה, ואני חושבת שבגלל שאנחנו כולנו לומדים את הנושא הזה ובכל העולם מתחבטים בהרבה מאוד שאלות שקשורות בבינה מלאכותית - - -
לילך צולר
¶
רגע. אנחנו קודם כול צריכים לתת למערכת גם ללמוד ולהתנסות. גם היום אם אנחנו למשל עושים מחקר, הוא תחת הלסינקי. זאת אומרת, עונים על כל מיני שאלות אתיות כדי לאשר מחקר, אי אפשר לעשות כל מחקר שאנחנו רוצים. גם אם אנחנו רוצים לעשות מחקר בבינה מלאכותית, אנחנו מקבלים את אישור ועדת הלסינקי, אנחנו מגישים את זה, הוועדה מסתכלת, לראות מה הסוגיות, מאשרת רק אם באמת הסוגיות האתיות מקבלות מענה. השורה התחתונה, אנחנו נמצאים בעולם שיש לו רגולציה, לא בכל דבר באו ואמרו ספציפית, הזכירו את המילה בינה מלאכותית. אנחנו עוסקים בחינוך של רופאים, אנחנו מנגישים להם כלים שהם כלים מבוססים, ואנחנו צריכים, אני חושבת, גם את מרחב התמרון, ללמוד את הכלים החדשים בבינה מלאכותית, להתנסות בהם לפני שתהיה רגולציה מכבידה. אני חושבת שרגולציה מכבידה עלולה לפגוע ביכולת של ישראל כמדינה מובילה באמת לשמור על המוביליות.
היו"ר רון כץ
¶
נשמע את משרד הבריאות. תודה רבה. נמצא איתנו ד"ר יוסף ולפיש, יו"ר הלשכה לאתיקה, ההסתדרות הרפואית בישראל. אני מבין שאתם כבר התחלתם להתעסק בזה.
יוסף ולפיש
¶
כן. שלום, שמי ד"ר יוסי ולפיש ואני יושב ראש הלשכה לאתיקה. אני רופא משפחה במקצועי, אפרופו השאלות שלכם, אני מנהל מרפאה ויש לי 1,500 מטופלים שאני הרופא שלהם, מאוד עוסק ב-AI גם בכובעים אחרים שלי בתוך איגוד רופאי המשפחה, אבל פה אני כיושב ראש הלשכה לאתיקה וחשוב לי להגיד כמה מילים על הלשכה לאתיקה כדי שתבינו מה זה הגוף הזה. הלשכה לאתיקה של ההסתדרות הרפואית מונה כ-70 רופאים שמתעניינים באתיקה והם נבחרים על ידי ועידת הר"י. זאת אומרת, אלה רופאים שעברו תהליך של בחירות ונבחרו לחשוב ולייצג את הרופאים במדינת ישראל בתחום האתיקה הרפואית.
אנחנו מתכנסים פעם בחודש, גם היום אחרי הצוהריים במקרה, לדון בסוגיות אתיות. ואנחנו כותבים קווים מנחים בכל מיני סוגיות אתיות לרופאים. למעשה, הלשכה לאתיקה של הר"י נתפסת היום בישראל כגוף שקובע את הכללים האתיים של הרופאים בישראל. גם בתי המשפט פונים אלינו, גם משרדי הממשלה. יש לנו דרך אגב שיתוף פעולה מעולה והדוק עם משרד הבריאות בהרבה סוגיות שקשורות לאתיקה הרפואית. אנחנו כמובן גם מוזמנים ומגיעים לכנסת מדי פעם בסוגיות שקשורות. ולכן קודם כול תודה רבה על ההזמנה לדיון, והוא חשוב מאוד בעיניי.
הלשכה לאתיקה כמובן, דרך אגב, כל העולם שואל את השאלות של נזקי ה-AI, זאת שאלה שעולה בכל פורום רפואי ואחר בעולם, והיא שאלה טובה. אנחנו לא יודעים, אבל השאלה הזאת היא חלק קטן משאלה גדולה. הנזקים של שימוש בטכנולוגיות חדשות זאת שאלה שקיימת בעולם האתיקה הרפואית שנים רבות. סתם כדוגמה שנזכרתי בה, כשנכנס הסטטוסקופ לשימוש, הייתה טענה שאומרת שרופאים יפסיקו להקשיב לחולה ויתחילו להקשיב רק ללב ולריאות שלו, בגלל שיש טכנולוגיה חדשה. אנחנו יודעים להגיד שרופאים מקשיבים לחולים ועדיין עד היום הדילמה הזו היא דילמה שקיימת, עדיין יש הרבה תלונות על רופאים שמתעסקים במחשבים ובדברים אחרים במקום להקשיב לחולים שלהם. זאת אומרת, הדילמות האלה הן דילמות ותיקות ונכונות. ההבדל הוא שה-AI פרץ לחיינו בסערה ומתקדם בקצב מאוד גבוה ואנחנו צריכים לראות איך אנחנו מטפלים בזה.
ההסתדרות הרפואית בכלל והלשכה לאתיקה בפרט הקימו תת ועדה שעוסקת בנושא של הכללים האתיים לשימוש נכון ב-AI. אנחנו בימים אלה כותבים נייר, הוצאנו נייר ראשון, סנונית ראשונה, היום אנחנו כותבים נייר עמדה וכללי שימוש נכונים מבחינה אתית, מבחינה מוסרית לרופאים בישראל.
היו"ר רון כץ
¶
אתם מסתמכים אבל על נתונים? כלומר, אנחנו יודעים כמה מהרופאים, נגיד רופאי משפחה, כמה מרופאי המשפחה בישראל משתמשים בכלי, נגיד Chat GPT או כלים דומים?
יוסף ולפיש
¶
אני יכול להגיד לך מניסיוני שכמעט ולא, רופאי משפחה לא משתמשים בכלים שהם כלים של ה-Common People בהקשר הזה, אלא משתמשים בכלים ייעודיים לרופאים בהוצאת המידע שלהם. אני שמשתמש לא מעט ב-Chat GPT באינטראקציה שלי עם מטופלים כמעט ולא פותח שום כלי של AI, יש לי בפלאפון שלושה, אבל זה לא משנה.
יוסף ולפיש
¶
אין היום כלי, כרגע עדיין לא קיים כלי שנועד לתת תשובה לשאלה קלינית לרופא. יש בפיתוח ומחקרים על הנושאים האלה. דרך אגב, אם כבר מדברים על פיתוח, משרד הבריאות הוציא - - -
יוסף ולפיש
¶
יפה, זה מה שאני רוצה להגיד, שמשרד הבריאות הוציא כלי, קודם כול קווים מנחים לנושא של מחקר ב-AI שמתבססים כמובן על כללי האתיקה של הלשכה לאתיקה בתחום המחקר, אנחנו עסוקים מאוד בהלסינקי ביחד, והיום לעשות מחקר עם AI עובר רגולציה מאוד גדולה. אני יודע שמשרד הבריאות, אבל הם יענו כמובן, עוסק גם בנושא של הכללים ל-AI. אבל צריך לעשות הבדלה ברורה בין הרגולטור שיבדוק ויראה איזה שימוש עושים ומה עושים, לבין הלשכה שקובעת את הכללים העקרוניים. אנחנו נגיד לרופאים ולמשרד הבריאות, אלה הדברים שאתם צריכים לשים לב אליהם: פרטיות, מקור המידע, שזה לא יפגע, מניעת נזק, הכללים האתיים שאנחנו נציב, דף הנחיות ורשימת כללים, ואז מי שיעשה את הרגולציה שאכן הרופאים עומדים בכללים שלנו זה כמובן משרד הבריאות, שאנחנו בשיתוף פעולה הדוק איתם בעניין הזה.
יוסף ולפיש
¶
אין לנו דדליין כרגע, אנחנו בתהליך כרגע. הוועדה הוקמה, אנחנו מזמינים אנשי מקצוע בתחום כדי לדבר איתם בנושא, גם מתחום הטכנולוגיה וגם מתחום הבריאות וגם אנשים שמשותף להם, ואנחנו נשב ונכתוב נייר.
יוסף ולפיש
¶
אני רוצה מאוד להציג לכם בוועדה את הנייר כשנוציא אותו. אני אשמח כמובן להמשך, חשוב לי שאחרי שנוציא את הכללים, תהיה רגולציה לראות שהדברים באמת מתקיימים.
יעקב אשר (יהדות התורה)
¶
אבל אתה אומר שאין מצב שבו רופא בקופת חולים או רופא בקליניקה כזו או אחרת או בבתי חולים ישתמש באיזשהו כלי שלא אושר ולא עבר?
יוסף ולפיש
¶
אני חושב שיש פה בעיקר עניין אתי במובן הזה שאנחנו צריכים לראות שרופאים לא יעשו נזק וישמרו על אוטונומיה. כשאתה מעלה את הסוגיות שאתה מעלה, אתה מעלה סוגיות שהן בתחום האתיקה.
יעקב אשר (יהדות התורה)
¶
זו לא רק אתיקה. כי אם יהיו הנחיות שיבואו ויגידו, תקשיב, המכשיר יבדוק אותו באיזושהי צורה, אבל אתה חייב גם פיזית לראות את האדם. לא יודע, מחר בדיקת גרון, האם זה מספיק שהוא יעבור ליד הזה ויעשה ככה ונגמר או שצריך שיגיד הרופא תעשה אה, אתה מבין? זו השאלה.
יוסף ולפיש
¶
אני יודע. וככלל, אני חושב שהסוגיות פה הן בעיקרן סוגיות אתיות של איך רופא צריך להתנהל. הרי אנחנו לא אוסרים בחוק על אף בן אדם לפתוח את ה-Chat GPT ולעשות שימוש בו, וקשה להאמין שיעבור חוק שיגביל את הזכות של בן אדם להשתמש בפלאפון שלו בצורה כזו או אחרת, אבל אנחנו כן אומרים לרופא, אותו רופא, שבגלל שהוא רופא, החובה האתית שלו כאיש מקצוע היא לנהוג על פי כללים מסוימים, ואנחנו נגדיר את הכללים האלה. ואז אנחנו כמובן נשאיר למשרד הבריאות את הדרך לפקח ולעשות את הרגולציה על הנושא הזה.
אבל אני חושב שחשוב להדגיש שאנחנו יושבים וכותבים את הכללים בנושא הזה. הבעיה בהחלט קיימת, היא קיימת מכל מיני כיוונים, גם מהעובדה שזה פורץ מאוד מהר, גם מהעובדה שפוטנציאל הרווח הוא מאוד גדול, גם הבריאותי, ולכן חייבים לראות שאנחנו לא מפסידים את הרווח הבריאותי בגלל הפחד מטכנולוגיה חדשה.
היו"ר רון כץ
¶
יוסי, אתם היום לפחות מבקשים מהרופאים ליידע את המטופלים האם המידע התקבל, אתה יודע, אפילו אתה מעלה היום סרטון ברשתות החברתיות, יש לינק כזה שאתה מסמן כוכבית שזה יוצר על ידי AI, השאלה אם רופא אומר המידע מבוסס על בינה מלאכותית.
יוסף ולפיש
¶
בוודאי שיש חובה אתית לרופא להסביר את ההחלטות שלו, זה מופיע גם בחוק. חוק זכויות החולה אומר שאתה מחויב לתת למטופל את כל האינפורמציה ורופאים מאוד מקפידים על זה.
היו"ר רון כץ
¶
אתם עושים בדיקה עם הרופאים כמה, עזוב משתמשים בכלי, כמה מיידעים את החולים שככה הם קיבלו את ההחלטה? נעשתה איזושהי בדיקה כזאת? כי לדעתי, הנתונים יהיו אחרים.
יוסף ולפיש
¶
נכון, סקר. אני לא מכיר סקר כזה, זאת שאלה מעניינת. אני יודע שעושים הרבה מחקרים על השימוש ב-AI, אבל אני לא מכיר סקר שבודק, למשל מהזווית שלי, עד כמה רופאי משפחה מיידעים מטופלים כשהם משתמשים בכלים של טכנולוגיה חדשה. כמובן שיש נייר עמדה כבר בעבר שכותב שיש חובה לרופא ליידע מטופלים על שימוש בטכנולוגיות חדשות וחובה על הרופא ליידע בכלל על השימוש בטכנולוגיות שהוא משתמש בהן. זו חובה אתית שנגזרת גם מחוק זכויות החולה וגם מהתפיסות האתיות שלנו, אבל אנחנו צריכים לכתוב דברים הרבה יותר מותאמים ספציפית ל-AI ולטכנולוגיות החדשות כי הבעיות הן בסדרי גודל אחרים.
היו"ר רון כץ
¶
זהו, הרפואה בטוח השתנתה. אני יכול להגיד לך שאני בן של רופא ואח לרופאה, הפער ביניהם הוא 50 שנה. אבא שלי עוד פותח את הספרים הירוקים וקורא ומתאים תרופות, אחותי הקטנה, אני כבר לא יודע במה היא משתמשת. השאלה אם אתם יודעים למפות את סוגי הרפואה, את סוגי הרופאים, איך הם מקבלים את ההחלטות. האם נעשה איזשהו סקר כזה ארצי, ואם לא, יש מקום לשקול. משרד הבריאות, יש מקום לשקול כן לצאת באיזשהו סקר כזה, כי גם זה מאוד מהיר וגם זה יתן לנו אילו שהם נתונים יותר מדויקים לדעת מה רוחב התופעה שמתמודדים איתה.
יוסף ולפיש
¶
לא יודע, אני רואה בחברי הכנסת שלוחים של הציבור, אני מאוד חושב שזה חשוב. אבל באופן כללי, אני לא מכיר סקר כזה, אם משרד הבריאות ירים כרגולטור את הכפפה, זה כבר עניין שלו. אבל שיתוף הפעולה הזה מאוד חשוב לנו, אנחנו נציג לוועדה בשמחה ברגע שנוציא נייר. אנחנו כמובן בקשר עם משרד הבריאות בעניין הזה. ואני חושב שמי שצריך לקבוע את הכללים האתיים של איך להשתמש בכלים האלה צריכה להיות הלשכה לאתיקה של ההסתדרות הרפואית.
ברוך ליברמן
¶
שלום. האמת שאני חלקית בכובע של מקשיב. אני אסביר את החלק שלנו. אנחנו מטפלים באלפי מקרים כל חודש, או כמעט 700 מקרים רק של מקרים אונקולוגיים של תרופות בחודש. אנחנו מקבלים עשרות רבות של מסמכים מחולה בודד, והניתוח של המסמכים האלה ברמה של ה-AI היום יכול להביא המון, המון מידע שלא יסולא בפז מבחינה אמיתית.
ברוך ליברמן
¶
אנחנו עדיין לא עובדים עם כלי, והסיבה העיקרית היא נושא הבטיחות. אני מדבר פה על נושא שהוא הזכיר אותו, הנושא העיקרי שאני חושב שהוא הבעיה ועליו יצטרכו להתמודד, זה נושא האבטחה, הבטיחות. לא עצם החומר, כי היכולת להשתמש בחומרים הוא אדיר, וזה שרופא צריך לעשות את זה בצורה מקצועית ביותר זה נכון, אבל אפילו רופא היום שמסכם בצורה רגילה, כמעט כל רופא בבית חולים אחר עושה סיכום ורושם בסוף את שם המחלה לא כמו הקוד שלה ואז גם כשאתה מקבל משני רופאים שונים או מרופא אפילו באותו בית חולים, יכול להיות סיכום שונה לגבי איך הוא מגדיר את המחלה ומה האבחנה שלו.
זאת אומרת, הקוד והאבחנה לא אותו דבר, בטח שבבין-לאומי, ואפילו על זה אין רגולציה מספיק שמחייבת את כולם לעשות בדיוק את אותו הדבר. זאת אומרת, השגיאות יכולות להתחיל גם ברמה אישית. זאת אומרת, זה אפילו לא ה-AI, זה הניתוח של המידע ואיך המידע הזה יעבור בצורה נכונה, טובה ומקצועית. אבל אין ספק שאם יגבילו את כל השימוש הפיזי ב-AI או יתנו לזה הפרעה, דבר ראשון, לא נראה לי שמישהו יוכל אי פעם לעצור דבר כזה, כי המציאות היא תמיד חזקה מכל דבר, אבל הבטיחות של זה היא אולי המקום לטפל ולשמוע איך נעשה את הדברים מאובטחים יותר ושנוכל לשמש בהעברת המידע.
יש דבר שגם קורה הרבה, אנשים לא יודעים, אבל כל דבר שאנחנו רושמים ב-AI, הוא שומר אותו, שומר אותו יותר מגוגל.
ברוך ליברמן
¶
וככה הוא לומד. והבינה שלו היא בינה מאתגרת. ואני מדבר לא מבחינת זה שהוא יכתוב לאנשים דבר שגוי, אלא שהוא פשוט לוקח את המידע שלי, שהוא לפעמים מידע חשוב מאוד ופרטי, והוא מעניק אותו בחינם למישהו אחר. ופה העניין של הפרטיות הוא נושא יותר קריטי.
איתן בהירי
¶
כן, אני לא רוצה להוסיף כרגע לדברים שנאמרו פה, אבל אני חושב שיש פה כמה נקודות חשובות מבחינת ההבנה של המערכות האלה.
היו"ר רון כץ
¶
לכם יש נתונים דרך אגב, אפרופו הנתונים? כלומר, עשיתם בדיקה כמה מהרופאים שלכם משתמשים ובאיזה כלי ובאיזה אופן?
איתן בהירי
¶
לא עשינו, אנחנו יודעים שבגלל שכיבינו אתר, קיבלנו תלונות מרופאים של למה אין להם גישה לאתר שהוא מופנה ליצירת מידע על ידי רופאים.
איתן בהירי
¶
נקרא OpenEvidence.com. אולי אני אתחיל רגע משפט אחורה. הרבה מהתלונות והרבה מהדברים שאנחנו שומעים עליהם, כולל הנושא הזה של ההזיות, הוא נובע מהמושג הזה שנקרא Generative AI, AI יוצר. אלה אלגוריתמים שלא תמיד אנחנו יודעים מה יש בפנים, גם לא תמיד יודעים בדיוק איך הם עובדים, אבל בסופו של דבר הם מסתכלים על בסיסי נתונים ענקיים ומתוך זה מנסים להבין מה התשובה לשאלה שאנחנו שואלים, ו-Chat GPT הוא דוגמה טובה לזה, Chat GPT מסתכל על כל העולם.
אבל אפשר להשתמש במודלים האלה שלומדים איך לענות על שאלה אבל לצמצם את העולם שלהם, לצמצם את העולם שלהם לתחום למשל של כתבי עת רפואיים או ספרים רפואיים, ואז בצורה כזאת, האתר הזה במקרה, אני פשוט גיליתי אותו בטעות ואני משתמש בו כדי לענות על שאלות רפואיות, ומבחינת השימוש היום-יומי, אין לו הזיות וזה גם נבדק מחקרית. זאת אומרת, כמות ההזיות שלו היא מינימלית. וחשוב להבין שזה המצב, וכל דבר אחר שבו אנחנו מתכננים להשתמש או נשתמש בעתיד, מדובר הרבה פעמים בממשקים למערכות רפואיות או מכשור רפואי קיים.
דיברו פה על הדמיה. יש כלים בעולם הרחב שתוקפו וגם קיבלו אישור של ה-FDA שעוזרים לרופא למשל לתעדף את בדיקות ההדמיה, כדי שהוא יסתכל על הדברים הדחופים והחמורים יותר קודם לעומת דברים אחרים. דרך אגב, כל מי שעבר פה איזושהי בדיקת א.ק.ג, כל מכשיר א.ק.ג נותן בסופו של דבר גם אינטרפרטציה של הא.ק.ג, בלי שהרופא מסתכל על זה. זאת אומרת, יש לנו הרבה מאוד כלי עזר שהם לא בהכרח כלי AI שעוזרים לנו ביום-יום שלנו.
עלתה פה עוד איזושהי נקודה שאני חושב שחשוב, אני אומר את זה יותר ברמה האישית שלי, זה לא כל כך מאוחדת, אבל אני חושב שחשוב להבין אותה, זה שגם מכוניות אוטונומיות עושות הרבה מאוד רעש. זאת אומרת, כשיש תאונה של מכונית אוטונומית, כולנו עוצרים רגע ואומרים, אוי ואבוי, האם אני ארצה להיכנס לתוך מכונית כזאת? אבל זאת לא השאלה הנכונה. זאת אומרת, השאלה הנכונה היא בסופו של דבר, פר קילומטרים של נסיעה, כמה טעויות וכמה תאונות עשו המכוניות?
היו"ר רון כץ
¶
זה מה שאני מנסה לגלות עם האחוזים של מי משתמש, כמה משתמשים. אני לא חושב שאנחנו מבינים את גודל התופעה, כי אין לנו מספיק נתונים בשביל לקבל אותם. בגלל זה אני שוב חוזר למשרד הבריאות, אני חושב שחייב לייצר איזה סקר כזה, אפילו לא מאוד מעמיק, אבל שנדע מה, 60% מהרופאים, 40% מהרופאים, כמה משתמשים בזה בכלל? ואז לפי זה נוכל להתעמק ולהבין במה משתמשים, אילו סוגי רופאים.
איתן בהירי
¶
זאת אומרת, אנחנו כן מחפשים להכניס יותר ויותר כלים, אבל במקביל אנחנו בונים את התהליך שעל פיו אנחנו נגדיר איך אנחנו רוצים לעשות את זה. סתם אני אתן כדוגמה, כל אותם אלגוריתמים, דרך אגב, זה גם במחקר הרפואי הרגיל שעושים, אתה צריך לראות שאין הטיות. אם אני מסתכל על מחקרים, ועולם המחקרים שלי הוא מחקר של מחקרים בארצות הברית, האוכלוסייה בארץ, אומנם כולנו בני אדם, אבל המזון שאנחנו אוכלים הוא שונה, רמת הרפואה שלנו היא שונה, הנגישות לרפואה הן שונות. לא בהכרח המידע שאותן מערכות מסתכלות עליו הוא זהה למה שהייתי מצפה לקבל לאוכלוסיות פה בארץ. חשוב לזכור את הנקודה הזאת.
ואחרון, אחרון חביב, שזאת אולי נקודה, אם יהיה כיוון של לבנות רגולציה, אנחנו כמובן רוצים להיות שותפים בתהליך הזה, אבל אני חושב שאיזושהי נקודה שהיא חשובה מבחינתנו, ומבחינת המטופלים דרך אגב, היא שאנחנו נוכל להסביר את ההחלטה של מערכת ה-AI. זאת אומרת, היום כשאתה רואה Chat GPT, אתה לא בדיוק יודע איך הוא הגיע לתשובה, וגם אם אתה מבקש ממנו רפרנסים, זאת אומרת, על בסיס מה הוא התבסס, לא תמיד זה עוד לגמרי מדויק ולא תמיד אתה מבין איך הוא הבין את מה שהוא הבין. לעומת זאת, במערכות אחרות, הן כבר כן יודעות לצמצם את זה וכן יודעות לתת לך את הרפרנסים של המאמרים והספרים המדויקים שעליהם הן הסתכלו כדי שתוכל גם לבדוק את המידע שקיבלת. זה חשוב שזה לא יהיה קופסה שחורה, אלא שנוכל להבין איך המערכת הגיעה להחלטה שהיא הגיעה אליה.
אדם ערוץ
¶
נעים מאוד, אדם ערוץ, מנהל הגנת מידע וסייבר בלאומית שירותי בריאות. אני פה בשביל להציג איזשהו פן אולי קצת שונה שכן - - -
אדם ערוץ
¶
תכף אני אגע בכלים, נתונים אין משהו מדויק עדיין. אני אביא נקודת מבט אולי קצת שונה, אבל שכן מתקשרת לכל נושא האתיקה גם, טיפה דיברו עליה פה מסביב. בסופו של דבר, כמו שגם נאמר פה, כלי AI זאת הקדמה ואי אפשר באמת לעמוד בפני הקדמה, מי שניסה בעבר נכשל. ויחד עם זאת, באמת הנושא של AI הפך להיות ה-Buzzword החדש ומכניסים אותו היום בכל דבר, כל דבר, גם איפה שלא צריך.
רואים בסך הכול, וזה גם משהו שנאמר פה, כן רואים שנושא ה-AI, כמו בעולמות המשפט למשל, כן יוצר איזושהי הסתמכות מקצועית שהרבה פעמים גורמת גם לפגיעה מקצועית, ואני חושב שזה איזשהו חשש מהותי מאוד בהקשר הזה. החשש שאותי הרבה יותר מעניין הוא הנושא של השימוש בכלים האלה בהקשר של פרטיות המטופלים.
אפשר בסופו של דבר לראות, וזה גם נאמר פה, כן? מידע שמועלה היום לכלי AI משמש לאימון. הרי בסוף זה כלי שבא ועושה חיקוי של מה שהוא יודע, זה אופן הלמידה שלו, כל מה שמעבירים אליו הוא אוגר ולומד אותו ומשתמש בו אחר כך, וגם משתף אותו. הרבה מחברות ה-AI האלה שנמצאות היום מאוד פרוצות מבחינת מדיניות הפרטיות שלהם, מבחינת מה שהן עושות עם המידע הזה. חלקן מוכרות אותו, חלקן לא מגינות עליו כמו שצריך, כמו למשל שראינו בכלי AI סיני, DeepSeek, לאחרונה, שפשוט היה פרוץ לגמרי ומידע רב מאוד דלף משם, וגם מוכרים אותו, זה גם משהו שקורה בחלק מהכלים האלה וזה אפילו מצוין במדיניות הפרטיות שלהם.
בסופו של דבר, אני חושב שזה מתקשר באמת לנושא האתי, האם זה אתי עבורנו לבוא ולהעלות עכשיו תיק רפואי שלם לכלי AI כלשהו? כלומר, יש פה שני שיקולים. מצד אחד, זה גם משהו שדיברו, נושא הדיוק. כן רוצים להגיע לרמת דיוק גבוהה, שהכלי יכיר את המדדים המדויקים, את הגיל, את המשקל, את כל הדברים שקרו. מצד שני, אנחנו מדברים פה על מידע פרטי רפואי, PHI, שאנחנו מעבירים לאיזשהו כלי, שבהרבה מקרים הכלים האלה לא מספיק אפויים, לא מספיק מבושלים, וזה יכול באמת לגרום לבעיות פרטיות די קשות.
עלה פה גם נושא המחקרים, שגם שם זה משהו שאני אישית רואה אותו, אני חלק מוועדת המחקר בלאומית, שמאשרת מחקרים, ובאמת הרבה פעמים רוצים לבוא ולעשות איזשהו מחקר בעזרת כלי AI ומדובר על מידע נורא מסיבי של מטופלים, לפעמים אפילו מאות אלפים של רשומות רפואיות שרוצים לבוא ולהעלות לשם. ואפילו אם זה באופן אנונימי, עדיין יש שם סיכון מסוים.
איתן בהירי
¶
רגע, אני אגיע לזה. משתמשים בכלי AI, תכף אני גם אסביר באיזה הקשר. רק עוד שני נושאים אחרונים לפני שאני אגש ספציפית אלינו. גם דיברו על הנושא של חובת הגילוי, שרופא בא ומשתמש באיזשהו כלי AI, מעבר לזה גם יש את הנושא של חובת, נקרא לזה ההסכמה, אוקיי? הסכמה מדעת. שהמטופל גם יבין שהוא צריך לבוא ולאשר עכשיו שהפרטים שלו הולכים להיכנס לכזה כלי ולהיאסף שם ולהיאגר שם, שזה כבר יותר מחוזות של עולמות הפרטיות, שזה גם מוביל אותי לנושא האסדרה.
בסוף, כן, הרשות להגנת הפרטיות, משרד המשפטים באו וכן עכשיו התחילו איזשהו תהליך של אסדרה בנושא כלי AI בעולמות הפרטיות, איך לעבוד איתם.
היו"ר רון כץ
¶
למרות שאם אתה מוריד אבל את השמות הפרטיים ונותן רק את תיאור המקרה, יש עם זה עדיין בעיה?
איתן בהירי
¶
נכון, וזה גם משהו שאנחנו עושים עם חלק מהכלים שלנו, אנחנו כן עושים תהליך של התממה. הבעיה שהרבה פעמים ההתממה הזאת היא לא מספיק אפקטיבית, כי הרבה פעמים אנחנו מדברים על סיכום שבתוך הסיכום עצמו מציינים פרטים מזהים וצריכים כלים שיבואו ויאתרו את הנתונים האלה בשביל, כמו שאתה אומר, להשחיר אותו, להתמים אותו, וזה הרבה פעמים לא קורה. כלומר, אנחנו ראינו שזה לא ברמת אמינות מספיק גבוהה כדי שיהיה אפשר באמת להסתמך על זה.
איתן בהירי
¶
בסופו של דבר, אנחנו עובדים לרוב עם כלי AI פנימיים, אנחנו לא מסתמכים על כלים חיצוניים שאין לנו שום שליטה עליהם. או שאותו כלי יושב אצלנו, או שהוא יושב באיזשהו ענן פרטי שלנו ולנו יש שליטה על מה קורה למידע הזה, אם הוא עובר למידה, אם הוא לא עובר למידה, אם משתפים אותו, אם לא משתפים אותו. זה השלב הראשון. דובר פה גם באמת על תהליך של תקינה ואקרדיטציה.
איתן בהירי
¶
אין לי אחוזים מדויקים, אנחנו כן ראינו שימוש אבל די משמעותי בכלים כאלה, שאנחנו מגבילים אותם, אנחנו יוצרים הגבלה, כלים שהם לא מטעמנו. אנחנו כן מאפשרים נגיד לרופא לבוא ולכתוב שם פרומפט מסוים, אנחנו לא מאפשרים להעלות קבצים, לעשות העתק-הדבק, להוריד משם דברים, וכל הדברים האלה זה גם לא כחלק, בוא נגיד, אינטגרלי מהתיק הרפואי עצמו, שהוא מופרד לזה לגמרי.
זה באמת אחד השימושים שאנחנו עושים היום. למשל, אחד השימושים האחרונים שאנחנו כרגע באיזשהו תהליך בחינה שלו זה נושא של ניתוח וסיכום של הקלטות פגישות של בריאות הנפש על ידי כלי AI, תוך כדי שזה עובר תהליך של התממה בדרך. כלומר, יש איזו הקלטה, ההקלטה הזאת עוברת באופן מותאם לכלי AI מסוים, הוא עושה שם סיכום של כל מה שקרה ומעביר את זה אחר כך אל הרופא.
איתן בהירי
¶
בדיוק, זה עם תהליך של אישור של הסכמה מדעת, וזה גם חייב להיות מתועד. אני רק אסכם שלדעתי כן נדרשת אסדרה בתחום הזה כי היום הוא די פרוץ. אני חושב שכן צריך להסתכל על הרשות להגנת הפרטיות ומשרד המשפטים עם האסדרה שהם עושים בעולם שם. מצד שני, וזה גם משהו שנאמר פה על ידי כללית גם, לא צריכים להגיע למצב של רגולציית יתר, זו רגולציה שכן צריכה להיות בהלימה לתקינה שכבר קיימת היום, כמו למשל תקני ISO 42001 שזה בא ויסדיר את זה, אבל מצד שני לא יצור גם סרבול כדי למנוע את הקדמה הזאת.
היו"ר רון כץ
¶
תודה רבה. בואו רגע נקפוץ למשרד הבריאות, שמעת הרבה, בואו נראה איפה אנחנו עומדים עכשיו ואם חידשו לך פה דברים ומה אתם עושים בנושא הזה. לירון זהר, סגנית ראש חטיבת הטכנולוגיות, כבר חברה קבועה.
לירון זהר
¶
צוהריים טובים לכולם. יש פה עוד קולגות שלי מהמשרד, אני אשמח שתשלימו אותי או אם יהיו לכם הערות נוספות. אני שוב מברכת על הדיונים הללו כי אני חושבת שכל הנושא של הבינה מלאכותית במערכת הבריאות זה כמובן נושא מאוד חשוב שצריך לשים עליו את הפוקוס. שבוע שעבר למשל היינו בדיון בוועדת שרים שדיברו באופן כללי על בינה מלאכותית בכלל המערכת ובישראל ולא שמים את הפוקוס על הבריאות, ואני חושבת שהתפקיד שלנו הוא באמת להעלות את זה לשיח ולשים על זה פוקוס, כולל כל הדברים שדיברנו עליהם גם בעבר, כולל תקציבים, כולל להגדיר את זה כתוכנית לאומית.
היו"ר רון כץ
¶
לירון, נשמח אם תתני לנו גם כמה מילים על זה, מה שדיברנו, לאן זה התקדם. אני יודע שהיו כמה פגישות אצל המנכ"ל, השר, אבל - - -
לירון זהר
¶
נכון, היו כמה פגישות. המנכ"ל, כמו שאמרתי בפעמים הקודמות, שם את זה בראש סדר עדיפויות, מעלה את זה בכל מיני נושאים, גם בהטמעה של בינה מלאכותית בתוך העשייה המשרדית, בחטיבות השונות, כדי לשפר את השירות שניתן לציבור. אנחנו הקמנו קבוצת עבודה שיושבת אחת לשבוע שמרכזת חטיבות משמעותיות שקשורות להטמעת בינה מלאכותית, יש פה נציגות של הקבוצה הזאת. בריאות דיגיטלית, לשכה משפטית, חטיבת הרפואה מצטרפים, באמת איזושהי חשיבה שהיא רחבה יותר, ואנחנו עושים את זה אחת לשבוע ומקדמים את הסוגיה המאתגרת.
לירון זהר
¶
אני אענה על הכול. יש לנו גם התחלה של פורום יותר רחב שאנחנו רוצים לעשות שיח עם גורמים שונים באקוסיסטם כדי לבדוק יחד איתם את הסוגיות שאנחנו כבר חשבנו עליהן, לראות כמה זה נכון ורלוונטי למציאות שקורית היום בשטח.
חשוב לי להתחיל ולומר ולהדגיש שאין היום מקרים, בדקנו גם אצלנו בחטיבת הרפואה, שבהם היו אילו שהם אירועים חריגים שקרו בגלל אירועים של שימוש ב-Chat GPT ו-OpenAI וכולי. את זה חשוב לי לומר.
היו"ר רון כץ
¶
יכול להיות שיש אירועים שאתם לא מכירים. מינון של תרופה לא נכון, אלה דברים שלוקחים זמן. Chat GPT עדיין לא מנתח.
לירון זהר
¶
יכול להיות, אבל כרגע, מהמידע שלנו אחרי הפנייה הזאת, זה בתור התחלה, לא קרה משהו שקשרו בין שני הדברים. וכמו שנאמר פה על ידי מוזמנים נוספים, גם גוגל יכול לשמש לזה ועוד מקורות מידע שהם לא מבוססים, אבל הצוות הרפואי - - -
היו"ר רון כץ
¶
לירון, את לא מכניסה לגוגל תמונה של פיענוח של CT ושואלת אותו שאלות על הפיענוח והוא נותן תשובה. העניין פה שאת לא תראי בטווח הזמן המיידי פגיעה כי הצ'אט עדיין לא מנתח, אבל הוא כן נותן תרופות שעלולות להשפיע על העתיד של אותו מטופל ונדע את זה חלילה עוד תקופה.
לירון זהר
¶
קודם כול, אני רגע רוצה לעשות את ההפרדה שגם נעשתה פה מקודם בין תוכנות פתוחות לבין ייעודיות. הכלים הפתוחים, מה שחשוב בהם, בעיניי לפחות, זה הנושא של חינוך של הצוותים למגבלות של הכלים האלה לצד הפוטנציאל שיש בהם. וכן אני חושבת שנכון לעשות איזושהי הגדרה, הנחיה, וכמו שנאמר פה קודם, למשל בנושא של הניסויים הקליניים, ואנחנו נרחיב את זה, אנחנו כן נותנים עקרונות כלליים.
חשוב לומר גם שאנחנו נמצאים בקבוצות עבודה בין-לאומיות, וכל העולם מתמודד עם הסוגיות האלה. זאת אומרת, כל השאלות שעלו כאן, שהן שאלות חשובות ונכונות וחשוב שאנחנו נתייחס אליהן, הן שאלות שעולות גם בפורומים בין-לאומיים, לאף אחד אין איזושהי תשובת קסם. אנחנו נמצאים בקבוצות האלה, לומדים יחד איתם את הדברים ובוחנים מה הדרך הנכונה לתת אילו שהם עקרונות.
יעקב אשר (יהדות התורה)
¶
מה הפלטפורמה שתצא אחרי כל הדיונים וכל הדברים? האם תהיה איזושהי פלטפורמה מסוימת שתהיה ברגולציה כזו או אחרת או מה, שהיא תהיה העסק שיתחיל לקבל בברכה את פריצת ה-AI לחיינו בתחום הבריאות?
לירון זהר
¶
אני אגיד, נאמר פה קודם לכן, יש היום רגולציה. זה לא שזה לא קיים, זה לא שהתחום פרוץ, יש רגולציה באגף ציוד רפואי שמאשרים את התוכנות האלה אם הן מיועדות לטיפול רפואי. אנחנו מדברים על הדברים שמעבר, שזו גם הנקודה שחבר הכנסת העלה.
היו"ר רון כץ
¶
אבל הם מעדכנים אתכם שזו תוכנה ייעודות? כלומר, יש Chat GPT כזה, הוא סתם שם קוד למשהו, בטח יש עוד כמה כאלה.
לירון זהר
¶
אם זה משמש לטיפול רפואי, כן. זאת הרגולציה היום. אני רוצה אבל להדגיש משהו שנאמר פה וחבר הכנסת רון כץ גם דוחף לכיוון הזה ומבין את המשמעות של הדבר הזה. התחום של ה-AI הוא באמת תחום שמשתנה מאוד, מאוד מהר ואנחנו נמצאים בשלב שאם אנחנו לא מובילים את הדבר הזה, אנחנו באמת יכולים להישאר מאחור, זה מאוד משמעותי. לצד החשש של הכנסת שינויים, חשוב לדחוף גם את זה, כי יש המון, המון, המון רווחים ופוטנציאל עצום, בטח במערכת הבריאות, לתחום הזה.
צריך לעשות את זה חכם, אנחנו כן יושבים וחושבים על הדברים האלה בקבוצות עבודה, כמו שאמרתי, ובוחנים, ויש לנו גם מהלכים שאנחנו מתכננים לצאת איתם בקרוב כדי לבחון בצורה מבוקרת את החדשנות בתחום של בינה מלאכותית, איך היא יכולה לעזור ואילו מגבלות או קריטריונים וגבולות אנחנו צריכים לשים כמערכת ואחר כך כמובן לפקח עליהם.
היו"ר רון כץ
¶
לירון, את תוכלי לתת לנו גם לוחות זמנים? יש לכם אילו שהן אבני דרך עד המטרה הסופית שהיא גם דחיפת הנושא קדימה, אבל גם שליטה באירוע? כלומר, יש איזה לו"ז?
לירון זהר
¶
אנחנו מתכננים לצאת עם איזשהו מהלך בחודשיים הקרובים שיעזור לנו להגדיר קצת את גבולות הגזרה, ואחר כך אנחנו עובדים על איזושהי תוכנית יותר רחבה שלוקחת זמן, כי זו תוכנית משמעותית, לאומית, עם כל ההיבטים שעלו כאן ונוספים שצריכים להילקח בחשבון. ולתוכנית הזאת אנחנו מקווים שנצליח להגיע במשא ומתן עם האוצר לאיזושהי צביעה של תקציב כדי שבאמת נוכל להניע את המערכת יותר מהר לכיוון היעדים שאנחנו רוצים.
אני רק אתייחס לסוגיה שהעלית בנושא הסקר. אני חושבת שזה מאוד, מאוד חשוב גם לנו כמי שרוצה לדחוף את המערכת, לאו דווקא כמי שחושש ונזהר מהסיכונים, כי גם את זה אנחנו עושים ולוקחים בחשבון, אבל צריכים לדחוף את המערכת גם לשם. אני חושבת שמאוד נכון כן לעשות איזשהו סקר כזה, להבין.
לירון זהר
¶
אנחנו צריכים לחשוב איך לעשות את זה נכון, כי גם אם אנחנו רוצים משהו שהוא יחסית מהיר כדי לחוש את הציבור של הרופאים בהקשר הזה, יכול להיות שצריך לעשות את זה עם קופה אחת ולאו דווקא מאוד רחב. צריך לחשוב מה נכון, איך לעשות את זה נכון, ומה השאלה הנכונה בסקר, אבל אני כן חושבת שהעמדות והשימושים של הרופאים בהקשר הזה הם מאוד חשובים לנו להכיר כדי לדעת איך להניע את המערכת לכיוון הזה. אני מקווה שעניתי על השאלות.
יעקב אשר (יהדות התורה)
¶
שאלה קטנה. כלפי הציבור, עכשיו לא כלפי הרופאים, יש את החלק של הרופאים, קיבלנו את התשובה, כלפי הציבור. אני זוכר שהיה בזמנו פרסום, לא יודע אם זה היה משרד הבריאות או ההסתדרות הרופאים, שהזהירו את הציבור לא לעשות דברים דרך גוגל, זאת אומרת, לקבל החלטות רפואיות. היה פעם משהו. האם לא היה כדאי להזהיר? כי היום ילדים של השכנים, בני 14 ו-12, כבר יודעים, ואחר כך יכתבו: כואב לי הגרון, כואב לי הזה, מה לעשות? והוא יכתוב לו מה לעשות.
יעקב אשר (יהדות התורה)
¶
האם לא היה שווה איזה קמפיין כרגע כלפי הציבור? כלפי הרופאים לא צריך קמפיין, כלפי הרופאים צריך רגולציה וצריך את מה שדיברת כרגע. זה חומר למחשבה, מה שנקרא.
לירון זהר
¶
רק אני אעיר. אני מסכימה שההיבט של ניהול השיח אל מול הציבור הוא גם מאוד, מאוד חשוב. אני חושבת שזה חלק מהתוכנית הכללית יותר שבה אנחנו נתייחס לנושא הזה.
מרים פינק לביא
¶
אני ד"ר מרים פינק, אני סגנית ראש חטיבת רפואה, אני פסיכיאטרית ילדים בתפקיד שלי, ורציתי קצת להביא את הפרספקטיבה של בריאות הנפש דווקא.
מרים פינק לביא
¶
מה שראינו בשנים האחרונות, עם הממש מגפה של התחלואה הנפשית, שהכלים של AI היצירתיים שמתפתחים יאפשרו לנו, בעזרת השם, להשלים את הפערים שיש לנו. זאת אומרת, אנחנו רואים, והיה פרויקט מדהים של משרד החדשנות יחד עם משרד הבריאות ומשרדים נוספים שעסק בפיתוחים ספציפיים.
היו"ר רון כץ
¶
הייתה לנו ועדה שלמה על זה בוועדה הקודמת, היו חברות שאחרי 7 באוקטובר נכנסו בדיוק לנישה הזאת, שלוקח המון זמן עד שקובעים פגישה לטיפול, והם בין לבין מנסות לעזור.
מרים פינק לביא
¶
נכון. ובנישות נוספות שאנחנו יודעים שיש בהן חסר מטורף, כמו טיפול בילדים, טיפול באוכלוסיות פריפריאליות, טיפול באוכלוסיות טראומה, ונכנסו פיתוחים מאוד, מאוד פורצי דרך בשנה האחרונה, ואנחנו מאוד מברכים על זה. אני יכולה להגיד בכובע של חטיבת הרפואה ששיתוף הפעולה בתוך המשרד הוא מאוד, מאוד הדוקה בנושא, גם עם הקופות.
הרגולציה כלפי כל דבר שמשמש להתוויה רפואית, כי התוויה רפואית זה רצף של דברים, זה יכול להיות בתחום המניעה, זה יכול להיות באיתור הראשוני, זה יכול להיות למנוע סיבוכים. זאת אומרת, כל הדברים האלה שמשמשים כהתוויה רפואית הם תחת רגולציה. השאלה שלכם לגבי כלים פתוחים, שאלה הכלים שאנחנו משתמשים בהם, אני יכולה להגיד בתור רופאה שהשימוש שלי בכלים פתוחים הוא גדול יחסית, כי זה מעניין, זה משחקי, אנחנו רוצים לבדוק את זה. אבל זה עדיין תחת הפיקוח של כל האתיקה וכל מה שלמדתי לאורך הדרך. לכן החינוך הרפואי הוא ממש חשוב.
יעקב אשר (יהדות התורה)
¶
פיקוח עצמי? בסדר, פיקוח עצמי ברור שקיים, השאלה אם יש על זה רגולציה, מה מותר, מה אסור, מה המינון, כמה ולמה.
מרים פינק לביא
¶
אני רוצה להגיד על זה. אני חושבת שמדובר כאן באמת ברגולציה רכה, כי כלים פתוחים, אנחנו יודעים, מלבד מדינות מאוד, מאוד בודדות, הרגולציה אליהם היא באמת באמצעות חינוך הציבור. ואני רוצה להצטרף למה שאמרת, ששימוש בטכנולוגיות, יש בו סיכון, במיוחד עבור ילדים, אנחנו יודעים שילדים דרך - - -
יעקב אשר (יהדות התורה)
¶
לא, אבל תעני לי רגע לגבי הרופא. זאת אומרת, את אומרת, אני רופאה ואני משתמשת.
יעקב אשר (יהדות התורה)
¶
אבל האם יש לך, מעבר למשמעת העצמית שלך, האם יש איזושהי רגולציה של משרד הבריאות או מה, ואם את חושבת שצריך או לא כדי לדעת את המינונים, עד כמה להשתמש בפונקציות כאלה ואחרות?
מרים פינק לביא
¶
אני חושבת שהרעיון של סקר הוא מאוד, מאוד חשוב. אני חושבת שבתור רגולציה זה יותר - - -
מרים פינק לביא
¶
סקר הוא אמצעי רק לראות מה המצב, אבל אני מניחה שיש שימוש. זאת אומרת, אני לא חושבת שאנחנו צריכים סקר בשביל זה. אני מניחה שיש שימוש, כולנו מכירים את זה. אני חושבת שאנחנו צריכים הרבה יותר לעסוק בהנחיות המקצועיות שמסבירות מה המגבלות של הכלי. בלי להבין מה המגבלות בתחום הסודיות, הפרטיות, בתחום אבטחת המידע, בתחום הטעויות. זאת אומרת, הילדים שלי נגיד תמיד אומרים לי "ה-Chat GPT, הוא מחרטט", הם יודעים את זה, אוקיי? הדור שלנו קצת פחות. וזה תהליך. הייתה הרצאה של אמנון שעשוע שבאמת אמר שהיום ה-Chat GPT הוא תלמיד של ציון 67 כזה, אוקיי? עוד שנתיים הוא יהיה כבר על ציון 100. אנחנו לא יכולים להסתמך, אמנם הוא יודע - - -
מרים פינק לביא
¶
אומנם הוא תלמיד שלומד הרבה תחומים, אבל אני מאמינה שבעתיד באמת יהיו פה טכנולוגיות פורצות דרך ואנחנו מאוד, מאוד בתוך הדבר הזה כרגע במשרד.
יוסף פרס
¶
כן. אין לי שום ספק שקיימת רגולציה בקשר למכשור רפואי. ה-AI בשימוש בהרבה מאוד מכשירים וכל מכשור שנכנס למדינת ישראל כציוד עזר לרופא או כל בירור, מה שעושים, יש אמ"ר, מקבלים אישורים ובודקים, אני לא מודאג מזה כל כך. ואחת הבעיות שאנחנו בלמענכם, ויוסי ערבליך, מה שהוא חשב להעלות, זה יותר שימוש של האפליקציות הפתוחות שהם משתמשים, זו בדיוק הבעיה. זה שקופת חולים אחת סוגרת את המחשב ולא נותנת במחשב של קופת החולים להיכנס, זה לא אומר שהרופא לא משתמש בטלפון והוא משתמש וזה בסדר. אני לא אומר שלא צריכים להשתמש, צריכים רק להחליט או למצוא דרך.
להכין ולחשוב מה לעשות, איך להגביל ומה להעביר, אחריות על הרופא, על החולה, וזו הבעיה הרצינית ביותר. דרך אגב, אני מסכים, אני מאוד שמחתי לשמוע שמשרד הבריאות של מדינת ישראל מעורב גם בארגונים בין-לאומיים. בגלל שיש רגולציה אירופאית, יש רגולציה גרמנית, אתה לא צריך לחפש משהו, יש כל מיני CNV וכל מיני שמות שאתה לא יודע בדיוק מה זה אומר, אבל יש רגולציה לאתיקה ולכל מיני דברים שבמדינות אירופה יש להם רגולציה.
לירון זהר
¶
אנחנו יושבים בשתי קבוצות עבודה. אני רק רוצה להעיר משהו כי יכול להיות שלא הבינו אותי נכון, רק לדייק. יש היום רגולציה על תוכנות שהן חלק מציוד רפואי, הדברים האחרים, אנחנו בוחנים את זה, זה חלק מהמהלך שאנחנו מתכננים.
היו"ר רון כץ
¶
לירון, לכם יש נתונים לגבי פגיעות, נגיד של מטופלים שנפגעו משימוש לא נכון בבינה מלאכותית? יש למשרד הבריאות איזשהו נתון כזה?
מלי קושא
¶
תודה על הדיון החשוב. לשכת האתיקה של האחים והאחיות תחת הסתדרות האחים והאחיות מונה כ-35 חברי צוות, ואנחנו הקמנו צוות שדן ומתעמק בנושא של בינה מלאכותית. צריך לזכור שבינה מלאכותית ומאגרי מידע מעצבים את עתיד הרפואה ואת הבריאות של כולנו, וצריך איזונים גם בזה כמו בכל דבר.
מלי קושא
¶
יש כ-85,000 אחים ואחיות במדינת ישראל, וכל מטפל היום מקבל את הכלים שאושרו רגולטורית והקופות הכניסו לעבודה, כך שגם האחים והאחיות ומקצועות בריאות ואחרים משתמשים באותם כלים שאושרו בתוך הקופות או בתי החולים.
מלי קושא
¶
לא מכירים כזה דבר. מבחינתנו, יש להתמודד עם האתגרים האתיים, וחשוב שבאופן יזום ומבוסס מחקר ועובדות נקדם את התחום הזה. ואנחנו נגבש נייר עמדה בנושא של כללי האתיקה והם צריכים לחול גם על זה כמו על יתר הדברים, כי המצפן המוסרי של כלל האחים והאחיות מתבסס על הקוד האתי של האחים והאחיות, ולכן אנחנו הולכים להוסיף נדבך נוסף לתחום של הבינה המלאכותית.
אם אני אזכיר כמה דברים, כמו שאמרתי, חשוב להתייחס לאיזון בין החדשנות הטכנולוגית ובין שמירה על עקרונות אתיים וחשוב שיהיו סטנדרטים לנושא. שקיפות והבנה כערך, מערכות AI צריכות להיות מובנות ושקופות, כך שהמטופלים והרופאים יבינו כיצד מגיעים למסקנות מסוימות. כולם חונכו במערכת הבריאות לחשיבה קריטית, יחד עם זה, עלה פה גם הצורך להעלאת מודעות של הציבור לצרכנות נבונה בשימוש ב-AI, וזה משהו שכן צריך לגעת בו.
כל הנושא של ההטיות באלגוריתמים, לבקר היטב את האלגוריתמים שמשתמשים בהם כדי למנוע הטיות שעלולות להוביל לאפליה בטיפול. הסתמכות על AI בהחלטות רפואיות, ליצור מערכת שיודעת לאזן בין השימוש ב-AI לבין השיפוט המקצועי של המטפלים להחלטות טיפוליות, וזה חייב להיות בידי הצוות המטפל. האחריות היא בידי הצוות שהשתמש במערכת ולא על המטופל.
בנושא של חינוך והכשרה, צריך לחנך כבר היום לתחום של אתיקה בשימוש ב-AI בכל מוסדות הרפואה, מקצועות הבריאות, האחיות, זה צריך להיות חלק אינטגרלי, מחקר ופיתוח אתי בנושא הזה. ומבחינת הסדרת רגולציה, היא קיימת, אני חושבת שאנחנו לא צריכים לשפוך את התינוק עם המים, כי יש בזה דברים שהם תורמים ומשפרים את איכות הטיפול וכן צריכים להשתמש בכללי אתיקה שמותאמים גם לתחום של הבינה המלאכותית, ואנחנו נגיש לכם את המסמך שנגבש.
מלי קושא
¶
אנחנו עובדים הרבה בשיתוף פעולה גם עם ד"ר ולפיש ואנחנו גם נגבש מסמך משותף, גם שלנו, ונוכל להגיש גם את זה.
מלי קושא
¶
אני רק אגיד במשפט שצריך לזכור שיש לנו גם היום פערים שקיימים בבריאות כמו מחקרים שמבוצעים בעיקר על רופאים או תרופות שפותחו בעיקר על רופאים שמושתים על נשים, והשימוש ב-AI, שהמקורות הנתונים הם על מחקרים שלא נוסו על נשים, מגביר את הפערים בבריאות נשים, וגם זו סוגיה שצריך לקחת אותה. בבריטניה לקחו את זה מאוד כנדבך נפרד ושמו בתוך הצוות 50-50 גברים ונשים בכדי לבנות את התהליך הזה בצורה מסודרת שתצמצם את הפערים בבריאות באמצעות שימוש בבינה מלאכותית. תודה רבה.
עמיחי תמיר
¶
תודה. ד"ר עמיחי תמיר, יו"ר ארגון הנכים, גם בכובע של ד"ר תמיר. אני רוצה, לפני שאני פותח בדברים על AI, להתייחס לתמונה שם של החטוף עמרי מירן. אשתו לישי עושה עבודת קודש. הוא עדיין בחיים, חובה לשחרר אותו ואת 58 החטופים מייד.
עמיחי תמיר
¶
תודה. עכשיו לדברים שלי לגבי AI. אני רוצה להתייחס לדברים שקראתי לאחרונה שפורסמו על ידי ד"ר רועי צזנה. רועי הוא מדען, מומחה לטכנולוגיות עתידניות, והוא עסק בתוכנה מאוד מתוחכמת של AI, כמובן לא Chat GPT, ושאל שאלה לכאורה פשוטה, מאוד מורכבת, שאלה של מיקום. אם ניישם את זה לכאן, הוא שאל "היכן אני נמצא עכשיו?", בבוקר התשובה "אתה נמצא במזרח התיכון, ישראל, ירושלים", אבל בערב התשובה הייתה שונה לגמרי: "אתה נמצא בכנסת ישראל, באולם ועדת הפנים והגנת הסביבה בדיון של ועדת הבריאות".
למה אני מעלה את הדוגמה? מכיוון שמדובר בטכנולוגיה שמתפתחת בקצב שאנחנו לא רגילים, קשה לנו להעריך אותה. יש לה המון פוטנציאל. אם נתייחס למה שעסקנו בו אתמול, במצוקת הרופאים בפריפריה, הן בתמותה מזיהומים, הן בתוחלת חיים נמוכה, כלי כזה יכול לפתור את הבעיה הזו, אבל צריך להיות מאוד זהירים. בגלל שמדובר בכלי מתוחכם, השימוש חייב להיות מושכל ומבוסס על נתונים. תודה רבה.
חן מטס
¶
שלום, תודה רבה. אני שמחה להשתתף בדיון הזה. רציתי רק לשאול כמה שאלות. באמת בהמשך למה מותר ומה אסור להעלות למערכות האלה, האם הופץ לרופאים ולמטפלים בתחום בריאות הנפש איזשהו חוזר שמבהיר להם איזה חומר מותר ואיזה חומר אסור להעלות לתוכנות האלה? לגבי הקלטה של שיחות בבריאות הנפש, זה נזרק כאן, רציתי לשאול במה מדובר, כי אני לא הכרתי את הפרקטיקה הזאת ואני נמצאת בהרבה דיונים בתחום בריאות הנפש, רציתי לשאול על מה מדובר. ודיברו כאן על רגולציית יתר, לי נשמע, לפחות אישית, שהרגולציה כרגע היא ממש בחסר. וברור שאי אפשר לעשות רגולציה על כל ה-AI, אבל בהחלט אפשר להבהיר לאנשי המקצוע מה הגבולות שמותר להם להיות בתוכם. תודה.
לירון זהר
¶
אני לא מכירה שהוציאו איזושהי הנחיה. אם אתם מכירים משהו ספציפי לבריאות הנפש, תוסיפו. אני לא מכירה שיש הנחיה כזאת, אבל כפי שנאמר קודם לכן, לא מעלים, אנחנו יודעים את זה, וכן יש הנחיות בתוך כל הארגונים לא להעלות פרטיים אישיים למערכות פתוחות. אני משערת שזה נעשה באופן אחראי בכל הארגונים.
אדם ערוץ
¶
כן. זה נושא שאני העליתי בשביל לציין את הנושא של הסכמה מדעת. בסופו של דבר, מדובר באיזשהו תהליך שהתחלנו לבחון אותו עם איזשהו כלי AI שהמטפל, אחרי אישור מהמטופל, מבצע הקלטה של השיחה עצמה, התמלול של השיחה, ללא פרטים מזהים באופן מוטמע, מועבר לאותו כלי AI שיוצר שם סיכום, תמצות עם אקשן-אייטמים של השיחה ומחזיר את זה בחזרה לתוך תיק המטופל עם איזשהו מספר מזהה.
יוסף גדליהו
¶
תודה רבה, היו"ר. באמת דיון חשוב, אנחנו מצטרפים לברכות. אני רוצה להתייחס למדיניות הממשלתית הכללית יותר ביחס לבינה מלאכותית, כי אני חושב שזה משפיע באופן ישיר גם על המדיניות.
יוסף גדליהו
¶
לשמחתנו, יש ממשק, אני חושב, מצוין. ברשותך, היו"ר, אני אתייחס לדברים, גם למה אנחנו עושים ביחד ואיך אנחנו רואים את הפעילות בהקשר הזה, כי המדיניות הכללית בהחלט משפיעה, זו מדיניות ממשלתית רוחבית והיא משפיעה גם על מה שקורה במשרד הבריאות.
צריך להגיד, וזו די נקודת מוצא, אנחנו מדברים על מערכות בינה מלאכותית שמוטמעות באופן מואץ בישראל בכל הענפים במשק, הן משנות מהיסוד, ממש ככה, את מרבית הענפים במשק, כמו שאנחנו רואים את זה. כאן בוועדה אנחנו מתעסקים בבריאות, אבל בשביל התמונה הרחבה, אתגרים דומים למה שעלה פה היום מתעוררים גם בהקשרים של תחבורה נגיד, רכבים אוטונומיים, רמזורים חכמים, אתגרי הבטיחות שם הם מובנים מאליהם.
בהקשרים של פיננסים, אשראי אוטונומי, שאלות של אפליה וכולי, אלגו-טריידינג, כל המסחר בבורסה שיכול להיות מבוסס AI, בתחום המשפט מדברים על מערכות שיסייעו לשופטים, מדברים על מערכות שיתווכו את הצדק לאזרחים במקום עורכי דין בחלק מהמקרים, שאלות שמתעוררות שם, חינוך, קבלה לעבודה, אפילו פיטורי עובדים היום לפעמים נעשים באמצעות מערכות AI שמתעדפות את מי לפטר. ברור שהאתגרים הם רוחביים, ובהתאם לזה גם המענה צריך להיות רוחבי.
יוסף גדליהו
¶
זהו. אני רוצה להגיד כנקודת מוצא שהנושא של הסיכונים מעורר שיח ציבורי משמעותי, ובצדק, אבל צריך לזכור, וזה גם קצת פחות עלה פה בדיון, אולי בדיונים קודמים, חשוב לזכור גם את ההזדמנויות, כי הן אדירות, והפוטנציאל הוא כמעט בלתי מוגבל. אם אנחנו מדברים לדוגמה על המערכת הרפואית, על מערכת הבריאות, בטכנולוגיות הקיימות היום, לפי מה שאנחנו - - -
היו"ר רון כץ
¶
יוסף, יש לי שאלה רק לפני שאתה נכנס לסקירה של הבריאות. אתם משריינים איזשהו תקציב לטובת מערכת הבריאות? כלומר, אתם בתור הרגולטור הכללי של טכנולוגיה, ומה הוא?
יוסף גדליהו
¶
בגדול, כרגע, בשנה הקרובה, אנחנו נעשה ביחד עם משרד הבריאות מחקר בשווי של 150,000 שקל מתוך מרכז מחקר שהקמנו באוניברסיטת תל אביב. רגע, בנוגע לרגולציה - - -
יוסף גדליהו
¶
בנוגע לרגולציה ובהקשרי הטמעת בינה מלאכותית יש לנו כמה תוכניות לתמיכה במשרדים כדי לקדם פרויקטים של הטמעת בינה מלאכותית אצלם.
יוסף גדליהו
¶
משרד הבריאות אולי יוכל להשיב בהקשרים של מה הם עושים כיום. אנחנו עובדים ביחד איתם גם על איזושהי תוכנית אסטרטגית.
יוסף גדליהו
¶
אני אגיד, זה ככה, משרד החדשנות, המדע והטכנולוגיה לא מתקצב את ההיערכות האסטרטגית הלאומית בהקשרי בינה מלאכותית בתחום הבריאות.
יוסף גדליהו
¶
בדיוק. המשרד בהחלט, והשרה פועלת בהקשר הזה, כדי גם להשיג קשב מיניסטריאלי שיוביל בסופו של דבר לעידוד הטמעת AI במשרדים האלה ולפיתוח אסטרטגיה שבסופו של דבר תוביל לזה שהמשרדים - - -
יוסף גדליהו
¶
אלה תהליכים שלוקחים זמן. אני חייב להגיד שדווקא במשרד הבריאות הקשב המיניסטריאלי קיים. אני לא רוצה להתבטא פה ביחס לתהליכים שקורים בתוך משרד הבריאות, כי זה - - -
היו"ר רון כץ
¶
לא, התמונה הרחבה היא אחלה, אבל מעניין אותי רק בריאות כי אני חושב שיש פוטנציאל אדיר למדינת ישראל שאנחנו יכולים לפספס. אנחנו בדיון רביעי, חמישי, שישי מתוך אין סוף דיונים שאנחנו משריינים למשרד הזה. יש לזה את הקשב, גם של השר, גם של יו"ר הוועדה, מאוד, מאוד רוצים לדחוף. יש את לירון שעוזרת לנו לדחוף את זה, יש לנו את כל הצוות של משרד הבריאות שמאוד Minded לנושא.
חסר לנו תקציב, אין ספק בזה, וזה ביצה ותרנגולת, אבל ברגע שאתם בתור משרד תגידו: אנחנו רואים את התחום של הבריאות כפיילוט, כמשהו שיכול להביא כסף למדינה, כמשהו שצריך לדחוף קדימה, זה יקל מאוד על העשייה גם של משרד הבריאות, כי בסוף אין להם מאיפה להביא תקציבים שלא קיימים, קיצצו להם, בסוף הם צריכים לבחור בין חיי אדם בציוד לבין טכנולוגיות, הם יבחרו תמיד בחיי אדם. אתם, הקומה מעל, שאמורים להתעסק בטכנולוגיות, אמורים להגיד: חבר'ה, תקשיבו, בבריאות יש פוטנציאל אדיר, תכף אנחנו מפספסים את הרכבת. בואו נשקיע בבריאות. זה מה שאני מצפה ממשרד המדע והטכנולוגיה.
יוסף גדליהו
¶
בכל אחת מהפעילויות שאנחנו יצאנו באופן רוחבי לכל משרדי הממשלה, תיעדפנו את משרד הבריאות מתוך הבנה שהוא באמת אחד המשרדים החשובים ביותר בתחום הטמעת ה-AI. יש דברים מסוימים שבסופו של דבר, התקציבים שאנחנו מדברים עליהם בהקשר של הטמעת AI במערכת הבריאות באופן כולל הם אפילו לא בעשרות מיליונים, הם הרבה מעבר לזה.
היו"ר רון כץ
¶
איפה הם נמצאים, התקציבים? כלומר, זה תקציב ב-2025 שיש לך X כסף למשרד הבריאות? כלומר, כמה כסף יש למשרד הבריאות ב-2025?
יוסף גדליהו
¶
אני אסביר רגע איך הדברים נראים, בסדר? למשרד הבריאות, כמו כל אחד ממשרדי הממשלה, יש יכולת לתעדף את תחום ה-AI והטמעת AI והשקעות בהקשרים האלה ככל אחד ממשרדי הממשלה. משרד החדשנות, המדע והטכנולוגיה מעולם לא התערב בהקשרים האלה באופן ישיר, לכל שר יש את המנדט שלו. המשרד, כמשרד שרוצה כן לעודד הטמעת AI גם בממשלה וגם בסקטור הפרטי ובמערכות הרלוונטיות, פיתח כל מיני תוכניות שבאמצעותן הוא תומך תקציבית בהקשרים האלה.
היו"ר רון כץ
¶
יוסף, אני הולך הפוך, אני שואל שאלה הפוכה. אני יודע שהם רוצים, עכשיו אני אומר לך, הם מאוד רוצים, והם צריכים עכשיו תקציב, כמה תקציב אני יכול להגיד שהבאנו ממשרד המדע והטכנולוגיה לטובת הטמעת AI במערכת הבריאות?
יוסף גדליהו
¶
אני יכול להגיד שהסך הכולל של התקציבים שהוצאו לעולמות האלה לשנת 2025 מדבר על כמה עשרות מיליונים במשרד המדע.
יוסף גדליהו
¶
אני אומר שוב, אני לא יכול להתייחס, היו"ר, למספרים מדויקים כרגע, אבל צריך להבין שהתקציב הזה של העשרות מיליונים מיועד לכל משרדי הממשלה.
היו"ר רון כץ
¶
אני אשמח שלוועדה הבאה משרד הבריאות ואתם תציגו לנו למה שוריין הכסף ולוחות זמנים, מה הולכים לעשות איתו. כי בסוף, עם כל הרצון הטוב, צריך כסף בשביל להניע את הספינה, ואתם, מבחינתי, ואני גם מכיר את השרה שיודעת לדחוף, אמורים להיות אלה שמובילים אותם, שבאים למשרד הבריאות ואומרים: יופי, כל הכבוד על הרצון הטוב, הנה הכסף, הנה הצ'ק, ככה מקדמים דברים. אחרת אנחנו נמשיך לעשות פה דיונים אבל לא נראה תוצרים של הדיונים האלה, וחבל. אנחנו יכולים להוביל את הנושא הזה, התחום הזה יכול להיות ההכנסה השנייה אם לא הראשונה של מדינת ישראל. היום אנחנו מתמחים בייצוא של נשק וטכנולוגיות צבאיות, משרד הבריאות יכול לתת פייט לא רע בנושא הזה, גם לטובת אוזנו של משרד האוצר וגם כל שאר השותפים שדואגים מאיפה מביאים כספים למדינה, משרד הבריאות זו אחלה דרך להביא כספים למדינה.
יוסף גדליהו
¶
חד משמעית, אנחנו מסכימים בנושא הזה, אנחנו הראשונים לדחוף את האירוע. בסופו של דבר, עולמות המגבלות התקציביות ברורים ליו"ר, ושוב, כאמור, חלק מהדברים צריכים להיעשות על ידי המשרדים עצמם. אנחנו נותנים מעטפת, זאת אומרת, המעטפת שלנו נועדה לקדם, לעודד. אנחנו לא מחליפים אף משרד, לא בהקשרים של הרגולציה שלהם, ובטח לא בהקשרים של התקציבים שלהם.
ברשותך, היו"ר, ביחס לרגולציה, כי לשם נערכנו בסופו של דבר בדיון הזה, מה שרציתי לומר זה שמדיניות הרגולציה הכללית של מדינת ישראל נגזרת בין היתר מהחלטות ממשלה שעברו בסביבות 2021 וב-2023, ובשנת 2023 משרד החדשנות, המדע והטכנולוגיה פרסם ביחד עם משרד המשפטים את המדיניות הלאומית של מדינת ישראל בתחום הבינה המלאכותית שמתייחסת באופן ספציפי לרגולציה, במסגרת המסמך הזה קיבלנו שתי החלטות ערכיות שמשפיעות בין היתר על ההתנהלות היום בהקשרי רגולציית בריאות.
ההחלטה הראשונה הייתה בחירה בין רגולציה סקטוריאלית לרגולציה רוחבית. לדוגמה, באיחוד האירופי העבירו את ה-AI Act, שזו חקיקה רוחבית, חלה על בינה מלאכותית בכל הסקטורים: משפט, בריאות, פיננסים, תחבורה וכולי. לעומתה, הגישה הבריטית-אמריקאית באה ואומרת: לא, אם אנחנו נסתכל על הכול כמקשה אחת אנחנו נפגע בחדשנות, ולכן הם אמרו: כל רגולטור יסדיר בתחום שלו. בישראל התקבלה החלטה שכל רגולטור יסדיר בתחום שלו, וכנגזרת מזה, משרד הבריאות הוא הרגולטור המרכזי שמוביל את הדבר הזה ואין לנו רגולטור AI, זה ממש לא מה שאנחנו עושים, נחנו לא רגולטור AI. מה אנחנו כן עושים?
יוסף גדליהו
¶
מה שאנחנו כן עושים, הקמנו איזשהו מרכז שהמטרה שלו היא לסנכרן את הפעילות של הרגולטורים השונים. לדוגמה, הגדרת בינה מלאכותית יכולה לבוא לידי ביטוי באופן שונה בתחום הבריאות, בתחום התחבורה, בתחום החינוך, אנחנו רוצים לסנכרן את זה, ובין היתר גם לסייע להם במשאבים ובידע. בין היתר אחד המשאבים זה מה שהזכרתי קודם. זאת אומרת, הקמנו מרכז ידע באוניברסיטת תל אביב ל-AI Policy, למדיניות בינה מלאכותית. המרכז הזה מסייע בשנה הקרובה גם לתחבורה, גם לחינוך וגם לבריאות, ובריאות קיבלו מאיתנו את סל התקציב הכי רחב שיכולנו להעמיד מבין משרדי הממשלה השונים מתוך הבנה שבהחלט תחום הבריאות הוא אחד מהתחומים החשובים ביותר בהקשרי בינה מלאכותית.
הבחירה הערכית השנייה שקיבלנו הייתה בין רגולציה נוקשה לרגולציה רכה יותר. באיחוד האירופי הלכו על רגולציה נוקשה, יש Use Cases שאסור לעשות בהקשרי בריאות, יש Use Cases שחלים עליהם כל כך הרבה מגבלות שדה פקטו יהיה מאוד קשה ליישם אותם. לעומתם, הבריטים-אמריקאים אמרו: רגע, בואו נלמד את הטכנולוגיה, נבין אותה, נעשה את הדברים באופן שלבי, כך הוחלט גם בישראל. והגישה באה ואומרת, אנחנו הולכים על התפתחות מודולרית בגלל שאנחנו עדיין לא מבינים עד הסוף את הטכנולוגיה בהקשר הזה, אנחנו לא מבינים עד הסוף את הפערים. ובאמת משרד הבריאות, בהקשר הזה, אני חושב שזה בדיוק הכיוון שאליו הם הולכים. הרעיון הוא להשתמש בארגזי חול רגולטוריים, להשתמש בניסויים קליניים, מודלים שהם מכירים היטב.
יוסף גדליהו
¶
ובאמצעות הדבר הזה לפתח את הרגולציה. נקודה אחרונה, ברשותך, היו"ר. צריך לזכור שבאמת ישראל מתחרה בזירה הגלובלית בתחום הבינה המלאכותית, זה נכון אגב לגבי הנקודה קודמת שדיברת, על התקציב.
היו"ר רון כץ
¶
לכם יש איזשהו מדד איפה אנחנו נמצאים ביחס לעולם? כלומר, איפה ישראל נמצאת ביחס לעולם באותה תחרות של הבינה המלאכותית, גם ברפואה, אבל גם בכלל?
יוסף גדליהו
¶
לגבי רפואה אני לא מכיר, אולי משרד הבריאות יוכל להתייחס. לגבי הרוחבי, בראייה רוחבית, ישראל מדורגת בשנתיים-שלוש האחרונות באופן די עקבי בעשירייה הראשונה במדדים המובילים בעולם, אם זה Tortoise.
יוסף גדליהו
¶
כן, אבל שוב, תלוי איזה מדד. יש לנו את Tortoise שבו אנחנו באמת ממוקמים במקום התשיעי, זה גם המדד המדובר היום בישראל, סביב זה שהייתה ירידה במדד הזה. ויש לנו מדדים כמו סטנפורד שבהם גם כן ישראל מדורגת ברוב הדברים בחמישייה הראשונה או בעשירייה הראשונה.
יוסף גדליהו
¶
אפילו השלמתי, היו"ר, אמרתי את זה מההתחלה. אני חושב שבהחלט זה גם באמת תחום שבמדינת ישראל הוא סופר משמעותי, ה-Healthcare בהגדרה היא אחת מתעשיות הידע הכי רלוונטיות ויש שם המון דאטה בקופות החולים ובבתי החולים בישראל. אנחנו מבינים את הנכסיות של הדאטה הזו. זה אתגר לרתום לזה תקציבים, אבל מה שרציתי להגיד זה שזה צריך לבוא לידי ביטוי גם בקריאות הרגולטוריות. זאת אומרת, אנחנו צריכים לוודא שיש פה סביבה רגולטורית שהיא דינמית, שהיא מאפשרת, ושהיא מעודדת הטמעה טכנולוגית כדי שאנחנו נוכל להמשיך להוביל גם בתחום הבריאות וגם ברמת התעשייה.
אשר רוכברגר
¶
תודה רבה, כבוד היושב ראש. אני לא קשור לטכנולוגיות, אבל אני רוצה להתייחס לשתי נקודות שבעיניי הן חשובות. לאשתי התגלתה לפני כמה שנים תסמונת מאוד נדירה שיש בארץ בערך 50 אנשים עם אותה תסמונת. ממחקר אמפירי של ביקורים אצל רופאים, לפחות 50% מהם לא שמעו על התסמונת ולהשפעותיה ובדרך כלל זה כבר על אוטומט, צריך להסביר, לעשות מין הרצאה לרופא כדי שהוא יבין במה מדובר.
אני בטוח שבמקרה כזה, שימוש בבינה מלאכותית, שכנראה יש גם מחקרים על אותה תסמונת בעולם, ויש עוד כמה אנשים עם אותם תסמינים, יכולה מאוד לעזור לרופא ממוצע להבין מה קורה ואיזה טיפול מיטבי אשתי צריכה. מצד שני, תוך כדי הדיון פה ראיתי ידיעה ש-OpenAI ביטלה את השדרוג האחרון של Chat GPT בגלל רצון היתר שלו לרצות את המשתמש. צריך למצוא איזה דרך המלך בין שתי הנקודות האלה שקשורות במישרין לבריאות של המטופל ולסכנות שטמונות בשימוש בבינה המלאכותית.
היו"ר רון כץ
¶
תודה רבה. אתה צודק, אין ספק שצריך לעשות פה איזונים. אנחנו אחרי הפריצה של הטכנולוגיה, ואנחנו, לצערי, קצת מפספסים גם את הקדמה, אבל גם את ההובלה של הנושא. Chat GPT הוא לא ישראלי וגם Grok הוא לא ישראלי וגם עוד כמה תוכנות כאלה לא ישראליות, וחבל שאין לי שם להגיד שהוא כן ישראלי כמו שהיה לנו פעם ווייז והיו לנו פעם דברים אחרים.
זה אשמתנו שאנחנו כנראה לא שמנו לזה לב ואני רואה דיון אחרי דיון שאין באמת רצון לקחת את הנושא הזה ולהגיד, רק בזה אנחנו מתעסקים. ואני לא מאשים את מי שיושב מסביב לשולחן, כי בסוף הרצון הזה מתבטא במעשים, ומעשים מתבטאים בתקציבים. ועדיין אין לנו אמירה ברורה שזה היעד של מדינת ישראל וזה היעד של משרד הבריאות. ואנחנו נדחוף לכך שהאמירה הזאת אכן תאמר ואני אדחוף לכך באופן אישי שתהיה אמירה ברורה לנושא הזה, גם של שר הבריאות וגם של שרת המדע והטכנולוגיה.
כי אני אומר לכם, מדינת ישראל היא מקרה ייחודי בתחום של הבריאות. קופות החולים ומערכת הבריאות של מדינת ישראל עם המידע שהן מכילות, זו הזדמנות חסרת תקדים. ואם אנחנו נפספס את ההזדמנות הזאת, באמת, לא עשינו כלום. הסיפור שאנחנו קיבלנו את החיסונים לקורונה הראשונים זה בגלל המידע הזה וקיבלנו עוד הרבה מאוד דברים ועשו מחקרים מאוד, מאוד משמעותיים במדינת ישראל בזכות המידע הזה. אפשר להשחיר את המידע, אפשר לעשות הרבה מאוד דברים, אבל אם אנחנו נדע לפתח כלי ייעודי רפואי על סמך מידע של מיליוני תיקים רפואיים, נוכל להיות הכלי הכי יעיל, הכי אפקטיבי והכי חזק בעולם.
וככלי כזה, הוא גם יהיה הכי רווחי בעולם. וזה יהיה כלי שלכם, והכלי הזה ידע לשלם מסים למדינת ישראל, ומדינת ישראל היא מדינה שמאוד צריכה מסים, בייחוד עכשיו, בשנת מלחמה. ולכן אני לא מבין למה משרד האוצר לא מתעדף דווקא את משרד הבריאות בנושא, הזה ומשרד המדע והטכנולוגיה גם בנושא הזה מול משרד האוצר, ודאי משרד הבריאות שאני יודע שהוא כן מתעדף אתזה, אני יודע שהמנכ"ל עוסק בזה והשר עוסק בזה ויו"ר הוועדה הזו עוסק בזה, אבל זה לא מספיק.
אנחנו עלולים לאבד את זה, אנחנו יכולים לפספס את הרכבת. יגיע שלב שלא יצטרכו את כל המידע הרפואי הבאמת מאוד מרשים שיש במדינת ישראל כי הם יהיו צעד קדימה. שמעתם, היום אנחנו ברמה של תלמיד של 67, עוד שנתיים הצ'אט יהיה ברמה של 90, לדעתי, בעוד חצי שנה הצ'אט יהיה ברמה של 90 ובעוד שנה הוא יהיה ברמה של 100. ואם הוא יהיה ברמה של 100, לא צריכים יותר את מדינת ישראל ואנחנו נשתמש בכלים שפיתחו במדינות אחרות.
ולכן אני שוב מפציר, גם במשרד הבריאות, גם במשרד המדע והטכנולוגיה, ודאי במשרד האוצר, לתעדף את הבינה המלאכותית בבריאות. זה יכול להיות הייצוא הכלכלי הכי גדול של מדינת ישראל, ופה גם צריך להכניס את משרד הכלכלה, גם הוא צריך להיכנס.
רחלי פרנקל
¶
שלום, רחלי פרנקל, נציגת משרד הכלכלה והתעשייה, אני מהתחום של צמיחה וחדשנות. ממש בהתאם לדברים שלך אני רוצה לספר על פרויקט שלנו. אנחנו מתמחים בתשתיות AI של תחומי קלאסטרים, אלה שישה ענפים, מנועי צמיחה מסוימים שהשר ניר ברקת באיזשהו תהליך הגדיר. התהליך שלנו כרגע בתחום הבריאות עוסק בהנגשה של תשתיות דאטה. יש לנו תקציב, זה פרויקט - - - 30 מיליון שקל, בשותפות ממש חצי חצי עם רשות החדשנות. מנהלת הקלאסטר של בריאות כרגע בבוסטון יחד עם ארגון 8400 בדיוק בנושא הזה. Data is the new oil, כולנו יודעים את זה, והממשלה צריכה לדעת איך להוציא אותה מהאדמה, כמשל, ולהשמיש אותה לצרכים עסקיים ואזרחיים.
היו"ר רון כץ
¶
מנהלת הצמיחה, מי לוקח על עצמו? אני אגיד לך מה, כשרוצים לעשות מחקר בבריאות, יודעים בלחיצת כפתור, כללית, אני לא אחשוף את המספרים, אבל כל אחד יודע כמה מטופלים יש לו, יודע לעבוד מול הקופות ולהוציא את התיקים הרפואיים האלה. יגידו, תשחירו את כל המידע הרפואי, יודעים לעשות את זה.
היו"ר רון כץ
¶
אפילו יותר מזה, הם מוכרים את זה. כשרוצים לעשות מחקרים, הקופות מוכרות את זה ומשחירות את המידע. למה משרד הכלכלה, קלאסטרים, שזה רעיון מדעים של ניר, למה משרד הכלכלה לא לוקח את זה על עצמו יחד עם משרד האוצר, יחד עם משרד המדע והטכנולוגיה, יחד עם כולם? תעזרו למשרד הבריאות, זה לא תחום ההתמחות שלהם. משרד הבריאות צריך עזרה בהובלה של הנושא הזה, צריך עזרה בתקציבים, ובסופו של דבר, מדינת ישראל צריכה שהדבר הזה יצא לפועל מהר.
רחלי פרנקל
¶
זה בדיוק התהליך שאנחנו עושים, מה שאמרתי, שאיבת דאטה. אנחנו עובדים עם בתי חולים, אם זה עם שיבא, סורוקה, רמב"ם, בדיוק על השאיבה הזאת של דאטה, ביחד עם כל מיני סטארט-אפים, כמו שאמרת, אם זו הסרה או אם זה שיבוש של פרטים אישיים, בדיוק הדברים האלה.
היו"ר רון כץ
¶
הבנתי, אוקיי. טוב, אנחנו נגלה את זה גם בוועדה הבאה. ברשותכם, אנחנו לקראת סיום, ולכן אנחנו נסכם את הוועדה. אני קודם כול רוצה להודות לכל מי שהגיע לפה, תודה רבה שלקחתם חלק ואתם מבינים את המשמעות והדחיפות של הנושא הזה, כי אני שוב אחזור על מה שאמרתי קודם, אבל אני באמת חושב שאם נפספס את הרכבת הזו, מדינת ישראל תצטער להרבה מאוד שנים.
אני מבקש ממשרד הבריאות להקים צוות עבודה בשיתוף הלשכה לאתיקה של הסתדרות הרופאים והאחים והאחיות מקופות החולים שתקבע קווים מנחים לשימוש בכלי בינה מלאכותית על ידי צוותים רפואיים, וכן המלצות לרגולציה מאפשרת בתחום, ככל שהדבר נדרש.
הוועדה מבקשת ממשרד הבריאות לערוך סקר אנונימי בקרב רופאים בבתי חולים וקופות החולים לגבי היקף השימוש של הרופאים ב-Chat GPT, והאם הרופאים מיידעים את המטופלים שלהם על השימוש בכלי זה. הוועדה מבקשת מקופות החולים להעביר לוועדה נתונים על היקף השימוש בכלים טכנולוגיים הייעודיים לרופאים שהוזכרו בדיון.
הוועדה מבקשת מהלשכה לאתיקה בהסתדרות הרפואית ומהלשכה לאתיקה בהסתדרות האחים והאחיות להציג את ההנחיות האתיות בדבר שימוש ב-AI לאחר גיבושן.
הוועדה מבקשת ממשרד הבריאות וממשרד החדשנות, המדע והטכנולוגיה להציג בוועדה הבאה את אופן הקצאת התקציבים לתחום הבינה המלאכותית במערכת הבריאות. הוועדה מבקשת לקבל את התייחסות משרד הבריאות לפעולות שנעשו בתוך חודש.
הוועדה תמשיך לעקוב אחר הנושא, אנחנו נקבע דיון נוסף. אני שוב רוצה להודות לכולם ואומר לכם, תסתכלו ימין, שמאל, השולחן הזה יכול להיות אחראי או לווייז הבא של מערכת הבריאות, או שאנחנו נשב פה ונדבר איך אנחנו מטמיעים טכנולוגיה של מדינה אחרת ומערכת הבריאות של מדינת ישראל תצטרך ללכת צעד אחורה במקום ארבעה צעדים קדימה. תודה רבה לכולם ותודה רבה למיכל.
הישיבה ננעלה בשעה 13:55.
