הנתונים מספרים: מטופלים משתמשים ב-AI וחושפים את אתגרי המערכת
בימים האחרונים התפרסם מכתב מרתק בירחון הלנצט שנכתב על ידי צוות של מטופלים ורופאים על השימוש של מטופלים ב-AI וכיצד על המערכת להבין מחדש את תפקידה בקשר עם האינטראקציה החדשה שמתהווה בימים אלה. אינטראקציה שונה באופן מהותי ממה שהיה מוכר עד כה, וללא ספק תתרחב בתקופה הקרובה. במאמר שמובילה שרה ריגרה, מטופלת וחוקרת בירחון Lancet, היא מסבירה יחד עם חבריה שמטופלים לא מחכים לרשות להשתמש ב-AI אלא עושים זאת כבר עתה, היא פותחת את המאמר:
“We have heard physicians express the sentiment that patients will not trust artificial intelligence (AI) until physicians trust AI. The reality suggests the opposite. Patients are already engaging with AI for their health—without permission, endorsement, or guidance from clinicians”.
ניתוח נתונים של מספר דוחות על שימוש של ציבור המטופלים שיצאו לאוויר העולם מאז תחילת 2026 מראה כי המצב בדיוק כך, ולא זו אף זו, מטופלים אמריקאים מקבלים יותר את השימוש העצמאי שלהם מאשר את האפשרות להשתמש בכלים שמוצאים להם על ידי ארגוני בריאות.
הנה המספרים (האמריקאים), וכשהם מסתדרים בכמה מקורות שונים, אפשר להבין שמדובר במהלך משמעותי.
שלושה סקרים שנעשו על ידי גופים שונים מתחילת 2026, מגיעים כמעט לאותה נקודה: 32% מהציבור האמריקאי השתמשו ב-AI לצורכי מידע או ייעוץ בריאותי. בסקר שפורסם על ידי Rock Health מדובר בעלייה מ-16% ב-2024 ל-32% ב-2025. כלומר הכפלה בתוך שנה. בסקר של מכון KFF שפורסם אף הוא בשבועות האחרונים, נמצא גם כי 32% מהמבוגרים בארה"ב דיווחו שהשתמשו ב-AI למידע או עצה על בריאות פיזית או נפשית בשנה האחרונה, כולל 29% לבריאות פיזית ו-16% לבריאות הנפש. גם הסקר של חברת Zocdoc, מציג מספר קצת נמוך יותר אבל עדיין משמעותי מאוד: 26% מהמטופלים אמרו ששאלו את ה-AI שאלה בריאותית.
נתון חשוב נוסף הוא שמבין אלה שכבר משתמשים ב-AI לבריאות, 64% משתמשים בו פעם בשבוע או יותר. כלומר זה לא רק “ניסיתי לראות מה זה”. אצל רבים זה כבר הרגל.

הפרסומים הללו יצאו בחודשים האחרונים יחד עם עוד מספר דוחות משמעותיים על השימוש ב-AI – הדוח של חברת Open AI שיצא טרם השקת ChatGPT Health, דוח שימושים ב-co-pilot של מיקרוסופט לצורכי בריאות, רגע לפני שהם השיקו כלי ייעודי לבריאות. הסקרים עצמם אליהם מתייחס הניתוח הם של גופים רציניים ביותר: Rock Health קרן ההשקעות והאקסלרטור של תחום הבריאות הדיגיטלית, סקר של מכון KFF שעוסק באמון הציבור האמריקאי בהתפתחויות שונות בעולמות הבריאות, חברת Zocdoc שפעילה בהנגשת תורים למטופלים אמריקאים בתוך מערכת סבוכה של בחירת רופא וקביעת תור, ולבסוף סקר של ארגון CHAI שעוסק בבניית כלים של מדיניות ורגולציה לשימוש אחראי בכלי AI. עבור הפוסט הזה נתחתי בסיוע מנועי AI את כל הנתונים ולפניכם התוצר.
את הסקרים קראתי גם בעצמי, כך שזה לא פוסט של תוצרת AI בלבד ובסיס הניתוח נערך על ידי.
לסקרים המלאים: Zocdoc | Open AI | Microsoft | Rock Health | KFF | CHAI
מה מטופלים עושים מבצעים באמצעות AI
אחת הנקודות היותר מעניינות בכל החומרים האלה היא עד כמה דפוסי השימוש עקביים בין הניתוחים השונים, מה שמצביע על כך שזו כבר תופעה שנטמעת כהרגל. על פי הסקר של Rock Health שלושת השימושים המובילים בקרב משתמשי AI לבריאות הם:
- 59% בודקים אפשרויות טיפול על בסיס אבחנה קיימת
- 56% מנסים להבין תוצאות בדיקות מעבדה או הדמיה
- 55% מחפשים אבחנה אפשרית על בסיס תסמינים
גם בסקר של KFF התמונה דומה מאוד, רק ברמת כלל האוכלוסייה:
- 27% חיפשו מידע על תסמינים או מצב רפואי
- 19% ביקשו הסבר על בדיקות, אבחנות או תוצאות
- 19% השוו בין אפשרויות טיפול
- 16% ביקשו עזרה בהחלטה האם בכלל צריך לפנות לטיפול
ובדוח של של מיקרוסופוט עולה כי 40.7% מהשיחות הבריאותיות היו בקטגוריה של מידע וחינוך בריאותי, 11.6% עסקו בתסמינים, ועוד 8% במצב רפואי או טיפול. כלומר בערך שיחה אחת מכל חמש נוגעת ישירות להבנת מצב רפואי או לצעד הבא.

הסקר של zocdoc חידד עוד זווית חשובה: מטופלים לא עוסקים רק בחיפוש תשובות, אלא גם הכנה למפגש קליני. 36% אמרו ש-AI צריך לעזור להם להכין שאלות לרופא, 35% להבין תוצאות או אבחנות, 35% להרגיש יותר מעודכנים על בעיה רפואית, 30% להבין לאיזה רופא צריך לפנות, ו-30% להבין אם תסמינים דחופים.
המחקר של CHAI נתן מבט מעט שונה, ודיבר על שימוש מכוון ב-AI וכזה שאינו מכוון, ומצא שכאן נראה שהשימוש רחב יותר, 37% אחוז השתמשו ב-AI באופן מכוון, ואותו אחוז השתמשו באופן בלתי מכוון. חלוקה זו השפיעה בהמשך גם על שיעורי אמון ואחרים.
הנתונים הללו מחזקים את הטענה כי מטופלים לא עושים שימוש ב-AI על מנת למצוא קסמים, אלא סיוע בהתמודדות עם פערים שהם נתקלים בהם. והם זקוקים להבנה הרפואית שתסייע להם לבצע כמה דברים די בסיסיים: להבין, למיין, ולהחליט מה לעשות עכשיו.
ה-AI מצליח בדיוק איפה שהמערכת מתקשה
מעבר להרגלי השימוש, גם הסיבות שאנשים נותנים לשימוש ב-AI לצורכי בריאות אינן מתמקדות רק עניין של נוחות וזמינות. הן מחזקות את המחשבה שמדובר בכלי המסייע בפתרון והתמודדות עם נקודות החיכוך במערכת הבריאות, שחלקן בשל מקור הנתונים, הן יותר אמריקאיות.
לפי הסקר של מכון KFF:
- 65% מהאמריקאים אומרים שהשתמשו ב-AI כי רצו מידע מהיר או מיידי
- 41% השתמשו בו לפני שהחליטו אם בכלל לראות איש מקצוע
- 36% ציינו פרטיות או נוחות אישית
- 28% אמרו שכבר קיבלו תוצאות לפני שדיברו עם איש מקצוע
תשובות אלה מתארות מציאות המוכרת לכל מטופל: יש תוצאות ואין עדיין הסבר. יש שאלה או כאב, אבל אין עכשיו עם מי לדבר.
בנוסף הנתונים מצביעים גם על הקשר לנגישות ממשית לטיפול:
- 19% אמרו שהשתמשו ב-AI כי לא יכלו להרשות לעצמם לפנות לרופא
- 18% אמרו שאין להם רופא קבוע או שלא הצליחו להשיג תור
אצל צעירים מתחת לגיל 30 המספרים עולים:
- 29% ציינו עלות
- 38% ציינו קושי בגישה לרופא או לתור
כלומר, ה-AI אינו תוספת שכיף להשתעשע בה, במקרים לא מעטים הוא מהווה פיתרון ביניים ואף תחליף זמני, עד שמערכת הבריאות תתפנה.
גם כאן הסקר של Zocdoc מחזק את זה במשפט אחד מאוד פשוט ודי חזק: 65% מהמטופלים אמרו כי התייעצו עם AI כי זה פשוט קל יותר מלראות רופא (כלומר נגיש יותר).
גם נתוני השימוש בפועל של OpenAI מצביעים על אותו עניין: 7 מתוך 10 שיחות בריאות עם ChatGPT מתרחשות מחוץ לשעות המרפאה. בנוסף דווח על ידי החברה על כמעט 600 אלף הודעות בריאותיות בשבוע מאזורים כפריים מוחלשים, ועל יותר מ-580 אלף הודעות בשבוע מאזורים שמוגדרים כ-“מדבריות בתי חולים” שאלו אזורים גיאוגרפיים בהם הנגישות לבית חולים דורשת שעות של נסיעה. נכון, שמדובר במקרה זה בנתונים של הפלטפורמה עצמה ועשויים להיות מוטים לעומת מדגם אוכלוסייה. אבל הוקטור המסתמן ברור מאוד: ככל שיש פחות נגישות, כך יש יותר ערך לכלי שזמין עכשיו.
זה לא רק עניינים של רפואה – אלא גם התמודדות עם בירוקרטיה
על פי הנתונים, נראה שהבירוקרטיה של מערכת הבריאות מהווה מנוע להרבה מהשימוש ב-AI.
OpenAI מדווחת על 1.6 עד 1.9 מיליון הודעות בשבוע ב-ChatGPT קשורות לביטוח בריאות: השוואת תוכניות, תביעות, חיובים, כיסוי והשתתפות עצמית. מיקרוסופט מצאה שגם ניווט וגישה לשירותי בריאותי הם תחום שימוש משמעותי, ובתוכו 43.1% מהשיחות עסקו במציאת רופאים, מרפאות או מומחים קרובים.
הסקר של Zocdoc מחזק גם הוא את פונקציית הניווט של הבינה המלאכותית: 30% מהמטופלים אמרו ש-AI צריך לעזור להם להבין לאיזה סוג רופא לפנות. עוד עלה כי גם מצד הרופאים יש הסכמה יחסית גבוהה ששימוש בכלי בינה מלאכותית להבנת סוג הרופא הדרוש או קביעת תור כשצריך הם שימושים לגיטימיים.
זה מספרים די מדהימים. כי זה מבהיר שהציבור לא פונה ל-AI רק כדי להבין מחלה. הוא פונה אליו גם כדי להתמודד עם המערכת.
וזה לקח חשוב. יכול להיות שה-AI מצליח כרגע לא רק בגלל אי ודאות קלינית, אלא בגלל מורכבות אדמיניסטרטיבית. לפעמים הרבה יותר קשה להבין את הזכויות הבירוקרטיות מאשר להבין את הבדיקה.
פער האמון בבינה מלאכותית: מטופלים סומכים יותר כשהם בוחרים להשתמש, פחות כשהמערכת בוחרת עבורם
מתוך הדוחות עולה תמונה מורכבת בשאלת האמון של מטופלים בכלי AI. מצד אחד, בקרב מי שכבר השתמשו ב-AI לבריאות, בקרב משתמשים בפועל, העמדות כלפי AI חיוביות יחסית. על פי KFF:
- 92% מהמשתמשים ב-AI למידע על בריאות פיזית אמרו שהם לפחות די מרוצים מהתשובות
- 69% אמרו שהם סומכים על AI שיספק מידע בריאותי אמין
אבל אצל מי שלא משתמשים, התמונה שונה מאוד:
- רק 18% מהלא-משתמשים סומכים על AI למידע על בריאות פיזית
- ורק 16% סומכים עליו לבריאות הנפש
בסקר של Rock Health נמצא פער דומה:
- 56% ממשתמשי AI נותנים אמון במידע בריאותי מצ’אטבוטים
- ורק 15% מהלא-משתמשים אומרים אותו דבר
הנתונים מצביעים על קשר חזק בין התנסות בפועל לבין רמת אמון גבוהה יותר, אך קשר אינו סיבתיות: ייתכן שהשימוש מגביר אמון, וייתכן גם שאנשים שמראש פתוחים יותר ל-AI הם אלה שנוטים להתנסות בו.
אבל המחקר של CHAI מוסיף שכבה משמעותיות: הבעיה איננה עצם קיומו של AI במערכת הבריאות, אלא מי מפעיל אותו, באיזה שלב, ועל חשבון מי. כאשר AI משולב כחלק ממנגנון מוסדי – במיוחד בנקודות של כוח, פגיעות או חוסר שקיפות – האמון נשחק.
במחקר של מכון CHAI:
- 51% אמרו ששימוש ב-AI בתוך מערכת הבריאות יגרום להם לסמוך עליה פחות
- רק 12% אמרו שזה יגרום להם לסמוך עליה יותר
ובתרחישים מסוימים זה אפילו חד יותר:
- 65% יבטחו פחות אם AI יסייע בהחלטות על אישור מוקדם של ביטוח
- 57% יבטחו פחות בצ’אטבוט לתמיכה נפשית
והתמונה נעשית חדה עוד יותר כשמוסיפים את הרקע הרחב יותר שעולה מ-CHAI: החשיפה ל-AI כבר רחבה, אבל מה שהם מגדירים תחושת הנוחות הציבורית עם AI עדיין נמוכה בהרבה.
זה לב האתגר של מערכת הבריאות: לא רק להוכיח שה-AI מועיל או בטוח, אלא לבנות לגיטימציה לשימוש מוסדי בו אל מול מטופלים באמצעות שקיפות, הסכמה, בקרה ואחריות ברורה.
האם אמון הוא שאלה של שקיפות?
זו שאלה שנותחה על ידי מכון CHAI ונעשתה שם ההבחנה בין שקיפות לבין קבלה.
הציבור דורש יידוע ברור על מעורבות AI, ובמקרים רבים גם הסכמה מראש:
- כ-83% בממוצע רוצים איזושהי רמת גילוי על שימוש ב-AI
- 84% רוצים שיגידו להם אם AI מסייע באבחון
- 85% רוצים גילוי אם AI מעורב בהצעת אפשרויות טיפול או בצ’אטבוטים נפשיים
והציבור רוצה גם הסכמה, במיוחד במצבים רגישים:
- 59% רוצים רשות לפני שימוש ב-AI לאבחון
- 59% לפני תמיכה בבחירת טיפול
- 59% לפני שימוש ב-AI לאישור ביטוח או כיסוי
- 62% לפני שימוש בצ’אטבוט בתחום בריאות הנפש

אבל כאן נמצאת נקודה קריטית: שקיפות היא תנאי הכרחי, אך איננה תנאי מספיק. והסיבה היא כפי שעולה מהמחקר של CHAI היא שהחשש הציבורי אינו רק מעצם קיומו של AI, אלא גם מן האפשרות שאנשי מקצוע יסתמכו עליו יותר מדי, בלי בקרה אנושית מספקת ובלי אחריות ברורה במקרה של טעות. לכן יידוע לבדו לא מייצר אמון; בלי גורם אנושי אחראי, השקיפות נשארת פורמלית בלבד.
זה לקח חשוב לכל מי שחושב שאפשר לפתור את הסיפור של אמון ושקיפות עם סעיף קטן בטופס.
הפרטיות מדאיגה, אבל הערך גובר
גם כאן הנתונים מעניינים כי הם סותרים נרטיב פשטני יותר. מצד אחד, 77% מהמבוגרים אומרים שהם מודאגים מפרטיות כשהם משתמשים ב-AI לבריאות. מצד שני, 41% ממי שכבר השתמשו ב-AI לבריאות אמרו שהם העלו מידע רפואי אישי. זה שווה ערך ל-13% מכלל המבוגרים.כלומר, אנשים מודאגים אך משתפים בשביל לקבל ערך.
זו לא סתירה. זה מדגיש שכאשר יש ערך ברור, אנשים מוכנים לקחת סיכון מחושב מבחינתם.
במחקר של CHAI רואים שגם לגבי שימוש במידע רפואי לאימון מערכות AI, הציבור אינו דיכוטומי בגישתו:
- 64% פתוחים לכך בתנאים מסוימים
- 35% מתנגדים לחלוטין
ובתוך הקבוצה המותנית:
- 29% מוכנים רק אם המידע אנונימי
- 25% רק עם אישור אקטיבי מראש
- 11% רק אם יש אפשרות opt-out
כאן חשוב לדייק: זו לא רק שאלה של פרטיות במובן הצר של דליפת מידע. זו שאלה של כוח, מי שולט במידע הרפואי, מי מחליט איך להשתמש בו, והאם הוא נשאר רק חלק מהטיפול או הופך לנכס מסחרי.
עוד שני נתונים בולטים שעולים במחקר של CHAI:
- 69% חושבים שלמטופל צריכה להיות שליטה על המידע הרפואי כשמעורב AI
- 63% מודאגים ממכירה או שיתוף של מידע לצורכי רווח
וזה אולי הנתון החשוב שעולה מהגישה של המטופלים לפרטיות: החשש אינו רק מהדלפה, אלא גם ממסחור של מידע רגיש.
הגיל משחק כאן תפקיד ברור מאוד
על פי הסקר של Rock Health נמצא שימוש ב-AI לצורכי בריאות בקרב 48% מדור המילניאלס (Millenials) ו-45% בקרב דור Z, לעומת רק 7% שימוש בלבד בקרב בני הדור המבוגר ביותר.בסקר של מכון KFF נמצא שבתחום בריאות הנפש, בני 18–29 משתמשים ב-AI בשיעור של 28%, לעומת 8% בלבד בגילאי 50 ומעלה.

עוד נמצא במחקרים כי למוצא האתני יש משמעות גם ברמת השימוש והאמון, והמשמעות של זה חשובה. כי נראה שהתמקדות באוכלוסיות בעלות נגישות טכנולוגית או פיזית למערכת אינה באמת מוצלחת שכן במקרים מסוימים הוא גבוה יותר דווקא אצל קבוצות שחוות יותר חיכוך בגישה, שירות או אמון.
מה זה אומר למערכת?
ראשית, וזה עולה גם מסקרים ישראלים, השימוש ב-AI לצורכי בריאות על ידי ציבור המטופלים הוא עובדה קיימת ומתרחבת. אין כאן שאלה של האם, אלא השאלה היא כעת כיצד יש להתייחס ולהתכנון לכך ברמת מערכת. נקודה נוספת, היא שהשימוש של המטופלים, ולמידה על דפוסי השימוש שלהם, מגלה לנו את הפערים והבורות של המערכת וחושף הזדמנות לפתרונות של הפערים אם באמצעות AI ואם באמצעים אחרים כדי לסייע למטופלים.
הנקודה האחרונה, קריטית לקברינטי מערכת המערכת, והיא שלאמון במערכת עצמה יש השפעה משמעותית על האמון בשימוש של עובדיה ושלה בכלי AI. ושצריך להתייחס גם לכלים שיוצרים לגיטימציה בשימוש מערכתי באמצעות שקיפות, פיקוח, הסכמה ואחריות ברורים.