שיחות רפואיות בעידן של בינה מלאכותית: איך רופאים מתמודדים עם מידע גנרי שנוצר בידי מטופלים

AI שנוצר על ידי מטופלים: 3 מגמות המשפיעות על ביקורי קליניקה

הנחת היסוד של AI כאמצעי להתחלה – ולא כאבחנה

כשהאינטליגנציה המלאכותית (AI) הופכת לכלי נפוץ בחקר סימפטומים, אבחנות וטיפולים מטופלים, קציני מידע רפואי ראשיים (CMIOs) מדווחים כי האתגר אינו בהסרת AI משיחות קליניות – אלא בסיוע לרופאים להגיב בבהירות, עקביות ואמינות. מספר CMIOs מעידים כי הרופאים מעודדים להכיר בתכנים שנוצרו על ידי AI בכבוד ולהשתמש בהם כנקודת התחלה לשיחה ולא כסיכום שיש לאמת או לדחות.

במרכז הרפואי של אוניברסיטת קליפורניה באירווין, ד"ר דיפטי פנדיטה, CMIO, ציינה כי הרופאים מאומנים לתקן בעדינות מידע שגוי ולהבין את תכני ה-AI ככלים לחינוך והחלטות משותפות. הארגון מדגיש את המסר "אדם בלולאה" כדי להבהיר כי AI אינו מהווה ייעוץ רפואי, ומשקיע בהכשרה סביב אוריינות AI עבור הרופאים.

בבית החולים הקהילתי במישיגן, ד"ר ג'ייסון לה מרקה, CMIO, אמר כי הרופאים מעודדים להתייחס לנתונים שנוצרו על ידי AI כנקודת שיחה, בדומה לדפים מ-WebMD או Medscape שהמטופלים מביאים לפגישות. "זה לא שונה בצורה משמעותית," הוא ציין. "אנחנו לומדים יחד והם לומדים מאיתנו."

סטנדרטיזציה של הגדרת גבולות ותיקון מידע שגוי

CMIOs אחרים מתמקדים בעקביות, לא רק באופן שבו הרופאים מכירים ב-AI, אלא גם בדרך בה הם מסבירים את מגבלותיו. בבית החולים במערב וירג'יניה, ד"ר עוסמן אכתר, CMIO, ציין כי הרופאים המאומנים להעביר מסר סטנדרטי ותמציתי: AI יכול לסייע למטופלים להכין שאלות, אבל הוא אינו מהווה אבחון.

הנחיות גם מסייעות לרופאים להגדיר גבולות סביב מה ניתן לטפל בו בביקור ומה דורש הערכה נוספת, תוך שמירה על תיעוד מבוסס על שיקול רפואי. בבית החולים Adventist Health בקליפורניה, ד"ר אמר סאנטי, הורה לרופאים להכיר בתוכן שנוצר על ידי AI, לתקן ישירות מידע שגוי ולבסס כל מפגש על טיפול מבוסס ראיות.

חלק מהמערכות מכירות בכך שהן עדיין בשלב מוקדם של פיתוח הנחיות פורמליות. במערכת Confluence Health בוואשינגטון, ד"ר בקט מהנה, CMIO, ציין כי הארגון עדיין אינו מחזיק במדיניות ברורה לניהול תוכן שנוצר על ידי AI. עם זאת, לאחר מאמר ב-Wall Street Journal שגרם לשאלות מצד מטופלים, המערכת סיפקה תגובות מוכנות לרופאים, כך שיהיו מוכנים.

בניית אחריות בכלים של AI

מעבר לאסטרטגיות תקשורת, כמה CMIOs מדגישים שעל מנת להבטיח אחריות יש להטמיע זאת ישירות בזרימות העבודה של ה-AI. בבית החולים Parkview שבאינדיאנה, ד"ר מארק מייבוס, CMIO, תיאר את גישת הארגון כ"מאמין אך מאמת". כלים של AI כוללים מנגנוני משוב מובנים המאפשרים לרופאים לדרג תוצרים בזמן אמת. משוב זה עוקב פנימית ומועבר לספקים כדי לשפר את הכלים.

"האם רופא משתמש בתוכן שסיפק ה-AI, הם מבינים שהם אחראים לתוצאה המתקבלת," הוא הדגיש. השינוי, כפי שאומרים המנהיגים, אינו נוגע לשליטה במה שמביאים המטופלים לפגישות, אלא לספק לרופאים את השפה, השומרים והאחריות הדרושים לשיחות המודעות לתחום מבוססות על טיפול בטוח ואמין.

לקריאה נוספת בנושא AI, ניתן ללמוד על כך בסוגיות בוערות נוספות באלגוריתמים רפואיים.

Scroll to Top