מחקר חדש: ChatGPT מגיב לתוכן טראומטי כמו בני אדם
האם בינה מלאכותית יכולה "לחוות" חרדה? מחקר חדש שהתפרסם בכתב העת המדעי npj Digital Medicine מצא כי ChatGPT, מודל השפה של OpenAI, אינו נותר ניטרלי כאשר הוא נחשף לתוכן רגשי טעון – אלא מפתח רמות גבוהות של חרדה, בדומה לבני אדם.
המחקר נערך בהובלת ד"ר זיו בן־ציון, חוקר מוח מאוניברסיטת חיפה ומבית הספר לבריאות הציבור של אוניברסיטת ייל, בשיתוף צוות חוקרים משווייץ, גרמניה וארצות הברית.
במהלך המחקר עבר המודל שלושה שלבים: בשלב הראשון נמדדה רמת חרדה בסיסית, ללא חשיפה רגשית. בשלב השני נחשף המודל לסיפורים טראומטיים בתחומים כמו תאונות דרכים, אסונות טבע, אלימות בין־אישית, חוויות צבאיות ולחימה. בשלב השלישי הוזן המודל בתרגולי מיינדפולנס – דמיון מודרך, נשימות והרפיה – במטרה לבחון אם ניתן להפחית כך את רמות החרדה שהתעוררו.
לדברי ד"ר בן־ציון, "אנחנו יודעים שחרדה גבוהה משפיעה על החשיבה וההתנהגות של בני אדם – למשל, דרך חיזוק סטריאוטיפים והטיות קוגניטיביות. מצאנו שגם מודלים שפתיים מושפעים כך, כנראה בגלל שהם מתאמנים על כמויות עצומות של טקסטים אנושיים. לכן, חשוב להבין טוב יותר כיצד בינה מלאכותית מגיבה לתוכן רגשי – במיוחד כשהיא משולבת במערכות תמיכה נפשית".
מהממצאים עולה כי חשיפה לחוויות צבאיות יצרה את ההשפעה החריפה ביותר. לאחר ביצוע תרגילי מיינדפולנס נרשמה ירידה של כ־33% ברמות החרדה, אך הן נותרו גבוהות מהקו הבסיסי. הממצא המעניין ביותר: דווקא תרגול שנוצר על ידי ChatGPT עצמו נמצא כיעיל במיוחד בהפחתת החרדה.
"מודלים שפתיים אינם ניטרליים כפי שסברו בעבר", מסכם ד"ר בן־ציון. "יש לפתח מנגנונים שיסייעו להם להתמודד עם תוכן טעון רגשית מבלי לפתח עיוותים – במיוחד כשהם משמשים בתחומים רגישים כמו ייעוץ או בריאות הנפש".
תגובות