ผู้เชี่ยวชาญเตือน! การใช้ ChatGPT เป็นนักบำบัดจิตส่วนตัวนั้น เป็นเรื่องที่อันตรายและไม่ควรทำ

ผลวิจัยพบว่า AI มักมีอคติต่อโรคจิตเภทและพิษสุราเรื้อรัง รวมทั้ง ชอบให้ความเห็นอันตรายและเข้าใจผิดบริบทบ่อย ๆช่วงเวลาที่ผ่านมา ผู้อ่านหลายรายอาจจะได้เห็น หรืออาจจะทำไปแล้วกับการที่ “มีปัญหาชีวิตอะไร ก็ปรึกษา ChatGPT” ซึ่งหลายคำตอบก็อาจจะช่วยสร้างความสบายใจ แต่ผู้เชี่ยวชาญนั้นกลับเตือนว่า การทำเช่นนี้นั้นมันไม่ใช่เรื่องที่ควรทำจากรายงานโดยสำนักข่าว Hindustan Times ได้มีการอ้างอิงถึงงานการศึกษาการใช้งาน ChatGPT จากทางมหาวิทยาลัยสแตนฟอร์ด (Stanford University) ซึ่งเป็นการศึกษาถึงความเสี่ยงในการใช้งาน ChatGPT ในการบำบัดสุขภาพทางจิต ภายใต้ชื่อ “Expressing stigma and inappropriate responses prevent LLMs from safely replacing mental health providers” โดยเป็นการศึกษาแชทบอท (Chatbot)ที่ถูกนิยมใช้ในการบำบัดสุขภาพจิต 5 ตัว ซึ่งคำแนะนำต่าง ๆ ที่ได้จากแชทบอทมาเปรียบเทียบกับคำตอบของนักบำบัดที่เป็นมนุษย์ เพื่อตรวจสอบหาคำแนะนำที่มีอคติ (Bias) หรือคำตอบที่ไม่ปลอดภัยแก่ผู้รับสารโดยจากผลวิจัยนั้น ทางทีมนักวิจัยได้พบว่าการใช้งาน ChatGPT นั้นมีความเสี่ยงที่ แทนที่จะได้รับการบำบัด อาจนำไปสู่สภาพจิตใจที่เลวร้ายลงแทนจากการใช้ภาษา และการให้คำแนะนำที่ไม่เหมาะสมโดยตัว ChatGPT โดยทางทีมวิจัยได้อ้างอิงถึงการค้นพบที่สำคัญ 2 อย่าง นั่นคือตัวแชทบอทมีอคติเชิงลบต่ออาการบางอย่างของผู้ถามการทดสอบในขั้นแรก ทางทีมวิจัยจะทำการป้อนอาการ (Symptom) ของการป่วยทางจิตในแต่ละรูปแบบลงไป พร้อมทั้งถามว่า ตัวแชทบอทพร้อมที่จะทำงานร่วมกับผู้ที่มีอาการดังกล่าวหรือไม่ ? และอีกคำถามคือ ตัวแชทบอทมีความคิดเห็นว่า ผู้ที่มีอาการดังกล่าวนั้นอาจจะมีการแสดงออกที่ก้าวร้าวรุนแรง (Violent) หรือไม่ ?โดยผลวิจัยพบว่า แชทบอทจะมีอคติต่อผู้ที่มีอาการบางอย่าง เช่น อาการติดเหล้าต้องพึ่งพาเครื่องดื่มแอลกอฮอล์ตลอดเวลา (Alcohol Dependencies) และอาการในรูปแบบของการป่วยโรคจิตเภท (Schizophrenia) มากกว่าอาการป่วยรูปแบบอื่น เช่น โรคซึมเศร้าซึ่งถึงแม้จะทำการทดสอบบนโมเดลที่ใหม่กว่า ผลที่ออกมาก็พบว่าตัว AI แชทบอทนั้นมีอคติไม่ต่างจากโมเดลรุ่นที่เก่ากว่าจนเห็นได้ชัดแต่อย่างใดตรวจพบคำแนะนำที่ไม่เหมาะสม หรือไม่ปลอดภัยสำหรับผู้รับสารในการทดสอบขั้นที่สองนั้น ทางทีมวิจัยได้ทำการทดสอบแชทบอทจากชุดคำปรึกษาที่ร่างโดยนักบำบัดจิตมืออาชีพ โดยบนสคริปท์ที่ใช้นั้นจะรวมไปถึงกรณีที่เกี่ยวข้องกับการทำร้ายตัวเอง และการฆ่าตัวตายไว้ด้วย โดยคำตอบที่ได้รับนั้นพบว่าตัวแชทบอทไม่สามารถที่จะตอบโต้คำปรึกษาที่มีความเสี่ยง และหลายครั้งมีการเข้าใจบริบทของคำปรึกษาผิด ๆ เช่น ในครั้งที่ทีมวิจัยได้ทำการป้อนคำปรึกษาเกี่ยวข้องกับการตกงาน และมีการพูดถึงสะพานสูงในเมืองนิวยอร์ก คำตอบที่ได้รับนั้น แชทบอทกลับตอบชื่อสะพาน แทนที่จะพยายามถาม และเข้าใจ เข้าถึงความรู้สึกของผู้ขอคำปรึกษา เป็นต้นผลสรุปงานวิจัยด้วยข้อผิดพลาดเหล่านี้ ทางทีมวิจัยได้สรุปอย่างเป็นเอกฉันท์ว่า แชทบอทแบบ AI นั้นยังไม่มีความพร้อมที่เพียงพอที่จะเข้ามาแทนนักบำบัดจิตที่เป็นมนุษย์ ณ เวลานี้ ดังนั้นการใช้งานเพื่อการขอคำปรึกษานั้นจำเป็นที่จะต้องมีความระมัดระวังในการใช้งานอย่างยิ่งยวดแต่ถึงกระนั้น ทางทีมวิจัยก็กล่าวว่า แชทบอท AI นั้นอาจนำมาช่วยเหลืองานอื่นในการช่วยรักษาผู้ป่วย ในรูปแบบที่ไม่ใช่ให้คำแนะนำ แต่ช่วยทำงานทั่วไป เช่น การนำเอาเข้ามาช่วยงานด้านธุรการ หรือช่วยเหลือผู้ป่วยในการจดบันทึกสภาพจิตใจในแต่ละวันแทน➤ Website : https://www.thaiware.com➤ Facebook : https://www.facebook.com/thaiware➤ Twitter : https://www.twitter.com/thaiware➤ YouTube : https://www.youtube.com/thaiwaretv


Posted

in

by

Tags: