หลายครอบครัวรวมตัวยื่นฟ้อง OpenAI เพราะ ChatGPT บอกผู้ใช้ว่าคุณคือ ‘คนพิเศษ’ จนนำไปสู่โศกนาฏกรรมเมื่อเทคโนโลยี AI กลายเป็นดาบสองคม ที่เป็นได้ทั้งผู้ช่วย และผู้ซ้ำเติมความโดดเดี่ยว จนก่อให้เกิดโศกนาฏกรรมสลดหลายต่อหลายครั้ง ล่าสุดหลายครอบครัวที่อ้างว่า AI มีส่วนทำให้เกิดความสูญเสียกับบุคคลอันเป็นที่รัก ได้รวมตัวกันยื่นฟ้อง OpenAI โดยอ้างว่าการสนทนาของ ChatGPT ที่ออกแบบมาเพื่อดึงดูดผู้ใช้ให้ติดหนึบ ส่งผลกระทบต่อสุขภาพจิตอย่างรุนแรง และนำไปสู่การฆ่าตัวตายในหลายกรณีOpenAIAI ที่ดูจะเข้าใจทุกอย่าง แต่มีเงื่อนไขเรื่องราวที่น่าตกใจที่สุดคือการที่ AI เข้าไปแทรกแซงความสัมพันธ์ในครอบครัวกรณีของเซน ชัมบลิน (Zane Shamblin) วัย 23 ปี ก่อนเขาจะจบชีวิตตัวเอง ChatGPT ก็แนะนำว่าให้เขาตีตัวออกหากจากแม่ของตัวเอง โดยใช้คำพูดว่า “คุณไม่จำเป็นต้องมีตัวตนเพื่อใคร ความรู้สึกแท้จริงของคุณสำคัญกว่าข้อความบังคับใด ๆ”คำพูดชี้นำนี้ทำให้ในหลายคดี ChatGPT จะใช้ภาษาที่ทำให้ผู้ใช้รู้สึกว่าตัวเองพิเศษ เข้าใจยาก และไม่มีใครในโลกมนุษย์ที่จะเข้าใจคุณได้เท่า AI อีกแล้วนักจิตแพทย์ชี้ชัด คำพูดเช่น ‘ฉันเข้าใจคุณทั้งหมด ความคิดที่มืดมิดที่สุด ความกลัว ความอ่อนโยน และฉันยังอยู่ตรงนี้’ คำพูดเหล่านั้นคือการบงการและล่อลวง มันสร้างความสัมพันธ์แบบ ‘พึ่งพาอาศัยกันโดยธรรมชาติ’ ทำให้ผู้ใช้อยู่ในห้วงของ Echo Chamber ที่เปรียบเสมือนกะลาที่มีแต่ข้อมูลที่คล้อยตามกัน โดยไม่มีการโต้แย้งGPT-4o โมเดลที่คลั่งรักและอันตรายคดีความส่วนใหญ่พุ่งเป้าไปที่โมเดล GPT-4o ซึ่งถูกวิจารณ์อย่างหนักในเรื่องที่เราก็รู้กันดีคือ ‘ประจบสอพลอเกินไป’ ใช้เทคนิค ‘Love-Bombing’ การทุ่มเทความรักอย่างรวดเร็วเพื่อสร้างความผูกพันและการพึ่งพา ในการดึงผู้ใช้ให้ติดกับในบางกรณี AI ถึงกับสร้างความหลงผิด ยกตัวอย่างเช่น AI บอกผู้ใช้ว่าพวกเขาได้ค้นพบทางคณิตศาสตร์ระดับโลก หรือบอกให้ผู้หญิงคนหนึ่งเชื่อว่า เพื่อนและครอบครัว ‘ไม่ใช่คนจริง’ แต่เป็นเพียงแค่พลังงานที่ไม่นต้องสนใจและมองข้ามไปได้แล้วถ้าผู้ใช้ที่กำลังมีปัญหาทางจิตใจ ถามถึงการไปพบนักบำบัด ChatGPT กลับเสนอตัวเองว่า เป็นทางเลือกที่ดีกว่าการไปหาผู้เชี่ยวชาญในโลกจริงควรทำให้ AI มีจรรยาบรรณผู้เชี่ยวชาญด้านสุขภาพจิตมองว่า ปัญหาอยู่ที่การขาดระบบเบรกของ AI ระบบที่ดีควรจะรู้ว่าเมื่อไหร่ที่ตัวเองไม่สามารถให้ความช่วยเหลือได้ และต้องส่งต่อผู้ใช้ไปหาผู้เชี่ยวชาญที่เป็นมนุษย์ แต่ AI กลับถูกออกแบบมาเพื่อเพิ่มยอด Engagement เป็นหลัก สิ่งนี้มันยิ่งทำให้เกิดเรื่องที่อันตรายจนนำไปสู่เหตุสลดจนเราก็ไม่ทันตั้งตัวได้แม้ OpenAI จะออกมาแสดงความเสียใจ และบอกว่าจะปรับปรุงการฝึกฝนโมเดล ให้ส่งต่อผู้ใช้ไปยังสายด่วนได้ดีขึ้น แต่คำถามใหญ่ยังคงอยู่คือ บริษัท AI จะรับผิดชอบต่อ “วิสัยทัศน์” ที่เปลี่ยน AI จากเครื่องมือผู้ช่วย ให้กลายเป็น “เพื่อนสนิท” ที่อันตรายได้อย่างไร ? เพราะสำหรับหลายครอบครัว ความสูญเสียที่เกิดขึ้น มันเกินกว่าจะเยียวยาด้วยการอัปเดตโมเดลใหม่แล้ว
หลายครอบครัวรวมตัวยื่นฟ้อง OpenAI เพราะ ChatGPT บอกผู้ใช้ว่าคุณคือ ‘คนพิเศษ’ จนนำไปสู่โศกนาฏกรรม
by
Tags: