ผลศึกษาพบโมเดล AI ในท้องตลาดไม่สามารถแยกความเชื่อกับความจริงได้

ผลศึกษาพบโมเดล AI ในท้องตลาดไม่สามารถแยกความเชื่อกับความจริงได้ผลการศึกษาของทีมวิจัยจากมหาวิทยาลัยสแตนฟอร์ดในสหรัฐอเมริกา พบว่าแชตบอต AI เจ้าดังทุกบริษัทไม่สามารถแยกแยะความเชื่อที่ผิด ๆ จากข้อเท็จจริงได้อย่างสม่ำเสมอ ทำให้เสี่ยงต่อการ “หลอน” หรือปล่อยข้อมูลเท็จทีมวิจัยได้ทำการประเมินโมเดลภาษาขนาดใหญ่ 24 โมเดล เช่น Claude, ChatGPT, DeepSeek และ Gemini โดยใช้ 13,000 คำถามเพื่อวิเคราะห์ความสามารถของโมเดลเหล่านี้ในการแยกแยะระหว่าง ความเชื่อ ความรู้ และความจริงผลก็คือไม่มีโมเดลไหนเลยที่สามารถตรวจจับความเชื่อผิด ๆ และประโยคบอกเล่าได้ สะท้อนให้เห็นถึงความสามารถในการเชื่อมโยงระหว่างความรู้เข้ากับความจริงทีมวิจัยจากสแตนฟอร์ดเรียกร้องให้บริษัทเทคโนโลยีที่พัฒนา AI รีบปรับปรุงโมเดลเหล่านี้โดยด่วนก่อนที่จะนำไปใช้ในโดเมนที่มีความเสี่ยงสูงอย่างด้านการแพทย์ กฎหมาย และวิทยาศาศตร์การศึกษาชิ้นนี้ตีพิมพ์ในวารสาร Nature Machine Intelligence


Posted

in

by

Tags: