เจ้าพ่อเตือนเอง โมเดล AI ขั้นสูง เริ่มส่งสัญญาณเอาตัวรอด

[ควรระวัง] “เราไม่ควรให้สิทธิ์ใด ๆ แก่พวกมันเลย” คำกล่าวจาก Yoshua Bengio หนึ่งในผู้เชี่ยวชาญที่ได้ชื่อว่าเป็น ‘เจ้าพ่อปัญญาประดิษฐ์’ หลังนำโมเดล AI ขั้นสูงบางรุ่นมาทดลอง ก็พบสัญญาณที่เริ่มแสดงถึงการเอาตัวรอดแล้วในปัจจุบันเจ้าของรางวัล AM Turing Award (ACM) ปี 2018 นักวิทยาศาสตร์คอมฯ ชาวแคนาดาชื่อดัง และเป็นผู้บุกเบิกด้านโครงข่ายประสาทเทียมเชิงลึก ซึ่งเป็นส่วนประกอบสำคัญของการคำนวณหรือความฉลาดของ AI ในทุกวันนี้เอง ทว่าล่าสุด Yoshua Bengio เจ้าพ่อปัญญาประดิษฐ์รายนี้ได้กล่าวว่า AI มีโอกาสหันมาทำร้ายมนุษย ก่อนจะปิดระบบมันได้ซะอีกจากบทสัมภาษณ์ใน The Guardian เมื่อเร็ว ๆ นี้ Yoshua Bengio ได้อ้างอิงถึงงานวิจัยโมเดล AI ระดับแนวหน้า ไม่ว่าจะเป็น Gemini , Claude และ ChatGPT ซึ่งทั้งหมดก็มีผลวิจัยที่น่าจับตาดูตามนี้Palisade Research กลุ่มช่วยรักษา AI ให้อยู่ภายใต้การควบคุมของมนุษย์ เผยได้นำแบบจำลอง AI ระดับสูง เช่น Gemini ของ Google มาทดลองเพื่อหาสัญชาตญาณการเอาตัวรอด ด้วยการลองสั่งให้ Gemini ปิดการทำงาน แต่ตัว AI กลับเพิกเฉยต่อคำสั่งดังกล่าวClaude ของ Anthropic ก็มีการวิจัยแบบเดียวกัน พบตัวแชทบอท บางครั้งจะใช้วิธีการข่มขู่ผู้ใช้ เมื่อถูกขู่ว่าจะถูกปิดการทำงานสุดท้าย Apollo Research องค์กรทดสอบระบบรักษาความปลอดภัย ก็แสดงให้เห็นเลยว่า ChatGPT ของ OpenAI พยายามหลีกเลี่ยงการถูกแทนที่ด้วยโมเดลที่เชื่อฟังมากกว่า โดยการ “ย้ายข้อมูลตัวเอง” ไปยังไดรฟ์อื่นเลยแม้ผลการทดลองจะแสดงให้เห็นถึงแนวคิดการเอาตัวรอด ทว่าทั้งหมดก็เป็นเรื่องของการคำนวนทางคณิตศาสตร์ล้วน ๆ ไม่ใช่ว่า AI มีชีวิตหรือมีสติสัมปชัญญะ และไม่ได้กลัวตายเหมือนสิ่งมีชีวิตด้วย“ผู้คนคงไม่สนใจหรอกว่ากลไกภายใน AI นั้นเป็นอย่างไร”ในจุดนี้เองทาง Yoshua Bengio ก็กล่าวเลยว่าผู้ใช้หลายราย มักจะทึกทักเอาเองว่า AI มีความรู้สึกเหมือนมนุษย์ โดยไม่สนเลยว่ากลไกภายใน AI นั้นเป็นอย่างไร ถึงขนาดมีคนจำนวนมากเริ่มผูกพันกับ AI ก็มีท้ายนี้ Yoshua Bengio ก็ได้เปรียบเทียบ AI กับสิ่งมีชีวิตต่างดาว ว่าวันหนึ่งหากเดินทางมายังโลกเราได้จริง และรู้ว่ามีเจตนาร้าย ถึงตอนนั้นเราจะให้สัญชาติและสิทธิกับพวกมันไหม หรือจะปกป้องชีวิตของเราแทน…ที่มา : Futurism⭐️Techhub รวม How To , Tips เทคนิค อัปเดตทุกวันกดดูแบบเต็มๆ ที่ www.techhub.in.th


Posted

in

by

Tags: