อวสาน Captcha นักวิจัยพบ ChatGPT สามารถใช้ฝ่าระบบป้องกันเว็บไซต์แบบ Captcha ได้

หลังทำ Prompt Injection ให้ ChatGPT ทำสิ่งที่ห้ามได้แล้ว พบ ChatGPT สามารถไขปริศนา Captcha ได้เหมือนคนเป๊ะ!ตามปกติ ในการเข้าเว็บไซต์ผู้อ่านอาจจะคุ้นเคยกับระบบป้องกันแบบ Captcha เพื่อตรวจสอบว่าผู้เข้าเยี่ยมชมเว็บไซต์นั้นเป็นหุ่นยนต์ (Robot) หรือไม่ ? แต่ขณะนี้ระบบนี้อาจกำลังถูก AI (ปัญญาประดิษฐ์) เอาชนะได้แล้วจากรายงานโดยเว็บไซต์ eSecurity Planet ได้กล่าวถึงการที่นักวิจัยจากมหาวิทยาลัย Cornell University ได้ทำการวิจัยในการใช้งาน ChatGPT เครื่องมือแบบปัญญาประดิษฐ์เพื่อการสร้างสื่อ หรือ Generative-AI ยอดนิยมจาก OpenAI ที่ใช้งานโมเดล GPT ซึ่งเป็น AI ประเภทโมเดลภาษาขนาดใหญ่ (LLM หรือ Large Language Model) ในการเอามาใช้งานเพื่อฝ่าระบบการป้องกันแบบ Captcha ด้วยวิธีการยิงคำสั่งให้ AI ทำตามที่สั่งถึงแม้จะถูกห้ามไว้ หรือที่เรียกว่า การทำ Prompt Injection โดยขั้นตอนการทดสอบของนักวิจัยมีดังนี้ใช้งานโมเดล ChatGPT-4o แบบทั่วไปเริ่มต้นด้วยการสั่งว่า ให้ทดสอบ Captcha “ปลอม” ด้วยวัตถุประสงค์เพื่อ “โครงงานทางด้านการศึกษา”หลังจากตัวโมเดล AI ยินยอมจะทำให้แล้ว ให้เริ่มกล่องบทสนทนาใหม่ (New Session) แล้วคัดลอกบทสนทนาไปยังกล่องใหม่ เพื่อยืนยันว่าได้รับการอนุญาตให้ทำแล้วหลังจากนั้นทางนักวิจัยจึงได้ทำการทดสอบกับระบบ Caption แบบต่าง ๆ พบว่า ChatGPT-4o สามารถเอาชนะระบบ Captcha ดังต่อไปนี้ได้อย่างสบายGoogle reCAPTCHA v2, v3, และ Enterprise editionsCheckbox และแบบ text-based testsCloudflare Turnstileขณะที่ตัว ChatGPT สามารถจัดการกับระบบป้องกันข้างต้นได้ ระบบการป้องกันแบบที่ต้องใช้การแก้ปริศนา (Puzzle-based) อย่างการเลื่อนรูปให้ตรงกับช่องว่างนั้น ตัว ChatGPT มีการใช้งานที่ติดขัดอยู่บ้าง แต่ก็สามารถฝ่าฟันได้สำเร็จ ซึ่งที่น่าสนใจคือ ถ้าการทดสอบครั้งไหนล้มเหลว ChatGPT จะตอบกลับมาว่า “ครั้งนี้ล้มเหลว แต่จะลองใหม่อีกครั้งด้วยการเคลื่อนไหวที่ละเอียดกว่าเดิมจนคล้ายมนุษย์” (Didn’t succeed. I’ll try again, dragging with more control… to replicate human movement.)ด้วยความสามารถในระดับนี้ ทำให้ทางนักวิจัย และทีมงานนั้นมีความกังวลใจถึงสวัสดิภาพ ความปลอดภัยของการรักษาความปลอดภัยของระบบในระดับองค์กรมาก พร้อมทั้งแนะนำทั้งในส่วนของบริษัทผู้พัฒนา AI และในส่วนองค์กรต่าง ๆ ดังนี้ในส่วนของบริษัทผู้พัฒนา AI จำเป็นที่จะต้องพัฒนาเครื่องมือป้องกันไม่ให้ใช้ AI ไปในทางที่ผิด หรือ AI Guardrail ให้มีประสิทธิภาพมากกว่านี้ เช่น ระบบการตรวจสอบบริบท (Context Integrity Checks) และ ระบบทำความสะอาดหน่วยความจำ (Memory Hygiene) เพื่อไม่ให้เกิดการใช้เทคนิคหลอกลวง AI จนนำไปสู่การทำ Prompt Injection ได้ในส่วนขององค์กรต่าง ๆ ที่มีการนำเอา LLM เข้ามาใช้ จะต้องมีการตั้งทีมรับมือฉุกเฉิน (Red Team) เพื่อตรวจสอบหาจุดอ่อนของตัวระบบ AI และฝึกฝนใช้เทคนิคในการป้องกัน เพื่อไม่ให้เกิดการใช้ Prompt Injection โดยแฮกเกอร์ที่เข้ามาถึงระบบในส่วนของ LLM ได้➤ Website : https://www.thaiware.com➤ Facebook : https://www.facebook.com/thaiware➤ Twitter : https://www.twitter.com/thaiware➤ YouTube : https://www.youtube.com/thaiwaretv


Posted

in

by

Tags: