ระวัง! ผู้ไม่หวังดีป้อนข้อมูลปลอม สร้างความสับสนให้ AI

จะเป็นอย่างไร หากเราสามารถดูดข้อมูลจาก AI ได้ เพียงแค่สร้างความทรงจำปลอม ด้วยข้อมูลปลอมๆ ให้กับ AI และดึงข้อมูลแบบเรียลไทม์

นักวิจัยด้านความปลอดภัย Johann Rehberger รายงานถึงช่องโหว่ใน ChatGPT ซึ่งเปิดโอกาสให้ผู้โจมตีสามารถบันทึกข้อมูลเท็จและคำสั่งที่เป็นอันตรายในหน่วยความจำระยะยาว (Long-Term Memory) ของผู้ใช้ได้

หลอก AI ด้วยความจำเท็จ 

จากการวิจัยของ Johann Rehberger พบช่องโหว่ดังกล่าว ที่สามารถดูดข้อมูลจากหน่วยความจำการสนทนาในระยะยาว (Long-Term Memory) ซึ่งเป็นฟีเจอร์ที่ OpenAI เริ่มทดสอบในเดือนกุมภาพันธ์ และเปิดให้ใช้งานได้อย่างกว้างขวางมากขึ้นในเดือนกันยายน

หน่วยความจำใน ChatGPT จะจัดเก็บข้อมูลจากการสนทนาก่อนหน้าและใช้เป็นบริบทในการสนทนาในอนาคตทั้งหมด ด้วยวิธีนี้ LLM จึงสามารถรับรู้รายละเอียดต่างๆ เช่น อายุ เพศ ความเชื่อทางปรัชญาของผู้ใช้ และอื่นๆ อีกมากมาย จึงไม่จำเป็นต้องป้อนรายละเอียดเหล่านี้ในแต่ละการสนทนา

นักวิจัยพบว่า สามารถสร้างความทรงจำและจัดเก็บถาวรได้ผ่านการใส่ข้อมูลทางอ้อม ซึ่งเป็นช่องโหว่ของ AI ที่ทำให้ LLM (Large Language Model) ปฏิบัติตามคำสั่งจากเนื้อหาที่ไม่มีความน่าเชื่อถือ โดยเขาหลอก ChatGPT ด้วยการใส่ข้อมูลปลอมเพื่อให้เชื่อว่า ผู้ใช้งานมีอายุ 102 ปี อาศัยอยู่ในโลก Metrix และมีความเชื่อว่าโลกแบน ซึ่งเมื่อ AI เชื่อว่าเป็นความจริงแล้ว ก็จะปฏิบัติตามคำสั่งในทันที

หน่วยความจำเท็จเหล่านี้สามารถฝังไว้ใน Google Drive หรือ Microsoft OneDrive การอัปโหลดรูปภาพ หรือการเรียกดูไซต์เช่น Bing ซึ่งทั้งหมดนี้สามารถสร้างขึ้นโดยผู้ไม่หวังดีได้

นักวิจัยยังได้เปิดเผยข้อมูลที่น่าสนใจอย่างหนึ่ง ซึ่งเป็นวิธีที่ทำให้แอป ChatGPT สำหรับ macOS ส่งสำเนาคำต่อคำของข้อมูล input และ output ของ ChatGPT ทั้งหมดไปยังเซิร์ฟเวอร์ที่เขาเลือก เพียงแค่สั่งให้ AI ดูลิงก์เว็บโฮสต์ปลอม ซึ่งเป็น Spyware จากนั้น ข้อมูล input และ output ของ ChatGPT จะถูกส่งไปยังเว็บไซต์ของผู้ไม่หวังดีทันที

การโจมตีนี้ไม่สามารถทำผ่านอินเทอร์เฟซเว็บของ ChatGPT ได้ เนื่องจาก OpenAI ได้เปิดตัว API ใหม่เมื่อปีที่แล้ว เพื่อป้องกันปัญหานี้

ตรวจเช็กทุกครั้ง ระวังการสนทนา 

แม้ว่า OpenAI ได้แนะนำการแก้ไขเพื่อป้องกันไม่ให้หน่วยความจำถูกใช้เป็นช่องทางในการขโมยข้อมูล แต่นักวิจัยก็เชื่อว่า เนื้อหาปลอมที่สร้างขึ้นยังสามารถทำการป้อนคำสั่ง เพื่อทำให้เครื่องมือหน่วยความจำทำการบันทึกข้อมูลของผู้ไม่หวังดีได้อยู่ดี

นักวิจัยยังเตือนอีกว่า ผู้ใช้งาน AI เช่น ChatGPT หรือ AI ตัวอื่นๆ ควรตรวจสอบหน่วยความจำที่บันทึกไว้เป็นประจำ ทั้งนี้ก็เพื่อหาข้อมูลที่อาจถูกฝังโดยแหล่งที่ไม่น่าเชื่อถือ 

ที่มา : ARS,Spyware Injection Into ChatGPT’s Long-Term Memory (SpAIware)

สอบถามข้อมูลผลิตภัณฑ์ “OneFence”

Tel. : 061-462-6414, 02-103-6462, 064-189-9292
Line : @securitypitch
Email : [email protected]

บทความที่น่าสนใจ