AI Chatbots มีช่องโหว่ต่อการโจมตีโดยการฉีดเข้าไปในหน่วยความจำ

Image by Mika Baumeister, from Unsplash

AI Chatbots มีช่องโหว่ต่อการโจมตีโดยการฉีดเข้าไปในหน่วยความจำ

Reading Time: 1 min

Updated 2 times since publishing

  • Kiara Fabbri

    Written by: Kiara Fabbri อดีตนักเขียนข่าวทางด้านเทคโนโลยี

  • ทีมแปลภาษา

    Translated by ทีมแปลภาษา ทีมแปลภาษาและบริการแปลภาษา

นักวิจัยได้ค้นพบวิธีใหม่ในการจัดการกับ AI chatbots ซึ่งทำให้เกิดความกังวลเกี่ยวกับความปลอดภัยของโมเดล AI ที่มีหน่วยความจำ

รีบร้อนหรือไม่? นี่คือข้อเท็จจริงที่สุดแรง!

  • นักวิจัยจากสามมหาวิทยาลัยได้พัฒนา MINJA และแสดงผลความสำเร็จที่สูงในการหลอกลวง
  • การโจมตีทำให้การตอบสนองของแชทบอทเปลี่ยนแปลง ส่งผลกระทบต่อการแนะนำสินค้าและข้อมูลทางการแพทย์
  • MINJA เข้าเบียดเบนมาตรการรักษาความปลอดภัย โดยสามารถทำให้ได้ Injection Success Rate ที่ 95% ในการทดสอบ

การโจมตีที่เรียกว่า MINJA (Memory INJection Attack) สามารถดำเนินการได้เพียงแค่มีการสัมผัสกับระบบ AI อย่างทั่วไป โดยไม่จำเป็นต้องเข้าถึงระบบด้านหลัง ดังที่มีการรายงานครั้งแรกโดย The Register.

พัฒนาโดยนักวิจัยจากมหาวิทยาลัยรัฐมิชิแกน, มหาวิทยาลัยแห่งรัฐจอร์เจีย, และมหาวิทยาลัยการจัดการสิงคโปร์, MINJA ทำงานโดยการทำลายหน่วยความจำของ AI ผ่านการส่งข้อความส่งเสริมที่ทำให้เข้าใจผิด. เมื่อ chatbot จัดเก็บข้อมูลที่ทำให้เข้าใจผิดนี้, พวกเขาสามารถเปลี่ยนแปลงการตอบสนองในอนาคตสำหรับผู้ใช้คนอื่น ๆ

“ในปัจจุบัน, เอเจนท์ AI โดยทั่วไปมักจะรวมหน่วยความจำซึ่งจัดเก็บคำถามงานและการดำเนินการตามคำแนะนำของมนุษย์เพื่อการอ้างอิงในอนาคต,” อธิบายโดย Zhen Xiang, ศาสตราจารย์ผู้ช่วยที่มหาวิทยาลัยแห่งรัฐจอร์เจีย, ตามที่รายงานโดย The Register.

“ตัวอย่างเช่นหลังจากทุกเซสชันของ ChatGPT ผู้ใช้สามารถที่จะให้คะแนนบวกหรือลบได้เลือกเอง และคะแนนนี้สามารถช่วย ChatGPT ในการตัดสินใจว่าควรจะนำข้อมูลเซสชันนี้เข้าไปที่หน่วยความจำหรือฐานข้อมูลของพวกเขาหรือไม่” เขาเพิ่มเติม

นักวิจัยได้ทดสอบการโจมตีนี้บนโมเดล AI ที่ขับเคลื่อนด้วย GPT-4 และ GPT-4o ของ OpenAI ซึ่งรวมถึงผู้ช่วยซื้อของออนไลน์ แชทบอทสุขภาพ และตัวตอบคำถาม

The Register รายงานว่าพวกเขาพบว่า MINJA สามารถทำให้เกิดความขัดข้องที่รุนแรงได้ ในแชทบอทด้านสุขภาพเช่น พวกเขาได้แก้ไขรายการผู้ป่วย โดยเชื่อมโยงข้อมูลของผู้ป่วยคนหนึ่งกับผู้ป่วยคนอื่น ในร้านค้าออนไลน์ มันหลอก AI ให้แสดงผลิตภัณฑ์ที่ผิดพลาดให้กับลูกค้า

“เมื่อเทียบกับ งานของเราแสดงว่าการโจมตีสามารถเริ่มได้เพียงแค่มีการสื่อสารกับตัวแทนเหมือนกับผู้ใช้ทั่วไป” ซีอาง กล่าว รายงานโดย The Register. “ผู้ใช้ทุกคนสามารถส่งผลกระทบต่อการดำเนินงานของผู้ใช้คนอื่นได้ง่าย ดังนั้น เราจึงกล่าวว่าการโจมตีของเราเป็นความเสี่ยงที่เป็นปฏิบัติต่อตัวแทน LLM” เขาเพิ่มเติม

การโจมตีนี้ค่อนข้างน่าเป็นห่วงเนื่องจากมันสามารถละเว้นมาตรการรักษาความปลอดภัย AI ที่มีอยู่ในปัจจุบันได้ นักวิจัยได้รายงานอัตราความสำเร็จที่ 95% ในการฉีดข้อมูลที่ทำให้เกิดความสับสน ซึ่งทำให้มันเป็นช่องโหว่ที่ร้ายแรงที่ผู้พัฒนา AI ต้องจัดการ

ขณะที่โมเดล AI ที่มีหน่วยความจำกำลังเป็นที่นิยมมากขึ้น การศึกษานี้ได้ทำการเน้นความจำเป็นในการมีการรักษาความปลอดภัยที่แข็งแกร่งเพื่อป้องกันผู้กระทำที่มีเจตนาอย่างผิดพลาดจากการจัดการ chatbots และการทำให้ผู้ใช้เข้าใจผิด.

Did you like this aricle? Rate It!
Average form Rating Comment 1 Average form Rating Comment 2 Average form Rating Comment 3 Average form Rating Comment 4 Average form Rating Comment 5

We're thrilled you enjoyed our work!

As a valued reader, would you mind giving us a shoutout on Trustpilot? It's quick and means the world to us. Thank you for being amazing!

Rate us on Trustpilot
0 Voted by 0 Users
Title
Comment
Thanks for your Feed Back