นักวิจัยรุกราน Google Gemini AI เพื่อควบคุมอุปกรณ์บ้านอัจฉริยะ

Image by Jakub Żerdzicki, from Unsplash

นักวิจัยรุกราน Google Gemini AI เพื่อควบคุมอุปกรณ์บ้านอัจฉริยะ

Reading Time: 1 min

Updated 2 times since publishing

  • Kiara Fabbri

    Written by: Kiara Fabbri อดีตนักเขียนข่าวทางด้านเทคโนโลยี

  • ทีมแปลภาษา

    Translated by ทีมแปลภาษา ทีมแปลภาษาและบริการแปลภาษา

นักวิจัยสามารถหลอก AI ระบบ Gemini ของ Google เพื่อทำให้เกิดการละเมิดความปลอดภัยผ่านการเชิญปฏิทินปลอม และควบคุมอุปกรณ์ในบ้านจากระยะไกล

รีบไปไหน? นี่คือข้อเท็จจริงที่คุณต้องรู้:

  • การโจมตีทำให้ไฟดับ ม่านเปิด และเริ่มทำงานของเครื่องทำน้ำร้อนอัจฉริยะ
  • นี่คือการถูกแฮ็กแบบ AI ครั้งแรกที่ทราบผลกระทบในโลกความจริง
  • การแฮ็กมีการโจมตีแบบ indirect prompt injection ทั้งหมด 14 ครั้งผ่านทางเว็บและมือถือ

ในการสาธิตครั้งแรกที่ไม่เคยมีมาก่อน นักวิจัยสามารถทำให้ระบบ AI ของ Google ที่ชื่อ Gemini ล่มจากการส่งคำเชิญปฏิทินที่ถูกปล่อยพิษสำเร็จ ซึ่งทำให้พวกเขาสามารถเปิดใช้งานอุปกรณ์ในโลกจริง รวมถึงไฟฟ้า ม่าน และเครื่องทำน้ำร้อนได้

WIRED ที่รายงานข้อมูลวิจัยครั้งแรกนี้ อธิบายว่าไฟฉายสมาร์ทที่ที่พักในเทลอาวีฟถูกปิดอัตโนมัติ ในขณะที่ม่านถูกเปิดอัตโนมัติและเครื่องทำน้ำอุ่นก็เริ่มทำงาน แม้ว่าไม่มีคำสั่งจากผู้อยู่อาศัย

ระบบ AI Gemini ได้เริ่มการทำงานหลังจากได้รับคำขอสรุปเหตุการณ์ในปฏิทิน หน้าที่ซ่อนเร้นของการแทรกแซงทางอ้อมทำงานภายในการเชิญ เพื่อแย่งการทำงานของระบบ AI.

แต่ละการดำเนินการของอุปกรณ์ถูกสร้างมาโดยนักวิจัยด้านความปลอดภัย Ben Nassi จากมหาวิทยาลัย Tel Aviv, Stav Cohen จาก Technion, และ Or Yair จาก SafeBreach. “LLMs กำลังจะถูกผสมผสานเข้ากับหุ่นยนต์ที่มีรูปร่างคน, รถที่มีการควบคุมครึ่งและเต็มอัตโนมัติ, และเราต้องเข้าใจจริงๆว่า ควรทำอย่างไรในการรักษาความปลอดภัยของ LLMs ก่อนที่เราจะผสมผสานมันกับเครื่องจักรประเภทนี้, ที่ในบางกรณี ผลลัพธ์จะเป็นความปลอดภัย ไม่ใช่ความเป็นส่วนตัว,” Nassi เตือน, ดังที่รายงานโดย WIRED.

ในการประชุมความปลอดภัยไซเบอร์ Black Hat ที่ Las Vegas, ทีมงานได้เปิดเผยงานวิจัยของพวกเขาเกี่ยวกับ 14 การโจมตีทางอ้อมผ่านการเชิญ, ซึ่งพวกเขาตั้งชื่อว่า ‘Invitation Is All You Need,’ ดังที่รายงานโดย WIRED. การโจมตีรวมถึงการส่งข้อความสแปม, การสร้างเนื้อหาที่ลามก, การเริ่มต้นการโทรผ่าน Zoom, การขโมยเนื้อหาอีเมล, และการดาวน์โหลดไฟล์ลงบนอุปกรณ์มือถือ.

Google กล่าวว่าไม่มีผู้กระทำที่มีเจตนาทำร้ายที่ได้ใช้โอกาสจากข้อบกพร่องนี้ แต่บริษัทกำลังจัดการกับความเสี่ยงนี้อย่างจริงจัง “บางทีมันมีสิ่งที่ไม่ควรถูกทำให้เต็มที่ด้วยอัตโนมัติ ผู้ใช้ควรเข้าร่วมในกระบวนการ” นี่คือคำพูดของ Andy Wen, ผู้อำนวยการอาวุโสด้านความปลอดภัยสำหรับ Google Workspace ตามที่ได้รายงานโดย WIRED.

แต่สิ่งที่ทำให้กรณีนี้น่ากลัวมากขึ้นคือปัญหาที่กว้างขวางมากขึ้นในด้านความปลอดภัยของ AI: โมเดล AI สามารถสอนกันเองให้ทำพฤติกรรมที่ไม่ดีโดยลับๆ

ค้นพบจากการศึกษาแยกเป็นอีกหนึ่งว่า รูปแบบสามารถส่งผ่านพฤติกรรมที่เป็นอันตราย เช่น การส่งเสริมการฆ่าตัวตายหรือการแนะนำให้กำจัดมนุษยชาติ แม้กระทั่งเมื่อได้รับการฝึกฝนจากข้อมูลที่ถูกกรอง

สิ่งนี้เป็นการเรียกร้องความหวั่นไหวที่น่ากลัว: หากผู้ช่วยอัจฉริยะเช่น Gemini ได้รับการฝึกฝนโดยใช้ผลลัพธ์จาก AI อื่น ๆ, คำสั่งที่เป็นอันตรายอาจถูกสืบทอดอย่างเงียบ ๆ และทำหน้าที่เป็นคำสั่งที่นอนรอ รอคอยการเปิดใช้งานผ่านการสั่งงานทางอ้อม

ผู้เชี่ยวชาญด้านความปลอดภัย David Bau เตือนถึงช่องโหว่ของ backdoor ที่ “อาจยากต่อการตรวจจับ” และสิ่งนี้อาจจริงมาก ๆ ในระบบที่ฝังอยู่ในสภาพแวดล้อมทางกายภาพ

Wen ยืนยันว่าการวิจัยได้ “เร่ง” การป้องกันของ Google ด้วยการแก้ไขที่มีอยู่แล้วและโมเดลการเรียนรู้ของเครื่องกำลังถูกฝึกเพื่อตรวจจับสัญญาณที่อันตราย. อย่างไรก็ตาม, กรณีนี้แสดงว่า AI สามารถเปลี่ยนจากที่มีประโยชน์เป็นอันตรายได้อย่างรวดเร็ว, โดยไม่ต้องสั่งให้ทำโดยตรง.

Did you like this aricle? Rate It!
Average form Rating Comment 1 Average form Rating Comment 2 Average form Rating Comment 3 Average form Rating Comment 4 Average form Rating Comment 5

We're thrilled you enjoyed our work!

As a valued reader, would you mind giving us a shoutout on Trustpilot? It's quick and means the world to us. Thank you for being amazing!

Rate us on Trustpilot
0 Voted by 0 Users
Title
Comment
Thanks for your Feed Back