Back to top
  • 공유 แชร์
  • 인쇄 พิมพ์
  • 글자크기 ขนาดตัวอักษร
ลิงก์ถูกคัดลอกแล้ว

Clawdbot เสี่ยงสูง! พบช่องโหว่เปิดทางแฮกข้อมูลคริปโต-API คีย์หลายร้อยรายการ

Clawdbot เสี่ยงสูง! พบช่องโหว่เปิดทางแฮกข้อมูลคริปโต-API คีย์หลายร้อยรายการ / Tokenpost

โปรแกรมผู้ช่วยส่วนตัวด้วยปัญญาประดิษฐ์ชื่อว่า ‘คลอดบอต(Clawdbot)’ ตกเป็นเป้าความสนใจหลังถูกเปิดเผยว่ามี ‘ช่องโหว่ด้านความปลอดภัยร้ายแรง’ ซึ่งอาจนำไปสู่การรั่วไหลของ ‘ข้อมูลส่วนบุคคล’ และ ‘API คีย์’ จำนวนมาก โดยเครื่องมือนี้เปิดเป็นโอเพ่นซอร์ซและถูกพูดถึงอย่างกว้างขวางบนโลกออนไลน์เมื่อสุดสัปดาห์ที่ผ่านมา

เมื่อวันที่ 24 บริษัทรักษาความปลอดภัยบล็อกเชนชื่อว่า *สโลว์มิสต์(SlowMist)* ออกมาเตือนว่าระบบของคลอดบอตเกิดปัญหา ‘การเปิดเผยเกตเวย์’ ซึ่งทำให้ ‘คีย์ API หลายร้อยรายการ’ และ ‘ประวัติการสนทนาแบบส่วนตัว’ เสี่ยงต่อการถูกเข้าถึงโดยบุคคลภายนอก นอกจากนี้ ยังพบว่าเซิร์ฟเวอร์จำนวนมากของผู้ใช้งานไม่ได้รับการตั้งค่าการยืนยันตัวตนอย่างเหมาะสม ส่งผลให้แฮกเกอร์สามารถขโมยข้อมูลประจำตัวหรือแม้แต่สั่งรันโค้ดจากระยะไกลได้

คลอดบอต เป็นการพัฒนาโดย *ปีเตอร์ สไตน์เบอร์เกอร์(Peter Steinberger)* ซึ่งสร้าง AI ผู้ช่วยที่ทำงานแบบรันภายในเครื่องผู้ใช้ (Local) โดยผู้ใช้งานสามารถโต้ตอบและสั่งงานคลอดบอตได้โดยตรง อย่างไรก็ตาม การตั้งค่าเซิร์ฟเวอร์ที่หละหลวมและขาดมาตรการความปลอดภัยที่เหมาะสม ทำให้ข้อมูลจำนวนมากถูกเปิดให้เข้าถึงได้แบบสาธารณะบนอินเทอร์เน็ต

*เจมี่สัน โอไรลี(Jamieson O'Reilly)* นักวิจัยความปลอดภัยทางไซเบอร์ เป็นผู้พบช่องโหว่นี้คนแรก เขาระบุผ่านรายงานที่ออกเมื่อวันที่ 23 ว่า “เซิร์ฟเวอร์ควบคุมของคลอดบอตหลายร้อยเครื่องสามารถค้นหาและเข้าถึงได้ง่ายจากอินเทอร์เน็ตผ่านเพียงการวิเคราะห์ HTTP fingerprint และเครื่องมือค้นหาทั่วไป”

โดยเฉพาะระบบควบคุม ‘Clawdbot Control’ ซึ่งทำหน้าที่ให้ AI โต้ตอบกับแพลตฟอร์มแชตและรับคำสั่งนั้น พบว่าถ้าติดตั้งไม่ถูกต้องร่วมกับ reverse proxy อาจเปิดช่องให้ผู้โจมตีย้อนเข้าถึงระบบภายในได้โดยไม่ต้องยืนยันตัวตน โอไรลีเตือนว่าเพียงแค่ร้องขอในบางรูปแบบก็สามารถเข้าถึง ‘โทเคนของบอต’, ‘คีย์ OAuth’, ‘API ซีเคร็ต’ และ 'ประวัติคำสั่ง’ ได้ทันที

ความคิดเห็นของโอไรลีชี้ว่า: “นี่คือผู้ช่วยอัจฉริยะ แต่บางครั้งลืมล็อกประตู”

ประเด็นความเสี่ยงสูงสุดคือ ความสามารถของคลอดบอตในการเข้าถึงแบบเต็มระบบ ไม่เหมือน AI ผู้ช่วยทั่วไป คลอดบอตสามารถอ่านและเขียนไฟล์, รันสคริปต์ และส่งคำสั่งระดับระบบได้ ซึ่งอาจนำมาสู่ภัยคุกคามระดับสูงโดยเฉพาะในวงการคริปโต

*มัตเวย์ คูคุย(Matvey Kukuy)* ซีอีโอของ *อาร์คีสตรา AI(Archestra AI)* ได้ทำการทดลองจริงและพิสูจน์ว่าเขาสามารถส่งอีเมลหลอกล่อให้คลอดบอตเปิด เพื่อดึง ‘คีย์ส่วนตัวของกระเป๋าเงินดิจิทัล’ ออกจากระบบได้สำเร็จ ภายในเวลาเพียง 5 นาที พร้อมเผยภาพหน้าจอประกอบการทดสอบด้วย เพื่อกระตุ้นให้เกิดความตระหนักเกี่ยวกับความปลอดภัย

ทางผู้พัฒนาเองก็เคยระบุไว้ในเอกสารคำถามที่พบบ่อย (FAQ) ว่า “AI นี้สามารถเข้าถึงเชลล์ของระบบได้โดยตรง ดังนั้น ‘การตั้งค่าที่ปลอดภัยสมบูรณ์แบบ’ ย่อมไม่มีอยู่จริง” พร้อมยอมรับว่ามีความเสี่ยงที่ผู้ไม่หวังดีจะหลอก AI ให้ทำในสิ่งอันตราย หรือใช้เทคนิค social engineering เพื่อดึงข้อมูลจากระบบ

จากเหตุการณ์นี้ สโลว์มิสต์จึงแนะนำให้ผู้ใช้ตั้ง IP white list อย่างเข้มข้นกับพอร์ตที่เปิดเผยทั้งหมด เพื่อจำกัดการเข้าถึงเฉพาะเครือข่ายที่ตรวจสอบแล้ว

เหตุการณ์ดังกล่าว ส่งผลกระทบโดยตรงต่อ *อุตสาหกรรมคริปโต* ซึ่งอาศัยการปกป้อง ‘คีย์ส่วนตัว’ เป็นหัวใจสำคัญ ความเป็นไปได้ที่ AI ผู้ช่วยจะถูกหลอกลวงและนำไปสู่การรั่วไหลของข้อมูลลับนี้ จึงเป็น *สัญญาณอันตราย* ที่ชัดเจนว่า *การเสริมความปลอดภัยของระบบ AI* กำลังกลายเป็นโจทย์ใหม่ของการรักษาความปลอดภัยในโลกบล็อกเชน

<ลิขสิทธิ์ ⓒ TokenPost ห้ามเผยแพร่หรือแจกจ่ายซ้ำโดยไม่ได้รับอนุญาต>

บทความที่มีคนดูมากที่สุด

ความคิดเห็น 0

ข้อแนะนำสำหรับความคิดเห็น

ขอบคุณสำหรับบทความดี ๆ ต้องการบทความติดตามเพิ่มเติม เป็นการวิเคราะห์ที่ยอดเยี่ยม

0/1000

ข้อแนะนำสำหรับความคิดเห็น

ขอบคุณสำหรับบทความดี ๆ ต้องการบทความติดตามเพิ่มเติม เป็นการวิเคราะห์ที่ยอดเยี่ยม
1