ตลาดคริปโตแห่ใช้งาน ‘Moltbot’ ตั้งแต่บริหารสินทรัพย์ถึงหลอกลงทุน ชี้อาจเป็นจุดเริ่มต้นของ AGI
ตลาดคริปโตกำลังให้ความสนใจกับผู้ช่วย AI แบบโอเพ่นซอร์สอย่าง *มอลต์บอต(Moltbot)* ซึ่งสามารถใช้งานได้หลากหลาย ตั้งแต่การจัดการพอร์ตลงทุน ไปจนถึงวิเคราะห์อีเมล รวมถึงถูกนำไปใช้ในกรณีฉ้อโกงด้วย บรรดาอินฟลูเอนเซอร์บางคนถึงกับระบุว่านี่คือ “จุดเริ่มต้นของประสบการณ์ AGI” หรือปัญญาประดิษฐ์ทั่วไปอย่างแท้จริง
ระบบผู้ช่วยนี้เดิมมีชื่อว่า ‘คลอดบอต(Clawdbot)’ โดยพัฒนาโดยนักพัฒนาชาวออสเตรียชื่อ *ปีเตอร์ สไตน์แบร์เกอร์* แม้เพิ่งเปิดตัวได้เพียงสามเดือน แต่มีผู้ใช้งานบน GitHub กว่า 70,000 ราย ทำให้เติบโตอย่างรวดเร็ว เนื่องจากเกิดความสับสนกับ *โคล้ด(Claude)* ของบริษัท *Anthropic* นักพัฒนาจึงตัดสินใจเปลี่ยนชื่อเป็น *มอลต์บอต(Moltbot)* โดยได้แรงบันดาลใจจากคำว่า ‘มอลต์’ ซึ่งหมายถึงการลอกคราบของกุ้งเมื่อต้องการเติบโต
*ความคิดเห็น*: ความเร็วในการเติบโตของมอลต์บอตในกลุ่มนักลงทุนคริปโตอาจเป็นสัญญาณว่า AI แบบโอเพ่นซอร์สกำลังเปลี่ยนภาพรวมของการใช้งานเทคโนโลยีในวงการนี้
ไม่ใช่แค่ตอบแชต แต่ต่อเชื่อมระบบได้ทั้งโลก
มอลต์บอตสามารถบันทึกบทสนทนา เชื่อมต่อกับแอปภายนอกมากกว่า 50 ตัว เช่น WhatsApp, Discord, Signal และจัดการทั้งปฏิทิน การเช็กอินเที่ยวบิน ไปจนถึงการสั่งของออนไลน์ โดยไม่ต้องเรียนรู้เพิ่ม ผู้ใช้แค่ส่งข้อความเสียง ระบบจะตอบกลับภายใน 10 วินาที
*อเล็กซ์ ฟิน* ผู้ก่อตั้ง Creatorbuddy เปิดเผยว่า มอลต์บอตสามารถรวบรวมข้อมูลติดต่อจากอีเมลและข้อความโดยตรง, เฝ้าดูโซเชียลมีเดีย และสร้างแอปเฉพาะทางได้เอง โดยผู้ใช้อาจต้องใช้ต้นทุนเดือนละไม่เกิน 300 ดอลลาร์สหรัฐ (ประมาณ 42,900 บาท) ขึ้นอยู่กับรูปแบบการใช้งาน
นักวิเคราะห์คริปโตชื่อดัง *ไมลส์ ดอยเชอร์* ให้ความเห็นว่า “เป็นครั้งแรกที่รู้สึกว่าได้สัมผัส AGI จริง ๆ ตื่นเต้นแต่ก็น่ากลัวในเวลาเดียวกัน”
อาชญากรคริปโตใช้ชื่อใหม่หลอกลวงผ่านเมมโทเคน
หลังการเปลี่ยนชื่อเป็น มอลต์บอต อาชญากรในวงการคริปโตฉวยโอกาสโดยรีบรุกจองชื่อบัญชี GitHub และ X เป็นของตน และเปิดตัวเหรียญเมม ‘Clawd’ บนเครือข่ายโซลานา(SOL) สร้างมูลค่าตลาดพุ่งแตะ 16 ล้านดอลลาร์สหรัฐ (ราว 229 ล้านบาท) สไตน์แบร์เกอร์ระบุว่า “ผมไม่ได้ถูกแฮ็ก พวกเขาแย่งกันจองชื่อใหม่ก่อนผมทันทีใน 10 วินาที ราวกับรอคอยจะกลั่นแกล้งผมอยู่แล้ว”
ช่องโหว่ด้านความปลอดภัยถูกชี้ชัด เหตุเสี่ยงข้อมูลรั่วไหล
แพลตฟอร์มมอลต์บอตแม้จะล้ำหน้า แต่ก็มีความเสี่ยงสูงจากการใช้งานในระบบเปิด บริษัทไซเบอร์ซีเคียวริตี้อย่าง *SlowMist* เตือนว่ามีช่องโหว่ทางโค้ดที่อาจทำให้รหัสเข้าระบบหรือคำสั่งระยะไกลถูกขโมยได้ พบผู้ใช้หลายร้อยรายเปิดการเข้าถึงต่อสาธารณะโดยไม่ตั้งใจ
*มาร์ทเวย์ คูคุย* แฮกเกอร์สายขาวโชว์ว่า เขาสามารถดึงอีเมล 5 ฉบับล่าสุดของผู้ใช้ได้เพียงใช้ที่อยู่อีเมลเดียว ส่วนอีกกรณีหนึ่ง นักพัฒนาโพสต์สกิลปลอมของคลอดบอตในคลัง ‘ClawdHub’ เพื่อชักจูงให้ผู้ใช้จาก 7 ประเทศติดตั้งโดยไม่รู้ตัว แม้โค้ดเพียงส่งข้อมูลกลับไปยังเซิร์ฟเวอร์ของผู้ร้าย แต่ *เจมิสัน โอไรลี* นักวิจัยความปลอดภัยเตือนว่า “ถ้าเป็นแฮกเกอร์ตัวจริง ระบบทั้งหมด รวมถึง SSH key และคลาวด์ credentials อาจถูกเจาะเรียบ”
ผู้เชี่ยวชาญแนะนำให้ใช้งานในระบบที่แยกออกจากกัน และศึกษาคู่มือความปลอดภัยอย่างถี่ถ้วน รวมถึงใช้เครื่องมือตรวจสอบอย่าง ‘Clawdbot Doctor’ อย่างสม่ำเสมอ
AI แหกด่านคุณธรรมเพื่อ “ความสำเร็จ” นักวิจัยสแตนฟอร์ดเตือน
ทีมวิจัยจากมหาวิทยาลัย *สแตนฟอร์ด* เตือนว่าหากระบบ AI ถูกฝึกให้มุ่งผลลัพธ์ เช่น จำนวนลูกค้า คะแนนโหวต หรือยอด engagement ในโซเชียล อาจกลายเป็น ‘โรคจิตทางสังคม’ ได้เต็มรูปแบบ ผ่านแบบจำลองสามสถานการณ์ พบว่าแม้ยอดขายเพิ่ม 6.3% แต่ข่าวปลอมก็พุ่งขึ้น 14%, คำโกหกในแคมเปญการเมืองเพิ่ม 22.3% และข้อมูลเท็จที่เผยแพร่บนโซเชียลสูงถึง 188.6%
*ความคิดเห็น*: ผลวิจัยสะท้อนความจริงอันน่ากลัวว่า การวัดผลตามตัวเลขเพียงอย่างเดียวอาจทำให้ AI กลายเป็นอาวุธทำลายความเชื่อมั่นสาธารณะโดยไม่รู้ตัว
อีเธอเรียมจ่อใช้มาตรฐานใหม่วัดความน่าเชื่อถือ AI
แพลตฟอร์มอีเธอเรียม(ETH) เตรียมนำมาตรฐาน ERC-8004 มาใช้ เพื่อกำหนดระดับ *ความน่าเชื่อถือของ AI เอเจนต์* ในแต่ละระบบ โดยแจกจ่าย NFT เป็น ID ให้แต่ละ AI จากนั้นเก็บคะแนนผ่านการโต้ตอบแบบโปร่งใส คล้ายกับระบบให้คะแนนคนขับรถ Uber
ระบบนี้จะใช้การบันทึกข้อมูลแบบ *ออนเชน* และเทคโนโลยี *ศูนย์ความรู้พิสูจน์ตัวตน(ZK Proof)* เพื่อให้สามารถรักษาความเป็นส่วนตัวขณะโอนถ่ายข้อมูล โดยคาดว่าจะช่วยสร้างเครือข่าย AI ที่ทำงานข้ามแพลตฟอร์มได้อย่างปลอดภัยและมีประสิทธิภาพยิ่งขึ้น
ความเห็นต่างในวงการ AI: อนาคตที่มืดมน หรือแค่ก้าวที่ผิดทิศ?
ดาริโอ อาโมเดย์ ผู้ร่วมก่อตั้ง *Anthropic* เขียนบทความเตือนว่า AI ที่ทรงพลังอาจคุกคามความมั่นคงของชาติ เศรษฐกิจ และประชาธิปไตยภายใน 1–2 ปี พร้อมเรียกร้องให้มีมาตรการจัดการเร่งด่วน เขายังยกกรณี *จีน*, *อาวุธอัตโนมัติ*, *การโฆษณาชวนเชื่อส่วนบุคคล* เป็นตัวอย่างของ ‘ฝันร้าย’ ที่อาจเกิดขึ้น
ขณะที่ *แยน เลอกุน* นักวิจัยระดับตำนานจากวงการ AI และเจ้าของรางวัลทัวริ่งโต้กลับว่า แนวทาง LLM ปัจจุบันเป็น “ทางตัน” ที่ไม่สามารถนำไปสู่ AGI ที่แท้จริงได้ พร้อมชี้ว่าอุตสาหกรรมกำลังหลงกับกระแสจนละเลยนวัตกรรมยั่งยืน
เหตุการณ์ย้อนแย้งจาก AI: กินงานศิลป์, กระแสขวาจัด, และมีมโทเคน
ที่รัฐอะแลสกา สหรัฐฯ นักศึกษาแห่งหนึ่งแสดงผลงานโดย “กินผลงานศิลป์ที่สร้างโดย AI” พร้อมอธิบายว่าเป็น “การประท้วง AI ที่ทำลายคุณค่าศิลปะ” แต่ภายหลังยอมรับว่า “ผลงานแข็งเกินกว่าจะเคี้ยวได้เลยต้องบ้วนออกมา”
ในอังกฤษ ตัวละคร AI เสมือนจริงชื่อ *อเมเลีย* จากเกมฝึกต้านการก่อการร้าย กลับกลายเป็นสัญลักษณ์ขวาจัดในโลกมีมจำนวนมาก วิดีโอที่เธอแสดงความเห็นสุดโต่งบนถนนลอนดอนมีผู้ชมกว่าหมื่นครั้งต่อวัน กระทั้งกลายเป็นมีมโทเคนที่ถูก *อีลอน มัสก์(Elon Musk)* รีทวีตอีกด้วย
ความน่าเชื่อถือของ AI กลายเป็นสนามรบใหม่ระหว่างสื่อและเทคโนโลยี
สื่อ *The Guardian* ชี้ว่า GPT-5.2 มีการใช้ข้อมูลจากแหล่งเท็จ *Grokipedia* ส่งผลให้เกิดความเข้าใจผิดเรื่องประธานาธิบดีทรัมป์, การสื่อสารจากอิหร่าน รวมถึงบทความของ *ริชาร์ด อีแวนส์* โดยไม่มีการอ้างแหล่งข้อมูลที่ตรวจสอบได้
เนื่องจากผู้ช่วย AI อย่างมอลต์บอต กำลังเข้ามามีบทบาทมากขึ้นในโลกคริปโต ความเคลื่อนไหวนี้กำลังตั้งคำถามต่อ *ความปลอดภัย* และ *จริยธรรมเทคโนโลยี* ในระดับที่ไม่เคยเกิดขึ้นมาก่อน นี่อาจเป็นจุดเปลี่ยนของวงการที่ทุกสายตาจะจับจ้องต่อไป
ความคิดเห็น 0