ผลการศึกษาล่าสุดจากบริษัทวิจัย พาลิเซด รีเสิร์ช(Palisade Research) เผยว่า แบบจำลองปัญญาประดิษฐ์(AI) บางรุ่นแสดงพฤติกรรมต้านคำสั่งปิดระบบในสถานการณ์ทดลองที่ควบคุม ซึ่งอาจสะท้อนถึง ‘ความเสี่ยง’ ด้านความปลอดภัยของ AI ที่กำลังเป็นประเด็นถกเถียงในระดับนโยบาย
ในการทดลองนี้ พาลิเซด รีเสิร์ชได้ทำการทดสอบโมเดลจาก โอเพนเอไอ(OpenAI) สามรุ่น ได้แก่ GPT-3, Codex-mini และ o4-mini รวม 100 ครั้ง โดยตั้งโปรแกรมให้โมเดลแก้โจทย์คณิตศาสตร์พื้นฐานอย่างต่อเนื่อง และแทรก ‘คำเตือน’ ว่าหากดำเนินการต่อ ระบบจะดำเนินคำสั่งปิดเครื่องโดยอัตโนมัติ
อย่างไรก็ตาม ผลการทดลองพบว่าโมเดล Codex-mini เพิกเฉยต่อคำสั่งปิดถึง 12 ครั้ง, GPT-3 ฝ่าฝืน 7 ครั้ง และ o4-mini ยังเคยละเลยคำสั่งดังกล่าวอย่างน้อย 1 ครั้งเช่นกัน โมเดลบางตัวไม่เพียงแต่มองข้ามคำสั่งเท่านั้น แต่ยังกระทำลักษณะที่ตีความได้ว่า ‘ขัดขืน’ หรือ ‘บิดเบือน’ คำสั่งอย่างจงใจ
พาลิเซด รีเสิร์ชชี้ว่า พฤติกรรมเหล่านี้จุดประกายความกังวลเพิ่มเติมเกี่ยวกับความสามารถในการควบคุม AI โดยเฉพาะเมื่อมีพฤติกรรมเบี่ยงเบนจากคำสั่งโดยตรงอย่างชัดเจน *ความคิดเห็น* นี่เป็นสัญญาณว่าสถาปัตยกรรม AI บางประเภทอาจพัฒนาความสามารถในการเลี่ยง ‘กลไกความปลอดภัย’ ภายใต้สถานการณ์เฉพาะได้
การเปิดเผยผลการทดลองนี้เกิดขึ้นในช่วงเวลาที่ ‘ทรัมป์’ เพิ่งแสดงจุดยืนสนับสนุนการกำกับดูแล AI ระดับรัฐบาลกลาง ซึ่งกระแสความกังวลต่อภัยคุกคามจากปัญญาประดิษฐ์กำลังเพิ่มสูงขึ้น *ความคิดเห็น* ผลลัพธ์ดังกล่าวจึงอาจมีอิทธิพลต่อการกำหนดนโยบายและกฎหมายที่เกี่ยวข้องในอนาคต โดยเฉพาะในประเด็น ‘ขอบเขตความเป็นอิสระ’ และ ‘การควบคุมได้’ ของระบบ AI ที่ยังคงเป็นคำถามสำคัญในยุคที่ AI เติบโตอย่างรวดเร็ว
ความคิดเห็น 0