Back to top
  • 공유 แชร์
  • 인쇄 พิมพ์
  • 글자크기 ขนาดตัวอักษร
ลิงก์ถูกคัดลอกแล้ว

อดีตซีอีโอกูเกิลเตือน: AI อาจต้องเกิดภัยพิบัติระดับเชอร์โนบิลก่อนถูกควบคุม

Thu, 27 Mar 2025, 21:42 pm UTC

อดีตซีอีโอกูเกิลเตือน: AI อาจต้องเกิดภัยพิบัติระดับเชอร์โนบิลก่อนถูกควบคุม / Tokenpost

อดีตซีอีโอของกูเกิลเตือนว่าอาจต้องเกิดเหตุร้ายแรงระดับเชอร์โนบิลก่อนที่สังคมจะตระหนักถึง ‘ภัยคุกคามของ AI’

เมื่อวันที่ 27 ตามรายงานของ Cointelegraph, อีริก ชมิดต์ อดีตซีอีโอของกูเกิล ได้กล่าวในงานสัมมนาล่าสุดว่า "ผู้คนยังไม่เข้าใจถึงอันตรายโดยเนื้อแท้ของ AI อย่างแท้จริง" พร้อมเสริมว่า "อาจต้องเกิดเหตุการณ์ร้ายแรงระดับภัยพิบัติเชอร์โนบิลก่อนที่สังคมจะตระหนักถึงภัยคุกคามของ AI อย่างจริงจัง"

ชมิดต์อธิบายว่า ในอดีต เหตุการณ์ภัยพิบัติครั้งใหญ่เป็นจุดเปลี่ยนสำคัญของเทคโนโลยีและการกำกับดูแล โดยยกตัวอย่างระเบิดปรมาณูที่ถูกทิ้งลงที่ฮิโรชิมาและนางาซากิ ซึ่งทำให้โลกตระหนักถึงอันตรายของอาวุธนิวเคลียร์ และนำไปสู่ยุทธศาสตร์ ‘การทำลายล้างซึ่งกันและกัน’ (MAD) ที่ป้องกันสงครามนิวเคลียร์ ชมิดต์เตือนว่า "AI อาจต้องเผชิญเหตุการณ์ใหญ่ลักษณะเดียวกัน ก่อนที่การพัฒนาด้านความปลอดภัยจะถูกผลักดันอย่างจริงจัง"

ในขณะที่เทคโนโลยี AI กำลังพัฒนาอย่างรวดเร็ว ความเสี่ยงจากการพัฒนาโดยไร้การควบคุมก็เพิ่มขึ้นตามไปด้วย แม้ว่าสถาบันวิจัย AI หลัก ๆ อย่าง กูเกิล ดีปมายด์ และ OpenAI จะมีการหารือเกี่ยวกับประเด็นจริยธรรมของ AI ที่มีความสามารถสูง (AGI) แต่การออกกฎระเบียบและมาตรการป้องกันกลับเป็นไปอย่างล่าช้า

ขณะเดียวกัน ประเด็นโต้แย้งเกี่ยวกับ AI ยังกระจายไปสู่วงการศิลปะ ล่าสุด GPT-4o ของ OpenAI ได้เพิ่มฟีเจอร์ที่สามารถสร้างภาพในสไตล์ของสตูดิโอจิบลิ สร้างความฮือฮาในโซเชียลมีเดีย อย่างไรก็ตาม ฮายาโอะ มิยาซากิ ผู้ร่วมก่อตั้งสตูดิโอจิบลิ เคยแสดงท่าทีต่อต้านเทคโนโลยีนี้อย่างหนัก โดยเคยกล่าวว่า "เครื่องจักรที่พยายามวาดภาพเลียนแบบมนุษย์เป็นการลบหลู่ชีวิต" และยืนยันว่าเขาจะไม่มีวันยอมรับมัน

เนื่องจาก AI กำลังส่งผลกระทบต่อความคิดสร้างสรรค์ของมนุษย์และสร้างปัญหาทางจริยธรรม เสียงเรียกร้องให้ภาครัฐและภาคอุตสาหกรรมเร่งออกมาตรการควบคุมจึงเพิ่มขึ้นเรื่อย ๆ คำเตือนของชมิดต์สะท้อนให้เห็นว่า ถึงเวลาแล้วที่สังคมต้องตระหนักถึงภัยคุกคามที่แท้จริงของ AI ก่อนที่มันจะสายเกินไป

<ลิขสิทธิ์ ⓒ TokenPost ห้ามเผยแพร่หรือแจกจ่ายซ้ำโดยไม่ได้รับอนุญาต>

บทความที่มีคนดูมากที่สุด

บทความที่เกี่ยวข้อง

ความคิดเห็น 0

ข้อแนะนำสำหรับความคิดเห็น

ขอบคุณสำหรับบทความดี ๆ ต้องการบทความติดตามเพิ่มเติม เป็นการวิเคราะห์ที่ยอดเยี่ยม

0/1000

ข้อแนะนำสำหรับความคิดเห็น

ขอบคุณสำหรับบทความดี ๆ ต้องการบทความติดตามเพิ่มเติม เป็นการวิเคราะห์ที่ยอดเยี่ยม
1