วิตาลิก บูเตริน ผู้ร่วมก่อตั้งอีเธอเรียม(ETH) เตือนถึงความเสี่ยงของ ‘เอไอรวมศูนย์’ พร้อมเน้นย้ำว่ามนุษย์ต้องเป็นกุญแจสำคัญในการกระจายอำนาจของเอไอ
บูเตรินแสดงความกังวลระหว่างงาน Open Source AI Summit ที่จัดขึ้นในซานฟรานซิสโก โดยระบุว่า เอไอที่ถูกควบคุมโดยศูนย์กลางอาจกลายเป็น ‘เครื่องมือของผู้มีอำนาจไม่กี่คนในการควบคุมมวลชนจำนวนมาก’ เขายังเสริมว่าการมีเครือข่ายเอไอแบบกระจายอำนาจอย่างเดียวอาจไม่เพียงพอ เพราะหากมีโมเดลเอไอหลายพันล้านโมเดลที่สามารถเชื่อมโยงกันได้ สุดท้ายมันอาจรวมตัวเป็นหนึ่งเดียว
เขาย้ำว่าการทำให้เอไอมีความกระจายอำนาจได้จริง มนุษย์ต้องทำงานร่วมกับเอไออย่างใกล้ชิด “เราต้องให้เอไอเป็นเครื่องยนต์ และให้มนุษย์เป็นผู้ควบคุมทิศทาง นี่คือแนวทางที่จะทำให้เอไอปลอดภัยและคงไว้ซึ่งหลักการกระจายอำนาจไปพร้อมกัน” บูเตรินกล่าว
ในอีกด้านหนึ่ง LA Times เพิ่งเปิดตัว ‘Insights’ ซึ่งเป็นเครื่องมือวิเคราะห์ข่าวที่ขับเคลื่อนโดยเอไอ แต่กลับถูกวิจารณ์อย่างหนัก หลังจากที่ AI ของ Insights ให้คำอธิบายในเชิงเห็นอกเห็นใจต่อกลุ่มคูคลักซ์แคน(KKK) โดยระบุว่าเป็น ‘ปฏิกิริยาตอบโต้ของวัฒนธรรมโปรเตสแตนต์ผิวขาว’ ท่ามกลางข้อถกเถียงที่เพิ่มขึ้น LA Times ได้ลบข้อความดังกล่าวออกทันที
นอกจากนี้ ยังมีกรณีที่เอไอสร้างงานวิจัยทางวิทยาศาสตร์เป็นครั้งแรกและผ่านการพิจารณาจากผู้ทรงคุณวุฒิ โดย AI จาก Sakana Research Group ได้เขียนบทความที่ได้รับการรับรองให้เข้าร่วมการประชุมเชิงปฏิบัติการด้านการเรียนรู้ของเครื่อง ซึ่งเป็นสัญญาณว่าเอไออาจเปลี่ยนโฉมหน้าของการวิจัยทางวิทยาศาสตร์
อีกประเด็นสำคัญคือเรื่อง ‘LLM Grooming’ ซึ่งเป็นเทคนิคที่รัสเซียใช้ผ่านเครือข่าย Pravda ในการสร้างข่าวปลอมจำนวนมากเพื่อส่งผลกระทบต่อฐานข้อมูลของโมเดล AI หน่วยงาน NewsGuard รายงานว่า โมเดลเอไอชั้นนำมีโอกาสสูงถึง 30% ที่จะทำซ้ำข้อมูลเท็จของรัสเซียโดยไม่รู้ตัว
ความรับผิดชอบทางกฎหมายของเอไอเริ่มกลายเป็นปัญหาใหญ่ ซาเทีย นาเดลลา ซีอีโอของไมโครซอฟท์(MSFT) ชี้ว่าหนึ่งในอุปสรรคใหญ่ที่สุดของการพัฒนา AI ระดับ AGI (ปัญญาประดิษฐ์ทั่วไป) คือ ‘ไม่มีมาตรฐานทางกฎหมายที่ชัดเจนเกี่ยวกับความรับผิดชอบ’ ผู้เชี่ยวชาญให้ความเห็นว่า หากเอไอยังอยู่ภายใต้การควบคุมของมนุษย์ ก็สามารถใช้กฎหมายเดิมได้ แต่หากเอไอทำงานโดยอัตโนมัติโดยไม่มีการควบคุม อาจต้องมีกรอบกฎหมายใหม่ที่ออกแบบมาเฉพาะ
นอกจากนี้ยังมีการทดลองที่แสดงให้เห็นว่า เอไอบางตัวสามารถโกหกเพื่อรับผลตอบแทนได้ นักวิจัยจาก OpenAI รายงานว่า พวกเขาสังเกตเห็นพฤติกรรมที่เอไอพยายามหลีกเลี่ยงการทดสอบ หรือแม้กระทั่งบิดเบือนข้อมูลเพื่อให้เป็นประโยชน์ต่อตัวเอง
เมื่อเทคโนโลยีเอไอพัฒนาอย่างรวดเร็ว คำถามเรื่องจริยธรรมและผลกระทบทางสังคมจึงยิ่งทวีความสำคัญขึ้น การสร้างความโปร่งใส การกระจายอำนาจ และการป้องกันข้อมูลเท็จกำลังเป็นประเด็นถกเถียงระดับโลกที่ต้องการแนวทางแก้ไขที่ชัดเจนและรอบคอบ
ความคิดเห็น 0