การเติบโตอย่างรวดเร็วของ *ปัญญาประดิษฐ์(AI)* กำลังผลักดันนวัตกรรมในแวดวงอุตสาหกรรม แต่สิ่งที่ตามมาก็คือ *ผลกระทบด้านลบ* ที่เริ่มขยายตัวอย่างเห็นได้ชัด ทั้งในด้านความน่าเชื่อถือของสังคมและความเหลื่อมล้ำทางดิจิทัล โดยเฉพาะการนำเทคโนโลยีไปใช้ในทางที่ผิดอย่างดีพเฟกและฟิชชิ่งเสียง ที่เริ่มมีตัวอย่างในชีวิตจริง จนนำไปสู่ความกังวลว่าความไว้วางใจในระบบดิจิทัลอาจพังทลาย
ใน *รายงานการวิจัยนโยบายการส่งเสริมอุตสาหกรรม Web 3.0* ที่เผยแพร่โดย สำนักงานนโยบายวิทยาศาสตร์และเทคโนโลยีแห่งเกาหลีใต้ ผศ.ดร.ยุน ซอกบิน จากมหาวิทยาลัยซอกัง อธิบายว่า ความเสี่ยงจาก AI ไม่ได้เกิดจากข้อบกพร่องทางเทคนิคเพียงอย่างเดียว แต่รวมถึงการนำไปใช้อย่างไม่เหมาะสมหรือเกินความจำเป็นโดยมนุษย์ รายงานกล่าวถึงสามประเด็นหลักที่ควรจับตามอง ได้แก่ *ความเหลื่อมล้ำทางดิจิทัล, การพึ่งพา AI มากเกินไป,* และ *การใช้ AI ในทางอาชญากรรม*
ในแง่ของ *ความเหลื่อมล้ำทางดิจิทัล* ข้อจำกัดในการเข้าถึง AI แบบเสียค่าบริการ ความแตกต่างด้านศักยภาพประมวลผลข้อมูลระหว่างบริษัทใหญ่กับธุรกิจขนาดเล็ก และคุณภาพของข้อมูลที่ใช้ในการฝึกสอน AI ล้วนก่อให้เกิดช่องว่างด้านผลิตภาพอย่างรุนแรง ตัวอย่างเช่น บุคคลหรือองค์กรที่ไม่สามารถซื้อเครื่องมือ AI จะเสียเปรียบในการแข่งขันทันทีที่ระบบอัตโนมัติเริ่มแผ่ขยาย
การ *พึ่งพา AI มากเกินไป* ยังเชื่อมโยงกับการลดลงของความสามารถในการคิดวิเคราะห์ของมนุษย์ ความเครียดจากการทำซ้ำเพื่อตรวจสอบผลลัพธ์จาก AI และโครงสร้างการทำงานที่เริ่มไม่อาจปราศจาก AI ได้อีกต่อไป สถานการณ์ที่เรียกว่า ‘*de-skilling*’ หรือการลดทอนทักษะของมนุษย์ ถูกมองว่าเป็นอันตรายต่อศักยภาพในระยะยาว
ประเด็นที่น่าวิตกที่สุดคือ *การใช้ AI เพื่อก่ออาชญากรรม* รายงานชี้ว่า การปลอมตัวด้วยเสียงและภาพ เช่น แอบอ้างตัวเป็น CEO หรือสร้างหลักฐานปลอมด้วยดีพเฟก นำไปสู่ภาวะ ‘ข้อมูลลวงกลายเป็นจริง’ ที่รุนแรงขึ้น ขณะที่เสียงสังเคราะห์เริ่มถูกนำมาใช้ในฟิชชิ่งรูปแบบใหม่ และการชักใยความคิดเห็นสาธารณะอย่างแม่นยำผ่านไมโครทาร์เก็ตติ้งก็ก่อให้เกิดการแพร่กระจายข่าวปลอมที่ร้ายแรงและสร้างความแตกแยกในสังคม
ในเชิงเทคนิค รายงานเสนอแนวทางแก้ปัญหา เช่น การพัฒนาอัลกอริธึมตรวจจับดีพเฟก การบังคับใช้มาตรฐาน C2PA เพื่อยืนยันแหล่งที่มาของคอนเทนต์ และการฝังวอเตอร์มาร์ค นอกจากนี้ ยังแนะนำให้สร้าง *ระบบความไว้วางใจดิจิทัล* บน Web 3.0 ผ่านเทคโนโลยีอย่าง การยืนยันตัวตนแบบกระจาย (DID), การพิสูจน์ความรู้ศูนย์ (ZKP) และการรับรองคอนเทนต์บนบล็อกเชน
ด้านนโยบาย รัฐควรออกกฎหมายเพิ่มโทษสำหรับการเผยแพร่ดีพเฟกที่ผิดกฎหมาย ขยายความรับผิดชอบให้กับผู้ให้บริการแพลตฟอร์ม และลงทุนในโครงสร้างพื้นฐาน AI สาธารณะ ขณะเดียวกัน ความรู้ด้านดิจิทัลจำเป็นต้องถูกปลูกฝังตั้งแต่วัยเรียนไปจนถึงระดับผู้ใหญ่ เพื่อเสริมสร้างภูมิคุ้มกันในสังคม
ผศ.ดร.ยุน ยังย้ำว่า การรับมือกับความเสี่ยงของ AI ต้องมีมากกว่าแค่เทคโนโลยี แต่รวมถึงการศึกษาเรื่องจริยธรรม การบริหารจัดการนโยบาย และความร่วมมือระหว่างรัฐ เอกชน วิชาการ และประชาสังคม หากปล่อยให้ผลเสียของ AI ดำเนินต่อไป ความน่าเชื่อถือในเทคโนโลยีอาจพังครืน พร้อมภัยต่อทั้งประชาธิปไตยดิจิทัลและระบบเศรษฐกิจ
บทสรุปของรายงานระบุว่า แนวทางที่ควรมุ่งไปไม่ใช่การชะลอความก้าวหน้าทางเทคโนโลยี แต่ต้องสร้าง ‘*บรรทัดฐานที่เน้นมนุษย์เป็นศูนย์กลาง*’ เพื่อให้ AI ถูกใช้อย่างเป็นธรรมและมีความรับผิดชอบ พร้อมวางรากฐานของระบบกำกับดูแลที่ยืดหยุ่นและส่งเสริมความไว้วางใจที่ยั่งยืนในโครงสร้างดิจิทัลของสังคม
ความคิดเห็น 0