แม้ปัญญาประดิษฐ์(AI) จะพัฒนาอย่างก้าวกระโดดในช่วงไม่กี่ปีที่ผ่านมา แต่ประเด็นเรื่อง ‘ความน่าเชื่อถือ’ และ ‘ความแม่นยำ’ ยังคงเป็นข้อถกเถียงที่ต้องพึ่งพาความรู้และความเชี่ยวชาญของมนุษย์ เพื่อทำให้ AI สามารถใช้งานได้อย่างมีประสิทธิภาพและปลอดภัยมากยิ่งขึ้น โดยเมื่อวันที่ 24 ซีอีโอของซาเปียน(Sapien) โรวัน สโตน(Rowan Stone) กล่าวว่า การเทรน AI ไม่ควรยึดเพียงแค่ปริมาณของข้อมูลหรือความซับซ้อนทางเทคนิค แต่ควรเน้นที่ ‘คุณภาพข้อมูล’ และ ‘การคิดแบบมีบริบทของมนุษย์’ ควบคู่กันไป
“ข้อมูลขยะ ย่อมให้ผลลัพธ์ที่เป็นขยะ” สโตน กล่าวโดยใช้แนวคิด ‘GIGO (Garbage In, Garbage Out)’ เพื่ออธิบายว่า AI ไม่อาจให้คำตอบที่ดีได้ หากข้อมูลต้นทางไม่มีคุณภาพ ปัญหาที่เกิดบ่อยคือ AI เกิด ‘ภาพหลอน’ (hallucination) ซึ่งหมายถึงการสร้างข้อมูลที่ไม่เป็นความจริงขึ้นมาเอง ตัวอย่างเช่น จากผลการศึกษาหนึ่งพบว่า GPT-3.5 มีอัตราการหลอนสูงถึง 39.6% ซึ่งเป็นตัวเลขที่น่ากังวลไม่น้อย
ซาเปียนเตือนว่า ความผิดพลาดนี้ไม่ใช่แค่เรื่องเทคนิค เพราะความเสียหายที่เกิดขึ้นจากข้อมูลคุณภาพต่ำ อาจทำให้เกิดการตัดสินใจที่ผิดพลาดในกระบวนการธุรกิจ โดยแต่ละปีองค์กรอาจสูญเสียรายได้ประมาณ 6% จากปัญหาดังกล่าว นอกจากนี้ยังมีรายงานจากสหรัฐว่าผู้บริหารไอทีระดับสูง (CIO) ถึง 1 ใน 5 รายลังเลจะใช้งาน AI เพราะไม่มั่นใจในความถูกต้อง โดยเฉพาะในภาคสุขภาพและความปลอดภัยที่ความผิดเพี้ยนอาจส่งผลต่อชีวิตจริง เช่น กรณีตำรวจดีทรอยต์ ที่ซอฟต์แวร์จดจำใบหน้า AI มีอัตราการจำผิดสูงถึง 96% หรืองานวิจัยของมหาวิทยาลัยฮาร์วาร์ดที่เผยว่า AI บางระบบมีอคติต่อผู้ป่วยที่ไม่ใช่คนผิวขาว
สโตนยังท้าทายแนวคิดของอีลอน มัสก์(Elon Musk) ผู้ซึ่งเคยกล่าวว่า “ความรู้ของมนุษย์ทุกอย่างได้ถูกฝังลงไปใน AI แล้ว” พร้อมตั้งข้อสังเกตว่า ความคิดแบบนี้อาจเป็น ‘กับดัก’ เพราะมนุษย์มีความสามารถในการตัดสินใจเชิงจริยธรรมจากประสบการณ์จริง ซึ่ง AI โดยลำพังยังไม่สามารถเลียนแบบได้ โดยเฉพาะระบบที่ผ่านการฝึกจากข้อมูลสังเคราะห์เพียงอย่างเดียว อาจหลุดจากโลกแห่งความจริง และไร้ซึ่งการพิจารณาจริยธรรม
เพื่อแก้ปัญหานี้ สโตนเสนอว่าระบบ AI ควรเปลี่ยนมาใช้แนวทาง ‘การเรียนรู้แบบมีคนร่วมในวงจร’ หรือ human-in-the-loop พร้อมชี้ว่านักวิทยาศาสตร์ด้านข้อมูลกว่า 67% ต้องเสียเวลาส่วนใหญ่ไปในการล้างและตรวจสอบข้อมูล ซึ่งเปลืองทั้งงบประมาณและเวลา
ในทางกลับกัน หากใช้ระบบ ‘เรียนรู้แบบเสริมแรงแบบกระจาย’ ที่มาจากบล็อกเชน ซึ่งมีการให้รางวัลกับผู้ใช้งานที่ช่วยจัดระเบียบและตรวจสอบข้อมูล จะทำให้เกิดความร่วมมือแบบไร้ศูนย์กลาง ลดอคติ และรองรับความหลากหลายของผู้มีส่วนร่วม ตัวอย่างคือ การใช้ระบบ Reward-based Labeling บนเครือข่ายย่อย เพื่อให้ผู้คนจากต่างพื้นที่ช่วยกันเทรนโมเดล
จากการวิเคราะห์ของบริษัทวิจัยกัตต์เนอร์(Gartner) คาดว่า ในปี 2026 โครงการ AI มากกว่า 60% อาจถูกยกเลิกเพราะขาดข้อมูลที่เหมาะสม ซึ่งชี้ว่ายังจำเป็นต้องมี ‘ผู้เชี่ยวชาญมนุษย์’ อยู่เบื้องหลัง หากหวังให้เทคโนโลยี AI ส่งผลเชิงเศรษฐกิจระดับโลกได้จริง มูลค่ารวมกว่า 2.1 ตันล้านบาท
ท้ายที่สุด สโตนเน้นว่า อนาคตของ AI ขึ้นอยู่กับ ‘ความร่วมมือระหว่างมนุษย์และเครื่องจักร’ โดยมนุษย์จะเป็นผู้ควบคุมดูแลโครงสร้างพื้นฐานด้านข้อมูล เพื่อตรวจสอบ ประเมิน และพัฒนา AI อย่างต่อเนื่อง สรุปได้ว่า หากปราศจากการใช้วิจารณญาณ ความรู้ และการควบคุมของมนุษย์ AI ก็เป็นเพียงเครื่องมือที่ไร้ทิศทาง และการพัฒนาเทคโนโลยีนี้ควรเริ่มต้นจากวัฒนธรรมที่ ‘ยึดมนุษย์เป็นศูนย์กลาง’ เป็นหลัก ความคิดเห็น: การผสมผสานความรู้ของมนุษย์เข้ากับเทคโนโลยีจะเป็นกุญแจสำคัญในการสร้าง AI ที่มีความรับผิดชอบและใช้งานได้จริงในชีวิตประจำวัน
ความคิดเห็น 0