Back to top
  • 공유 แชร์
  • 인쇄 พิมพ์
  • 글자크기 ขนาดตัวอักษร
ลิงก์ถูกคัดลอกแล้ว

AI ผสานคริปโตมาแรงแต่ยังขาดความเชื่อมั่น — DeFAI ดันโปรเจกต์ทะลุ 7,000 โครงการ

AI ผสานคริปโตมาแรงแต่ยังขาดความเชื่อมั่น — DeFAI ดันโปรเจกต์ทะลุ 7,000 โครงการ / Tokenpost

ตั้งแต่ต้นปี 2024 เป็นต้นมา เทคโนโลยีปัญญาประดิษฐ์ (AI) กลายเป็นประเด็นสำคัญในวงการคริปโตเคอร์เรนซี แต่แม้จะได้รับความสนใจอย่างล้นหลาม ทั้งผู้ใช้งานทั่วไปและภาคธุรกิจกลับยังไม่ให้ ‘ความเชื่อมั่น’ ต่อ AI อย่างเต็มที่ โดยเฉพาะในภาคส่วนที่เกี่ยวข้องกับข้อมูลอ่อนไหว เช่น การเงิน การแพทย์ และข้อมูลส่วนบุคคล แม้ AI จะมอบความสะดวกสบายและเพิ่มประสิทธิภาพ ทว่าข้อจำกัดด้านความเชื่อมั่นยังคงเป็นอุปสรรคสำคัญ

การขาดความไว้วางใจนี้ ได้กลายเป็น ‘กำแพง’ สำคัญในการขยายตัวของ AI ในระดับมหาชน ทำให้เทคโนโลยี ‘แบบกระจายศูนย์’ ที่เน้นความโปร่งใสและสามารถตรวจสอบได้ กลายเป็นทางเลือกที่ถูกจับตามอง โดยเฉพาะในแง่การสร้างระบบที่ไว้วางใจได้โดยไม่ขัดกับการพัฒนา AI

รายงานด้านการวิจัยตลาดแสดงให้เห็นว่า AI เป็นธีมที่ได้รับความสนใจเป็นอันดับสองของอุตสาหกรรมคริปโตประจำปี 2024 โดยมีสัดส่วนความสนใจจากนักลงทุนสูงถึง 16% บริษัทยักษ์ใหญ่นานาชาติและสตาร์ทอัปต่างเร่งทุ่มงบประมาณเข้าสู่โปรเจกต์ที่ผสาน AI เข้ากับบริการด้านสุขภาพ การเงิน และอื่น ๆ

ในส่วนของการใช้งานจริง กลุ่มเทคโนโลยีที่ผสมผสานระหว่าง AI กับการเงินไร้ศูนย์กลาง หรือ ‘DeFAI’ ได้กลายเป็นหนึ่งในนวัตกรรมเด่น โดยมีโครงการใหม่กว่า 7,000 แห่งเกิดขึ้นจนถึงต้นปี 2025 และช่วงหนึ่งเคยผลักดันมูลค่าตลาดรวมแตะระดับ 7,000 ล้านดอลลาร์ หรือราว 1.02 หมื่นล้านบาท โดย ‘DeFAI’ ช่วยให้ผู้ใช้งานสามารถสั่งซื้อขายด้วยคำสั่งภาษา, วางแผนกลยุทธ์หลายชั้น และวิเคราะห์ตลาดได้อย่างมีประสิทธิภาพมากขึ้น

อย่างไรก็ดี ปัญหาพื้นฐานของ AI ยังไม่ได้รับการแก้ไขอย่างจริงจัง เช่น การ ‘สร้างข้อมูลเท็จ’ หรือที่เรียกว่า ‘hallucination’, ความเสี่ยงด้านการถูกควบคุม-ชักจูง, และการละเมิดความเป็นส่วนตัว ตัวอย่างที่สร้างความกังวลเกิดขึ้นเมื่อเดือนพฤศจิกายน 2024 เมื่อผู้ใช้รายหนึ่งตั้งใจทดลองให้บอต AI ดำเนินการตัดสินใจด้านการเงินด้วยตนเอง ส่งผลให้ AI ส่งเงินออกไป 47,000 ดอลลาร์ หรือประมาณ 6.86 ล้านบาท แม้ว่าจะเป็นเพียงการทดลองในเกม แต่ก็จุดประเด็นใหญ่เกี่ยวกับ ‘อำนาจตัดสินใจทางการเงิน’ ของ AI

แม้จะมีระบบตรวจสอบ เช่น การตรวจสอบภายใน, โปรแกรมจับผิดบั๊ก, และทีมทดสอบด้านความปลอดภัย (Red Team) อยู่แล้ว แต่ความเป็นไปได้ในการจัดการข้อมูลนำเข้าให้ผิดเพี้ยน, ข้อผิดพลาดเชิงตรรกะ หรือการใช้ข้อมูลไม่มีสิทธิ์ ก็ยังคงเป็นประเด็นอยู่ โดยจากรายงานของ KPMG ในปี 2023 พบว่า 61% ของผู้ตอบแบบสอบถามไม่ไว้วางใจ AI ขณะที่ผลสำรวจจาก Forrester ซึ่งถูกอ้างถึงใน Harvard Business Review ระบุว่า นักวิเคราะห์ในภาคอุตสาหกรรมกว่า 25% มองว่า ‘ความเชื่อมั่น’ เป็นอุปสรรคอันดับแรกของ AI

ฝั่งผู้บริหารเทคโนโลยีในสหรัฐฯ ผลสำรวจของ Wall Street Journal ในการประชุม CIO Network Summit แสดงให้เห็นว่า ถึง 61% ของ CIO ยังคงอยู่ขั้น ‘ทดสอบ’ ระบบ AI agents อยู่ และผู้ที่เหลือก็มักจะเลื่อนหรือหลีกเลี่ยงการใช้งานด้วยสาเหตุด้านความเชื่อมั่น, ความปลอดภัยไซเบอร์ และความเสี่ยงของข้อมูลส่วนตัว โดยเฉพาะในวงการแพทย์ แม้หลายฝ่ายจะมองว่า LLM สามารถยกระดับการแชร์ข้อมูลประวัติผู้ป่วย (EHR) และเพิ่มประสิทธิภาพการรักษาได้ แต่ก็มีประเด็นละเอียดอ่อนทั้งในเชิง ‘กฎหมายและจริยธรรม’ ที่ต้องพิจารณาอย่างรอบคอบ

เพื่อให้เทคโนโลยี AI แพร่หลายอย่างยั่งยืน การสร้าง ‘โครงสร้างความเชื่อมั่น’ ระหว่างผู้ใช้งานและองค์กรจึงจำเป็นเร่งด่วนมากขึ้นเรื่อยๆ ในขณะเดียวกัน แนวโน้มที่ใช้เทคโนโลยีกระจายศูนย์และการคุ้มครองความเป็นส่วนตัวกำลังเป็น ‘กุญแจ’ สู่การฟื้นฟูศรัทธาต่อ AI โดยสิ่งที่ต้องเกิดตามมาคือการสนับสนุนในระดับเทคโนโลยีและสังคมอย่างจริงจัง

<ลิขสิทธิ์ ⓒ TokenPost ห้ามเผยแพร่หรือแจกจ่ายซ้ำโดยไม่ได้รับอนุญาต>

บทความที่มีคนดูมากที่สุด

บทความที่เกี่ยวข้อง

ความคิดเห็น 0

ข้อแนะนำสำหรับความคิดเห็น

ขอบคุณสำหรับบทความดี ๆ ต้องการบทความติดตามเพิ่มเติม เป็นการวิเคราะห์ที่ยอดเยี่ยม

0/1000

ข้อแนะนำสำหรับความคิดเห็น

ขอบคุณสำหรับบทความดี ๆ ต้องการบทความติดตามเพิ่มเติม เป็นการวิเคราะห์ที่ยอดเยี่ยม
1