แม้ว่าเทคโนโลยีปัญญาประดิษฐ์(AI) กำลังแพร่ขยายในระดับรวดเร็ว แต่กลับมีเสียงเตือนว่าความสำคัญของ ‘ซีพียู(CPU)’ ถูกประเมินต่ำเกินไป โดยเฉพาะในยุคที่งานด้าน AI ส่วนใหญ่ออกแบบมาเพื่อรองรับการประมวลผลแบบ ‘จีพียู(GPU)’ กลายเป็นกระแสหลัก จนอาจส่งผลให้เกิดการใช้ทรัพยากรอย่างไม่มีประสิทธิภาพ
นาแมน คาบรา(Naman Kabra) ผู้ร่วมก่อตั้งและประธานเจ้าหน้าที่บริหารของ NodeOps Network แสดงความเห็นผ่านบทความใน Cointelegraph เมื่อวันที่ 17 ว่า แนวคิด ‘ต้องพึ่งพาแต่ GPU เท่านั้น’ กำลังกลายเป็นอุปสรรคสำคัญต่อการขยายโครงสร้างพื้นฐานด้าน AI ในระยะยาว
จีพียูมีความสามารถในการประมวลผลแบบขนานในระดับมหาศาล จึงเหมาะกับงาน AI ที่ใช้พลังคำนวณสูง เช่น การฝึกโมเดลแชตบอตหรือประมวลผลภาพ ซึ่งบริษัทเทคโนโลยีรายใหญ่อย่าง OpenAI, กูเกิล(Google) และเมตา(Meta) ทุ่มงบมหาศาลไปกับการสร้างคลัสเตอร์ GPU อย่างไรก็ตาม คาบราให้ความเห็นว่า *แนวคิดที่ว่า GPU คือคำตอบเดียว อาจเป็นความเชื่อที่ผิด* โดยเฉพาะในขั้นตอนการใช้งานโมเดล ซึ่ง CPU ก็สามารถให้ประสิทธิภาพสูงได้ไม่แพ้กัน
เขาย้ำว่า CPU ถูกฝังอยู่ในการใช้งานของอุปกรณ์ทั่วโลกอยู่แล้ว และเหมาะสมอย่างยิ่งกับงานที่ต้องการการประมวลผลแบบมีเหตุผลซ้ำๆ หรือการตัดสินใจเชิงลอจิก เช่น การเขียนโค้ด การรวบรวมข้อมูล หรือ วางแผนงานของเอเจนต์อัตโนมัติ อีกทั้งในบริบทที่ไม่จำเป็นต้องตอบสนองในระดับความเร็วสูงมาก เช่น การประมวลผลของโมเดล Deep Learning ในบางกรณี *ก็สามารถดำเนินการผ่าน CPU ได้อย่างเพียงพอ*
จากแนวคิดนี้ คาบราจึงเสนอแนะแนวทางใหม่โดยอ้างอิงโมเดลแบบ ‘เครือข่ายการประมวลผลแบบกระจาย’ หรือ DePIN (Decentralized Physical Infrastructure Network) ที่เปิดโอกาสให้ผู้ใช้ทั่วโลกร่วมแบ่งปันกำลังประมวลผลของ CPU ที่ไม่ได้ใช้งานอยู่ ให้กลายเป็นโครงข่ายคอมพิวเตอร์ยักษ์ขับเคลื่อน AI แทนการพึ่งพาแต่คลาวด์เซ็นเตอร์แบบรวมศูนย์ ซึ่งแนวคิด “เศรษฐกิจการแบ่งปันพลังประมวลผล” นี้ มีข้อดีทั้งด้าน *ลดความหน่วงของข้อมูล และเพิ่มความเป็นส่วนตัว*
“ถึงเวลาแล้วที่เราควรเลิกมุ่งแต่การซื้อ GPU ใหม่ราคาแพง และหันกลับมามองว่าเราจะนำ CPU ที่มีอยู่แล้วกลับมาใช้ได้อย่างไรบ้าง” คาบรากล่าว พร้อมระบุว่าขณะนี้มี CPU จำนวนหลายล้านเครื่องทั่วโลกที่ถูกปล่อยทิ้งไว้โดยไม่มีการใช้งาน *ความสูญเปล่านี้ควรถูกทบทวนและดึงกลับมาเป็นประโยชน์*
ท่ามกลางแนวโน้มการเติบโตของความต้องการ AI ในระดับมหาศาลทั่วโลก โครงสร้างพื้นฐานที่เน้น GPU อย่างเดียวอาจเผชิญความท้าทาย ทั้งด้านต้นทุนและการขยายศูนย์ข้อมูลที่เริ่มถึงขีดจำกัด แนวทางแบบกระจายจึงเริ่มถูกมองว่าเป็น *ทางเลือกที่ยั่งยืนและเป็นไปได้จริง* ในยุคต่อไป
คาบราสรุปว่า *ปัญหาคอขวดในโลก AI ไม่ได้อยู่ที่ขาดแคลนอุปกรณ์ แต่คือวิธีคิดแบบเดิมที่ยึดติดกับเทคโนโลยีเพียงด้านเดียว* พร้อมทิ้งท้ายว่า “GPU สำคัญก็จริง แต่ CPU อยู่ใกล้ตัวเรา แค่เรายังไม่รู้จักใช้งานอย่างเต็มศักยภาพเท่านั้นเอง” ซึ่งสะท้อนว่า *อนาคตของระบบ AI อาจไม่ได้ขึ้นอยู่กับการพัฒนาอุปกรณ์ใหม่ แต่เป็นการค้นพบ ‘คุณค่าใหม่ในสิ่งที่มีอยู่แล้ว’ มากกว่า*
ความคิดเห็น 0