เครือข่าย GPU แบบกระจายศูนย์กำลังได้รับความสนใจมากขึ้น ท่ามกลางการเปลี่ยนแปลงของอุตสาหกรรม AI ที่กำลังก้าวจากโมเดลการฝึกแบบเทรนนิ่งเข้มข้นในศูนย์ข้อมูลกลาง ไปสู่การใช้งานจริงด้าน ‘อินเฟอร์เรนซ์’ และการประมวลผลแบบกระจาย การเน้นทั้งในด้าน ‘ต้นทุนที่คุ้มค่า’ และ ‘ความยืดหยุ่นทางภูมิศาสตร์’ กลายเป็นจุดเด่นสำคัญของระบบกระจายศูนย์อย่างแท้จริง
ขณะที่การฝึกโมเดล AI ขั้นสูงยังคงต้องอาศัยการประสานงานของ GPU จำนวนมหาศาลอย่างแม่นยำ เช่น เมตาใช้ GPU H100 ของเอ็นวีเดียกว่า 100,000 ตัวสำหรับฝึกโมเดล ลามา4 ส่วนโอเพนเอไอใช้มากกว่า 200,000 ตัวเพื่อพัฒนา GPT-5 ก็ตาม กระบวนการเหล่านี้มักดำเนินการในศูนย์ข้อมูลขนาดยักษ์ที่มีการจัดการแบบ ‘ศูนย์กลาง’ อย่างไรก็ตาม งานฝึกโมเดลขนาดใหญ่ระดับนี้กลับมีสัดส่วนลดลงเรื่อยๆ เมื่อเทียบกับการใช้งาน AI โดยรวม
ดาน เอลลิแดสัน ซีอีโอของโอบียะ ซิสเต็มส์ (Ovia Systems) เปิดเผยว่า “ภายในปี 2026 งานด้านอินเฟอร์เรนซ์, เอเจนต์ และการพยากรณ์ข้อมูล จะคิดเป็น 70% ของความต้องการใช้ GPU ทั้งหมด” พร้อมระบุว่า “การประมวลผล AI กลายเป็นต้นทุนต่อเนื่อง มากกว่าการลงทุนวิจัยแบบครั้งเดียวเหมือนในอดีต” *คำสำคัญ: ความต้องการใช้งานต่อเนื่อง (utility)*
เครือข่าย GPU แบบกระจายศูนย์จึงโดดเด่นขึ้นในงานที่ไม่ต้องการการประสานงานที่ซับซ้อน แต่เน้นความสามารถในการกระจายการประมวลผล และเมื่อโมเดล AI ขนาดเล็กแบบโอเพนซอร์สกำลังเพิ่มขึ้น การใช้ GPU ระดับผู้บริโภคอย่าง RTX 4090 และ 5090 ก็สามารถตอบโจทย์ได้อย่างมีประสิทธิภาพ โดยไม่ต้องพึ่งโครงสร้างพื้นฐานราคาแพง
มิตช์ หลิว ผู้ร่วมก่อตั้งเครือข่าย จีตา เน็ตเวิร์ก (Theta Network) ระบุว่า “โมเดลโอเพนซอร์สเหล่านี้ช่วยให้ผู้ใช้งานทั่วไปสามารถใช้ GPU ให้เกิดมูลค่า และมีโอกาสแบ่งปันทรัพยากรได้โดยตรง” *ความคิดเห็น: บทบาทของผู้ใช้งานรายย่อยกำลังเปลี่ยนจากผู้บริโภค เป็นผู้ให้บริการพลังประมวลผล*
บ็อบ ไมลส์ ซีอีโอของบริษัท แซลลัด เทคโนโลยีส์ (Salad Technologies) ก็ชี้ว่า “ถึงแม้ GPU ที่บ้านมีข้อจำกัดเรื่อง RAM และการเชื่อมต่ออินเทอร์เน็ต แต่กลับได้เปรียบเรื่องต้นทุน-ต่อ-ประสิทธิภาพ” โดยเฉพาะในงานที่ ‘ปริมาณการประมวลผล’ สำคัญกว่าความเร็วของการตอบสนอง เช่น การแปลงข้อความเป็นภาพ, งานวิเคราะห์ข้อมูลขนาดใหญ่ หรือแม้แต่การพัฒนาโมเลกุลยาโดยใช้ AI
สำหรับงานที่ไม่จำเป็นต้องประสานข้อมูลแบบเข้มข้น เช่น การเก็บและเตรียมข้อมูลจำนวนมากก่อนเข้าโมเดล ฝั่งศูนย์ข้อมูลเองกลับมีข้อจำกัดในการเข้าถึงเว็บแบบสาธารณะ ดังนั้น การใช้เครือข่าย GPU จากผู้ใช้งานทั่วไปจึงอาจให้ ‘ประสิทธิภาพที่ดีกว่า’ ในบางกรณี
อีกทั้ง การที่ GPU ถูกกระจายอยู่ในหลายประเทศยังช่วยลดระยะเวลาในการตอบสนองกับผู้ใช้งานได้อย่างดี มิตช์ หลิว กล่าวว่า “ระบบแบบกระจายศูนย์สามารถให้บริการที่ใกล้กับผู้ใช้งานมากกว่าระบบศูนย์กลางในบางพื้นที่ ซึ่งช่วยลดความหน่วง (latency) ได้อย่างมีนัยสำคัญ”
แม้ว่าเครือข่ายกระจายศูนย์จะยังไม่สามารถทดแทนโครงสร้างศูนย์กลางในการฝึกโมเดลขั้นสูงได้ แต่เมื่อความต้องการย้ายจากการฝึกไปสู่อินเฟอร์เรนซ์ เครือข่ายเหล่านี้จึงกลายเป็น *‘ชั้นสนับสนุน (supporting layer)’* ที่ช่วยเสริมความยืดหยุ่นและเข้าถึงได้ดีขึ้นในโครงสร้างการประมวลผล AI โดยรวม นับเป็นอีกทางเลือกที่ช่วยขับเคลื่อน AI ให้ใกล้ผู้ใช้งานมากยิ่งขึ้น
ความคิดเห็น 0