เทคโนโลยี AI ที่เติบโตอย่างรวดเร็วทำให้ตลาด GPU เข้าสู่จุดเปลี่ยนสำคัญ บริษัทจีนและเทคโนโลยีทางเลือกกำลังเข้าสู่ตลาด CUDA-compatible GPU ที่ Nvidia ครองส่วนแบ่งตลาดมากกว่า 90% การเปลี่ยนแปลงนี้จะส่งผลกระทบสำคัญต่อกลยุทธ์ AI และการจัดการต้นทุนของบริษัท
การผูกขาด CUDA Ecosystem ของ Nvidia
การครองตลาดของ Nvidia ไม่ได้มาจากประสิทธิภาพฮาร์ดแวร์เพียงอย่างเดียว บริษัทได้สร้างสภาพแวดล้อมซอฟต์แวร์สำหรับนักพัฒนามานานกว่า 15 ปี นับตั้งแต่เปิดตัว CUDA ในปี 2006 ปัจจุบันมีนักพัฒนาที่สามารถใช้งาน CUDA มากกว่า 4 ล้านคน และแอปพลิเคชันที่รองรับหลายพันรายการ
จุดแข็งของ CUDA อยู่ที่ไลบรารีที่ครอบคลุม เช่น cuBLAS สำหรับพีชคณิตเชิงเส้นพื้นฐาน cuFFT สำหรับการแปลง Fourier และ cuDNN ที่มีบทบาทสำคัญในด้าน AI เครื่องมือที่ปรับแต่งมาอย่างดีเหล่านี้ช่วยเพิ่มประสิทธิภาพการทำงานของนักพัฒนาอย่างมาก ระบบนิเวศที่แข็งแกร่งนี้ทำให้บริษัทต่าง ๆ ผูกติดกับแพลตฟอร์ม Nvidia
การย้ายระบบที่สร้างด้วย CUDA ไปยังแพลตฟอร์มอื่นต้องใช้ต้นทุนและเวลาเป็นจำนวนมหาศาล นี่คือผลของ “vendor lock-in” ที่สนับสนุนอัตรากำไรสูงและตำแหน่งทางการตลาดของ Nvidia
ปัจจัยทางภูมิรัฐศาสตร์สร้างคู่แข่งใหม่
ตั้งแต่ปี 2022 รัฐบาลสหรัฐฯ จำกัดการส่งออกชิป AI ประสิทธิภาพสูงของ Nvidia ไปยังจีนเป็นขั้นตอน เหตุผลด้านความมั่นคงแห่งชาติ มาตรการนี้บังคับให้บริษัทเทคโนโลยีใหญ่ของจีนอย่าง Alibaba, Tencent, ByteDance พัฒนาโซลูชันทางเลือก
รัฐบาลจีนกำหนดการพึ่งพาตนเองด้านเซมิคอนดักเตอร์เป็นกลยุทธ์ระดับชาติ และลงทุนจำนวนมหาศาลในบริษัทในประเทศ ผลลัพธ์คือบริษัทจีนหลายแห่งเร่งพัฒนาผลิตภัณฑ์ทดแทน Nvidia
T-Head ซึ่งเป็นบริษัทในเครือ Alibaba พัฒนา AI accelerator สำหรับดาต้าเซ็นเตอร์ที่ชื่อ “T-Head PPU” บริษัทตั้งเป้าให้มีประสิทธิภาพเทียบเท่า Nvidia H20 และอ้างว่าลดต้นทุนได้ 40% บริษัทสื่อสารแห่งชาติ China Unicom ใช้ PPU เป็นชิป AI หลักในดาต้าเซ็นเตอร์ใหม่ที่ลงทุน 390 ล้านดอลลาร์แล้ว
Innosilicon และ Moore Threads ก็ประกาศผลิตภัณฑ์ที่มีเป้าหมายสูง โดยเฉพาะ “Fenghua No.3” ของ Innosilicon ที่อ้างมีหน่วยความจำ HBM มากกว่า 112GB และรองรับ CUDA แต่ประสิทธิภาพจริงและเวลาวางจำหน่ายยังไม่ชัดเจน
3 วิธีการสร้างความเข้ากันได้ CUDA
วิธีการทางเทคนิคในการใช้แอปพลิเคชัน CUDA บน GPU ที่ไม่ใช่ Nvidia แบ่งออกเป็น 3 ประเภทหลัก
วิธีแรกคือ translation layer โดย ZLUDA เป็นตัวแทนของวิธีนี้ ระบบจะแปลคำสั่งจาก CUDA driver API ของ Nvidia เป็น AMD ROCm หรือ Intel Level Zero แบบเรียลไทม์ ข้อดีคือสามารถใช้แอปพลิเคชัน CUDA ได้โดยไม่ต้องแก้ไขซอร์สโค้ด แต่มีความเสี่ยงทางกฎหมายที่อาจขัดต่อ EULA ของ Nvidia
วิธีที่สองคือการ port ซอร์สโค้ด HIP (Heterogeneous-Compute Interface for Portability) ของ AMD มีเครื่องมือแปลงซอร์สโค้ด CUDA เป็น HIP ระบบนี้ไม่มีความเสี่ยงทางกฎหมาย แต่ต้องแก้ไขโค้ดด้วยมือในหลายกรณี
วิธีที่สามคือ native API compatibility ที่ผู้ผลิตจีนอ้าง วิธีนี้คาดว่าจะใช้ “clean room design” ที่พัฒนา API ของ CUDA ใหม่อย่างอิสระ หากสำเร็จแล้วจะเป็นโซลูชันที่สมบูรณ์แบบ แต่การทำให้เป็นจริงยากมาก
สถานการณ์แข่งขันด้านประสิทธิภาพและราคา
ตามผลทดสอบที่เผยแพร่ T-Head PPU ของ Alibaba แสดงประสิทธิภาพ “เทียบเท่า” Nvidia H20 หน่วยความจำ 96GB เท่ากัน แต่แบนด์วิดท์ interconnect 700 GB/s ต่ำกว่า Nvidia อย่างไรก็ตาม ข้อมูลเหล่านี้ส่วนใหญ่มาจากการประกาศฝั่งจีน ยังรอการตรวจสอบอิสระจากบุคคลที่สาม
การใช้ CUDA บน AMD GPU ผ่าน ZLUDA รายงานประสิทธิภาพในซอฟต์แวร์ “Blender” ที่เหนือกว่า native implementation (HIP) ของ AMD เอง เนื่องจากได้ประโยชน์จากการปรับแต่งซอฟต์แวร์สแต็กของ CUDA ที่พัฒนามายาวนาน
ด้านราคา GPU ทางเลือกมีข้อได้เปรียบชัดเจน T-Head PPU ของ Alibaba อ้างว่าต้นทุนชิ้นส่วนต่ำกว่า Nvidia H20 ถึง 40% ในจีน Moore Threads MTT S80 ที่มี VRAM 16GB ขายในราคาประมาณ 178 ดอลลาร์ ซึ่งถูกกว่าผลิตภัณฑ์ Nvidia อย่างมาก
ความท้าทายและความเสี่ยงในการใช้งานของบริษัท
การใช้ GPU ทางเลือกมีความท้าทายหลายประการ ความกังวลใหญ่สุดคือประสิทธิภาพไม่เสถียรและไดรเวอร์ไม่สุก อาจมีความแตกต่างระหว่างสเปกฮาร์ดแวร์ที่ประกาศกับประสิทธิภาพจริงเมื่อใช้แอปพลิเคชัน
ขอบเขตฟีเจอร์ CUDA ที่รองรับก็สำคัญ โซลูชันทางเลือกมักรองรับเฉพาะบางส่วน โดยเฉพาะฟีเจอร์ใหม่ที่ Nvidia เปิดตัวพร้อม GPU รุ่นล่าสุดอาจไม่รองรับ
มุมมอง Total Cost of Ownership (TCO) ก็สำคัญ แม้ราคาชิปเริ่มต้นจะถูก แต่อาจมีต้นทุนซ่อนเร้น เช่น ค่าย้ายและแก้ไขโค้ด CUDA เดิม ความเสียหายจากปัญหาประสิทธิภาพ และต้นทุนแก้ปัญหาจากการสนับสนุนที่จำกัด
สถานการณ์การรองรับสภาพแวดล้อมพัฒนา AI
การรองรับ PyTorch framework ที่สำคัญสำหรับการพัฒนา AI ของบริษัทมีความหลากหลาย แพลตฟอร์ม ROCm ของ AMD รองรับ PyTorch อย่างเป็นทางการและร่วมมืออย่างใกล้ชิดกับ Meta แต่รายงานว่าประสิทธิภาพของการคำนวณบางอย่างด้อยกว่า cuDNN ของ Nvidia
การสนับสนุน PyTorch โดย ZLUDA อยู่ในระยะพัฒนา มีรายงานความสำเร็จในแอปพลิเคชันสร้างภาพ AI แต่การติดตั้งต้องการการตั้งค่าเฉพาะทาง
GPU จีนมีข้อมูลการรองรับ PyTorch จำกัด แต่ละบริษัทอ้างว่า “เข้ากันได้กับ software framework ที่มีอยู่” แต่ผลการทำงานจริงต้องรอการตรวจสอบในอนาคต
แนวโน้มตลาดในอนาคต
ในระยะสั้น คาดว่า Nvidia จะยังคงครองตลาดต่อไป ในด้านการวิจัยพัฒนา AI ขั้นสูง ผู้ใช้ที่เน้นประสิทธิภาพและความเสถียรยังถือว่า Nvidia เป็นตัวเลือกที่ดีที่สุด
ในระยะกลางถึงยาว คาดว่าโครงสร้างตลาดจะเปลี่ยนแปลง ตลาดระดับสูง Nvidia จะยังคงมีข้อได้เปรียบ แต่ตลาดระดับกลางที่เน้นคุณภาพต่อราคา GPU ทางเลือกอาจขยายส่วนแบ่งตลาด
การแข่งขันที่เข้มข้นนี้คาดว่าจะลดราคา GPU โดยรวมและส่งเสริมนวัตกรรม ตัวเลือก GPU ที่ราคาถูกและมีประสิทธิภาพจะเป็นโอกาสใหม่สำหรับบริษัทที่เลื่อนการใช้ AI เพราะข้อจำกัดด้านต้นทุน
การตอบสนองเชิงกลยุทธ์ของบริษัท
BKK IT News เห็นว่าบริษัทควรพิจารณาการตอบสนองทีละขั้นตอนขณะสังเกตการณ์แนวโน้มปัจจุบัน สิ่งสำคัญที่สุดคือการวิเคราะห์ AI workload ของตนเอง และแยกประเภทการใช้งานที่ต้องการประสิทธิภาพสูงสุดกับการใช้งานที่เน้นประสิทธิภาพต่อต้นทุน
การพัฒนา AI ที่สำคัญต่อภารกิจควรใช้แพลตฟอร์ม Nvidia ต่อไป ส่วนการพิสูจน์แนวคิดหรือระบบภายในที่ยอมรับความเสี่ยงได้บ้าง บริษัทสามารถพิจารณาประเมิน GPU ทางเลือก
การออกแบบซอฟต์แวร์ที่ลดการพึ่งพาฮาร์ดแวร์เฉพาะในขอบเขตที่เป็นไปได้ก็เป็นกลยุทธ์ที่มีประสิทธิภาพสำหรับหลีกเลี่ยง vendor lock-in ในอนาคต
ความหลากหลายของตลาด GPU มีทั้งความเสี่ยงและโอกาสสำหรับบริษัท การรวบรวมข้อมูลที่เหมาะสมและประเมินอย่างระมัดระวังเพื่อเลือกสิ่งที่เหมาะสมกับความต้องการทางธุรกิจของตนเองคือกุญแจสำคัญในการรักษาขีดความสามารถในการแข่งขัน
ลิงก์บทความอ้างอิง
- NVIDIA’s Unassailable Reign: Powering the Trillion-Dollar AI Revolution | FinancialContent
- Alibaba Unveils Own AI Chip, Mounting Direct Challenge to Nvidia – EE Times
- Open-source project ZLUDA lets CUDA apps run on AMD GPUs | CG Channel
- PyTorch compatibility – ROCm Documentation – AMD
- Modular Secures $250 Million to Take Aim at Nvidia’s AI Software Empire