สตาร์ทอัพ AI จากจีนอย่าง DeepSeek ได้เปิดตัวโมเดลล่าสุด “DeepSeek-V3.2” เมื่อวันที่ 2 ธันวาคม 2025 พร้อมกันนี้ DeepSeek ยังเปิดตัว “DeepSeek-V3.2 Speciale” ที่เน้นการใช้เหตุผล โมเดลนี้มีประสิทธิภาพเทียบเท่า GPT-5 ของ OpenAI และ Gemini 3 Pro ของ Google ค่า API ถูกกว่าคู่แข่ง 10 ถึง 30 เท่า
ประสิทธิภาพและราคาที่แตกต่างอย่างมาก
DeepSeek-V3.2 Speciale บันทึกความแม่นยำ 96.0% ในการแก้โจทย์ระดับโอลิมปิกคณิตศาสตร์นานาชาติ ในการแข่งขันคณิตศาสตร์ Harvard-MIT โมเดลนี้บรรลุคะแนน 99.2% คะแนนนี้สูงกว่า GPT-5 High (88.3%) อย่างมาก
ใน SWE-bench Verified ที่จำลองการพัฒนาซอฟต์แวร์จริง DeepSeek-V3.2 บันทึกคะแนน 77.2% คะแนนนี้เป็นอันดับหนึ่ง แซงหน้า GPT-5 High (74.9%) และ Gemini 3.0 Pro (76.2%)
ด้านราคา DeepSeek-V3.2 มีค่าใช้จ่ายอยู่ที่ 0.14-0.27 ดอลลาร์สหรัฐต่อ 1 ล้านโทเค็น สำหรับ input ส่วน output อยู่ที่ 0.28-0.40 ดอลลาร์ GPT-5 มีราคา input 1.25 ดอลลาร์ และ output 10.00 ดอลลาร์ ส่วนต่างราคาอยู่ที่ 10 ถึง 30 เท่า สำหรับองค์กรที่ประมวลผล 100 ล้านโทเค็นต่อเดือน GPT-5 จะมีค่าใช้จ่ายมากกว่า 1 ล้านบาทต่อเดือน DeepSeek จะอยู่ที่ 3-4 หมื่นบาทเท่านั้น
แก่นหลักของนวัตกรรมทางเทคนิค
นวัตกรรมทางเทคนิคของ DeepSeek-V3.2 อยู่ที่ “DeepSeek Sparse Attention (DSA)” โมเดล Transformer แบบเดิมมีปัญหาที่ปริมาณการคำนวณเพิ่มขึ้นตามกำลังสองของความยาว context DSA เลือกเฉพาะโทเค็นที่สำคัญแบบไดนามิก เทคโนโลยีนี้ลดความซับซ้อนในการคำนวณลงได้อย่างมาก
DeepSeek-V3.2 ใช้คอมโพเนนต์เบาๆ ชื่อ “Lightning Indexer” เป็นกลไกในการเลือกโทเค็นที่ต้องประมวลผล โมเดลนี้มี context window ขนาดใหญ่ถึง 128,000 โทเค็น แต่สามารถดำเนินงานด้วยต้นทุนที่ต่ำกว่าคู่แข่งอย่างมาก
เทคนิคสำคัญอีกอย่างคือสถาปัตยกรรม Mixture-of-Experts (MoE) โมเดลนี้มีพารามิเตอร์ทั้งหมด 6,710-6,850 พันล้าน แต่พารามิเตอร์ที่ทำงานจริงขณะ inference มีเพียง 370 พันล้าน เครือข่าย “ผู้เชี่ยวชาญ” ที่เหมาะสมที่สุดจะถูกเลือกแบบไดนามิกตามโทเค็นที่ป้อนเข้ามา
OpenAI ประกาศ “Code Red”
การตามมาอย่างรวดเร็วของ DeepSeek นำมาซึ่งความกังวลร้ายแรงให้กับบริษัทตะวันตก ตามรายงานหลายฉบับ Sam Altman CEO ของ OpenAI ได้ประกาศ “Code Red (สถานการณ์ฉุกเฉิน)” ภายในองค์กร
สาเหตุมาจาก “การใช้เหตุผลที่มีประสิทธิภาพสูงและราคาถูก” ของ DeepSeek เทคโนโลยีนี้กำลังกัดกร่อนธุรกิจ API ซึ่งเป็นแหล่งรายได้หลักของ OpenAI นักพัฒนาและองค์กรที่ตระหนักถึงต้นทุนกำลังย้ายจาก GPT-5 ที่มีราคาแพงไปยัง DeepSeek สถานการณ์นี้เป็นหนึ่งในสาเหตุของการลดลงของ traffic ของ ChatGPT
อุตสาหกรรม AI โดยรวมกำลังเปลี่ยนจาก “การแข่งขันด้านประสิทธิภาพ” ไปสู่ “การแข่งขันด้านต้นทุนและประสิทธิภาพ” สำหรับบริษัทตะวันตกที่ยังไม่ได้รับคืนทุนฮาร์ดแวร์ สถานการณ์นี้เป็นความท้าทายที่ยากลำบาก
ความขัดแย้งของการควบคุมการส่งออก
รัฐบาลสหรัฐฯ ได้ควบคุมการส่งออกชิป AI ล้ำสมัยอย่าง H100 ของ Nvidia ไปยังจีน DeepSeek ใช้ชิปที่ไม่อยู่ในการควบคุมและ H800 จากสต็อกเก่า บริษัทเอาชนะข้อจำกัดฮาร์ดแวร์ด้วย “นวัตกรรมอัลกอริทึม”
Dario Amodei CEO ของ Anthropic กล่าวว่าความสำเร็จของ DeepSeek ไม่ได้หมายความว่าการควบคุมการส่งออกล้มเหลว เขายอมรับในเวลาเดียวกันว่าบริษัทจีนแสดงความสามารถในการปรับตัวอย่างน่าทึ่งภายใต้ข้อจำกัด ข้อจำกัดฮาร์ดแวร์อาจบังคับให้เกิดการพัฒนาสถาปัตยกรรมที่มีประสิทธิภาพ
ทรัพยากรการคำนวณที่ใช้ในการฝึกอบรม DeepSeek-V3 เต็มรูปแบบคือ 2.788 ล้านชั่วโมงด้วย H800 GPU ต้นทุนนี้คาดว่าต่ำกว่าต้นทุนการฝึกอบรมของ GPT-4 หลายเท่าถึงสิบเท่า
จุดอ่อนและความท้าทาย
DeepSeek-V3.2 มีจุดอ่อนที่ชัดเจน ในเบนช์มาร์กที่ถามความรู้กว้างอย่าง MMLU-Pro และ GPQA Diamond Gemini 3.0 Pro ยังคงมีความได้เปรียบ ผลลัพธ์นี้สะท้อนถึงข้อได้เปรียบของ search index และชุดข้อมูล multimodal ขนาดใหญ่ของ Google
อีกหนึ่งความท้าทายคือต้นทุนการใช้เหตุผล เบื้องหลังความแม่นยำสูงของโมเดล Speciale คือ “การคิดนาน” ใน AIME 2025 Speciale ใช้โทเค็นเฉลี่ย 23,000 ตัวในการตอบ Gemini 3.0 Pro ใช้ 15,000 โทเค็น GPT-5 High ใช้ 13,000 โทเค็น การใช้โทเค็นมากนี้เป็นความท้าทายในแง่ของต้นทุนแบบจ่ายตามการใช้งาน API และเวลาในการตอบสนอง
ผลกระทบและการตอบสนองต่อองค์กร
การเปิดตัวของ DeepSeek ช่วยลดอุปสรรคด้านต้นทุนของการใช้ AI ลงอย่างมาก องค์กรสามารถใช้ความสามารถในการใช้เหตุผลล้ำสมัยได้แม้ในกรณีที่เคยไม่คุ้มค่าเพราะต้นทุนสูง
อย่างไรก็ตาม โมเดลของ DeepSeek เป็นไปตามกฎหมายภายในประเทศจีน อาจมีการตรวจสอบหัวข้อทางการเมืองบางประเด็น องค์กรจำเป็นต้องมีมาตรการรักษาความปลอดภัยและการประเมินความเสี่ยงในการใช้งานเชิงพาณิชย์
ในทางปฏิบัติ การใช้งานแบบผสมผสานเป็นตัวเลือกที่สมจริง ใช้ DeepSeek สำหรับงานง่ายๆ และกรณีที่เน้นต้นทุน ใช้ Gemini หรือ GPT-5 สำหรับกรณีที่ต้องการความลับสูงสุดหรือความรู้กว้าง
การเปิดตัว DeepSeek-V3.2 ในเดือนธันวาคม 2025 เป็นจุดเปลี่ยนสำคัญ แกนการแข่งขันของอุตสาหกรรม AI กำลังเปลี่ยนจาก “ประสิทธิภาพ” ไปสู่ “ประสิทธิภาพการใช้ทรัพยากร” ยุคที่พึ่งพาทรัพยากรการคำนวณอย่างท่วมท้นกำลังจะสิ้นสุดลง การปรับปรุงประสิทธิภาพด้วยการคิดค้นอัลกอริทึมกำลังกลายเป็นสนามรบหลักของการแข่งขัน
ลิงก์บทความอ้างอิง
- DeepSeek-V3.2 – Simon Willison’s Weblog
- DeepSeek just gave away an AI model that rivals GPT-5 – and it could change everything
- The Complete Guide to DeepSeek Models: V3, R1, V3.1, V3.2 and Beyond – BentoML
- DeepSeek-V3.2: Pushing the Frontier of Open Large Language Models
- DeepSeek’s latest open models rival GPT-5.1 and Gemini 3 Pro – DeepLearning.AI


