OpenAI เปิดตัว o3-mini เร็วขึ้น — ผลพวงจาก The DeepSeek Effect?
จริง ๆ ผมสงสัยตั้งแต่กลางสัปดาห์แล้วหลังจากเริ่มเห็นปุ่ม Think ปุ่มใหม่ในหน้า ChatGPT
o3-mini
พอเช้ามา วันนี้เจอว่า OpenAI o3-mini เปิดตัวให้ใช้แล้ว (เสาร์ที่ 1 ก.พ. 68 เวลาประเทศไทย / ศุกร์ที่ 31 ก.ค. เวลา PT) ก็ต้องเรียกว่าเป็น The DeepSeek Effect ต่อจากการถล่มของหุ้นเทคเมื่อวันจันทร์ที่ผ่านมา
โดยตัวโมเดลมีให้ลองใช้ทั้งแบบ o3-mini และ o3-mini-high แล้วผมก็เพิ่งได้ทดลองใช้ o3-mini-high ในช่วงเช้าของวันเสาร์นี่เอง
- ในเชิงราคา o3-mini ออก pricing มาใน tier เดียวกันเลยกับ DeepSeek R1 API คือ $2 กว่า ๆ ต่อ 1 ล้าน Token ประมาณว่าหั่นได้สุดเท่านี้แล้ว
- ในเชิง Performance การใช้งานด้าน Reasoning และ Coding นั้นดีมาก มีแนวโน้มว่าผมอาจจะได้เปลี่ยนไปใช้ o3-mini แทน Claude 3.5 Sonnet แต่ก็ต้องขอลอง evaluate ไปอีกซักระยะก่อน
- ส่วนทักษะทางการ(ช่วยเหลือ)แพทย์เพื่อใช้ AI เป็น Second Opinion นั้น บอกได้เลยว่าทำได้ดีทั้ง o3-mini, o1 และ DeepSeek R1 ไม่แตกต่างกันมาก ตอนนี้ใคร ๆ ก็มีหมอสามัญประจำบ้าน ที่วิเคราะห์อาการเบื้องต้นได้ระดับนึงก่อนจะไปหาหมอจริงได้ (เป็น use case ที่ผมใช้ประจำ)
DeepSeek R1 โมเดลที่ “ถูกและแรง”
เราได้ใช้ o3 เร็วขึ้นเพราะอะไร เรื่องนี้ต้องย้อนไปเมื่อสองสัปดาห์ที่แล้ว เมื่อ DeepSeek สตาร์ตอัพสัญชาติจีนเปิดตัวโมเดลใหม่ที่ชื่อ R1 (ถัดจากตัว V3) โดย R1 ได้คะแนน Benchmark ดีเกินคาด แถมยังเคลมราคาถูกกว่าเจ้าอื่นหลายเท่าตัว ทำเอาตลาดหุ้นเทคทั่วโลกผันผวน มูลค่าบริษัทยักษ์ใหญ่เหวี่ยงกันเป็นล้านล้านดอลลาร์ โดยเฉพาะ Nvidia ที่โดนหางเลข มูลค่าลดฮวบไปมากในวันจันทร์ที่ผ่านมา วงการ AI สะเทือนกันไปหมด
ที่น่าสนใจคือ Andrej Karpathy บอกว่า DeepSeek สามารถเทรนโมเดลขนาดใหญ่ (v3) ระดับ 671B พารามิเตอร์ ในงบที่ “ถูกเหลือเชื่อ” แค่ไม่กี่ (คาดการว่า 5.5–6) ล้านดอลลาร์ ต่างจากเจ้าตลาดที่ลงทุนเป็นหมื่นล้าน จนชาว AI หลายคนอ้าปากค้างว่า “ทำได้ยังไง?” ซึ่งนี่แหละเป็นจุดเริ่มต้นให้โลกต้องจับตามอง
Karpathy ซึ่งเป็นอดีตหัวหน้าฝ่าย AI ของ Tesla และอดีตผู้ร่วมก่อตั้ง OpenAI ออกมาให้ความเห็นว่า โมเดลของ DeepSeek V3 นั้นใช้พลังประมวลผล (GPU hours) น้อยกว่าเมื่อเทียบกับโมเดลระดับ “ใหญ่เบิ้ม” ของเจ้าอื่น จนต้นทุนดูเหมือนเป็น “เรื่องตลก” เมื่อเทียบกับมาตรฐานอุตสาหกรรมในฝั่งตะวันตก
นี่เป็นตัวอย่างของการใช้ทรัพยากรอย่างคุ้มค่า และ Karpathy ยังมองว่าเป็นสัญญาณให้คนในวงการต้องทบทวนว่าเรากำลังลงทุนอย่างมีประสิทธิภาพจริงหรือยัง หรือแค่เทเงินซื้อ GPU แบบ “ทุ่มเยอะก็เก่งกว่า” เหมือนที่ผ่านมา
ตลาดตื่นตระหนก vs. ประเด็นโต้แย้งจาก Yann LeCun
ทันทีที่ตลาดหุ้นสะเทือน ก็มีเสียงกังวลว่าเงินลงทุนก้อนโตใน AI จะสูญเปล่าหรือเปล่า? “แล้ว GPU ที่ราคาแพงลิบล่ะ ใครจะซื้อ?” จนทำให้ราคาหุ้นอย่าง Nvidia รูดลงแรง แต่กลับมีคนระดับ Yann LeCun หัวหน้าฝ่ายวิจัย AI แห่ง Meta ออกมาแย้งว่า
“ทุกคนอาจเข้าใจผิดกันไปไกล”
LeCun อธิบายว่าเงินก้อนใหญ่ใน AI ที่บริษัทเทคทุ่มลงไป ไม่ได้มีแค่เรื่อง Training โมเดล แต่ยังรวมถึง Inference หรือการให้โมเดลทำงานจริง ซึ่งใช้ทรัพยากรสูงขึ้นเรื่อย ๆ โดยเฉพาะเมื่อ AI ในอนาคตจะรองรับงานซับซ้อน เช่น ประมวลผลวิดีโอเรียลไทม์ หรือ reasoning แบบยาก ๆ ค่า Inference นี่แหละที่จะทำให้ต้นทุนระยะยาวสูงขึ้น ไม่ใช่ว่าการมีโมเดลราคาถูกกว่าจะทำให้การลงทุนเดิม “สูญเปล่า” ตามที่ตลาดเข้าใจกัน
ซึ่งตรงนี้ผมเชื่อค่อนข้างมากว่าจริง — โดยอย่างน้อยบริษัทเจ้าของ DeepSeek เฉพาะแค่เรื่องฮาร์ดแวร์ ก็น่าจะลงทุนไปแล้วในระดับเกิน 1 หมื่นล้านดอลลาร์
แต่ก็ปฏิเสธไม่ได้ว่า เทคนิคใน paper ของ DeepSeek ตั้งแต่ Group Relative Policy Optimization (RL เทคนิคสำหรับ train แบบ non-labelled), Multi-Head Latent Attention (แทน kv ด้วย latent vector ลดขนาด embedded layer), Multi-Token Prediction (predict หลาย token พร้อม ๆ กัน) และ Mixture of Experts (เลือกใช้ expert บางตัวตอน inference ทำให้ประหยัดทั้ง peak memory และใช้เวลาน้อยลง) รวมทั้งค่าแรงคนจบ PhD ในจีนที่ถูกกว่าฝั่งตะวันตกประมาณ 3–5 เท่า นั้นทำให้ต้นทุนในภาพรวมลดไปได้ไม่น้อย
ความจริงที่ซ่อนอยู่ คือการ “ขยายตัว” ของตลาด
Thomas Sohmers ซีอีโอ Positron ที่ทำฮาร์ดแวร์รองรับ Inference ก็เสริมว่า สุดท้ายแล้วค่าใช้จ่ายมหาศาลจะมาตกอยู่ที่ Inference ถ้าโมเดลเก่งขึ้น คนก็เรียกใช้มากขึ้น ต้นทุนก็ยิ่งบาน ยิ่งใครให้ใช้ฟรี เช่น DeepSeek หรือเจ้าอื่น ๆ ที่เปิด API ฟรี ๆ ยิ่งมีโอกาสต้นทุนทะลุเพดาน
อย่างไรก็ดี Ethan Mollick จาก Wharton มองอีกด้านว่า ถ้าเป็นการใช้ AI ภายในองค์กรเพื่อสรุปประชุม หรือเขียนสรุปเล็ก ๆ น้อย ๆ อาจไม่แพงขนาดนั้น แต่สำหรับงานใหญ่อย่างการเปิดโมเดลฟรีสู่สาธารณะหรือสเกลระดับโลก ค่า Inference ก็หนักหนาสาหัสทีเดียว
ซึ่งประเด็นนี้จริง จากที่ผมทดสอบ แม้ว่าจะใช้ DeepSeek R1 GGUF แบบ Quantized เหลือ 2.51 bits ที่ทีม Unsloth เตรียมมาใช้ก็ยังต้องใช้ H100 หรือ H200 ประมาณ 3–4 GPUs เพื่อการ Inference นั่นคือราคาค่าเช่า GPU จะตกอยู่ประมาณ $8–$16 ต่อชั่วโมง (~$5,000–$10,000 ต่อเดือน)— ลูกค้าไม่เยอะขาดทุนทันที ลูกค้าเยอะกำไรก็จะยังไม่ได้มากมายอะไร
อีกหนึ่งเสียงมาจาก Pat Gelsinger อดีต CEO Intel ที่มองว่าตลาดตีความผิด เขากลับเชื่อว่าเทคโนโลยีที่ใช้ทรัพยากรน้อยลงอย่าง DeepSeek R1 จะทำให้ AI ถูกใช้งาน “กว้างขึ้น” มากกว่าจะลดความต้องการชิป เพราะแทนที่จะต้องใช้แต่ของแรง ๆ ราคาแพง ถ้าทำงานได้บนฮาร์ดแวร์เลเวลกลาง ๆ คนก็เข้าถึง AI ได้มากขึ้น และยิ่งกระตุ้นความต้องการรวม (Total Demand) ขึ้นอีกต่างหาก
DeepSeek vs. OpenAI: ประเด็น “ละเมิด Terms of Service”
มีการทดสอบ Prompt Injection โดยบางแหล่งแจ้งว่า DeepSeek อาจใช้โมเดล OpenAI เป็นฐาน (ผ่านเทคนิค Distillation) โดยผมเองก็พยายามทดสอบแต่ยังไม่เจอคำตอบที่ DeepSeek บอกออกมาว่าตัวมันคือ ChatGPT (โดยผมทดสอบจาก 3 ที่ คือบน DeepSeek.com, Fireworks และ Together AI ที่ให้บริการตัว 671B)
เป็นไปได้ว่าอาจจะเป็น Hallucination หรือเป็นการอำกันโดยใช้ System Prompt ซึ่งในกรณีของการ Distillation นั้น OpenAI เขียนเอาไว้ว่า การนำผลลัพธ์ของโมเดลไปฝึกโมเดลแข่ง ถือเป็นการละเมิด Terms of Service (ToS)
อัพเดต: จากการทดลองถามบนโมเดลตัวก่อนหน้า คือ DeekSeek V3 เจอผลลัพธ์นี้ครับ ซึ่งชัดเจนว่า DeepSeek V3 ใช้ output ของ OpenAI ในการเทรน
แต่การ “ละเมิด ToS” ผิดกฎหมายเลยมั้ย?
โดยทั่วไป “ละเมิด ToS” เป็นเรื่องละเมิดสัญญาระหว่างผู้ให้บริการกับผู้ใช้ หากพิสูจน์ได้จริง OpenAI อาจทำได้เพียงในระดับของการปิดกั้นการเข้าถึง (Ban Account)
หากสุดท้าย OpenAI จะเอาผิด DeepSeek จริง ๆ ก็ต้องเจอกับความท้าทายว่าบริษัทตั้งอยู่ในจีน ซึ่งกฎหมายสหรัฐฯ ไม่มีอำนาจบังคับใช้ในจีนโดยตรง ต้องอาศัยการประสานความร่วมมือระหว่างประเทศ หรือใช้มาตรการกดดันทางเศรษฐกิจ เช่น การแบนเทคโนโลยีหรือจำกัดการเข้าถึง API นอกจากนี้ จีนก็มี “Great Firewall” ที่จะช่วยป้องกันการตรวจสอบจากภายนอก
ควบคุมการส่งออกชิป: Dario Amodei อยากให้ “เข้มกว่าเดิม”
ในอีกแง่หนึ่ง Dario Amodei ซีอีโอ Anthropic มองว่าการเกิดขึ้นของ DeepSeek เป็นสัญญาณว่า จีนไม่ได้มาเล่น ๆ และอาจตามทันหรือก้าวนำในบางด้าน ซึ่งจะกระทบ “สมดุลอำนาจระดับโลก” สหรัฐฯ ควรเพิ่มมาตรการควบคุมการส่งออกชิป เพื่อลดโอกาสที่จีนจะเข้าถึง GPU นับล้านตัว แล้วสร้างโมเดล AI ระดับเดียวกับยักษ์ใหญ่ฝั่งอเมริกาได้ ผ่านแนวคิดที่ว่าการให้จีนมีเทคโนโลยี AI เทียบเท่า อาจเป็นภัยต่อโลกเสรี
นี่เป็นมุมมองทาง Geopolitics ที่ว่าทำไมการควบคุมชิปจึงอาจจะเข้มงวดขึ้นเรื่อย ๆ เพราะหากจีนมีทรัพยากรเต็มที่ การพัฒนา AI จะรวดเร็วกว่านี้หลายเท่า ซึ่งอาจทำให้เกิด “Bipolar AI World” ที่สองขั้วอำนาจ AI พลังพอ ๆ กัน และแข่งขันกันดุเดือด
Sam Altman ตอบโต้และย้ำ “เราพร้อมปล่อยของใหม่”
เมื่อโมเดล DeepSeek R1 ตีตลาดจนเป็นข่าวดัง Sam Altman ซีอีโอ OpenAI เลยออกมาบอกว่า เขาชื่นชมความก้าวหน้าของ DeepSeek และมองว่าการมีคู่แข่งจะผลักให้ OpenAI วิ่งเร็วขึ้นไปอีก เพื่อออกโมเดลใหม่ที่ “เหนือกว่า” ซึ่งวันนี้เราก็ได้คำตอบแล้วนั่นก็คือ o3-mini
“DeepSeek R1 น่าประทับใจ แต่รอดูโมเดลใหม่ของเราที่จะทำให้โลกทึ่ง”
พร้อมบอกใบ้ว่าตัวที่เหนือกว่า o3 ก็เกือบจะพร้อมแล้วที่จะทำให้โลกตื่นเต้นกันอีกรอบ
การแสดงความมั่นใจนี้บ่งบอกว่า OpenAI ไม่ได้มอง DeepSeek เป็นภัยคุกคามโดยตรง แต่เป็น “กระจกสะท้อน” ให้ต้องเร่งสปีด และ Altman ยังย้ำว่าพลังประมวลผลก็ยังเป็นกุญแจสำคัญที่ทาง OpenAI จะรุกหนักต่อ
สรุปกันเฉพาะสัปดาห์นี้ก่อน
- ถ้าอยากใช้ DeepSeek มีให้ใช้ตั้งแต่ราคา $2 กว่า, $7 (Together AI) และ $8 (Fireworks AI)
- มี o3-mini ให้ใช้แล้วใน ChatGPT ถ้าเป็น API ก็ $2 กว่า ๆ
- ตลาดขยายตัวอีกแน่นอน การกีดกันด้านเทคและ AI Chip น่าจะรุนแรงขึ้น
- ตอนนี้ผู้ใช้ปลายทางได้ประโยชน์เต็ม ๆ
- Startup ที่เป็น GPT Wrapper ทั้งหลาย อาจได้ทั้งประโยชน์และทั้งโดน Disrupt — User Experience คงเป็นตัวตัดสิน — โดยเฉพาะการให้ความเห็นทางการแพทย์ (use case ที่ใช้เป็นการส่วนตัว) ตอนนี้ o3-mini และ DeepSeek นั้นกินขาด ทำได้ดีมากทั้งคู่ สงสัยว่าน่าจะมี Text Book หมอหลายเล่มอยู่ใน DataSet
- ถ้าองค์กรที่มีทุน เช่น Banks ควรมีเทคด้าน Model เป็นของตัวเอง — ซึ่งก็น่ายินดีที่ธนาคารบ้านเรามากกว่าหนึ่งที่สามารถเทรนโมเดลเองได้