DeepSeek มีเพื่อนร่วมทาง ‘ญี่ปุ่น’ หันมาพัฒนา AI ขนาดเล็กแต่ทรงพลัง

DeepSeek มีเพื่อนร่วมทาง ‘ญี่ปุ่น’ หันมาพัฒนา AI ขนาดเล็กแต่ทรงพลัง

AI ยักษ์ vs AI กะทัดรัด: หลายบริษัทในญี่ปุ่นหันหลังให้การแข่งสร้างโมเดลใหญ่ หลังจีนพิสูจน์ว่าโมเดลเล็กก็ทำงานได้ดีเยี่ยม หันมาเน้นพัฒนา AI ขนาดเล็กแต่มีประสิทธิภาพอย่างจริงจังแทน

KEY

POINTS

  • ญี่ปุ่นหันมาพัฒนาเอไอประสิทธิภาพสูงขนาดเล็กอย่างจริงจัง ตามแนวทาง DeepSeek แทนการลงทุนมหาศาลกับโมเดลใหญ่
  • Tsuzumi เอไอญี่ปุ่นใช้พารามิเตอร์เพียง 600 ล้าน แต่เอาชนะ ChatGPT-3.5 ในการประมวลผลภาษาญี่ปุ่น
  • แซม อัลต์แมน ซีอีโอ OpenAI เชื่อว่า “AI แพงๆ ก็คุ้ม เพราะผลตอบแทนยิ่งใหญ่มาก”
  • หลายบริษัทเริ่มเห็นว่าการลงทุนแบบไม่จำกัดอาจไม่ยั่งยืน แม้แต่ OpenAI เองก็ยังไม่มีกำไร และคาดว่าจะเริ่มมีกระแสเงินสดเป็นบวกก็ปี 2572

การเปิดตัวของ DeepSeek โมเดลเอไอขนาดกะทัดรัดจากจีน ที่ใช้ต้นทุน และทรัพยากรที่ต่ำกว่าโมเดลใหญ่ๆ แต่ให้ความสามารถเทียบเท่ากัน ทำให้ประเทศเพื่อนบ้านอย่าง “ญี่ปุ่น” นำแนวคิดนี้มาปรับใช้อย่างจริงจัง บริษัทหลายแห่งหันหลังให้กับการแข่งขันสร้างโมเดลยักษ์แบบบริษัทในสหรัฐ มาเน้นพัฒนา “เอไอขนาดกะทัดรัด” ที่ตอบโจทย์ข้อจำกัดด้านทรัพยากร และพลังงานของประเทศ

ทากาโนบุ โอบะ (Takanobu Oba) ผู้อำนวยการห้องปฏิบัติการ Human Insight Laboratory ของบริษัทโทรคมนาคม NTT กล่าวกับสำนักข่าว Nikkei Asia ว่า “เมื่อทรัพยากรจำกัด ทุกอย่างเล็กกว่า เราจำเป็นต้องคิดให้แตกต่างออกไป”

การพัฒนาโมเดลเอไอขนาดใหญ่ต้องใช้ทรัพยากรการประมวลผลมหาศาล โดยเฉพาะการใช้ชิปประมวลผลกราฟิก (GPU) จำนวนมาก ซึ่งมีราคาแพง อย่างเช่น ชิป H100 จากบริษัทอินวิเดียที่นิยมใช้ในการฝึกโมเดลเอไอชั้นสูง มีราคา 30,000 ถึง 35,000 ดอลลาร์ต่อชิ้น (ประมาณ 1-1.2 ล้านบาท) ซึ่งการฝึกโมเดลขนาดใหญ่อย่าง GPT-4 นั้นต้องใช้ GPU จำนวนหลายพันหรือหลายหมื่นชิ้น ทำให้ต้นทุนพุ่งสูงถึงหลายร้อยล้านหรือพันล้านดอลลาร์

นอกจากนี้ ยังมีค่าใช้จ่ายด้านไฟฟ้า ระบบทำความเย็น และโครงสร้างพื้นฐานอื่นๆ อีกมากมายที่ต้องคำนึงถึง

“สึสึมิ (Tsuzumi)” เป็นหนึ่งในตัวอย่างที่เลือกทางเดินแบบโมเดลขนาดเล็ก พัฒนาโดย NTT ในปี 2567 เป็นโมเดลพื้นฐานสำหรับแชตบอตเอไอซึ่งมีขนาดเล็กมากเมื่อเทียบกับ ChatGPT ของ OpenAI โดยเวอร์ชันเล็กสุดใช้พารามิเตอร์เพียง 600 ล้านตัว เทียบกับโมเดลระดับท็อปของโลกที่อาจมีพารามิเตอร์เกิน 1 ล้านล้านตัว

แต่ Tsuzumi กลับทำงานได้ดีในบางด้าน เช่น ประมวลผลภาษาญี่ปุ่นได้แม่นยำกว่า ChatGPT-3.5 ด้วยอัตราชนะ 81.3% ในการทดสอบโดยนักวิจัยอิสระ นอกจากนี้ Tsuzumi ยังหมายถึงกลองญี่ปุ่นขนาดเล็ก สื่อถึงความกะทัดรัดแต่ทรงพลัง

เคิร์ก บูดรี (Kirk Boodry) นักวิเคราะห์จาก Astris Advisory Japan อธิบายว่า เนื่องจากญี่ปุ่นนำเข้าพลังงานมากกว่า 80% ประเทศนี้จึงมีข้อจำกัดในการขยายโครงข่ายไฟฟ้า ทำให้ไม่สามารถรองรับการใช้พลังงานมหาศาลที่จำเป็นสำหรับการประมวลผลโมเดลเอไอขนาดใหญ่ได้

ดังนั้น แทนที่จะแข่งขันสร้างโมเดลใหญ่แบบตะวันตก บริษัทญี่ปุ่นจึงหันมามุ่งเน้นการพัฒนาโมเดลที่มีขนาดเล็กลงแต่มีประสิทธิภาพสูง และตอบโจทย์การใช้งานเฉพาะทางมากขึ้น นี่คือตัวอย่างของการปรับตัวให้เข้ากับข้อจำกัดด้านทรัพยากรที่มีอยู่

การมาของ DeepSeek-R1 

เดวิด ฮา (David Ha) ซีอีโอของ Sakana AI มองว่า โมเดลเอไอขนาดใหญ่เป็น “สินทรัพย์ที่มีค่าเสื่อมราคาเร็วที่สุดในประวัติศาสตร์มนุษย์” เนื่องจากเอไอก้าวหน้าเร็ว ทำให้โมเดลรุ่นใหม่ทำให้รุ่นเก่าก็ล้าอย่างรวดเร็วเช่นเดียวกัน การลงทุนมหาศาลในโมเดลขนาดใหญ่จึงมีความเสี่ยงสูง โดยเฉพาะสำหรับบริษัทที่มีทรัพยากรจำกัด 

“ปีก่อนๆ ทุกคนสนแต่เงิน เน้นสร้าง Data Center จนลืมนวัตกรรม แต่ DeepSeek และเราแสดงให้เห็นว่า คุณต้องมีทั้งสองอย่าง” เดวิดกล่าว และเสริมว่า “โมเดลใหญ่ๆ เสื่อมค่าลงเร็วมาก ถ้าเทียบกับประวัติศาสตร์มนุษย์ ก็เหมือนซื้อรถหรูแล้วราคาตกในปีเดียว”

DeepSeek-R1 เป็นโมเดลเอไอจากสตาร์ตอัปจีนที่เปิดตัวเมื่อเดือนมกราคม 2568 ได้สร้างความประหลาดใจให้กับวงการเทคโนโลยีในซิลิคอนวัลเลย์ และวอลล์สตรีท หลังจากที่บริษัทอ้างว่าโมเดลนี้สามารถทำงานได้ในระดับที่ใกล้เคียงกับโมเดล o1 ของ OpenAI แต่ใช้ต้นทุนเพียงเศษเสี้ยวเท่านั้น

การเปิดตัวของ DeepSeek-R1 ทำให้เกิดข้อสงสัยเกี่ยวกับการแข่งขันลงทุนมหาศาลเพื่อเพิ่มจำนวนพารามิเตอร์ ซึ่งรวมถึงโครงการของ OpenAI ที่วางแผนลงทุนหลายแสนล้านดอลลาร์ในศูนย์ข้อมูลผ่านโครงการ Stargate ของ SoftBank

AI ยักษ์ vs AI กะทัดรัด 

ศาสตราจารย์นาโอกิ โอคาซากิ (Naoaki Okazaki) จากสถาบันเทคโนโลยีโตเกียวให้ความเห็นว่า “ถ้าโมเดลมีขนาดใหญ่เกินไป มันก็ใช้ยาก ต้นทุนสูงขึ้น ต้องใช้ฮาร์ดแวร์ประสิทธิภาพสูง แต่ถ้าขนาดประมาณ 8-10 พันล้านพารามิเตอร์ จะใช้งานง่ายกว่า และทำงานได้ดีพอสมควร”

อย่างไรก็ตาม ศาสตราจารย์นาโอกิ ยังกล่าวเพิ่มเติมว่า สิ่งที่มักจะดึงดูดความสนใจ หรือเรียกว่าเป็นไฮไลต์ คือการพัฒนาโมเดลขนาดใหญ่ แต่จากมุมมองในทางปฏิบัติ โมเดลขนาดเล็กที่ได้รับการปรับปรุงให้เหมาะกับภาษาท้องถิ่น คือ ทางออกที่มีประสิทธิภาพมากกว่า

ขณะที่บริษัทใหญ่ในสหรัฐ ลงทุนมหาศาลกับเอไอขนาดยักษ์ เช่น โครงการ Stargate ของ OpenAI ที่อาจใช้งบถึง แสนล้านดอลลาร์ ญี่ปุ่นกลับมองว่า “การแข่งขันแบบนี้ไม่ยั่งยืน”

ด้านแซม อัลต์แมน (Sam Altman) ซีอีโอของ OpenAI กล่าวในการเสวนาที่โตเกียวเมื่อเดือนกุมภาพันธ์ ว่า โมเดลเอไอที่มีราคาแพงยังคงสามารถให้ผลตอบแทนที่เพียงพอได้ 

“ผมคิดว่าผู้คนส่วนใหญ่ยังไม่เข้าใจอย่างถ่องแท้ว่าผลตอบแทนจากเอไอขั้นสูงนั้นมีการเพิ่มขึ้นแบบทวีคูณ ถึงแม้ว่าต้นทุนก็จะเพิ่มขึ้นในลักษณะเดียวกัน แต่เอไอขนาดใหญ่ยังคงให้ผลตอบแทนที่สูงมาก” แซม กล่าว

แต่ในทางปฏิบัติ หลายบริษัทเริ่มตระหนักแล้วว่าการลงทุนแบบไม่มีขีดจำกัดอาจไม่มีความยั่งยืนในระยะยาว แม้แต่ OpenAI เองก็ยังไม่สามารถทำกำไรได้ และมีการคาดการณ์ว่าจะเริ่มมีกระแสเงินสดเป็นบวกได้ก็ต่อเมื่อถึงปี 2572 เท่านั้น

ขณะที่ทั่วโลกยังถกเถียงกันต่อเนื่องว่าการแข่งขันพัฒนาเอไอรูปแบบนี้จะจบลงที่ไหน และอย่างไร ประเทศญี่ปุ่น และจีนกำลังส่งสัญญาณให้ทั่วโลกได้รับรู้ว่ายังมีทางเลือกอื่นอยู่ และทางเลือกเหล่านั้นอาจเป็นแนวทางที่มีความสมเหตุสมผลมากกว่าในยุคปัจจุบันที่ “ประสิทธิภาพ” มีความสำคัญมากกว่า “ขนาด”

 

 

อ้างอิง: Asia Nikkei

พิสูจน์อักษร....สุรีย์   ศิลาวงษ์