ทำไมสตาร์ตอัปญี่ปุ่นเลือก Qwen ของจีน แทนที่จะใช้โมเดล AI ตะวันตก?

Qwen เจาะญี่ปุ่นได้อย่างไร? สตาร์ตอัปเลือกพัฒนาเอไอบนพื้นฐานโมเดลจีน แทนที่จะใช้โมเดลตะวันตก อาลีบาบาเตรียมติดตั้งเซิร์ฟเวอร์ในญี่ปุ่น หวังขยายฐานลูกค้า Qwen ให้ถึง 1,000 บริษัทภายใน 3 ปี
วงการเอไอญี่ปุ่นกำลังเกิดปรากฏการณ์ที่น่าสนใจ เพราะสตาร์ตอัปจำนวนมากหันมาเลือกพัฒนาผลิตภัณฑ์ของตนด้วยการใช้โมเดลจากประเทศจีนเป็นรากฐาน แทนที่จะใช้โมเดลจากยักษ์ใหญ่ตะวันตก โดยตัวเอกของเรื่อง คือ “Qwen” โมเดลภาษาอัจฉริยะจากค่ายอาลีบาบา
Qwen ชุดโมเดลภาษาขนาดใหญ่ (Large Language Model หรือ LLM) ที่พัฒนาโดย อาลีบาบา คลาวด์ บริษัทเทคโนโลยียักษ์ใหญ่จากประเทศจีน กำลังกลายเป็นรากฐานสำคัญในการพัฒนาเอไอรุ่นใหม่ๆ ในญี่ปุ่น โดยเฉพาะในกลุ่มสตาร์ตอัปที่ต้องการสร้างโมเดลของตัวเองผ่านบริการโอเพนซอร์ส
Qwen ได้รับการออกแบบให้สามารถเข้าใจ วิเคราะห์ และสร้างเนื้อหาภาษาธรรมชาติได้อย่างซับซ้อน ซึ่งมีความสามารถใกล้เคียงกับโมเดลระดับแนวหน้าอย่าง GPT ของ OpenAI หรือ Gemini ของ Google
สิ่งที่ทำให้ Qwen ได้รับความนิยมอย่างรวดเร็วในญี่ปุ่น คือ การที่อาลีบาบาเปิดให้ใช้งานในรูปแบบโอเพนซอร์ส ซึ่งเอื้อให้นักพัฒนาสามารถเข้าถึงโค้ด และโครงสร้างของโมเดลได้โดยตรง จากนั้นจึงนำไปปรับแต่ง ฝึกฝนเพิ่มเติม และพัฒนาต่อยอดเพื่อสร้างโมเดลใหม่ที่ตอบโจทย์ความต้องการเฉพาะทางได้มากขึ้น
หนึ่งในตัวอย่างสำคัญคือ Abeja บริษัทพัฒนาระบบวิเคราะห์พื้นที่ทางกายภาพ ได้เปิดตัวโมเดล “QwQ-32B Reasoning Model” เมื่อวันที่ 17 เมษายน 2568 โดยใช้ Qwen เป็นต้นแบบในการพัฒนา ผลลัพธ์ที่ได้คือ โมเดลที่มีความสามารถสูงในการเชื่อมโยงข้อมูล และเหตุผลเพื่อการตัดสินใจที่ซับซ้อนยิ่งขึ้น
จากการจัดอันดับโดย Nikkei Digital Governance ร่วมกับแพลตฟอร์ม Weights & Biases จากสหรัฐ พบว่า โมเดลแบบปิดอย่าง Qwen2.5-Max ที่เปิดตัวเมื่อเดือนมกราคม ที่ผ่านมา สามารถทำคะแนนขึ้นมาอยู่ในอันดับที่ 6 จากโมเดลทั้งหมด 113 ตัว
โดยการจัดอันดับนี้เน้นประเมินประสิทธิภาพในการใช้ภาษาญี่ปุ่นโดยเฉพาะ ซึ่ง Qwen2.5-Max มีความสามารถในด้านไวยากรณ์ การใช้เหตุผลเชิงตรรกะ และความสามารถทางคณิตศาสตร์ โดยสามารถเอาชนะโมเดลที่มีชื่อเสียงอย่าง DeepSeek จากจีนได้อีกด้วย
ด้านโมเดลเปิดของ Qwen อย่าง Qwen2.5-32B ได้รับการจัดอันดับที่ 26 ในการจัดอันดับของ Nikkei ซึ่งสูงกว่าโมเดลเอไอเปิดของ Google อย่าง Gemma-3-27B ที่อยู่อันดับที่ 32 และ Llama 3 70B Instruct ของ Meta ที่อยู่ในอันดับที่ 57
สำหรับโมเดลเหล่านี้ บริษัทภายนอกสามารถนำไปฝึกฝนต่อเพื่อพัฒนาเป็นเอไอของตัวเองได้ ยกตัวอย่างเช่น Abeja-Qwen2.5-32B ซึ่งเป็นโมเดลญี่ปุ่นที่ได้รับการจัดอันดับสูงสุด (อันดับที่ 21) ก็พัฒนาขึ้นโดยใช้ Qwen เป็นพื้นฐานเช่นเดียวกัน
นอกจาก Abeja แล้ว ยังมีสตาร์ตอัปญี่ปุ่นอีกหลายแห่งที่ได้เปิดตัวหรือกำลังพัฒนาโมเดลบนพื้นฐานของ Qwen เช่น Elyza และ Lightblue ซึ่งทั้งคู่มีรากฐานมาจากมหาวิทยาลัยโตเกียว รวมไปถึง Axcxept ด้วย
ลี่ จือฮุย (Li Zhihui) นักวิเคราะห์จากสถาบันวิจัย Nomura อธิบายว่า Qwen มีความสามารถให้ผลลัพธ์ที่มีความแม่นยำสูง แม้จะใช้ชุดข้อมูลขนาดเล็ก ส่งผลให้ได้รับการยกย่องอย่างมากในด้านความเชี่ยวชาญภาษาญี่ปุ่นตามเกณฑ์วัดประสิทธิภาพหลายรูปแบบ
ความนิยมของ Qwen ไม่ได้จำกัดอยู่เพียงในญี่ปุ่นเท่านั้น แต่ยังได้รับความสนใจอย่างมากในระดับโลกด้วย ทางอาลีบาบาได้เปิดเผยว่า มีโมเดลที่พัฒนาต่อยอดจาก Qwen มากกว่า 100,000 โมเดลบนเว็บไซต์แบ่งปันซอฟต์แวร์ Hugging Face ซึ่งเมื่อเทียบกับโมเดลเปิดอื่นๆ จากจีน ความสามารถของ Qwen ได้รับการยอมรับในระดับสูง
ปัจจัยสำคัญที่ทำให้ Qwen ประสบความสำเร็จในญี่ปุ่นอย่างรวดเร็ว คือ ความสามารถพิเศษในการทำความเข้าใจภาษาญี่ปุ่นได้อย่างลึกซึ้ง แม้จะเป็นโมเดลที่พัฒนาโดยบริษัทจีน แต่ Qwen ได้รับการฝึกฝนด้วยข้อมูลภาษาญี่ปุ่นจำนวนมาก จึงมีความสามารถประมวลผลไวยากรณ์ และบริบททางวัฒนธรรมที่ซับซ้อนของภาษาญี่ปุ่นอย่างมีประสิทธิภาพ
นับเป็นข้อได้เปรียบที่สำคัญเมื่อเทียบกับโมเดลจากประเทศตะวันตกหลายตัวที่อาจไม่ได้ให้ความสำคัญกับภาษาเอเชียมากนัก
อีกจุดแข็งหนึ่งของ Qwen คือ ประสิทธิภาพสูง แม้จะใช้ทรัพยากรการประมวลผลที่น้อยกว่า ทำให้บริษัทขนาดเล็กอย่างสตาร์ตอัปญี่ปุ่นสามารถนำไปประยุกต์ใช้ได้โดยไม่จำเป็นต้องลงทุนในฮาร์ดแวร์ราคาแพงมากเกินไป
อย่างไรก็ตาม บริษัทญี่ปุ่นยังคงให้ความสำคัญกับความเป็นส่วนตัว และความปลอดภัยของข้อมูลเป็นอย่างมาก ซึ่งความร่วมมือระหว่างอาลีบาบากับบริษัทญี่ปุ่นที่มีแผนจะติดตั้งโมเดลบนเซิร์ฟเวอร์ในประเทศญี่ปุ่นเอง จะช่วยลดความกังวลเกี่ยวกับความเสี่ยงในการรั่วไหลของข้อมูลสำคัญไปยังต่างประเทศได้
มาซาฮิโระ โยซาโนะ (Masahiro Yosano) ผู้บริหารอาลีบาบา คลาวด์ ประจำญี่ปุ่น เปิดเผยว่า ทางบริษัทกำลังอยู่ในช่วงเจรจากับบริษัทญี่ปุ่นหลายแห่ง โดยตั้งเป้าหมายว่าจะเพิ่มจำนวนบริษัทที่ใช้งาน Qwen ให้มากกว่า 1,000 แห่งภายในระยะเวลาสามปี
ล่าสุด อาลีบาบาได้เปิดตัวซีรีส์โมเดลรุ่นใหม่ล่าสุดอย่าง Qwen3 เมื่อวันที่ 29 เมษายน 2568 โดยโมเดลนี้ได้รับการฝึกฝนด้วยจำนวนโทเค็น (หน่วยพื้นฐานของข้อมูลที่โมเดลภาษาขนาดใหญ่ใช้ในการประมวลผล) มากถึงประมาณ 36 ล้านล้าน ซึ่งมากกว่า Qwen2.5 ถึงประมาณสองเท่า
นอกจากนี้ Qwen ยังได้รับการปรับปรุง และพัฒนาอย่างต่อเนื่อง จนปัจจุบันสามารถรองรับได้ถึง 119 ภาษาทั่วโลก
อ้างอิง: Asia Nikkei
พิสูจน์อักษร....สุรีย์ ศิลาวงษ์







