วันอาทิตย์ ที่ 10 พฤษภาคม 2569

Login
Login

'เอไอ' เริ่มชน 'กำแพงระบบ' สวนทางการใช้งานที่พุ่งสูงขึ้นทั่วโลก

'เอไอ' เริ่มชน 'กำแพงระบบ' สวนทางการใช้งานที่พุ่งสูงขึ้นทั่วโลก

องค์กรเร่งใช้ AI ในระดับโปรดักชันมากขึ้น แต่ความซับซ้อนของโครงสร้างพื้นฐาน ระบบเอเจนต์ และภาระประมวลผลที่เพิ่มขึ้น กำลังกลายเป็นโจทย์ใหม่ที่หลายองค์กรต้องเร่งรับมือ

ช่วงไม่กี่ปีที่ผ่านมา AI ได้ก้าวจากเทคโนโลยีทดลองสู่เครื่องมือสำคัญทางธุรกิจอย่างรวดเร็ว หลายองค์กรเร่งนำ AI เข้ามาใช้ทั้งในงานบริการลูกค้า การวิเคราะห์ข้อมูล การพัฒนาซอฟต์แวร์ ไปจนถึงระบบอัตโนมัติระดับองค์กร ท่ามกลางการแข่งขันที่กดดันให้ทุกฝ่ายต้องเดินหน้าเร็วกว่าเดิม

อย่างไรก็ตาม เมื่อ AI เริ่มถูกใช้งานจริงในระดับโปรดักชัน ความท้าทายใหม่ที่หลายองค์กรกำลังเผชิญกลับไม่ใช่เรื่อง “ความสามารถของโมเดล” เพียงอย่างเดียว แต่เป็น “การบริหารจัดการระบบเบื้องหลัง” ที่ซับซ้อนขึ้นเรื่อย ๆ ทั้งด้านโครงสร้างพื้นฐาน การควบคุมเวิร์กโฟลว์ และเสถียรภาพของระบบเมื่อมีการใช้งานในวงกว้าง

รายงานล่าสุด “State of AI Engineering 2026” จาก Datadog ผู้ให้บริการแพลตฟอร์มด้าน Observability และ Security ระบุว่า เมื่อองค์กรเริ่มนำ AI เข้าสู่ระบบงานจริงในระดับโปรดักชัน ปัญหาที่เกิดขึ้นกลับอยู่ที่การควบคุม ดูแล และบริหารโครงสร้างพื้นฐานให้รองรับการทำงานได้อย่างเสถียรในระยะยาว

แม้ประเทศไทยจะเป็นหนึ่งในตลาดที่มีการนำ AI ไปใช้งานรวดเร็วในอาเซียน ใกล้เคียงกับมาเลเซียและอินโดนีเซีย แต่ยังพบช่องว่างสำคัญด้าน “ความพร้อมเชิงปฏิบัติการ” เมื่อเทียบกับตลาดที่มีความก้าวหน้ามากกว่าอย่างสิงคโปร์

สอดคล้องกับสถิติโลกที่พบ 1 ใน 20 ของคำสั่ง AI ล้มเหลวระหว่างโปรดักชัน โดยมี “ข้อจำกัดด้านกำลังรองรับของระบบ” เป็นคอขวดสำคัญที่ฉุดรั้งการขยายสเกล

AI โตเร็ว แต่ระบบเริ่มรับภาระหนัก

ข้อมูลจากรายงาน ซึ่งวิเคราะห์พฤติกรรมการใช้งาน AI ขององค์กรนับพันแห่งทั่วโลก พบว่า ปัจจุบัน 69% ขององค์กรมีการใช้งาน AI ตั้งแต่ 3 โมเดลขึ้นไป พร้อมกันนั้นยังเริ่มพัฒนา Agent Workflows หรือระบบเอเจนต์อัตโนมัติที่มีความซับซ้อนมากขึ้น ส่งผลให้ภาระด้านการจัดการระบบเพิ่มขึ้นตามไปด้วย

หนึ่งในประเด็นที่น่ากังวลคือ ประมาณ 5% ของคำสั่งที่ส่งไปยัง AI เกิดความล้มเหลวระหว่างการใช้งานจริง โดยกว่า 60% ของปัญหาเหล่านี้เกิดจาก “ข้อจำกัดด้านกำลังรองรับของระบบ”

ไม่ว่าจะเป็นทรัพยากรประมวลผลไม่เพียงพอ การจัดสรรโหลดที่ไม่มีประสิทธิภาพ หรือโครงสร้างพื้นฐานที่รองรับปริมาณงานได้ไม่ทัน ส่งผลให้ระบบตอบสนองช้าลง เกิดข้อผิดพลาด และกระทบต่อประสบการณ์ใช้งานของผู้ใช้ปลายทาง

รายงานยังสะท้อนแนวโน้มสำคัญหลายด้านของอุตสาหกรรม AI ในปี 2569 โดยเฉพาะการเข้าสู่ยุค “Multi-model” อย่างชัดเจน องค์กรจำนวนมากเริ่มลดการพึ่งพาโมเดลเพียงรายเดียว แม้ OpenAI จะยังมีสัดส่วนการใช้งานสูงสุดที่ 63%

แต่คู่แข่งอย่าง Google Gemini และ Anthropic Claude กำลังเติบโตอย่างรวดเร็ว ด้วยอัตราการใช้งานที่เพิ่มขึ้น 20% และ 23% ตามลำดับ

ขณะเดียวกัน การใช้งานเครื่องมือกลุ่ม Agent Frameworks เพิ่มขึ้นเกือบเท่าตัวภายในหนึ่งปี แม้จะช่วยเร่งการพัฒนาแอปพลิเคชัน AI ได้รวดเร็วขึ้น แต่ก็ทำให้ระบบมีองค์ประกอบที่ต้องดูแลมากขึ้น หรือเกิด “Moving Parts” ในระดับโปรดักชัน ส่งผลให้ความซับซ้อนด้านการปฏิบัติการเพิ่มขึ้นตามไปด้วย

อีกเทรนด์ที่เห็นชัดคือ ปริมาณข้อมูลที่ส่งให้ AI ประมวลผลต่อหนึ่งคำสั่งเพิ่มสูงขึ้นต่อเนื่อง โดยจำนวนโทเค็นเฉลี่ยต่อคำขอเพิ่มขึ้นมากกว่าสองเท่าในกลุ่มผู้ใช้งานระดับกลาง และเพิ่มขึ้นถึง 4 เท่าในกลุ่มองค์กรที่ใช้งาน AI เข้มข้น ซึ่งสะท้อนว่าภาระต่อโครงสร้างพื้นฐานกำลังเพิ่มขึ้นอย่างรวดเร็ว

จากยุคคลาวด์ สู่ยุค AI Operations

ยานบิง ลี ประธานเจ้าหน้าที่ฝ่ายผลิตภัณฑ์ของ Datadog เปรียบเทียบว่า สถานการณ์ของ AI ในปัจจุบันมีความคล้ายคลึงกับช่วงเริ่มต้นของยุคคลาวด์

คลาวด์ทำให้ทุกอย่างถูกควบคุมผ่านซอฟต์แวร์มากขึ้น แต่ก็ทำให้การบริหารจัดการซับซ้อนขึ้นอย่างมหาศาล และตอนนี้ AI ก็กำลังสร้างผลกระทบในลักษณะเดียวกันในระดับแอปพลิเคชัน

เธอมองว่า องค์กรที่จะได้เปรียบในการแข่งขันต่อจากนี้ อาจไม่ใช่ผู้ที่มีโมเดล AI ที่ดีที่สุดเพียงอย่างเดียว แต่เป็นผู้ที่สามารถควบคุม ดูแล และมองเห็นการทำงานของระบบ AI ได้อย่างครบวงจร

AI Observability จะกลายเป็นสิ่งจำเป็นไม่ต่างจาก Cloud Observability เมื่อสิบปีก่อน

ความเสี่ยงใหม่ของยุค Agentic AI

กิเยร์โม เราช์ ประธานเจ้าหน้าที่บริหารของ เวอร์เซล (Vercel) ผู้พัฒนาแพลตฟอร์ม Next.js มองว่า ความเสี่ยงสำคัญของระบบ AI รุ่นใหม่ โดยเฉพาะระบบเอเจนต์อัตโนมัติ จะไม่ได้อยู่ที่ความสามารถของโมเดล แต่เป็น “ปัญหาที่ทีมพัฒนามองไม่เห็น”

เขาระบุว่า ระบบเอเจนต์มีลักษณะต่างจากซอฟต์แวร์แบบดั้งเดิม เพราะลำดับการทำงานจำนวนมากถูกกำหนดโดย LLM เอง ทำให้เส้นทางการทำงานเปลี่ยนแปลงได้ตลอดเวลา และยากต่อการติดตามตรวจสอบ

สำหรับระบบแบบนี้ Observability ไม่ใช่แค่สิ่งที่ควรมี แต่เป็นสิ่งจำเป็น

ทั้งนี้ Datadog มองว่า เมื่อ AI เริ่มขยายตัวสู่ระดับองค์กรเต็มรูปแบบ ความท้าทายสำคัญจะไม่ใช่เพียงเรื่อง “สร้าง AI ให้ฉลาดขึ้น” แต่คือ “ทำอย่างไรให้ระบบทำงานได้อย่างเสถียรในระยะยาว” ตั้งแต่ระดับฮาร์ดแวร์ เช่น การใช้งาน GPU ไปจนถึงระดับซอฟต์แวร์และเวิร์กโฟลว์ของเอเจนต์

ท้ายที่สุด เมื่อการแข่งขันด้านโมเดลเริ่มไล่ทันกันมากขึ้น “ความสามารถในการปฏิบัติการและควบคุมระบบ AI” อาจกลายเป็นปัจจัยตัดสินสำคัญขององค์กรในยุค AI เต็มรูปแบบ มากกว่าตัวโมเดลเพียงอย่างเดียว