บทเรียนจากโครงการปัญญาประดิษฐ์ที่ล้มเหลว

จากผลการศึกษาของ RAND Corporation เกี่ยวกับความล้มเหลวของโครงการปัญญาประดิษฐ์ในสหรัฐอเมริกาที่เผยแพร่ออกมาช่วงกลางปี 2567 แม้ว่าบริบทด้านปัญญาประดิษฐ์ปัจจุบันจะเปลี่ยนแปลงไปมากแล้ว
แต่เราน่าจะยังสามารถเรียนรู้จากเอกสารดังกล่าวแล้วนำมาปรับใช้ เพื่อเพิ่มโอกาสให้โครงการด้าน AI ประสบผลสำเร็จมากขึ้น รวมถึงช่วยเสริมสร้างวิสัยทัศน์ให้เหมาะสมกับบริบทของไทยเรา
ในเบื้องต้นความท้าทายที่สังเกตเห็นคือ สถิติของ RAND ระบุว่าประมาณ 80% ของโครงการ AI (เขาศึกษา AI ทุกประเภททั้ง Predictive และ Generative AI ที่ใช้ในภาคธุรกิจและด้านวิชาการ) ไม่ประสบผลสำเร็จ (เขาศึกษา AI ทุกประเภททั้ง predictive และ generative AI ที่ใช้ในภาคธุรกิจและด้านวิชาการ)
แต่สถิติล่าสุดจาก MIT NANDA สำหรับปี 2568 กลับกลายเป็นว่า 95% ของโครงการนำร่อง Generative AI ไม่ประสบผลสำเร็จ มีอัตราผลตอบแทนจากการลงทุนในโครงการเป็นศูนย์ อาการหนักกว่าเดิมแบบนี้เป็นไปได้อย่างไรกัน
RAND ใช้แนวทางการศึกษาโดยวิธีสัมภาษณ์เชิงลึกผู้เชี่ยวชาญที่มีประสบการณ์ด้าน AI อย่างน้อย 5 ปี ทำงานอยู่ในหลากหลายอุตสาหกรรมและขนาดธุรกิจตั้งแต่สตาร์ตอัปจนถึงองค์กรขนาดใหญ่ และยังมีจากภาควิชาการด้วย ผลการศึกษาพบว่าสาเหตุหลักที่ทำให้โครงการ AI ล้มเหลวมีอยู่ 5 ประการดังนี้
1.ความล้มเหลวที่เกิดจากภาวะผู้นำ (Leadership-Driven Failures) – เริ่มจากประเด็นที่ผู้บริหารตั้งโจทย์ด้วยคำถามว่า “เราจะเอา AI มาทำอะไรได้บ้าง” แทนการถามว่า “ปัญหาเร่งด่วนและสำคัญที่สุดที่เราต้องแก้คืออะไร” แล้วตัวชี้วัดผลลัพท์ของโครงการที่เหมาะสมคืออะไร เพื่อให้สะท้อนผลกระทบทางบวกต่อธุรกิจที่ชัดเจน
ประกอบกับความคาดหวังต่อ AI ที่สูงเกินไป เพราะคำตอบจาก AI แท้จริงแล้วจะอยู่ในรูปแบบของความน่าจะเป็น (probabilistic) ไม่มีอะไรที่มั่นใจได้ 100% ในโลกของ AI ได้เลย
นอกจากนี้ผู้บริหารยังคาดหวังและกดดันให้เห็นผลอย่างรวดเร็วก็กลายเป็นความท้าทายอีกประการหนึ่งที่จะทำให้โครงการล้มเหลว
2.ความล้มเหลวจากการขับเคลื่อนจากล่างขึ้นบน (Bottom-Up-Driven Failures) - กรณีนี้จะสลับกับข้อแรก เรียกว่าเกิดจากความท้าทายของทีมเทคนิคที่ “อยากลองของ” จึงมุ่งเน้นไปที่การใช้เทคโนโลยีล้ำยุคทันสมัยล่าสุด เพื่อเรียนรู้และสะสมประสบการณ์ใหม่ ๆ ให้กับตนเอง ทำให้ทีมงานมุ่งเป้าไปที่เทคโนโลยีแทนเป้าทางธุรกิจ
3.ความล้มเหลวที่ขับเคลื่อนด้วยข้อมูล (Data-Driven Failures) - หัวข้อนี้มีความสำคัญเป็นลำดับที่สองรองจากการตั้งโจทย์ เพราะคุณภาพของข้อมูลคือ หัวใจของโครงการ AI พอจะประเมินได้ว่าองค์กรส่วนใหญ่ “ขาดข้อมูลคุณภาพสูงในจำนวนที่มากพอ” สำหรับการฝึกฝน AI Model ให้มีประสิทธิภาพ แม้จะตั้งโจทย์ถูกต้อง แต่ไม่มีข้อมูลที่มีคุณภาพก็ล้มเหลว
ในรายงานสรุปว่า 80% ของเวลาที่ใช้ในโครงการจะพัวพันอยู่กับการจัดการข้อมูลนี่เอง ประกอบกับการขาดแคลนบุคลากรทั้ง Data scientist และ Data engineer รวมถึงผู้เชี่ยวชาญเฉพาะด้านที่จะอธิบายความหมายของข้อมูลให้กับทีมงานก็มีผลเช่นกัน
4.ความล้มเหลวที่เกิดจากการลงทุนในโครงสร้างพื้นฐานไม่เพียงพอ (Failures Due to Underinvestment in Infrastructure) – เริ่มตั้งแต่การกำกับดูแลข้อมูล (Data governance) และการนำ AI ไปใช้จริง รวมถึงการบำรุงรักษา ปรับปรุงแก้ไข
ล้วนต้องอาศัยการลงทุนในโครงสร้างพื้นฐานอย่างเพียงพอ และยังส่งผลถึงระยะเวลาในการดำเนินงานของโครงการให้ล่าช้าออกไปอีกด้วยหากลงทุนน้อยเกินไป
5.ความล้มเหลวเนื่องจากเทคโนโลยียังไม่พร้อม (Failures Due to Immature Technology) – ย้อนกลับไปที่โจทย์ทางธุรกิจที่อาจจะยังไม่มีเทคโนโลยี AI ที่เหมาะสมในการแก้โจทย์นั้นก็เป็นได้ เทียบเคียงกับเครื่องบินเวลาจะขึ้นลงยังคงต้องใช้คนในการดำเนินการ แต่พออยู่ขึ้นไปถึงเพดานบินปกติแล้วจึงสามารถเปิดโมดนักบินอัตโนมัติ (auto-pilot)
อีกตัวอย่างสำคัญเช่น รถยนต์ไร้คนขับ จะประเมินแก้ไขอย่างในภาวะที่กำลังจะเจออุบัติเหตุที่ต้องตัดสินใจว่ารักษาชีวิตคนในรถหรือคนเดินถนน ที่เป็นข่าวบ่อย ๆ
ตอนนี้เราเริ่มเจอระบบ HR ที่กลั่นกรองใบสมัครด้วย AI อาจมี bias หรือ hallucination อยู่ใน AI Model ทำให้เกิด Type I, Type II Errors ให้ปวดหัวเล่น
สำหรับคำแนะนำแนวทางสู่ความสำร็จจากการศึกษาของ RAND ก็มีให้ 5 ข้อเช่นกัน
1.ต้องทำให้มั่นใจได้ว่าทีมเทคนิคเข้าใจเป้าหมายทางธุรกิจ หัวใจสำคัญคือการสื่อสารอย่างต่อเนื่องสม่ำเสมอระหว่างผู้นำธุรกิจกับทีมวิศวกร ซึ่งในบริบทประเทศไทยอาจมีความท้าท้ายเล็ก ๆ เพราะด้วยวัฒนธรรมองค์กร ทีมเทคนิคเรามักไม่ค่อยมีคำถามหรือโต้แย้งกับผู้บริหาร
2.เลือกแก้ปัญหาที่ยั่งยืน ผู้นำควรเตรียมความพร้อมด้านทรัพยากรที่จะทุ่มเทให้กับโครงการ AI หนึ่งๆ อย่างน้อย 1 ปี เวลาที่ต้องใช้ยาวนานมากที่สุดคือ การจัดเตรียมข้อมูล การปรับเปลี่ยนเป้าหมายเร็วเกินไปคือ สัญญาณของความล้มเหลว
3.มุ่งเน้นที่ปัญหา ไม่ใช่เทคโนโลยี การวิ่งไล่ตามแนวโน้มของ AI เป็นเส้นทางนำไปสู่ความล้มเหลว ให้มอง AI เป็นเครื่องมือในการแก้ปัญหา ไม่ใช่เราต้องปรับตัวทาง AI ที่ก้าวล้ำ
4.ลงทุนในโครงสร้างพื้นฐานอย่างเพียงพอ การเตรียมโครงสร้างพื้นฐานสำหรับข้อมูล เพื่อให้ข้อมูลมีความถูกต้องน่าเชื่อถือ เป็นความสำคัญอย่างยิ่งยวดตลอดแนวเส้นทางข้อมูล (data pipeline) ตั้งแต่กระบวนการนำเข้าข้อมูล การสะสาง การสะสมและเชื่อมโยงข้อมูลไม่ให้เกิดสภาพไซโล ตลอดจนการเฝ้าดูให้การไหลของข้อมูลเป็นไปอย่างถูกต้อง
เพราะคำว่า Garbage In Garbage Out เป็นจริงเสมอในวงการเทคโนโลยีสารสนเทศ อย่างไรก็ดีในบริบทไทย โดยเฉพาะภาครัฐ การเชื่อมโยงข้อมูลคือความท้าทายสำคัญ ตัวอย่างล่าสุดคือ การเชื่อมโยงข้อมูลำหรับการแก้ปัญหาน้ำท่วม
5.เข้าใจข้อจำกัดของ AI ทั้งผู้บริหารและทีมงานต้องยอมรับความจริงที่ว่า AI ไม่ใช่ไม้กายสิทธิ์ที่แก้ปัญหาได้ทุกเรื่อง แม้ว่าเราจะได้ยินเสมอๆ จากผู้บริหารว่าหน่วยงานนั้นหน่วยงานนี้จะใช้ AI มาแก้ปัญหา
ดังนั้น ผู้เชี่ยวชาญทางเทคนิคควรมีส่วนร่วมในกระบวนการตัดสินใจตั้งแต่แรก เพื่อช่วยประเมินความเป็นไปได้ด้วยเทคโนโลยีที่มีอยู่ในปัจจุบัน
โดยสรุปหากจะทำให้โครงการ AI ประสบผลสำเร็จ จะไม่ใช่การเลือกใช้ AI ที่ฉลาดที่สุด แต่มาจากการจัดการข้อมูล ประกอบกับวิสัยทัศน์ทางธุรกิจที่ชัดเจน และการมุ่งมั่น อดทน มีวินัย สามารถบริหารจัดการ “ปัจจัยมนุษย์” ให้ครบถ้วนตั้งแต่การสื่อสาร ความคาดหวัง แรงจูงใจ มากกว่าจะเป็นการจัดการเทคโนโลยีแต่เพียงอย่างเดียว
ความท้าท้ายประการสำคัญที่เกี่ยงโยงกับคนคือ unlearn/relearn และ upskills/reskills จะทำกันอย่างไรดีหากไม่เริ่มปฏิรูปการศึกษาไทยในยุค AI นี้
อ้างอิง 1) Ryseff, J., F, Bruhl, D. B., & Newberry, S. J. (2024, August 13). The root causes of failure for artificial intelligence projects and how they can succeed: Avoiding the Anti-Patterns of AI. RAND. https://www.rand.org/pubs/research_reports/RRA2680-1.html
2) Snyder, J. (2025, August 26). MIT finds 95% of GenAI pilots fail because companies avoid friction. Forbes. https://www.forbes.com/sites/jasonsnyder/2025/08/26/mit-finds-95-of-genai-pilots-fail-because-companies-avoid-friction/







