'การ์ทเนอร์' เผยจุดบอดอันตราย 'GenAI' คลื่นใต้น้ำทำลายความสำเร็จ

'การ์ทเนอร์' เผยจุดบอดอันตราย 'GenAI' คลื่นใต้น้ำทำลายความสำเร็จ

“การ์ทเนอร์” เปิดจุดบอดสำคัญจากการนำเทคโนโลยี Generative AI มาใช้งาน เส้นแบ่งระหว่างองค์กรที่นำ AI มาใช้อย่างมีกลยุทธ์ กับองค์กรที่ติดกับดัก ล้าหลัง

KEY

POINTS

  • Shadow AI หรือการที่พนักงานแอบใช้เครื่องมือ GenAI ที่ไม่ได้รับอนุญาต นำไปสู่ความเสี่ยงด้านความปลอดภัยและการรั่วไหลของข้อมูล
  • หนี้ทางเทคนิคจาก AI เป็นต้นทุนแฝงในการบำรุงรักษาและแก้ไขสิ่งที่ AI สร้างขึ้น และอาจบ่อนทำลายผลตอบแทนจากการลงทุนในระยะยาว
  • การเสื่อมถอยของทักษะจากการพึ่งพา AI มากเกินไป ซึ่งทำให้ความเชี่ยวชาญและการตัดสินใจที่สำคัญของมนุษย์ลดลง และสร้างความเสี่ยงเมื่อ AI ทำงานผิดพลาด
  • ความท้าทายด้านอธิปไตยข้อมูลและการผูกติดกับผู้ให้บริการรายเดียว (Vendor Lock-in) อาจเพิ่มต้นทุนและจำกัดความยืดหยุ่นขององค์กรในอนาคต

“การ์ทเนอร์” เปิดจุดบอดสำคัญจากการนำเทคโนโลยี Generative AI มาใช้งาน...

อรุณ จันทรเศกการัน รองประธานนักวิเคราะห์การ์ทเนอร์ กล่าวว่า เทคโนโลยีและเทคนิคการใช้งานของ GenAI กำลังพัฒนารุดหน้าไปอย่างรวดเร็วอย่างที่ไม่เคยเกิดมาก่อน

อีกทางหนึ่งมากับความคาดหวังที่สูงลิ่วขององค์กร ส่งผลทำให้ซีไอโอต้องเผชิญความท้าทายในฐานะผู้นำท่ามกลางภูมิทัศน์ที่เปลี่ยนแปลงตลอดเวลา

แม้องค์กรต่าง ๆ จะให้ความสำคัญกับความท้าทายเร่งด่วนของ GenAI อาทิ คุณค่าทางธุรกิจ ความปลอดภัย และความพร้อมของข้อมูล แต่พวกเขาอาจมองข้ามจุดบอดสำคัญเหล่านี้

เนื่องจากเป็นผลกระทบในระดับรอง ๆ ลงมาที่ไม่ค่อยปรากฏให้เห็นอย่างชัดเจนตั้งแต่แรก โดยความเสี่ยงอย่าง Shadow AI, หนี้ทางเทคนิค (Technical Debt), การเสื่อมถอยของทักษะ (Skills Erosion), ความต้องการด้านอธิปไตยข้อมูล (Data Sovereignty)

รวมถึง ปัญหาการทำงานร่วมกัน (Interoperability Issues) และการผูกติดกับผู้ให้บริการรายเดียว (Vendor Lock-In) ล้วนเป็นคลื่นใต้น้ำที่บดบัง และบ่อนทำลายความสำเร็จในระยะยาว  'การ์ทเนอร์' เผยจุดบอดอันตราย 'GenAI' คลื่นใต้น้ำทำลายความสำเร็จ

พนักงานแอบใช้เครื่องมือต้องห้าม

การ์ทเนอร์ คาดการณ์ว่าภายในปี 2573 จุดบอดเหล่านี้จะสร้างเส้นแบ่งระหว่างองค์กรที่นำ AI มาใช้ได้อย่างปลอดภัยและมีกลยุทธ์ กับองค์กรที่ติดกับดัก ล้าหลัง หรือถูกรบกวนจากภายใน

เพื่อรักษาขีดความสามารถในการแข่งขันและความยืดหยุ่น ซีไอโอต้องจัดการทั้งความท้าทายที่มองเห็นได้และความเสี่ยงที่ซ่อนเร้นอยู่ในการนำ GenAI มาใช้ พร้อมจัดลำดับความสำคัญเพื่อแก้ไขจุดบอดเหล่านี้ได้อย่างเหมาะสม

การปะทุของการแอบใช้ AI ในทางลับ ๆ (Explosion of Shadow AI) : ผลสำรวจการ์ทเนอร์ของผู้นำด้านความปลอดภัยทางไซเบอร์จำนวน 302 ราย ระหว่างเดือนมี.ค.-พ.ค. ปี 2568 เผยว่า 69% ขององค์กรสงสัยหรือมีหลักฐานว่าพนักงานกำลังใช้ GenAI สาธารณะที่ต้องห้าม

การนำเครื่องมือ AI ที่ไม่ได้รับอนุญาตมาใช้อย่างรวดเร็วอาจนำไปสู่ผลกระทบทั้งที่มองเห็นและมองไม่เห็น เช่น การละเมิดทรัพย์สินทางปัญญา การเปิดเผยข้อมูล และความเสี่ยงด้านความปลอดภัยที่เพิ่มขึ้น 

การ์ทเนอร์คาดการณ์ว่า ภายในปี 2573 มากกว่า 40% ขององค์กรจะเผชิญเหตุการณ์ด้านความปลอดภัยหรือการปฏิบัติตามข้อกำหนดที่เชื่อมโยงกับ Shadow AI ที่ไม่ได้รับอนุญาต

เพื่อจัดการกับความเสี่ยงเหล่านี้ซีไอโอควรกำหนดนโยบายสำหรับการใช้เครื่องมือ AI ทั่วทั้งองค์กรที่ชัดเจนเพื่อดำเนินการตรวจสอบกิจกรรม Shadow AI เป็นประจำ และบูรณาการการประเมินความเสี่ยง GenAI เข้ากับกระบวนการประเมินและตรวจสอบซอฟต์แวร์บริการ (SaaS Assessment Processes) เพื่อให้แน่ใจว่าตอบโจทย์ธุรกิจ ทั้งด้านประสิทธิภาพ ความปลอดภัย การใช้งาน และการปฏิบัติตามข้อกำหนด

เผชิญ ‘หนี้ทางเทคนิค’

หนี้ทางเทคนิคจาก AI (AI Technical Debt) : การ์ทเนอร์คาดการณ์ว่า ภายในปี 2573 องค์กร 50% จะเผชิญกับการอัปเกรด AI ที่ล่าช้าและ/หรือต้นทุนการบำรุงรักษาที่เพิ่มขึ้นเนื่องจากหนี้ทางเทคนิคของ GenAI ที่ไม่ได้รับการจัดการ

ปัจจุบัน องค์กรต่าง ๆ ตื่นเต้นกับความเร็วในการตอบสนองของ GenAI แต่ด้วยต้นทุนที่สูงลิ่วในการบำรุงรักษา แก้ไข หรือปรับเปลี่ยนสิ่งที่ AI สร้างขึ้น เช่น โค้ด เนื้อหา และการออกแบบ อาจกัดกร่อนผลตอบแทนที่ได้จากการลงทุนตามที่ GenAI สัญญาไว้

ดังนั้นการจัดทำมาตรฐานที่ชัดเจนสำหรับการตรวจสอบและจัดทำเอกสารสินทรัพย์ที่ AI สร้างขึ้น และติดตามตัวชี้วัดหนี้สินทางเทคนิคในแดชบอร์ดไอที จะช่วยให้องค์กรสามารถดำเนินการได้แบบเชิงรุกเพื่อป้องกันการหยุดชะงักที่มีค่าใช้จ่ายสูง  'การ์ทเนอร์' เผยจุดบอดอันตราย 'GenAI' คลื่นใต้น้ำทำลายความสำเร็จ

ต้องการ ‘อธิปไตยข้อมูล’

ความต้องการด้านอธิปไตยข้อมูลและ AI ที่เพิ่มขึ้น (Rising Demand for Data and AI Sovereignty) : การ์ทเนอร์คาดการณ์ว่า ภายในปี 2571 รัฐบาล 65% ทั่วโลกจะนำข้อกำหนดด้านอธิปไตยทางเทคโนโลยีมาใช้เพื่อเพิ่มความเป็นอิสระและป้องกันการแทรกแซงด้านกฎระเบียบจากต่างแดน

ข้อจำกัดด้านกฎระเบียบเกี่ยวกับการแบ่งปันข้อมูลหรือใช้โมเดลการแบ่งปันข้อมูลแบบข้ามประเทศ (Cross-Border Data) สามารถชะลอการปรับใช้ AI ทั่วทั้งองค์กร เพิ่มต้นทุนรวมของการเป็นเจ้าของระบบไอทีต้นทุนการเป็นเจ้าของทั้งหมด (Total cost of Ownership หรือ TCO) และส่งผลให้ได้ผลลัพธ์ที่ไม่เหมาะสม

เพื่อจัดการกับความท้าทายเหล่านี้ซีไอโอต้องสร้างอธิปไตยข้อมูล (Data Sovereignty) ใส่เข้าไปในกลยุทธ์ AI ตั้งแต่เริ่มต้น โดยการให้ทีมกฎหมายเข้ามามีส่วนร่วมตั้งแต่เนิ่น ๆ และจัดลำดับความสำคัญของผู้ให้บริการที่ตอบสนองความต้องการด้านอธิปไตยข้อมูลและ AI

ทักษะ ‘มนุษย์’ เสื่อมถอย

การเสื่อมถอยของทักษะ (Skills Erosion) : การพึ่งพา AI มากเกินไปอาจกัดกร่อนความเชี่ยวชาญ การตัดสินใจ และความรู้โดยนัยของมนุษย์ที่มีความสำคัญ ซึ่งไม่สามารถถ่ายทอดหรือทดแทนได้ง่าย ๆ

การเสื่อมถอยของทักษะนี้เกิดขึ้นอย่างค่อยเป็นค่อยไปและมักไม่มีใครสังเกตเห็น ดังนั้นผู้บริหารอาจไม่รับรู้ถึงความเสี่ยงจนกว่าองค์กรจะมีปัญหาในการทำงานเมื่อไม่ได้ใช้งาน AI หรือเมื่อ AI เกิดการล้มเหลวเป็นกรณีพิเศษและต้องใช้สัญชาตญาณมนุษย์เข้ามาช่วย

เพื่อป้องกันการสูญเสียความรู้และความสามารถขององค์กรไปเรื่อย ๆ องค์กรควรระบุว่า การตัดสินใจและงานที่เกิดจากฝีมือของมนุษย์นั้นมีความจำเป็นในด้านใด และออกแบบโซลูชัน AI เพื่อเสริม ไม่ใช่มาแทนที่ทักษะเหล่านี้

การผูกติดกับระบบนิเวศและทำงานกับผู้ให้บริการเดียว (Ecosystem Lock-In and Interoperability) : องค์กรที่มุ่งนำศักยภาพ GenAI มาใช้ประโยชน์ในวงกว้าง มักเลือกผู้ให้บริการเพียงรายเดียวเพื่อความรวดเร็วและความง่าย ซึ่งการพึ่งพาเชิงลึกนี้ส่งผลกระทบต่อความคล่องตัวทางเทคนิคและอำนาจในการต่อรองเจรจาเกี่ยวกับด้านราคา เงื่อนไข หรือระดับการให้บริการในอนาคต

ผู้บริหารจำนวนมากมักประเมินความเชื่อมโยงระหว่างข้อมูล โมเดล หรือเวิร์กโฟลว์การทำงานต่ำไป และยึดติดกับ API ที่ออกแบบมาเฉพาะจากผู้ให้บริการ ไม่ว่าจะเป็นพื้นที่จัดเก็บข้อมูล (Data Leaks) และเครื่องมือที่มีบนแพลตฟอร์ม (Platform Tools)