วันจันทร์ ที่ 6 เมษายน 2569

Login
Login

เมื่อองค์กรยังไม่พร้อมรับมือเหตุโจมตี AI

เมื่อองค์กรยังไม่พร้อมรับมือเหตุโจมตี AI

ผลการวิจัย ISACA ล่าสุดเผยให้เห็นถึงช่องโหว่สำคัญในด้านความมั่นคงปลอดภัยของระบบ AI

โดยพบว่า ผู้เชี่ยวชาญด้าน IT และความปลอดภัยไซเบอร์มากกว่าครึ่ง (56%) ไม่ทราบว่าจะสามารถหยุดการทำงานของระบบ AI ที่ถูกโจมตีหรือเกิดเหตุการณ์ด้านความปลอดภัยได้รวดเร็วเพียงใด

งานวิจัยดังกล่าวได้จากการสำรวจผู้เชี่ยวชาญด้านความปลอดภัยและดิจิทัลกว่า 3,400 รายทั่วโลก ซึ่งสะท้อนให้เห็นถึงความไม่พร้อมในการรับมือภัยคุกคามที่เกี่ยวข้องกับ AI อย่างมีนัยสำคัญ โดยมีเพียง 32% ที่เชื่อว่าสามารถหยุดระบบ AI ที่มีความเสี่ยงได้ภายในหนึ่งชั่วโมง

และอีก 7% ระบุว่าอาจใช้เวลานานกว่านั้น สถานการณ์นี้ชี้ให้เห็นว่าหลายองค์กรอาจยังไม่มีแผนตอบสนองเหตุการณ์ (incident response) ที่ชัดเจนสำหรับระบบ AI โดยเฉพาะ

อีกหนึ่งประเด็นสำคัญคือความไม่ชัดเจนด้านความรับผิดชอบในการดูแลระบบ AI ภายในองค์กร โดยมีผู้ตอบแบบสอบถามถึง 20% ที่ไม่ทราบว่าใครเป็นผู้รับผิดชอบหลักในการจัดการแอปพลิเคชัน AI

ขณะที่บางส่วนมองว่าเป็นหน้าที่ของผู้บริหารระดับคณะกรรมการบริษัท (28%) รองลงมาคือ CIO หรือ CTO (18%) และ CISO (13%)

ความคลุมเครือนี้ส่งผลให้เกิดความเสี่ยงด้านการกำกับดูแลและความปลอดภัยของระบบอย่างหลีกเลี่ยงไม่ได้ โดยเฉพาะในกรณีที่เกิดเหตุการณ์ร้ายแรง อาจทำให้การตัดสินใจล่าช้าและไม่สามารถควบคุมสถานการณ์ได้อย่างมีประสิทธิภาพ

นอกจากนี้ ยังมีผู้เชี่ยวชาญด้านความปลอดภัยเพียง 43% เท่านั้นที่มีความมั่นใจสูงว่า องค์กรสามารถตรวจสอบเหตุการณ์ร้ายแรงที่เกี่ยวข้องกับ AI และอธิบายเหตุการณ์ดังกล่าวต่อผู้บริหารหรือหน่วยงานกำกับดูแลได้ ขณะที่ 27% ระบุว่ามีความมั่นใจน้อยหรือแทบไม่มีเลย สะท้อนถึงช่องว่างด้านทักษะและกระบวนการวิเคราะห์เหตุการณ์เชิงลึก

ปัญหาอีกด้านที่ถูกเน้นย้ำคือ การขาดการกำกับดูแลโดยคน ในการทำงานของระบบ AI ซึ่งอาจทำให้องค์กรไม่สามารถตรวจจับภัยคุกคามได้อย่างทันท่วงที

จากผลสำรวจพบว่า มีเพียง 36% ขององค์กรที่กำหนดให้เจ้าหน้าที่ที่เกี่ยวข้องต้องอนุมัติการทำงานส่วนใหญ่ของ AI ล่วงหน้า ขณะที่ 26% ตรวจสอบการทำงานของ AI หลังจากที่ดำเนินการไปแล้ว และ 11% ตรวจสอบเฉพาะกรณีที่มีการแจ้งเตือนความผิดปกติเท่านั้น

ที่น่ากังวลคือยังมีอีก 20% ที่ไม่ทราบเลยว่าคนมีบทบาทในการกำกับดูแลการตัดสินใจของ AI มากน้อยเพียงใด ช่องว่างนี้อาจเปิดโอกาสให้การโจมตีที่ซับซ้อนสามารถดำเนินไปโดยไม่ถูกตรวจพบเป็นเวลานาน

ผู้เชี่ยวชาญด้านความปลอดภัยได้ให้ความเห็นว่า แม้องค์กรจำนวนมากเร่งนำ AI มาใช้งานเพื่อเพิ่มขีดความสามารถในการแข่งขันและยกระดับประสิทธิภาพการดำเนินงาน

แต่สิ่งที่ไม่ควรมองข้ามคือการจัดวางมาตรการควบคุมและการกำกับดูแลที่เหมาะสมก่อนการใช้งานจริง องค์กรจำเป็นต้องเตรียมความพร้อมทั้งในด้านบุคลากร นโยบาย กระบวนการ และแผนรับมือเหตุการณ์ เพื่อให้สามารถใช้ AI ได้อย่างมีประสิทธิภาพและมีความรับผิดชอบ พร้อมทั้งลดความเสี่ยงจากเหตุการณ์ไม่คาดคิดที่อาจสร้างความเสียหายร้ายแรงในอนาคต

นอกจากนี้ การฝึกอบรมบุคลากรให้เข้าใจความเสี่ยงของ AI และการทดสอบแผนรับมือสถานการณ์อย่างสม่ำเสมอ ก็เป็นอีกหนึ่งปัจจัยสำคัญที่จะช่วยให้องค์กรสามารถตอบสนองต่อภัยคุกคามได้อย่างทันท่วงทีและมีประสิทธิภาพมากยิ่งขึ้น

สุดท้ายแล้ว องค์กรที่นำ AI มาใช้งานจำเป็นต้องตระหนักว่า “ความเร็ว” ในการตอบสนองต่อเหตุการณ์ด้านความปลอดภัยเป็นปัจจัยสำคัญไม่แพ้การป้องกันล่วงหน้า

การกำหนดความรับผิดชอบที่ชัดเจน การมีแผนรับมือเหตุการณ์เฉพาะสำหรับระบบ AI รวมถึงการเพิ่มการกำกับดูแลโดยคนที่เกี่ยวข้อง จะช่วยลดความเสี่ยงและเพิ่มความสามารถในการควบคุมสถานการณ์ได้อย่างมีประสิทธิภาพ

ในขณะเดียวกัน การพัฒนาองค์ความรู้และทักษะของบุคลากรควบคู่ไปกับการวางกรอบการกำกับดูแลที่รัดกุม จะเป็นกุญแจสำคัญที่ทำให้องค์กรสามารถใช้ AI ได้อย่างปลอดภัย โปร่งใส และยั่งยืนในระยะยาวครับ