วันศุกร์ ที่ 15 พฤษภาคม 2569

Login
Login

เมื่อ AI กลายเป็น 'อาวุธไซเบอร์' ยุคใหม่ที่องค์กรต้องรับมือ

เมื่อ AI กลายเป็น 'อาวุธไซเบอร์' ยุคใหม่ที่องค์กรต้องรับมือ

AI กำลังเปลี่ยนภูมิทัศน์ของภัยไซเบอร์อย่างมีนัยสำคัญ

รายงานด้านความปลอดภัยฉบับล่าสุดของ OWASP ชี้ให้เห็นว่าภัยคุกคามจาก Generative AI ไม่ได้เป็นเพียงแนวคิดในห้องทดลองอีกต่อไป แต่ได้กลายเป็นเครื่องมือที่ใช้งานจริงของเหล่าบรรดาแฮกเกอร์ในการโจมตีเป้าหมายอย่างเป็นรูปธรรม

จุดเปลี่ยนสำคัญคือความสามารถของ AI ในการ “ลดเวลา” และ “เพิ่มขนาด” ของการโจมตี เช่น การใช้ AI ช่วยวิเคราะห์ระบบเป้าหมายได้อย่างรวดเร็วหรือช่วยเขียนโค้ดโจมตีโดยอัตโนมัติ ทำให้แม้แต่แฮกเกอร์ที่มีทักษะไม่สูงมากก็สามารถสร้างการโจมตีที่ซับซ้อนได้

กรณีของการเจาะระบบหน่วยงานรัฐบาลเม็กซิโกเป็นตัวอย่างที่ชัดเจนมาก โดยมีการใช้ ChatGPT และ Claude ในการช่วยค้นหาช่องโหว่และพัฒนาเครื่องมือในการโจมตี จนสามารถเข้าถึงข้อมูลสำคัญกว่า 150 GB ภายในระยะเวลาอันสั้น เหตุการณ์นี้สะท้อนว่า AI ไม่ได้แค่ช่วยให้ “เร็วขึ้น” แต่ยังช่วย “ขยายขอบเขต” ของความเสียหายได้อย่างมาก

อีกประเด็นหนึ่งที่สำคัญคือ ความเสี่ยงจากโครงสร้างพื้นฐาน AI บนคลาวด์ ซึ่งหลายองค์กรเริ่มใช้งานอย่างแพร่หลายเพื่อความสะดวกและลดต้นทุน แต่ในขณะเดียวกันก็เพิ่มความซับซ้อนด้านความปลอดภัย

กรณี “Double Agent” บนแพลตฟอร์ม Vertex AI ของ Google Cloud แสดงให้เห็นว่า หากมีการตั้งค่าสิทธิ์ไม่เหมาะสม เอเจนต์ AI ที่ควรทำงานเฉพาะบางส่วน อาจสามารถเข้าถึงข้อมูลสำคัญ ดึง credential หรือแม้แต่ขยายการเข้าถึงไปยังระบบอื่นในคลาวด์ได้ ปัญหานี้เกิดจาก “สิทธิ์มากเกินไป” (overprivileged access) ซึ่งเป็นความเสี่ยงที่มักถูกมองข้าม โดยเฉพาะในระบบ AI ที่มีหลายองค์ประกอบเชื่อมต่อกัน เช่น โมเดล, API และบริการเสริมต่าง ๆ

นอกจากนั้น ความเสี่ยงในห่วงโซ่อุปทานของ AI ก็ทวีความรุนแรงขึ้น เนื่องจากองค์กรจำนวนมากไม่ได้พัฒนา AI เองทั้งหมด แต่ต้องพึ่งพาผู้ให้บริการภายนอก

เช่น ผู้จัดหาข้อมูล เครื่องมือ หรือแพลตฟอร์มต่างๆ อย่างกรณีของ Mercor ที่เกี่ยวข้องกับเครื่องมือ LiteLLM ที่ถูกแก้ไข แสดงให้เห็นว่าหากหนึ่งจุดในซัพพลายเชนถูกโจมตี อาจส่งผลกระทบเป็นวงกว้างไปยังหลายองค์กรพร้อมกัน ทั้งข้อมูลการฝึกโมเดลและข้อมูลบุคลากรที่เกี่ยวข้อง

เหตุการณ์นี้ยังทำให้ Meta ต้องหยุดการทำงานร่วมกับผู้ให้บริการดังกล่าวชั่วคราว สะท้อนให้เห็นว่าความเสี่ยงจาก third-party ไม่ใช่เรื่องเล็ก และอาจกลายเป็น “จุดอ่อนที่ใหญ่ที่สุด” ของระบบ AI ได้

ในภาพรวม นักวิจัยชี้ว่า แฮกเกอร์เริ่มเปลี่ยนเป้าหมายจากการโจมตีตัวโมเดล AI โดยตรง ไปสู่การโจมตี “ระบบโดยรอบ” ซึ่งมักมีช่องโหว่มากกว่า เช่น การจัดการตัวตน การกำหนดสิทธิ์ ระบบ orchestration และการเชื่อมต่อระหว่างบริการต่างๆ

ที่สำคัญคือ ช่องโหว่จำนวนมากไม่ได้เกิดจากบั๊กซอฟต์แวร์แบบเดิม แต่เกิดจากการตั้งค่าที่ผิดพลาด การออกแบบระบบที่ไม่รัดกุม หรือการให้สิทธิ์มากเกินความจำเป็น ซึ่งทำให้แฮกเกอร์สามารถใช้ AI เป็นตัวเร่งให้การโจมตีมีประสิทธิภาพและยากต่อการตรวจจับมากขึ้น

เราจะเห็นได้ว่า AI กำลังเปลี่ยนภูมิทัศน์ของภัยไซเบอร์อย่างมีนัยสำคัญ จากเดิมที่การโจมตีต้องใช้เวลาและความเชี่ยวชาญสูง กลายเป็นกระบวนการที่รวดเร็ว ขยายตัวได้ง่าย และเข้าถึงได้มากขึ้นผ่านเครื่องมืออัตโนมัติ

องค์กรจึงไม่สามารถพึ่งพาแนวทางความปลอดภัยแบบเดิมได้อีกต่อไป แต่ต้องปรับไปสู่การป้องกันแบบองค์รวม ครอบคลุมทั้งการควบคุมสิทธิ์ การบริหารตัวตน การตรวจสอบซัพพลายเชน และการออกแบบระบบให้ปลอดภัยตั้งแต่ต้น (secure by design)

เพราะในยุคที่ AI เป็นทั้ง “ผู้ช่วย” และ “อาวุธ” ความได้เปรียบจะตกอยู่กับฝ่ายที่ปรับตัวได้เร็วและรอบด้านมากกว่าเท่านั้นครับ