'Shadow AI' เปิดช่องโหว่ภัยคุกคาม ขโมยข้อมูลบุคคล - องค์กร

'Shadow AI' เปิดช่องโหว่ภัยคุกคาม ขโมยข้อมูลบุคคล - องค์กร

“Synology” ชี้องค์กรทั่วโลกเร่งใช้งาน Generative AI เพิ่มประสิทธิภาพ แต่ช่องโหว่ “Shadow AI” กำลังกลายเป็นภัยไซเบอร์ตัวฉกาจ เสี่ยงข้อมูลรั่ว-ผิดกฎหมายส่วนบุคคล

เร็กซ์ หวง ผู้อำนวยการฝ่ายแอปพลิเคชัน บริษัท  ซินโนโลจี้ จำกัด (Synology) เผยว่า กระแสการนำ Generative AI มาใช้ในองค์กร กำลังเร่งตัวอย่างก้าวกระโดด ช่วยร่างเอกสาร สรุปงาน หรือทำงานซ้ำซ้อนแทนคนได้รวดเร็ว

แต่ด้านมืดของเทคโนโลยีนี้ก็กำลังสร้าง ช่องโหว่ความปลอดภัย จนอาจทำให้องค์กรต้องเผชิญปัญหา ข้อมูลรั่วไหลและถูกโจมตีไซเบอร์

'Shadow AI' เปิดช่องโหว่ภัยคุกคาม ขโมยข้อมูลบุคคล - องค์กร

การ์ทเนอร์ชี้ว่า ภายในปี 2570 ปัญหาข้อมูลรั่วที่เกี่ยวข้องกับ AI จะเพิ่มขึ้นกว่า 40% ส่วนใหญ่เกิดจากการใช้เครื่องมือ AI ภายนอกโดยไม่ได้รับอนุญาต

หรือที่เรียกว่า “Shadow AI” ส่งผลให้ข้อมูลสำคัญถูกส่งออกไปนอกระบบ และยากต่อการควบคุม ทั้งยังเสี่ยงผิดกฎหมายคุ้มครองข้อมูลส่วนบุคคล PDPA และ GDPR

องค์กรจำเป็นต้องควบคุมทั้งการใช้งานและข้อมูล AI ให้ปลอดภัย ปฏิบัติตามกฎหมาย และบริหารต้นทุนได้

ล่าสุด ซินโนโลจี้เปิดตัว “Synology AI Console” แพลตฟอร์มใหม่ที่ทำงานบน Private Cloud เพื่อเป็นศูนย์กลางควบคุมการใช้งาน AI ของทั้งองค์กร

จุดเด่นคือ ปิดช่องโหว่ Shadow AI, บล็อกเครื่องมือที่ไม่ได้รับอนุญาต สามารถควบคุมสิทธิ์และต้นทุน, กำหนดสิทธิ์การใช้งาน (Role-based Access Control) และจำกัดการใช้งานรายวัน-รายโมเดล

ขณะเดียวกัน ช่วยปกป้องข้อมูล มีระบบปิดบังข้อมูลส่วนบุคคล (de-identification) ก่อนส่งเข้าสู่ AI ภายนอก และตรวจสอบย้อนหลังได้ ระบบ Audit Logging เก็บประวัติการใช้งานอย่างละเอียด โปร่งใส และสอดคล้องข้อกำหนด