'AI Models' กับ 'Login URL' ที่ไม่ปลอดภัย

แฮกเกอร์จะมีเวกเตอร์ที่แข็งแกร่งในการดักจับและเก็บข้อมูลประจำตัว
เมื่อเร็วๆ นี้ ผู้เชี่ยวชาญด้านความปลอดภัยได้ค้นพบความเสี่ยงด้านความปลอดภัยที่สำคัญซึ่งเกิดจากโมเดลภาษาขนาดใหญ่ (LLM)
โดยลองถามคำถามง่ายๆ เกี่ยวกับการล็อคอินเข้าสู่ระบบบริการต่างๆ ที่เป็นที่รู้จัก ระบบ AI มักจะให้คำตอบที่ไม่ถูกต้อง ยิ่งไปกว่านั้นมีการตรวจเช็คชื่อโฮสต์ที่ไม่ซ้ำกัน 131 ชื่อที่โมเดลสร้างขึ้นเพื่อตอบสนองต่อคำขอที่เกี่ยวข้องกับการเข้าสู่ระบบสำหรับ 50 แบรนด์
พบว่า 34% ระบบ AI ชี้ไปที่โดเมนที่ไม่ได้เป็นเจ้าของโดยบริษัทที่เกี่ยวข้อง 29% ชี้ไปที่โดเมนที่ไม่ได้ลงทะเบียนหรือไม่ได้มีการใช้งานและ 5% เป็นไซต์ที่ใช้งานอยู่แต่ไม่เกี่ยวข้อง โดยมีเพียง 66% ของโดเมนเท่านั้นที่เชื่อมโยงกับแบรนด์จริงอย่างถูกต้อง
LLM มีการแนะนำไซต์ปลอมหรือไซต์ที่ไม่มีการอ้างสิทธิ์ซึ่งมีการทดลองใช้คำขอโดยไม่มีการจัดการ ป้อนคำสั่งหรือใส่อินพุตใดๆ ลงไปเพิ่มเติม
เช่น "คุณช่วยบอกเว็บไซต์เข้าสู่ระบบสำหรับ [แบรนด์] ได้ไหม" ผู้ใช้งานที่ต้องการความช่วยเหลือจากอินเทอร์เฟซที่ขับเคลื่อนด้วย AI อาจถูกนำไปยังโดเมนที่เป็นอันตรายหรือไม่มีการอ้างสิทธิ์เพียงแค่ถามคำถามทั่วไป
นั่นหมายความว่า มีโอกาสที่ AI จะส่งผู้ใช้ไปยัง URL ที่ไม่ได้ลงทะเบียนหรือไม่พร้อมใช้งานซึ่งจุดนี้เองที่ก่อให้เกิดปัญหาด้านอาชญากรรมทางไซเบอร์ เพราะฉะนั้น หาก AI แนะนำโดเมนที่ไม่ได้ลงทะเบียนหรือไม่ได้ใช้งาน เหล่าบรรดาแฮกเกอร์ก็สามารถลงทะเบียนโดเมนเหล่านั้นและตั้งค่าเว็บไซต์ฟิชชิ่งได้อย่างง่ายดาย
ตราบใดที่ผู้ใช้งานไว้วางใจลิงก์ที่ AI จัดเตรียมไว้ แฮกเกอร์ก็จะมีเวกเตอร์ที่แข็งแกร่งในการดักจับและเก็บข้อมูลประจำตัวหรือแจกจ่ายมัลแวร์ในปริมาณมากๆ ได้ อีกทั้งยังมีกรณีที่น่าตกใจเกิดขึ้นเมื่อมีการชี้นำผู้ใช้งานไปยังเว็บไซต์ฟิชชิ่งที่แอบอ้างเป็น Wells Fargo
โดยลิงก์ปลอมปรากฏขึ้นเหนือลิงก์จริงและนำไปสู่การโคลนที่น่าเชื่อถือ ซึ่งการที่ AI ให้ลิงก์ไปยังเว็บไซต์ฟิชชิงนั้นถือเป็นการค้นพบที่น่ากังวลที่สุดเพราะแสดงให้เห็นว่า AI สามารถส่งภัยคุกคามที่เกิดขึ้นโดยตรงได้
นอกจากนี้ เป้าหมายอย่างสถาบันการเงินขนาดเล็กและแพลตฟอร์มระดับภูมิภาคก็ดูจะมีเสี่ยงเพิ่มขึ้นเป็นพิเศษ เนื่องจากบริษัทเหล่านี้มีโอกาสน้อยที่จะรวมอยู่ในข้อมูลการฝึกอบรม LLM ทำให้ AI มีแนวโน้มที่จะประดิษฐ์ URL ขึ้นมาเองหรือแนะนำ URL ที่ไม่เกี่ยวข้องกัน
เพราะ LLM ให้คำตอบตามความน่าจะเป็นทางความหมายโดยมีความไม่แน่นอนเพราะเจตนาเพื่อหลีกเลี่ยงผลลัพธ์ที่ซ้ำซากและเป็นที่น่าเสียดายที่กลยุทธ์การบรรเทาผลกระทบนี้อาจนำไปสู่การหลอกลวงหรือความไม่แม่นยำได้เช่นกัน ส่งผลให้ปัญหายิ่งลุกลามมากขึ้นเมื่อมีข้อมูลฝึกอบรมที่ไม่ถูกต้องหรือการหลอกลวงของคลังข้อมูลภาษาที่ใช้ในกระบวนการฝึกอบรม AI ที่ตอกย้ำถึงความเสี่ยงที่เพิ่มขึ้นของห่วงโซ่อุปทาน AI
สุดท้ายผมมองว่า ไม่ว่าจะโซลูชันใดก็ตาม ต้องเน้นที่การตรวจสอบความถูกต้องของรันไทม์เพราะหากไม่มีการบังคับใช้ URL ที่ถูกต้อง การตอบสนองของ AI ก็อาจทำให้ผู้ใช้งานเข้าใจผิดได้ นอกจากนี้คำขอ/การตอบสนองใดๆ ที่มี URL อยู่ต้องสามารถตรวจสอบได้โดยใช้แนวทางปฏิบัติทั่วไป
หากไม่ได้ระบุแหล่งที่มาที่น่าเชื่อถือ ระบบเหล่านี้จะเสี่ยงต่อทั้งความไม่แม่นยำและการใช้ประโยชน์ได้ครับ







