มุกใหม่มิจฉาชีพ โทรไม่พูด อัดเสียงเรา เทรน AI ปลอมเสียงหลอกคนอื่น

มุกใหม่มิจฉาชีพ โทรไม่พูด อัดเสียงเรา เทรน AI ปลอมเสียงหลอกคนอื่น

เตือนภัย สาย “โทรมาแล้วไม่พูด” อาจจะโดน “มิจฉาชีพ” อัดเสียงอยู่ เพื่อนำเอาเสียงไปให้ “AI” เลียนเสียง แล้วย้อนโทรมาหาคนใกล้ตัวเพื่อ “หลอกโอนเงิน”

ทุกคนนี้คนไทยยังคงได้รับสายจาก “แก๊งคอลเซ็นเตอร์” คอย “หลอกให้โอนเงิน” อยู่เสมอ ถึงแม้ว่าภาครัฐและสื่อมวลชนจะพยายามคอยแจ้งข่าวสาร ประกาศเตือนประชาชนไม่ให้ตกเป็นเหยื่อของพวกมิจฉาชีพ แต่เหล่าคนร้ายก็มีกลเม็ดใหม่คอยมาหลอกลวงเหยื่อเสมอ 

ล่าสุดเริ่มมีโทรศัพท์ที่โทรมาแล้วไม่พูดอะไร ปล่อยให้เราพูดอยู่คนเดียวไปเรื่อย ๆ แล้วก็วางสายไป ซึ่งฟังดูแล้วอาจเป็นเพราะสัญญาณไม่ดี แต่ความจริงแล้วเราอาจกำลังโดนมิจฉาชีพอัดเสียงอยู่ เพื่อนำเสียงของเราไปให้ GenAI แปลงเสียงเพื่อใช้นำไปโทรหาคนสนิทของเรา และหลอกเอาเงินจากคนเหล่านั้น

 

  • ใช้ AI เลียนเสียงโทรไปหลอกคนใกล้ชิด

การใช้ AI สร้างเสียงหรือการปลอมแปลงเสียงของคน นี้เรียกว่า “Voice Clone” (วอยซ์โคลน) เป็นส่วนหนึ่งของการทำ “Deepfake” ซึ่งถูกนำมาใช้เป็นเครื่องมือของกลุ่มมิจฉาชีพ วิชัย พละสุพราห์มานิยัณ ผู้บริหารระดับสูงและผู้ก่อตั้ง Pindrop บริษัทรักษาความปลอดภัยข้อมูล สัญชาติอเมริกัน ยอมรับว่าในปีนี้มีการใช้ Deepfake ในการฉ้อโกงเพิ่มขึ้นอย่างมาก 

ในอดีตการจะใช้ปัญญาประดิษฐ์ทำงานจะต้องใช้ทักษะในการเขียนโค้ด แต่ปัจจุบันมีโปรแกรมสำเร็จมาให้เพียงแค่ป้อนข้อมูลเข้าไป AI ก็สามารถแสดงผลลัพธ์ให้ได้ทันที แถมเสียงจาก AI มีความสมจริงมากขึ้นเรื่อย ๆ ตามเทคโนโลยีที่พัฒนาขึ้นทุกวัน แถมข้อมูลข้อส่วนตัวของลูกค้า เช่น ชื่อ เบอร์โทร ที่อยู่ มีขายอยู่ในตลาดใต้ดินเกลื่อนกลาด 

เมื่อมีชื่อของเหยื่ออยู่ในมือ มิจฉาชีพก็นำรายชื่อไปค้นหาตามโซเชียลมีเดียต่าง ๆ ซึ่งผู้คนมักจะโพสต์คลิปตัวเองลงบนโซเชียลมีเดีย ทำให้มีคลังข้อมูลเสียงผู้คนบนโลกอินเทอร์เน็ตจำนวนมาก

ยิ่งเป็นเหล่าคนดัง หรือเซเลบที่มีผู้ติดตามบนโซเชียลมีเดียเยอะ ๆ ยิ่งหาเสียงและวิดีโอของพวกเขาได้ง่าย แต่ถ้าหากคนเหล่านั้นไม่ได้เล่นโซเชียลมีเดีย ก็ต้อง “ออกแรง” ด้วยการโทรไปตามเบอร์มือถือเพื่อให้ได้ยินเสียงและนำมาป้อนข้อมูลให้ AI เอาไปแปลงเสียง

หลังจากนั้นมิจฉาชีพจะโทรไปหาคนใกล้ชิดของเจ้าของเสียง โดยอาจสุ่มโทรหาคนที่เป็นเพื่อนในโซเชียลมีเดีย ซึ่งมักจะสร้างสถานการณ์ว่ากำลังตกอยู่ในสถานการณ์ที่ต้องใช้เงินด่วน เช่น โดนจับเรียกค่าไถ่ ประสบอุบัติเหตุ ติดหนี้ ไม่มีเงินสด ฯลฯ

ฟังดูก็เป็น “มุกเก่า” ที่เหล่ามิจฉาชีพใช้มาตั้งแต่สมัยไม่มี AI แต่ตอนนี้มันสมจริงกว่าเดิมด้วย Voice Clone ซึ่งหากไม่ตั้งสติดี ๆ ก็อาจจะคิดว่าเป็นเรื่องจริงและเผลอโอนเงินให้คนร้ายไปโดยไม่ได้โทรเช็กกับคนที่ถูกแอบอ้างก่อน

  • ผู้คนตระหนักถึงภัยคุกคามจาก Deepfake

Pindrop สำรวจความเห็นของคนในสหรัฐเกี่ยวกับความกังวลที่มีต่อเทคโนโลยี Deepfake และการทำไปใช้ผิดวิธี โดยผลการสำรวจพบว่า 90% ของผู้ตอบแบบสอบถามมีความกังวลเกี่ยวกับภัยคุกคามที่เกิดขึ้นจาก Deepfake และ Voice Clone หากแยกออกมาตามระดับความกังวล พบว่าชาวอเมริกันความกังวลของผลกระทบด้านลบที่อาจเกิดจาก Deepfakes อย่างมากถึง 60.4% ส่วนความกังวลที่มีต่อ Voice Clone ระดับมากที่สุดอยู่ที่ประมาณ 57%

ผู้ตอบแบบสอบถามรู้จักและตระหนักรู้เกี่ยวกับ Voice Clone ถึง 63.6% ซึ่งสูงกว่า Deepfake ที่มีการรับรู้ 54.6% เนื่องจาก Voice Clone เป็นคำที่คนทั่วไปสามารถเข้าใจได้ทันทีว่าหมายถึงอะไร ต่างจาก Deepfake ที่จะต้องใช้เวลาทำความเข้าใจ หรือแสดงตัวอย่างเพื่อให้เห็นภาพที่ชัดเจนยิ่งขึ้น ซึ่งสวนทางกับ Google Trend ที่รายงานว่า Deepfake ได้รับความนิยมมากกว่า Voice Clone

พวกเขาเคยพบเห็นการใช้ Deepfake ผ่านโซเชียลมีเดียช่องทางต่าง ๆ ได้แก่ YouTube, TikTok, Instagram และ Facebook โดยมีคิดเป็น 49.0%, 42.8%, 37.9% และ 36.2% ตามลำดับ

นอกจากนี้ แบบสอบถามยังระบุว่าคนที่มีรายได้สูงจะรู้จักเทคโนโลยี Deepfake มากกว่า โดยราว 75% ของคนที่รายได้ต่อปีมากกว่า 125,000 ดอลลาร์รู้จัก Voice Clone แต่รู้จัก Deepfake ประมาณ 67% ขณะที่ผู้ที่มีรายได้ต่ำกว่า 50,000 ดอลลาร์ต่อปี รู้จัก Voice Clone เพียง 56.5% ส่วน Deepfake มีคนรู้จักเพียง 43.6% เท่านั้น

เมื่อถามว่ามีความกังวลเกี่ยวกับการนำเทคโนโลยีดังกล่าวไปใช้ทำเรื่องไม่ดีด้านใดมากที่สุด พบว่า 54.9% กังวลว่าจะถูกนำไปใช้ในด้านการเงินและการเมือง ตามมาด้วยประเด็นด้านสื่อและการดูแลสุขภาพที่ 50.1% แม้จะมีความกังวลกับ Deepfake แต่ผู้ตอบแบบสอบถามยังมีความรู้สึกเชิงบวกกับการนำเทคโนโลยีนี้ไปใช้ในสื่อบันเทิง โดยข้อดีของ Deepfake คือช่วยให้สร้างความบันเทิงและรู้สึกตลก (40%) และรู้สึกชื่นชมในการสร้างสรรค์ผลงาน (39.4%) 

ยิ่งเทคโนโลยีพัฒนาไปมากเท่าไหร่ ความกังวลใจเกี่ยวกับการนำ Deepfake มาใช้เพื่อฉ้อโกงประชาชนยิ่งสูงขึ้นมากเท่านั้น เกือบ 66% ของชาวสหรัฐมีความกังวลกับการใช้ Deepfake และ Voice Clone ในที่ทำงานอย่างไม่เหมาะสม ซึ่งอาจส่งผลเสียต่อธุรกิจ  ทำลายภาพลักษณ์ของแบรนด์ และอื่น ๆ

Pindrop แนะนำให้บริษัทต่าง ๆ สร้างความไว้วางใจต่อลูกค้าของตนด้วยการพัฒนาแผนกลยุทธ์การรักษาความปลอดภัยแบบองค์รวม เช่น การตรวจสอบความปลอดภัยหลายปัจจัย และใช้เทคโนโลยีการยืนยันตัวตนผ่านอัตลักษณ์ทางร่างกาย (ไบโอเมตริกซ์) เพื่อป้องกันการฉ้อโกงผ่านระบบ AI 

เทคโนโลยี AI สามารถสร้างสรรค์สิ่งต่าง ๆ ได้ง่ายขึ้น แต่ในขณะเดียวกันก็กลายเป็นเครื่องมือให้มิจฉาชีพได้เช่นกัน เราจึงทำได้แค่ระมัดระวังตัวให้มากขึ้นและหาทางป้องกันตัวเองไม่ให้เป็นเหยื่อ ทางที่ง่ายที่สุดคือไม่รับสายเบอร์แปลก แต่ถ้าจำเป็นต้องรับสาย ควรปล่อยให้อีกฝ่ายพูดก่อน เพื่อป้องกันการถูกอัดเสียง ซึ่งหากได้ยินเสียงแล้วไม่ลื่นไหลเหมือนมนุษย์ ออกเสียงแปร่ง ๆ ก็อาจจะตีความได้ว่ากำลังคุยกับ AI อยู่



ที่มา: InsiderThe ConversationThe New York Times