ดร.อธิป อัศวานันท์

ดูบทความทั้งหมด

Social MEDIA & INNOVATION / [email protected] , http://drjoke.com , @drjoke

23 กรกฎาคม 2562
1,286

เมื่อ AI เป็นเครื่องมือแฮกเกอร์ และขโมยเงินได้สำเร็จ

คงไม่ต้องพูดถึงข้อดีของ AI ที่กำลังส่งผลสู่ความเจริญก้าวหน้าของระบบเศรษฐกิจและการอำนวยความสะดวกของผู้คน

แต่ข้อเสียจาก AI เป็นสิ่งที่สังคมมนุษย์กำลังเริ่มต้นที่จะเรียนรู้ ซึ่งในปัจจุบัน มีการคาดคะเนถึง 1. การตกงานของมนุษย์ที่จะถูกทดแทนด้วย AI และ 2. ความเหลื่อมล้ำเมื่อบางธุรกิจหรือประเทศสามารถครอบครอง AI หรือ Big Data ที่มีสมรรถนะเหนือกว่า ทั้งสองประการถือเป็นภัยอันดับต้นๆ ที่กำลังจะมาพร้อมกับ AI

แต่ในวันนี้ ได้มีการค้นพบข้อเสียประการใหม่ของ AI นั่นก็คือ การถูกใช้เป็นเครื่องมือของแฮกเกอร์ในการหลอกลวง ซึ่งได้มีการเปิดเผยว่า ได้กระทำสำเร็จไปแล้ว และสามารถขโมยเงินได้จริง อย่างน้อยถึง 3 ครั้ง จากข้อมูลของไซแมนเทค ผู้นำระดับโลกทางด้านไซเบอร์ซีเคียวริตี้

กรณีดังกล่าว เป็นการใช้ AI เพื่อจำลองเสียงของผู้บริหารหลายคน เพื่อล่อลวงให้ฝ่ายการเงินของบริษัทหลงเชื่อ และทำการโอนเงินให้

หลายเดือนที่ผ่านมา เราอาจได้เพลิดเพลินกันกับการใช้ AI เพื่อตัดต่อเปลี่ยนตัวละครในวีดีโอ โดยมีหลายแอพ เช่น เฟสสตาร์ ที่สามารถตัดต่อหน้าของเรา ลงในภาพยนต์ฮอลลีวูด

การตัดต่อวีดีโอด้วย AI ได้พัฒนามาอย่างมาก แต่มนุษย์ที่มีประสบการณ์ ยังคงสามารถแยกแยะวีดีโอที่ถูกตัดต่อด้วย AI และกำลังมีการวิจัยด้าน ​AI เป็นจำนวนมาก เพื่อใช้ AI แยะแยะวีดีโอที่ถูกตัดต่อด้วย AI

จึงเป็นการใช้ AI เพื่อรับมือกับ AI

แต่สำหรับการจำลองเสียงด้วย AI ยังเป็นวิทยาการที่บุคคลทั่วไปยังไม่ได้รับรู้มากนัก จึงสามารถตกเป็นเหยื่อได้ด้วยการรู้เท่าไม่ถึงการณ์

ในบรรดาเครื่องมือของแฮกเกอร์ทั้งหลาย การจู่โจมด้วยวิธีทางวิศวกรรมสังคม เป็นวิธีที่ง่ายและมีประสิทธิภาพสูงสุด เพราะอาศัยความรู้เท่าไม่ถึงการณ์ของมนุษย์ เป็นจุดอ่อนที่ถูกใช้ในการจู่โจม ซึ่งการหลอกลวงทางโทรศัพท์เป็นวิธีการที่ถูกใช้บ่อยสุด

ในตัวอย่างนี้ เป็นการหลอกลวงว่าตนเป็นผู้มีอำนาจ โดยใช้การจำลองเสียงของผู้บริหาร เพื่อโน้มน้าวให้ฝ่ายการเงินหลงเชื่อ และทำการโอนเงินให้

นี่เป็นเพียงจุดเริ่มต้นของมหันตภัยใหม่ ที่ใช้ AI เป็นเครื่องมือแฮกเกอร์ ด้วยการอาศัยวิธีทางวิศวกรรมสังคม ถึงแม้จะยังมิได้เป็นการใช้ AI เพื่อปฏิบัติการจู่โจมอย่างอัตโนมัติ โดยตัดสินใจไปเลยว่าจะต้องพูดอย่างไรจึงจะโน้มน้าวมนุษย์ได้ เพราะในปัจจุบัน หรือโทรหาใครเพื่อให้เกิดผลที่ต้องการ แต่ยังเป็นการใช้ AI เพื่อจำลองเสียง ที่ยังคงต้องมีมนุษย์อยู่เบื้องหลัง เพื่อตัดสินใจจะให้ AI พูดอะไร หรือโทรหาใคร

แต่ผู้อ่านสามารถจินตการณ์ถึงทิศทางที่เครื่องมือดังกล่าวจะถูกพัฒนาต่อไปในอนาคต เพื่อสร้างความเสียหายได้มากกว่านี้ เมื่อมีการต่อยอด AI เพื่อปฏิบัติการณ์จู่โจมอย่างอัตโนมัติ

และในอีกด้านหนึ่ง เช่นเดียวกับทุกเทคโนโลยี การจำลองเสียงด้วย AI อีกไม่นานก็จะมีการแพร่กระจาย จนเข้าถึงได้โดยบุคคลในวงกว้าง เช่นเดียวกับ แอป เฟสสตาร์ และอื่นๆ อีกมาก ที่สามารถตัดต่อหน้าของเรา ลงในภาพยนต์ฮอลลีวูด จึงจะนำไปสู่ความยุ่งเหยิงครั้งใหญ่ ที่ใครๆ ก็สามารถจำลองเสียงของใครก็ได้ ไม่ว่าจะเป็นด้วยความคึกคะนอง เพื่อขโมยเงินดังในตัวอย่าง หรือเพื่อหวังผลทางการเมือง ธุรกิจ และ สังคม

ในวันนี้ ผู้นำระดับโลกด้านไซเบอร์ซีเคียวริตี้ จึงได้พยายามสร้างความตระหนักถึงมหันตภัยนี้ และกำลังค้นค้าวิจัยเครื่องมือขึ้นมาต่อกร ด้วยการเล็งเห็นว่าภัยจากการใช้ AI เพื่อจำลองเสียงสามารถสร้างปัญหาได้ในวงกว้าง เพราะใช้ความรู้เท่าไม่ถึงการณ์ของมนุษย์เป็นจุดอ่อนในการจู่โจม

ดูบทความทั้งหมดของ ดร.อธิป อัศวานันท์

แชร์ข่าว :
Tags: