เมื่อ AI โคลน ‘เสียงมนุษย์’ เกือบ 100% นักพากย์เสี่ยงตกงาน-มิจฉาชีพใช้เรียกค่าไถ่

เมื่อ AI โคลน ‘เสียงมนุษย์’ เกือบ 100% นักพากย์เสี่ยงตกงาน-มิจฉาชีพใช้เรียกค่าไถ่

เมื่อ AI สามารถเลียนแบบตัวตนของมนุษย์ อย่าง “เสียงพูด” ได้สำเร็จ ในระดับที่มนุษย์ไม่สามารถแยกแยะได้ สิ่งนี้จะสร้างผลกระทบเป็นวงกว้างต่อมนุษย์มากน้อยเพียงใด และมีวิธีรับมืออย่างไรบ้าง

Key Points

  • บริษัทจ้างมนุษย์พากย์เสียง 30 วินาที ราคา 2,000 ดอลลาร์หรือราว 70,000 บาท ในขณะที่เสียงพากย์จาก AI ราคาเพียงแค่ 27 ดอลลาร์หรือราว 1,000 บาทต่อเดือนเท่านั้น
  • นักพากย์เสียงหลายคนเซ็นสัญญาให้บริษัทลูกค้าสามารถใช้เสียงตัวเองได้ไม่จำกัด รวมถึงขายให้ฝ่ายที่สาม ซึ่งอาจใช้เสียงของมนุษย์ในการฝึก AI
  • หากเสียงคนในครอบครัวทางโทรศัพท์ ขอให้เราโอนเงินผ่านช่องทางที่ไม่ใช่ธนาคาร ไม่สามารถตรวจสอบเส้นทางการเงินได้ ก็ขอให้ระวังว่า อาจเป็นมิจฉาชีพ


ปัญญาประดิษฐ์ หรือ AI (Artificial Intelligence) ในปัจจุบันกำลังเป็นดาบสองคม ด้านหนึ่งช่วยแบ่งเบาภาระมนุษย์ ประมวลข้อมูลมหาศาลได้อย่างรวดเร็ว ขณะที่อีกด้านหนึ่งก็กำลังกลายเป็นภัยคุกคามต่อมนุษย์ เมื่อ AI เข้าสู่จุดที่เรียกว่า “เลียนแบบเสียงพูดมนุษย์” ได้อย่างคล้ายคลึงมากจนแทบแยกไม่ออก ส่งผลกระทบต่ออาชีพนักพากย์เสียง จนอาจทำให้ “ตกงาน” ได้ในอนาคต

 

เมื่อ AI โคลน ‘เสียงมนุษย์’ เกือบ 100% นักพากย์เสี่ยงตกงาน-มิจฉาชีพใช้เรียกค่าไถ่

- นักพากย์เสียง (เครดิต: Shutterstock) -

 

เห็นได้จากกรณีนักพากย์เสียงชาวไอร์แลนด์ที่ชื่อ เรมี มิเชล คลาร์ก (Remie Michelle Clarke) ซึ่งเคยพากย์เสียงโฆษณาให้กับบริษัท Mazda ผู้ผลิตรถยนต์, Mastercard ผู้ให้บริการบัตรเครดิต และ Bing เว็บเสิร์ชเอนจินของ Microsoft เจ้าของซอฟต์แวร์ Office

วันหนึ่ง มิเชล คลาร์กถึงกับประหลาดใจ เมื่อพบว่าเสียงตัวเองไปอยู่ในเว็บ Revoicer.com ในเสียงผู้หญิงที่ชื่อว่า “โอลิเวีย” ซึ่งเมื่อเปิดฟังแล้วก็คล้ายเสียงตัวเองมากจนน่ากลัว

เธอสงสัยว่า เสียงของตัวเองไปอยู่ในเว็บนั้นได้อย่างไร ก็พบความจริงว่า บริษัท Revoicer สามารถใช้เสียงเธอผ่านข้อตกลงอนุญาตให้ใช้สิทธิกับบริษัท Microsoft ซึ่งเมื่อเรื่องดังกล่าวกลายเป็นประเด็นในหน้าหนังสือพิมพ์ ทางบริษัท Revoicer ก็ตัดสินใจนำเสียงของเธอออกจากเว็บไซต์

จากเหตุการณ์ดังกล่าวทำให้มิเชล คลาร์กกังวลใจว่า เสียงของเธออาจถูกใช้ในที่อื่น ๆ อีกโดยที่เธอไม่ได้รับรู้ รวมถึงยังกังวลถึงความมั่นคงในอาชีพตัวเอง จากการที่บริษัทต่าง ๆ เคยจ้างเธอพากย์เสียง 30 วินาทีในราคา 2,000 ดอลลาร์ หรือราว 70,000 บาท ในขณะที่เสียงพากย์จาก AI มีราคาเพียง 27 ดอลลาร์ หรือราว 1,000 บาทต่อเดือน ด้วยเหตุนี้ จึงอาจทำให้บริษัทลูกค้าไม่เลือกจ้างเธอและไปจ้าง AI แทน

 

เมื่อ AI โคลน ‘เสียงมนุษย์’ เกือบ 100% นักพากย์เสี่ยงตกงาน-มิจฉาชีพใช้เรียกค่าไถ่

- ปัญญาประดิษฐ์ (เครดิต: Shutterstock) -

 

ลิขสิทธิ์เสียงพูดถูก AI โคลนนิ่ง

เสียงพูดที่สร้างโดย AI กำลังก่อปัญหาทางลิขสิทธิ์ขึ้น เมื่อกฎหมายในปัจจุบันยังสรุปไม่ได้ว่า ใครควรเป็นเจ้าของเสียงที่ถูกสร้างโดย AI รวมไปถึงกรณีที่เสียงของเจ้าของเสียง ถูกขายต่อให้กลุ่มที่สาม (Third Party) เพื่อใช้ฝึก AI เลียนแบบเสียงต้นฉบับด้วย

ดังจะเห็นได้จากนักพากย์เสียงที่ชื่อ ไมค์ คูเปอร์ (Mike Cooper) จากรัฐนอร์ทแคโรไลนา สหรัฐ เปิดเผยว่า รู้สึกโกรธ เมื่อพบตัวอย่างเสียงของตัวเองอยู่ในคลังไฟล์ลงเสียงที่ประกาศขายโดยบริษัทรายหนึ่ง แต่ไม่นานหลังจากนั้น ก็จำได้ว่าได้เซ็นสัญญายินยอมให้เสียงตัวเองถูกใช้ในที่อื่นได้ ซึ่งทำให้เขารู้สึกเสียใจอย่างยิ่ง

“ผมประเมินความเสี่ยงต่ำเกินไปมาก ผมคิดผิดมหันต์” คูเปอร์กล่าว

ปัญหาลิขสิทธิ์เสียงในปัจจุบัน คือ นักพากย์เสียงหลายคนยินยอมเซ็นสัญญาให้บริษัทลูกค้าสามารถใช้เสียงตัวเองได้โดยไม่จำกัด รวมถึงขายให้ฝ่ายที่สาม ซึ่งอาจใช้เสียงของมนุษย์ที่มีเอกลักษณ์ในการฝึก AI และสร้างเสียงที่คล้ายคลึงต้นฉบับนี้ขึ้นมา โดยเสียงที่สร้างโดย AI มักถูกขายในราคาถูกกว่าเสียงต้นฉบับหลายเท่า

อาชีพนักร้องตกอยู่ในความเสี่ยง

นอกจากอาชีพนักพากย์แล้ว อาชีพนักร้องก็เผชิญความเสี่ยงเช่นกัน เมื่อใน Tiktok มีบุคคลที่ใช้นามแฝง ghostwriter977 ใช้ AI สร้างเพลงใหม่ที่ชื่อ "Heart on My Sleeve" โดยใช้เสียงเลียนแบบศิลปินเพลงชาวแคนาดาชื่อดังอย่าง “เดรก” (Drake) และ “เดอะวีกเอนด์” (The Weeknd)

ผลปรากฏว่าคล้ายกันมาก โดยถูกโพสต์เมื่อวันที่ 4 เม.ย. 2566 จนแพร่หลายในสื่อโซเชียลมีเดียหลายแห่งไม่ว่าจะเป็น Tiktok, Apple Music, Spotify และ YouTube

 

เมื่อ AI โคลน ‘เสียงมนุษย์’ เกือบ 100% นักพากย์เสี่ยงตกงาน-มิจฉาชีพใช้เรียกค่าไถ่

- นักร้อง The Weeknd  (เครดิต: Shutterstock) -

 

อย่างไรก็ตาม ในเวลาต่อมา กลุ่มธุรกิจค่ายเพลง Universal Music Group เกิดความไม่สบายใจ และเพลง "Heart on My Sleeve" ก็ถูกถอดออกจาก YouTube และ Spotify อย่างรวดเร็วเมื่อสัปดาห์ที่แล้ว

เครื่องมือ “สร้างสถานการณ์ปลอม” เพื่อเรียกค่าไถ่

AI สามารถเลียนแบบเสียงคนรักของเรา ไม่ว่าจะเป็นลูก พี่น้อง ญาติในครอบครัว เมื่อญาติพี่น้องตกอยู่ในอันตราย สิ่งที่เราอยากได้ยินมากที่สุดคือ เสียงของพวกเขา

ดังนั้น มิจฉาชีพจึงใช้จุดนี้สร้างสถานการณ์ที่ดูเหมือนว่าคนรักเราถูกกักขัง และใช้ AI ปลอมเป็นเสียงคนที่เราไว้ใจ ทำให้เราใจอ่อนและยอมโอนเงินจำนวนมากให้มิจฉาชีพ โดยที่คนรักเราไม่ได้ตกอยู่ในอันตรายจริง ๆ

นอกจากการเรียกค่าไถ่ เสียงเสมือนยังถูกใช้เพื่อหลอกให้โอนเงินได้อีกด้วย โดยอ้างว่าประสบความเดือดร้อนทางการเงิน ถูกคดีร้ายแรง ซึ่งถ้าเป็นเสียงมิจฉาชีพจากแก๊ง Call Center ทั่วไป เราอาจรู้ทันและไม่โอนเงินให้ แต่ถ้าเป็นเสียงของคนรักที่ถูกปลอมโดย AI ก็เป็นเรื่องยากที่จะปฏิเสธ

 

เจาะระบบความปลอดภัยหน่วยงานรัฐได้

ออสเตรเลียซึ่งอยู่ในกลุ่มประเทศที่พัฒนาแล้ว กำลังเผชิญความท้าทายจาก AI เมื่อ Centrelink องค์กรของรัฐบาลที่ให้การสนับสนุนชาวออสเตรเลียที่ประสบปัญหาทางการเงินและบริการประกันสังคม และ Australian Taxation Office หรือกรมสรรพากรออสเตรเลีย เปิดให้ประชาชนสามารถเข้าถึงข้อมูลส่วนบุคคลด้วยการใช้เสียงตัวเองยืนยันตัวตนได้ผ่านมือถือ

ผู้สื่อข่าว The Guardian ของสาขาออสเตรเลีย ได้ลองใช้ AI ทดสอบระบบความปลอดภัยดังกล่าว โดยสร้างเสียงเลียนแบบเจ้าของบัญชี พร้อมหมายเลขอ้างอิงเจ้าของบัญชีในการเข้าสู่ระบบ ผลปรากฏว่าเข้าสู่ระบบได้สำเร็จ แสดงให้เห็นว่าเสียงเลียนแบบของ AI นี้สามารถหลอกระบบความปลอดภัยของรัฐได้

โทบี วอลช์ (Toby Walsh) หัวหน้าฝ่ายนักวิทยาศาสตร์ของสถาบัน AI แห่งมหาวิทยาลัยนิวเซาท์เวลส์ ให้ความเห็นกับสำนักข่าว The Guardian ว่า “ถ้าคุณติดต่อกับผู้คนผ่านมือถือหรือทางอินเทอร์เน็ต และคุณก็มั่นใจว่าบุคคลนั้นเป็นคนที่คุณรู้จักจริง แต่หากดูจากสิ่งที่ AI สามารถทำได้ในขณะนี้ การเพียงแค่เห็นหน้าเขาหรือได้ยินเสียงของเขาทางไกล อาจยังไม่เพียงพอ”

 

แนวทางรับมือภัยคุกคามจาก AI

  • การหลอกลวงเรียกค่าไถ่

ตามข้อมูลจากคณะกรรมาธิการการค้าของรัฐบาลกลางสหรัฐ (Federal Trade Commission) แนะนำประชาชนว่า อย่าพึ่งรีบโอนเงิน หากสงสัยว่า “สมาชิกในครอบครัว” ถูกจับเรียกค่าไถ่ และได้รับสายเป็นเสียงคนในครอบครัวพร้อมคำพูดจากผู้ร้ายให้รีบโอนเงินไป เพราะเสียงนั้นอาจถูก AI ปลอมแปลงมา ควรสังเกตจากข้อระวังดังต่อไปนี้

1. ควรคุยโต้ตอบกับเสียงปลายทางที่ผู้ร้ายอ้างว่าเป็นคนรักเรา แทนการรับฟังเพียงอย่างเดียว พร้อมคำถามที่รู้เฉพาะคนในครอบครัวเท่านั้น เช่น “ชอบให้สุนัขในบ้านกินอะไรมากที่สุด” “จำเหตุการณ์ครั้งนั้นได้ไหม” หรือ ประสบการณ์ร่วมต่าง ๆ แต่ไม่ควรถามข้อมูลวันเกิด เบอร์มือถือ ชื่อคู่ชีวิต เพราะข้อมูลเหล่านี้หาง่ายในโลกออนไลน์

2. ควรโทรหาเพื่อนสนิท อาจารย์ เพื่อนที่ทำงานของสมาชิกครอบครัว เพื่อให้แน่ใจว่า พวกเขาหายตัวไปจริง ๆ หรือไม่

3. หากเสียงคนรักเราขอให้โอนเงินผ่านช่องทางที่ไม่ใช่ธนาคาร และไม่สามารถตรวจสอบเส้นทางการเงินได้ ไม่ว่าจะเป็นทาง MoneyGram, Western Union หรือบิตคอยน์ ก็ยิ่งต้องระวังว่า อาจเป็นมิจฉาชีพ

หากยังไม่เคยประสบเหตุร้ายเช่นนี้ ควรเตรียมคำศัพท์เฉพาะที่รู้กันภายในครอบครัวเท่านั้น ที่สื่อได้ทันทีว่า “เกิดอันตราย” หรือมีความหมายพิเศษบางอย่าง เผื่อกรณีที่มีผู้อ้างว่าจับคนรักหรือสมาชิกครอบครัวเรียกค่าไถ่ ก็สามารถใช้คำพิเศษเหล่านี้เพื่อยืนยันตัวตนได้ โดยไม่เป็นที่สังเกตของมิจฉาชีพ

 

  • ลิขสิทธิ์ของเสียงพูด

บรรดานักพากย์เสียงและนักร้องที่ใช้เสียงตัวเอง อาจจำเป็นต้องตรวจทานเงื่อนไขสัญญาก่อนเซ็น ว่าเสียงของตนถูกใช้ในงานประเภทใดบ้าง ขอบเขตการใช้ และสามารถถูกขายต่อให้บุคคลที่สามได้หรือไม่ เพื่อรักษาสิทธิ์ในเสียงของตน

ในปัจจุบัน บริษัทหลายแห่งกำลังพัฒนา “ลายน้ำดิจิทัล” (Inaudible Watermark) ขึ้นมา คล้ายลายน้ำบนภาพถ่าย เพียงแต่เป็นโค้ดที่ถูกฝังใส่ในเสียงแทน โดยไม่กระทบคุณภาพเสียง เป็นเสียงลายน้ำที่หูมนุษย์จะไม่ได้ยิน ต้องใช้กับเครื่องมือเฉพาะในการตรวจเท่านั้น ซึ่งลายน้ำดังกล่าวจะบ่งบอกว่า เสียงนี้สร้างโดยศิลปิน หรือ AI

หากมีความพยายามที่จะทำลายลายน้ำด้วยการบีบอัดหรือแก้ไขไฟล์เสียง บริษัทสามารถฝังโค้ดที่ชื่อว่า Error Correcting Code (ECC) เพิ่มได้ เพื่อระบุว่าไฟล์เสียงนี้ยังคงสภาพแบบเดิมหรือไม่

ส่วนประเด็นอาชีพนักพากย์และอาชีพที่ใช้เสียงอื่น ๆ ที่อาจถูก AI ดิสรัปต์นั้น อาจต่อยอดจากการใช้ทักษะทางเสียงเพียงอย่างเดียว มาเป็นการเล่าเรื่องหรือนำเสนอเนื้อหาในรูปแบบวิดีโอที่ผู้ชมเห็นหน้าตา ซึ่งต้องใช้องค์ความรู้ต่าง ๆ ในการวิเคราะห์ ก็อาจจะช่วยลดความเสี่ยงจากการถูกดิสรัปต์ดังกล่าวได้

จากพัฒนาการของ AI ในปัจจุบัน สะท้อนว่า ระบบยืนยันด้วยเสียงอาจไม่ปลอดภัยอีกต่อไป การที่ AI เลียนแบบเสียงมนุษย์ได้และใช้เสียงดังกล่าวเข้าสู่ระบบได้สำเร็จ ทำให้มนุษย์อาจจำเป็นต้องสร้างกำแพงความปลอดภัยหลายชั้นมากขึ้นในอนาคต นอกจากการยืนยันตัวตนด้วยเสียงแล้ว ก็ยังจำเป็นต้องใช้การยืนยันด้วย “ตัวเลขรหัสผ่าน” พร้อม “ใบหน้า” ประกอบด้วยในการปลดล็อกรหัสความปลอดภัยต่าง ๆ

 

โดยสรุป การที่ AI สามารถสวมรอยเสียงมนุษย์ได้โดยที่มนุษย์ไม่สามารถแยกแยะความแตกต่าง จึงอาจเป็นภัยคุกคามที่เข้ามาดิสรัปต์อาชีพที่ใช้ “เสียง” หรือเป็นเครื่องมือมิจฉาชีพในการปลอมแปลงตัวตน รวมไปถึงละเมิดลิขสิทธิ์เสียงมนุษย์ จากการถูกใช้อย่างไม่เหมาะสมหรือเจ้าของเสียงไม่ได้ให้ความยินยอม เหล่านี้ถือเป็นความท้าทายที่มนุษย์จำเป็นต้องเตรียมรับมือตั้งแต่เนิ่น ๆ

อ้างอิง: ABC NewstheguardianwashingtonpostFederal Trade Commissiontechcrunchbloombergrevoicer