ในอดีตที่ผ่านมา เวลาเราพูดถึง "โฆษณาชวนเชื่อ" หรือ Propaganda เรามักนึกถึงรัฐที่ใช้สื่อกระแสหลัก สุนทรพจน์ หรือปฏิบัติการข้อมูลข่าวสารอย่างเป็นระบบ แต่ในปี 2026 โลกกำลังเห็นรูปแบบใหม่ที่ทั้งถูกกว่า เร็วกว่า และกระจายตัวกว่าเดิมมาก เป็นโฆษณาชวนเชื่อที่ใช้ Generative AI ในการสร้างเนื้อหา โดยมีนักวิชาการ Michał Klincewicz และคณะเสนอแนวคิดนี้ไว้ชัดเจนในงานที่ตีพิมพ์บน arXiv ในเดือนมีนาคม 2025 ตั้งชื่อว่า "Slopaganda" (บางแหล่งสะกดว่า "Sloppaganda") ซึ่งเป็นการผสมกันระหว่างคำว่า AI slop กับ Propaganda หมายถึงเนื้อหาที่สร้างด้วย AI แบบปริมาณมาก คุณภาพต่ำหรือหยาบ แต่ถูกออกแบบให้มีพลังทางอารมณ์พอที่จะชี้นำความเชื่อ สร้างความสับสน หรือทำให้ผู้คนเลิกจะแยกแยะความจริงกับความเท็จ
สิ่งที่ทำให้ AI Slopaganda อันตรายกว่าการโฆษณาชวนเชื่อแบบเดิม ไม่ใช่เพราะมัน "สมจริง" เสมอไป ตรงกันข้าม หลายชิ้นดูปลอมพอสมควร แต่กลับแพร่ได้มหาศาล เพราะระบบแพลตฟอร์มดิจิทัลให้รางวัลกับคอนเทนต์ที่กระตุ้นอารมณ์เร็ว เข้าใจง่าย และแชร์ต่อได้ทันที
World Economic Forum เตือนในปีนี้ว่าสื่อสังเคราะห์ (synthetic media) และเนื้อหาเท็จที่สร้างด้วย AI กำลังกลายเป็นความเสี่ยงเชิงระบบต่อเสถียรภาพทางสังคม ขณะที่สำนักข่าวเอพีอธิบายว่าข้อมูลเท็จที่ผลิตด้วย AI ถูกแชร์ด้วยความเร็วที่ไม่เคยมีมาก่อน จากแหล่งต่างๆ จำนวนมหาศาล จนการตรวจสอบข้อเท็จจริงตามไม่ทัน
กรณีสงครามอิหร่าน–สหรัฐ/อิสราเอลในปีนี้ เป็นตัวอย่างที่ชัดที่สุดของปรากฏการณ์นี้ ตั้งแต่ช่วงเริ่มต้นของสงคราม กระแสออนไลน์เต็มไปด้วยวิดีโอ AI ภาพปลอม ภาพเก่าเอามาเล่าใหม่ คลิปเกม และภาพเหตุการณ์จากประเทศอื่นที่ถูกนำมาอ้างว่าเป็นการโจมตีล่าสุดในสมรภูมิ สำนักข่าวเอพีรายงานว่าปฏิบัติการข้อมูลข่าวสารที่เกี่ยวข้องกับรัฐ โดยเฉพาะฝั่งอิหร่านและเครือข่ายสนับสนุน มีบทบาทสำคัญในการผลักดันวิดีโอและภาพเท็จจำนวนมาก
คลิปหนึ่งในแพลตฟอร์ม X ที่ถูกแชร์อย่างแพร่หลายเป็นตัวละคร Lego ที่หน้าตาคล้ายประธานาธิบดีทรัมป์ถือมงกุฎ ยืนอยู่กลางกระดานหมากรุก มีเสียงเพลงแร็ปประกอบว่า "ส่งพวกเขาไปสู่การสังหาร คุณนั่นแหละคือคนที่ต้องรับผิดชอบ" ซึ่งคลิปพยายามกล่าวหาไปยังคนที่ถูกล้อเลียนว่าคือผู้รับผิดชอบต่อความตายของผู้อื่น โทนเสียงฟังดูก้าวร้าว ชัดเจน และกระตุ้นอารมณ์ได้ทันที ซึ่งก็คือสูตรสำเร็จของ Slopaganda พอดี โดยคนดูไม่ต้องพิสูจน์ แค่ให้รู้สึกโกรธก็พอ
ภายหลังพบว่าคลิปชุดนี้มาจาก Explosive Media กลุ่มสื่อดิจิทัลที่ BBC ยืนยันว่าทำงานให้รัฐบาลอิหร่าน วิดีโอชุดนั้นสะสมยอดวิวได้เป็นพันล้านครั้งในเวลาไม่กี่สัปดาห์
ด้วยความก้าวหน้าของ Gen-AI ทำให้ในช่วงสงครามนี้มีการผลิตเนื้อหาปลอมออกมาโฆษณาชวนเชื่อจำนวนมาก อาทิ Tehran Times ซึ่งเป็นสื่อที่เชื่อมโยงกับรัฐบาลอิหร่าน เผยแพร่ภาพดาวเทียมที่อ้างว่าแสดงให้เห็นว่าฐานทัพเรือสหรัฐฯ ในกาตาร์ถูกโจมตีจนเสียหาย แต่เมื่อมีการตรวจสอบกลับพบว่าเป็นภาพดาวเทียมของจริงที่ถูกตัดต่อด้วย AI เพื่อใส่ความเสียหายที่ไม่มีอยู่จริง โดย New York Times
รายงานว่ามีวิดีโอ Deepfake จากฝ่ายที่สนับสนุนอิหร่านผลิตออกมามากกว่า 110 รายการในช่วงสองสัปดาห์แรกของความขัดแย้ง
ในขณะที่ฝั่งสหรัฐก็มีการทำ Slopaganda เช่นกัน อาทิ ทำเนียบขาวได้โพสต์วิดีโอโปรโมทปฏิบัติการทางทหารโจมตีอิหร่าน โดยนำคลิปจากเกม Call of Duty: Modern Warfare III มาตัดสลับกับภาพการโจมตีจริง โดยไม่มีการแยกแยะให้ชัดเจนว่าอะไรคือเกม อะไรคือเหตุการณ์จริง วิดีโอดังกล่าวแพร่ออกไปเป็นจำนวนมาก และถูกวิจารณ์อย่างหนักว่าเป็นการนำความบันเทิงมาปนกับโฆษณาชวนเชื่อทางทหาร ก่อนที่ทำเนียบขาวจะทำวิดีโอในลักษณะเดียวกันอีกหลายชุด โดยดึงคลิปจากทั้งภาพยนตร์และการ์ตูนมาใช้ในแคมเปญทางโซเชียลมีเดีย
นอกจากนี้ในสงครามรัสเซีย–ยูเครน ทางรัสเซียมีการใช้ AI ทั้งในการสร้าง Deepfake และมีการใช้กลยุทธ์ที่เรียกว่า "LLM Grooming" ซึ่งคือการฝังเนื้อหาโฆษณาชวนเชื่อลงในชุดข้อมูลการฝึกโมเดล AI เพื่อบิดเบือนผลลัพธ์ของโมเดลภาษาขนาดใหญ่ในระยะยาว ทั้งนี้ตั้งแต่ต้นปี 2025 ทางยูเครนได้ระบุว่ารัสเซียมีการใช้ AI ในการปฏิบัติการด้านข้อมูลข่าวสารมากกว่า 191 ครั้ง
Slopaganda ไม่ได้จำกัดอยู่แต่ในสนามรบ ในแคนาดามีรายงานว่าสื่อที่สร้างจาก AI กำลังถูกใช้ขับเคลื่อนกระแสแบ่งแยกดินแดนในรัฐ Alberta โดยสร้างความรู้สึกว่า "คนส่วนใหญ่" ต้องการแยกตัวจากประเทศ ทั้งที่ตัวเลขจริงไม่ได้เป็นเช่นนั้น นอกจากนี้ยังพบว่ามีหลายประเทศที่ใช้เครื่องมือ AI ในการสร้างเนื้อหาปลอม ทำให้เส้นแบ่งระหว่างโฆษณาการเมืองกับข้อมูลเท็จเบลอลงจนแทบตามไม่ทัน
ผมคิดว่าจุดที่น่ากังวลที่สุดของ Slopaganda ไม่ใช่การมีเนื้อหาปลอม แต่เป็นปรากฏการณ์ที่โลกออนไลน์เต็มไปด้วยข้อมูลที่สร้างมารบกวน จนคนเลิกพยายามหาข้อเท็จจริง ทั้งนี้ Slopaganda ไม่ได้มีเป้าหมายเพียงทำให้คน "เชื่อเรื่องปลอม" แต่เป้าหมายมีอยู่ 4 อย่าง
อย่างแรกคือ ยึดพื้นที่ความสนใจ เพราะในสงคราม ใครเล่าเรื่องได้ก่อน มักได้เปรียบทางจิตวิทยา เป้าหมายที่สองคือสร้างความคลุมเครือ ทำให้เรื่องจริงดูไม่น่าเชื่อถือเท่าเรื่องปลอม เป้าหมายที่สามคือกดดันอารมณ์ ผ่านภาพสะเทือนใจ ความโกรธ ความกลัว หรือความแค้น และเป้าหมายที่สี่คือ ทำให้ระบบตรวจสอบล้า เพราะเมื่อของปลอมมีจำนวนมาก ผู้ตรวจสอบข้อเท็จจริงและสื่อมืออาชีพต้องเสียเวลาไปกับการแก้ข่าวปลอม แทนที่จะรายงานข้อเท็จจริงใหม่ๆ จากภาคสนาม นี่คือเหตุผลว่าทำไมคอนเทนต์ที่ดู "หยาบ" หรือ "มั่ว" จึงยังมีประสิทธิภาพสูงในเชิงยุทธศาสตร์
สำหรับประเทศไทย คนบ้านเราก็ติดตามข่าวสารผ่านโซเชียลมีเดียมากพอควร และอาจตกเป็นเป้าหมายของ Slopaganda เช่นกันโดยไม่รู้ตัว อย่างเช่นคลิป Lego Trump ไม่ได้ถูกออกแบบให้คนในประเทศคู่สงครามดูเท่านั้น แต่มันถูกออกแบบให้ "คนดูบนอินเทอร์เน็ตทั่วโลก" รู้สึกร่วมด้วย
ผมไม่ได้คิดว่าเราจะต้องหยุดติดตามเนื้อหาต่างๆ บนโซเชียลมีเดีย แต่เราต้องมีทักษะที่ไม่ใช่แค่การแยกแยะ "จริง" กับ "เท็จ" แต่ต้องรู้เท่าทันว่าอารมณ์ของตัวเองไม่คล้อยตามสื่อเหล่านั้นมากเกินไป สังคมต้องยกระดับพร้อมกันสามด้าน ทั้งระบบตรวจสอบยืนยันแหล่งที่มาให้เร็วขึ้น แพลตฟอร์มต้องมีบทลงโทษจริงจังต่อคอนเทนต์ Slopaganda ที่สร้างด้วย AI และที่สำคัญที่สุดคือเราต้องมีทักษะ "ชะลอการเชื่อ" ก่อนแชร์ เพราะ Slopaganda ไม่ได้ต้องการให้คุณเชื่อว่ามันเป็นเรื่องจริง มันต้องการแค่ให้คุณรู้สึก และความรู้สึกนั้นยากจะล้างออกแม้จะรู้ภายหลังว่าถูกหลอก
คำถามที่ผมอยากฝากไว้คือ เราพร้อมจะตั้งคำถามกับอารมณ์ของตัวเองก่อนกดแชร์แล้วหรือยัง?


