เสรีภาพกับความรับผิดชอบสื่อในศตวรรษที่ 21(4)เมื่อ 'โค้ด'

เสรีภาพกับความรับผิดชอบสื่อในศตวรรษที่ 21(4)เมื่อ 'โค้ด'

: เมื่อ 'โค้ด' คือกลไกกำกับ

สองตอนที่ผ่านมาผู้เขียนพูดถึงกลไกกำกับสื่อสองระดับ คือ “กลไกกำกับดูแลร่วมกัน” หรือ co-regulation ซึ่งเห็นว่าควรจะนำมาใช้กับสื่อมวลชนกระแสหลัก ที่ประกอบการภายใต้ใบอนุญาตจาก กสทช. เนื่องจากใช้คลื่นความถี่อันเป็นสมบัติสาธารณะ กับ “กลไกกำกับดูแลกันเอง” หรือ self-regulation ซึ่งสื่อต่างๆ ทุกประเภท ไม่ว่ากระแสหลักหรือกระแสรอง สื่อใหม่หรือสื่อเก่า สามารถใช้เป็น “ด่านแรก” ในการกำกับเนื้อหาที่ไม่ถึงขั้นผิดกฎหมาย แต่ผิดจริยธรรมสื่อ โดยไม่ต้องถึงมือรัฐ

ในเมื่อสื่อใหม่และสื่อเก่าจำนวนนับไม่ถ้วนวันนี้ใช้อินเทอร์เน็ตเป็นพื้นที่ในการทำงานและสื่อสาร และในเมื่ออินเทอร์เน็ตขับเคลื่อนด้วย “โค้ด” (code) คอมพิวเตอร์ ก็ไม่น่าแปลกใจที่ “โค้ด” จะสามารถเป็นหนึ่งในกลไกกำกับดูแลกันเองของสื่อ โดยเฉพาะสื่อแบบโซเชียลมีเดียซึ่งเดินด้วยเนื้อหาที่ผู้ใช้สร้างเอง หรือ user-generated content เป็นหลัก

ในคอลัมน์นี้เมื่อปีกลาย ผู้เขียนเคยพูดถึงวิธีจัดการกับเนื้อหาที่สุ่มเสี่ยงว่าจะก่อให้เกิดความเกลียดชังถึงขั้นใช้ความรุนแรง หรือ “เฮทสปีช” ของเฟซบุ๊ก (Facebook) โซเชียลมีเดียยักษ์ใหญ่มาแล้ว โดยเอกสารที่หลุดมาถึง SZ หนังสือพิมพ์ฉบับหนึ่งในเยอรมนี (ข่าว http://www.theverge.com/2016/12/20/14022472/facebook-hate-speech-moderation-germany-migrant-refugee) ทำให้เรารับรู้ว่า วิธีจัดการกับเนื้อหา “เฮทสปีช” ของเฟซบุ๊กนั้นใช้ “คน” ผสมกับ “โค้ด” เริ่มต้นจากการนิยาม “ประเภทคุ้มครอง” (protected category) ก่อน เช่น เด็ก ศาสนา ผู้ชรา ฯลฯ แต่เส้นแบ่งนี้ก็พร่าเลือนเมื่อมาถึงกลุ่มใหม่ๆ ซึ่งตกเป็นเป้าของเฮทสปีชเมื่อไม่นานมานี้ เช่น ผู้อพยพ (migrants) 

รายงานข่าวของ SZ ระบุว่า “ยกตัวอย่างเช่น [ใครก็ตามจะ]โพสกระทบศาสนาไม่ได้ เพราะการสังกัดศาสนาใดศาสนาหนึ่งเป็นประเภทคุ้มครอง แต่ประโยคต่อว่ารุนแรง “ผู้อพยพ...” โพสได้ เพราะผู้อพยพเป็นเพียง “ประเภทกึ่งคุ้มครอง” (quasi-protected category) – ประเภทพิเศษซึ่งเฟซบุ๊กกำหนดขึ้นมาใหม่หลังจากที่ถูกร้องเรียนในเยอรมนี กฎข้อนี้บอกว่า การส่งเสริมความเกลียดชังต่อผู้อพยพนั้นทำได้ภายใต้บริบทบางอย่าง

นอกจากเฟซบุ๊กจะต้องตอบสนองต่อข้อร้องเรียนและเสียงเรียกร้องจากผู้ใช้อย่างต่อเนื่องแล้ว เฟซบุ๊กก็มอบอำนาจให้ผู้ใช้กำกับดูแลกันเองในบางระดับด้วย

ยกตัวอย่างเช่น ตั้งแต่ปี 2011 เป็นต้นมา เฟซบุ๊กเพิ่มฟังก์ชั่นให้ผู้ดูแลเพจ (Facebook page admin) สามารถเพิ่มรายการคำศัพท์ที่ไม่ต้องการให้แสดงบนเพจ (moderation blocklist) เช่น ถ้าหากเราเป็นผู้ดูแลเพจที่ไม่อยากเสี่ยงต่อการถูกแกล้ง มาโพสความเห็นที่มีข้อความหมิ่นเหม่ว่าจะผิดกฎหมายอาญา มาตรา 112 (หมิ่นพระบรมเดชานุภาพ) พ่วงมาตรา 14 พ.ร.บ. คอมพิวเตอร์ หลังจากที่ลบข้อความนั้นไปแล้ว เราก็สามารถไปเพิ่มคำคำนั้นลงใน moderation blocklist ได้ ครั้งต่อไปที่มีคนมาโพสคำคำนี้ ข้อความจะถูกโค้ดของเฟซบุ๊กซ่อนไว้ ไม่แสดงต่อสาธารณะ และถูกจัดว่าเป็น “สแปม” โดยอัตโนมัติ

นอกจาก moderation blocklist เฟซบุ๊กยังมี “รายการคำหยาบ” (profanity blocklist) รวบรวมคำที่ถูกร้องเรียนจากชุมชนผู้ใช้บ่อยครั้งจนเฟซบุ๊กตัดสินใจแบนเอง ในฐานะผู้ดูแลเพจ เราสามารถเลือกได้ว่าจะกรองคำหยาบแบบ “ปานกลาง” (medium) หรือ “เข้ม” (strong) (อ่านรายละเอียดของ moderation blocklist และ profanity blocklist ได้ที่ https://www.facebook.com/help/131671940241729)

ไม่เพียงแต่เฟซบุ๊กที่ใช้ “โค้ด” ผสมกับการตัดสินใจของ “คน” ในการกำกับเนื้อหา บริษัทผู้ให้บริการยักษ์ใหญ่อีกหลายเจ้าก็มีวิธีคล้ายกัน เช่น กูเกิล (Google) ทำรายการคำหยาบ (“bad words”) และใช้เป็นค่าตั้งต้นในการค้นหา (หรือพูดในภาษากูเกิลได้ว่า ฟังก์ชั่น “SafeSearch” ทำงานตลอดเวลา) หน้าเว็บไหนมีคำใดคำหนึ่งในรายการนี้ โค้ดของกูเกิลจะไม่แสดงหน้าเว็บนั้นๆ ในผลการค้นหา 

ฉะนั้น ถ้าหากเราอยากให้คนค้นเจอหน้าเว็บเราจากกูเกิล (ใครบ้างจะไม่อยาก!) เราก็จะต้องดูแลไม่ให้คำเหล่านี้ปรากฎบนเว็บเลย

(กูเกิลไม่เคยเปิดเผย “รายการคำหยาบ” ที่ว่านี้ต่อสาธารณะ แต่จากการแลกเปลี่ยนข้อมูลระหว่างผู้ใช้เน็ต ก็มีคนทำรายการนี้ขึ้นมาเอง สามารถดาวน์โหลดได้จาก https://www.freewebheaders.com/full-list-of-bad-words-banned-by-google/)

กรณีการใช้ “โค้ด” กำกับเนื้อหาล่าสุดคือ วิธีจัดการกับ “ข่าวปลอม” ซึ่งผู้เขียนก็เคยพูดถึงในคอลัมน์นี้ไปแล้วเช่นกัน โดยเล่ากรณีที่เฟซบุ๊กออกมาประกาศต่อสาธารณะกลางเดือนธันวาคม 2559 (ต้นฉบับ http://newsroom.fb.com/news/2016/12/news-feed-fyi-addressing-hoaxes-and-fake-news/) ว่า เฟซบุ๊กได้ออกมาตรการมาแล้ว 4 อย่าง เพื่อจัดการกับปัญหา “ข่าวปลอม” ได้แก่

1. ปรับฟีเจอร์ให้ผู้ใช้รายงานข่าวปลอมได้ง่ายขึ้น โดยถ้าคลิกที่มุมด้านขวาของทุกโพสจะขึ้น “นี่เป็นข่าวปลอม” เป็นทางเลือกในเมนูการรายงานเนื้อหาที่ไม่เหมาะสม

2. ทำงานร่วมกับองค์กรที่มีชื่อเสียงในด้านการตรวจสอบข้อเท็จจริง เช่น Snopes.com, Factcheck.org และ Politifact เพื่อตรวจสอบว่าข่าวแต่ละชิ้น “จริง” หรือไม่ ถ้าหากองค์กรเหล่านี้ “ติดธง” ว่าข่าวชิ้นนั้นมีปัญหา เฟซบุ๊กจะขึ้นคำว่า “มีปัญหา” (disputed) ให้เห็นในนิวส์ฟีด แสดงลิงก์ไปยังบทความอธิบายบนเว็บไซต์ขององค์กรที่เช็คข่าวชิ้นนั้นๆ และอัลกอริธึมหรือโค้ดของเฟซบุ๊กจะ “ลดคะแนน” ข่าวชิ้นนั้นให้แสดงผลในนิวส์ฟีดต่ำกว่าข่าวชิ้นอื่นๆ แต่จะไม่ถึงกับลบข่าวชิ้นนั้นออกจากเฟซบุ๊ก

3. ปรับโค้ดของเฟซบุ๊กในการจัดอันดับข่าวในนิวส์ฟีดใหม่ โดยใช้ข้อมูลจากชุมชนผู้ใช้เฟซบุ๊กเอง เช่น ถ้าข่าวชิ้นไหนมีการแชร์น้อยมากหลังจากที่คนเข้าไปอ่าน ก็อาจเป็นสัญญาณว่ามันมีปัญหาอะไรบางอย่างหรือทำให้คนเข้าใจผิด เฟซบุ๊กจะปรับอันดับของข่าวทำนองนี้ให้อยู่ต่ำกว่าปกติในนิวส์ฟีด

4. บั่นทอนแรงจูงใจทางเศรษฐกิจ – คนจำนวนมากแกล้งทำสำนักข่าว โพสข่าวปลอมบนเฟซบุ๊กเพื่อล่อหลอกให้คนตามไปอ่านบนเว็บไซต์ของพวกเขา แล้วก็ทำเงินจากโฆษณาบนเว็บ เฟซบุ๊กเริ่มจัดการกับปัญหานี้ด้วยการกำจัดความสามารถในการปลอมโดเมนเนม (spoof demain) เพื่อลดจำนวนเว็บไซต์ที่ “อำพราง” ว่าตัวเองเป็นสำนักข่าวจริง และปรับปรุงนโยบายขายพื้นที่โฆษณาว่า “ข่าวปลอม” จัดเป็น “เนื้อหาที่หลอกลวงและทำให้คนเข้าใจผิด” ซึ่งเฟซบุ๊กไม่รับโฆษณาให้

จะเห็นว่าวิธีจัดการกับ “ข่าวปลอม” ของเฟซบุ๊กข้างต้นนั้น ล้วนแต่เป็นส่วนผสมระหว่าง “โค้ด” (เช่น ติดป้ายเตือนว่าอาจเป็นข่าวปลอม) กับ “คน” (เช่น ให้ทีมผู้เชี่ยวชาญด้านการจับเท็จมาช่วยวิเคราะห์เนื้อหา) ทั้งสิ้น

ตัวอย่างเหล่านี้ชี้ว่า “โค้ด” สามารถเป็นกลไกกำกับเนื้อหาที่มีประสิทธิภาพ และไม่ลิดรอนสิทธิเสรีภาพเกินระดับที่ “จำเป็นและได้ส่วน” ได้ ถ้ามันถูกออกแบบมาอย่างถูกต้องเหมาะสมและสอดคล้องกับประเด็นที่สังคมกังวล

คำถามต่อไปคือ นอกจากจะเรียกร้องให้บริษัทอินเทอร์เน็ต “โค้ด” ให้ดีขึ้น คนใช้เน็ตทำอะไรได้อีก?

โปรดติดตามตอนต่อไป