วันพุธ ที่ 15 เมษายน 2569

Login
Login

ฝันลมๆ แล้งๆ ของ AI Skeptics/Pessimists

ฝันลมๆ แล้งๆ ของ AI Skeptics/Pessimists

ในยุคที่ Generative AI ยังก้าวไม่พ้นภาวะประมวลข้อมูลผิดพลาดให้แก่ผู้ใช้งาน (hallucination) อีกทั้งยังถูกนำไปใช้เป็นเครื่องมือผลิตเนื้อหาคุณภาพต่ำ (AI Slop) ปริมาณมากเพื่อทุ่มเข้าสู่ social media

ที่พินิจด้วยตาเปล่าก็เห็นได้ชัดว่าสร้างสรรค์ด้วยฝีมือของ Generative AI คงเป็นการยากจะทำใจเชื่อถึงข้อห่วงกังวลเรื่องอนาคตอันใกล้ AI จะกลายมาเป็นแรงงานหลักในระบบทุนนิยมแทนมนุษย์

ขนาดเมื่อยุคอินเตอร์เน็ต คอมพิวเตอร์ส่วนตัว และการใช้เครื่องจักรอุตสาหกรรมเฟื่องฟูก็ยังนำมาซึ่งงานรูปแบบใหม่จำนวนมาก ตรงกันข้าม หากเสนอถึงฉากทัศน์ที่ Generative AI แปรสภาพตนเองเป็นอวัยวะชิ้นที่ 34 ต่อจากโทรศัพท์มือถือยังมีภาษีเสียกว่า

เพราะท้ายที่สุดแล้ว สิ่งที่ทุกคนควรให้ความสนใจควรเน้นไปที่การแสวงหาผลประโยชน์จากอุปกรณ์ทั้งหมดในระบบนิเวศของ Generative AI ไม่ว่าจะ ChatGPT, Claude, Gemini ไปจนถึง Grok เพื่อเกื้อหนุนกิจวัตรประจำวันได้สูงสุดต่างหาก

ตลอด 2 ปีที่ผ่านมา ทั้งภาคประชาสังคมและวิชาการทั่วโลกต่างเสียเวลาไปกับการสืบสวนถึงร่องรอยการใช้ Generative AI ในงานฝีมือและผลิตภัณฑ์ทางความคิดทั้งหลาย

เช่น การไปนั่งเทียบเคียงสำนวนการเขียนร้อยแก้วของ ChatGPT ที่มักติดการใช้คำว่า ‘delve’ แทรกในรูปประโยค รวมถึงความพร่ำเพรื่อในเครื่องหมาย Em dash กระทั่งห้วงปี 2567 มีรายงานตรวจพบการใช้ Generative AI ผลิตงานสร้างสรรค์คุณภาพต่ำออกสู่ตลาดจำนวนมาก 

อีกทั้ง จากการสุ่มสำรวจของแพลตฟอร์ม AHREFS ปี 2568 ในกลุ่มตัวอย่างกว่า 900,000 เว็บไซต์ ยังพบเนื้อหาที่ถูกผลิตโดย AI ไปเกือบร้อยละ 80 แม้แต่งานมหกรรมหนังสือในภูมิภาคเอเชียตะวันออก และเอเชียตะวันออกเฉียงใต้ ห้วงครี่งหลังของปี 2568 เป็นต้นมา 

อาทิ ไทยก็เริ่มปรากฏข้อสังเกตถึงจำนวนศิลปินที่ใช้ Generative AI เป็นเครื่องมือช่วยผลิตวรรณกรรมเพิ่มขึ้นในทิศทางใกล้เคียงกับเกาหลีใต้ ที่เห็นได้ถึงการขยายตัวของสำนักพิมพ์ขนาดเล็กบริหารงานโดยบุคคลเพียง 1-2 คน (one-person publishing houses) พร้อมการนำโครงสร้างพื้นฐานด้าน AI เข้ามาทำหน้าที่แทนกอง บก. เดิมที่เคยเป็นมนุษย์

จะเห็นได้ว่า Generative AI นั้นจัดวางตำแหน่งแห่งที่ของตนเองในชีวิตมนุษย์สำเร็จ และแน่นอนการที่ Generative AI ทำงานอยู่บนโมเดลภาษาขนาดใหญ่ (LLM) ซึ่งมีขีดความสามารถในการเรียนรู้/พัฒนาตนเองได้ในอัตราที่เร็วกว่าสมองมนุษย์นี้

ย่อมหมายรวมถึงการแก้ไข/ลดทอนข้อผิดพลาดเดิมที่เคยเกิดขึ้นในอดีต เพียงชั่วระยะเวลาไม่กี่เดือนหลังมีผู้ตั้งข้อวิจารณ์ถึงแบบแผนการใช้คำที่บ่งบอกถึงความเป็น AI 

เมื่อปี 2568 ทาง ChatGPT ก็ได้ปรับปรุงตัวเองด้วยการลดความถี่การใช้คำที่ผิดธรรมชาติของบทสนทนา เช่น ‘delve’, ‘tapestry’ และ ‘meticulous’ ออกจากข้อความที่ระบบส่งให้แก่ผู้ใช้งาน

(จากการสำรวจของ Ipsos Market Research พบกว่าร้อยละ 90 ของกลุ่มตัวอย่างเกือบ 10,000 คน ไม่สามารถแยกแยะความแตกต่างของผลงานศิลป์ที่ผลิตโดย Generative AI ได้อีกต่อไป) 

ดังนั้น ในทางปฏิบัติจึงแทบเป็นไปได้น้อยสำหรับฝ่ายที่ตั้งแง่พยายามกีดกันให้มนุษย์ทำงานแบบแยกขาดจากระบบนิเวศของ Generative AI โดยไปอิงกับหลักนิยมเรื่องความแท้/ไม่แท้ (authenticity) ของผลงาน เพราะไม่ว่าจะมีผู้ตรวจจับความผิดสังเกตของผลงานที่รังสรรจากฝีมือ Generative AI กี่ครั้ง

สุดท้ายแพลตฟอร์มจะรับหน้าที่แก้ไข ‘ความผิดสังเกต’ เหล่านั้นเอง ประหนึ่งเป็นเพียงความบกพร่องเล็กน้อยจากระบบ (technical glitch) ไม่ต่างอะไรกับเกมตีหัวตัวตุ่น (whack-a-mole) ที่ไม่มีวันจบง่าย ๆ

กล่าวอย่างพื้นฐานที่สุด การนำ Generative AI มาบูรณาการเข้ากับภารกิจและวิถีปฏิบัติในชีวิตประจำวันนั้นไม่ควรถูกครหาขึ้นเป็นวาระถกเถียงระดับชาติ เนื่องจากภูมิทัศน์การทำงานยุคปัจจุบันทุกคนต้องอยู่ในสภาพแข่งขันกันดึงศักยภาพกำลังแรงงานของตนออกมาใช้เพื่อความอยู่รอดกันเป็นปกติอยู่แล้ว

จุดชี้ขาดส่วนมากวัดกันที่ขีดความสามารถในการออกแบบชุดคำสั่ง (prompt) ส่วนใครพอใจใช้ในสัดส่วนมาก-น้อยนั้นต้องดูเป็นรายกรณี ไม่ว่าจะร้อยละ 20, 50 หรือ 70 ของผลงานทั้งชิ้น

ในทางกลับกัน สาเหตุฐานรากที่ทำให้ข้อถกเถียงเรื่องการใช้ Generative AI นี้ขยายตัวเป็นเวทีใหญ่โตต่อเนื่องทั่วโลกมันอยู่ที่ผู้ใช้งานจำนวนมากยังขาดประสบการณ์ และความรอบคอบในการปกปิดร่องรอยที่ตนเองใช้ Generative AI อำนวยความสะดวกสร้างสรรค์ผลงาน ซึ่งเป็นที่เข้าใจได้ เพราะไม่ว่าตัวผู้ใช้งาน หรือ Generative AI เองต่างก็ยังอยู่ในระยะตั้งไข่กันทั้งคู่

ประเด็นที่คณะผู้กังขาในเทคโนโลยีล้ำสมัย (Luddite) พึงตระหนักไว้ ณ ที่นี้ คือ ในภายภาคหน้า Generative AI จะพัฒนาขีดความสามารถการผลิตเนื้อหาไปได้แยบยลขึ้น จนเป็นอุปสรรคต่อการตรวจสอบ/สืบสวนร่องรอยด้วยมนุษย์

จริง ๆ แล้วเอาแค่ปี 2569 นี้แพลตฟอร์ม social media แต่ละแห่งเองก็เริ่มตามไปแปะฉลากเนื้อหาที่ผลิตโดย Generative AI ได้ไม่ครอบคลุมเหมือนเมื่อห้วงปี 2566-2568 อีกแล้ว 

ส่วน AI ที่ถูกออกแบบมาให้ตรวจสอบ AI ด้วยกันเองยิ่งแล้วใหญ่ แม้เป็นซอฟต์แวร์ที่ชำระเงินรายเดือนยังไม่สามารถเชื่อถือได้เต็ม 100 เสียทีเดียว มิพักกล่าวถึงความคาดหวังลมแล้งที่บางภาคส่วนพยายามผลักดันให้ผู้ใช้งานมีจิตสำนึกในความโปร่งใสช่วยแปะฉลากผลงานของตนเองว่ามีสัดส่วนการสนับสนุนจากเครื่องมือ Generative AI

เพราะเมื่อคนส่วนใหญ่ทราบถึงความล้ำหน้าของ Generative AI (ซึ่งผ่านการปรับปรุงระบบแทบจะความถี่ระดับรายวัน) การสร้างระบอบการตรวจสอบความโปร่งใสในผลงานที่ผลิตโดย AI ยิ่งมีแนวโน้มจะประสบความสำเร็จได้น้อยลง