หากพูดถึงเทคโนโลยีที่จะเปลี่ยนแปลงโลกในทศวรรษหน้า ปัญญาประดิษฐ์ หรือ AI (Artificial Intelligence) เป็นตัวเลือกแรกๆ ที่หลายๆ คนนึกถึง
กล่าวกันว่า AI คือ เทคโนโลยีที่จะเป็นตัวชี้ขาดระหว่างประเทศผู้นำด้านนวัตกรรมและประเทศผู้ตามในการแข่งขันด้านวิทยาศาสตร์เทคโนโลยีกันเลยทีเดียว
โดย AI ได้ถือกำเนิดขึ้นอย่างเต็มตัว ตั้งแต่ ปี 1955 จากการวิจัยเรื่องทฤษฎีอัตโนมัติ (Automate Theory) โครงข่ายใยประสาทและศึกษาเรื่อง“ความฉลาด” และพัฒนาอย่างต่อเนื่องจนถึงปัจจุบัน แทรกซึมอยู่ในเกือบทุกกิจการของมนุษย์ โดยในช่วง 10 ปีหลัง ถือว่า AI พัฒนาขึ้นมากและเป็นที่น่าจับตาดูอย่างยิ่งว่าจะพัฒนาไปได้ไกลขนาดไหน
ระหว่างเส้นทางการพัฒนาของ AI จะเห็นได้ว่าผ่านการลองผิดลองถูกมามาก จนถึงจุดที่ AI สามารถสร้างประโยชน์ให้กับสังคมยุคใหม่ค่อนข้างมาก แต่ “เทคโนโลยี” ไม่ได้มีข้อดีเพียงอย่างเดียวแต่ก็มีข้อเสียด้วย
บทความวันนี้จะกล่าวถึงด้านมืดที่คนส่วนใหญ่อาจจะยังไม่ตระหนักรู้
ปรากฏการณ์ Workslop ในที่ทำงาน เมื่อ AI สร้างงานขยะ คนทำงานเหนื่อยกว่าเดิม
“Workslop” ซึ่งหมายถึง เนื้องานหรือผลงานในที่ทำงานที่ “ดูดีแต่ไม่มีสาระ” โดยเฉพาะงานที่ถูกสร้างขึ้นด้วยเครื่องมือ AI ไม่ว่าจะเป็นรายงาน บทวิเคราะห์ พรีเซนเทชัน หรือเอกสารสรุปข้อมูล คือรายงานสำคัญที่ทำเสร็จเร็ว แต่กลับต้องเสียเวลานั่งแก้ใหม่ทั้งวัน?
ปรากฏการณ์ใหม่ที่กำลังระบาดในกลุ่มพนักงานออฟฟิศทั่วโลก โดยเฉพาะในยุคที่ AI ถูกใช้ช่วยงานจนล้น ข้อความที่ดูเหมือนจะฉลาดแต่กลับไร้ความหมายที่จับต้องได้ ให้ผลลัพธ์น้อยกว่าที่คาดไว้
"Workslop เปรียบเหมือนอาหารขยะในโลกการทำงาน มันดูสวย ดูน่ากิน แต่ข้างในไม่มีคุณค่าทางโภชนาการ” หากสังเกตดูจะพบว่า AI มักสร้างสิ่งที่ดูเป็นมืออาชีพแต่ขาดความลึกซึ้ง ขาดความเข้าใจในบริบท และบางครั้งก็ไม่มีเหตุผลเลยด้วยซ้ำ “AI Workslop” มักเกิดขึ้นเมื่อองค์กรนำเทคโนโลยีมาใช้โดยไม่มีระบบหรือมาตรฐานคุณภาพรองรับ
รายงานจาก MIT ที่เผยแพร่เมื่อต้นปีระบุว่า แม้องค์กรกว่า 80% ทั่วโลกได้เริ่มใช้เครื่องมือ AI ในการทำงานแล้ว แต่มีเพียง 5% เท่านั้นที่เห็นผลลัพธ์ชัดเจนในเชิงธุรกิจ หมายความว่า 95% ขององค์กรที่ใช้ AI ทำงาน แทบไม่เห็นผลตอบแทนจากการใช้ AI เลยแม้แต่น้อย สาเหตุหนึ่ง คือ “คุณภาพของงานที่ผลิตออกมาไม่ได้มาตรฐาน” หรือเรียกอีกอย่างก็คือ กำลังเกิดภาวะ Workslop ระบาดหนักในระบบงาน
ปัจจุบันหลายบริษัทเร่งนำ AI เข้ามาใช้โดยไม่ได้วิเคราะห์อย่างรอบคอบว่า “ควรใช้ตรงไหน” และ “ไม่ควรใช้ตรงไหน” AI จะกลายเป็นเครื่องมือที่สร้างความเสียหายได้มากพอๆ กับที่ช่วยทำงานให้ดีขึ้น
ปรากฏการณ์ Dunning–Kruger Effect รู้น้อย แต่มั่นเกินร้อย
ปรากฏการณ์ Dunning-Kruger Effect คือ ปรากฏการณ์ทางจิตวิทยา ที่อธิบายว่า “คนที่รู้น้อยหรือไม่มีความชำนาญในเรื่องใดเรื่องหนึ่ง มักจะประเมินความสามารถของตัวเองสูงเกินจริง” เมื่อเรามีความรู้ในเรื่องใดเรื่องหนึ่งน้อย เรายังไม่มีองค์ความรู้มากพอที่จะมองเห็นว่าเรายังไม่เข้าใจทั้งหมด จึงรู้สึกว่าตัวเองรู้ดีและเข้าใจทุกอย่าง ในขณะที่ “คนที่มีความรู้หรือความสามารถจริงๆ มักจะประเมินตัวเองต่ำกว่าความเป็นจริง”
ยกตัวอย่าง
- กรณีที่ 1 คนที่เพิ่งเริ่มเขียนโปรแกรม อาจคิดว่าตัวเองเก่งมาก เพราะใช้ AI เขียนให้แล้วมันทำงานได้ → เขาไม่รู้ว่ายังมีอะไรซับซ้อนอีกเยอะ
- กรณีที่ 2 โปรแกรมเมอร์ระดับสูงที่มีประสบการณ์ AI มาก กลับรู้ว่ามีอีกหลายอย่างที่ไม่รู้ → เขาจึงมักถ่อมตัว และไม่มั่นใจเกินไป
นักวิจัยพบว่า AI ทำให้ปรากฏการณ์ Dunning-Kruger Effect นี้ รุนแรงขึ้น เพราะว่า
- คนทั่วไปใช้ ChatGPT หรือเครื่องมือ AI แล้วได้คำตอบที่ “ดูฉลาดมาก” สิ่งนี้ทำให้ผู้ใช้รู้สึกว่า “ตัวเองเข้าใจเรื่องนี้แล้ว” ทั้งที่อาจไม่เข้าใจจริงๆ ผลคือ “เข้าใจผิดแบบมั่นใจมาก” → นี่แหละคือ Dunning-Kruger effect เวอร์ชันยุค AI
ผลกระทบจาก ปรากฏการณ์ Dunning-Kruger Effect
- ในชีวิตประจำวัน ทำให้คนไม่เก่งคิดว่าตัวเองเก่ง ซึ่งอาจนำไปสู่ความผิดพลาดในการตัดสินใจ
- ในระดับองค์กร ผู้นำหรือทีมงานที่มั่นใจมากเกินไปในระยะแรก อาจตัดสินใจผิดพลาดเพราะประเมินสถานการณ์ไม่ครบถ้วน
เพราะฉะนั้น สิ่งที่คนใช้ AI ควรตระหนัก คือควรฝึกความคิดแบบวิพากษ์ (critical thinking) ให้มากขึ้น มันคือ การคิดอย่างมีเหตุผล รอบคอบ และไม่เชื่อสิ่งใดทันทีโดยไม่มีการตรวจสอบ → เป็น “ทักษะการคิดอย่างนักวิเคราะห์” เพื่อแยกแยะว่าอะไร “จริง” และอะไร “แค่ดูเหมือนจริง”





