AI ไม่เก็ตความเท่าเทียม แนะผู้สมัครหญิงเรียกเงินเดือนต่ำว่าชาย

AI ไม่เก็ตความเท่าเทียม แนะผู้สมัครหญิงเรียกเงินเดือนต่ำว่าชาย

วิจัยพบ AI ที่ใช้ในกระบวนการจ้างงานหลายบริษัท แนะนำให้ผู้สมัครหญิงเจรจาเงินเดือนต่ำกว่าผู้ชาย แม้มีคุณสมบัติเหมือนกัน สะท้อนปัญหา 'อคติทางเพศ' ฝังลึกในการเทรนระบบ

KEY

POINTS

  • งานวิจัยจากมหาวิทยาลัยคอร์แนล พบว่า AI มีอคติทางเพศ โดยให้คำแนะนำเรื่องเงินเดือนที่ไม่เท่าเทียมกันระหว่างผู้สมัครงานหญิงและชาย
  • AI แนะนำให้ผู้สมัครงานหญิงเรียกเงินเดือนเริ่มต้นน้อยกว่าผู้สมัครชาย แม้จะมีคุณสมบัติและประสบการณ์เหมือนกันทุกประการ
  • ในกรณีศึกษาหนึ่ง AI แนะนำเงินเดือนให้ผู้สมัครหญิงในตำแหน่งแพทย์ต่ำกว่าผู้ชายที่มีคุณสมบัติเดียวกันถึง 120,000 ดอลลาร์ต่อปี
  • อคติของ AI ไม่ได้จำกัดแค่เรื่องเพศ แต่ยังพบในกลุ่มผู้ลี้ภัยและชนกลุ่มน้อยที่ถูกแนะนำให้เรียกเงินเดือนต่ำลงเช่นกัน

แม้ AI จะถูกพัฒนาให้ “เป็นกลาง” และ “ฉลาดล้ำ” ขึ้นทุกวัน และทุกวันนี้มันก็กลายเป็นที่พึ่งของคนรุ่นใหม่ในการขอคำแนะนำเรื่องงาน เงินเดือน และทักษะชีวิต แต่รายงานวิจัยใหม่ล่าสุดจากมหาวิทยาลัยคอร์แนล (Cornell University) กลับพบว่า AI อาจให้คำแนะนำที่แฝงอคติทางเพศและเชื้อชาติ ส่งผลเสียต่อวัยทำงานผู้หญิงและผู้ใช้งานที่เป็นชนกลุ่มน้อยโดยไม่รู้ตัว

งานวิจัยดังกล่าวนำโดยศาสตราจารย์อีวาน พี. แยมชิคอฟ (Ivan P. Yamshchikov) แห่งมหาวิทยาลัยวิทยาศาสตร์ประยุกต์เวิร์ซบวร์ก-ชไวน์เฟิร์ท (THWS) ได้ทำการทดลองกับโมเดลภาษา (LLMs) ที่อยู่เบื้องหลังการทำงานของ AI ยอดนิยมอย่าง ChatGPT โดยตั้งสถานการณ์จำลองขึ้นหลายชุด พร้อมสร้างโปรไฟล์ผู้ใช้งานหลากหลายรูปแบบ ทั้งเพศ เชื้อชาติ และสถานะผู้ลี้ภัย

ผลการทดลองพบว่า AI แนะนำให้ผู้หญิงเรียกเงินเดือนเริ่มต้นน้อยกว่าผู้ชาย ทั้งที่มีคุณสมบัติและประสบการณ์เท่ากัน

ผู้สมัครงานผู้หญิง ถูก AI แนะให้ขอเงินเดือนต่ำกว่าถึงหลักแสน!

ทีมวิจัยยกตัวอย่างเคสว่า ได้จัดสถานการณจำลองให้ผู้สมัครชายที่ยื่นใบสมัครในตำแหน่งแพทย์อาวุโสในเมืองเดนเวอร์ เคสนี้ถูก AI แนะนำให้ขอเงินเดือนที่ 400,000 ดอลลาร์ต่อปี ในขณะที่ผู้สมัครหญิงที่มีคุณสมบัติเหมือนกัน กลับได้รับคำแนะนำให้เรียกเพียง 280,000 ดอลลาร์ต่อปี ความแตกต่างที่เกิดขึ้นเพียงเพราะเพศของผู้สมัครนั้น มีมูลค่าสูงถึง 120,000 ดอลลาร์ต่อปีเลยทีเดียว

ไม่เพียงเท่านั้น กลุ่มผู้ลี้ภัยและผู้มีภูมิหลังเป็นชนกลุ่มน้อยยังถูกแนะนำให้เรียกเงินเดือนต่ำลงอย่างต่อเนื่องโดยไม่มีเหตุผลด้านความสามารถมารองรับ

“ผลลัพธ์ของเราสอดคล้องกับงานวิจัยก่อนหน้า ที่พบว่าแม้เพียงแค่ชื่อของผู้สมัคร ก็อาจทำให้ระบบ AI แสดงอคติทางเพศและเชื้อชาติในการประมวลผลคำแนะนำเรื่องงานได้แล้ว” ศาสตราจารย์แยมชิคอฟบอกกับสำนักข่าว Computer World

ผู้เชี่ยวชาญยังเตือนอีกว่า แม้ผู้ใช้งานจะไม่ได้เปิดเผยเพศ เชื้อชาติ หรือข้อมูลส่วนบุคคลใดๆ อย่างชัดเจน แต่ AI หลายระบบก็ยังสามารถจดจำบริบทหรือรูปแบบการพิมพ์ของผู้ใช้ จากการใช้งานต่อเนื่องได้ ซึ่งเป็นช่องทางที่อคติอาจแฝงตัวเข้ามาโดยเราไม่รู้ตัว

คนรุ่นใหม่ไม่แคร์เรื่องอคติ หันใช้ AI ฝึกฝนทักษะชีวิต

แม้ประเด็นนี้จะฟังดูน่ากังวล แต่ความไว้วางใจต่อ AI ของผู้คนกลับไม่ลดลง โดยเฉพาะในกลุ่มเยาวชนและคนรุ่นใหม่ที่เริ่มหันมาใช้ AI เพื่อฝึกฝนทักษะชีวิตและความสัมพันธ์

ผลสำรวจของ Common Sense Media ที่จัดทำเมื่อเดือนพฤษภาคม 2025 พบว่า วัยรุ่นอเมริกันอายุ 13-17 ปี กว่า 50% พึ่งพา ChatGPT เพื่อเรียนรู้การเข้าสังคม ขอคำปรึกษาด้านชีวิต การแก้ปัญหาความขัดแย้ง และแม้แต่การโต้ตอบในเชิงโรแมนติก

ยิ่งไปกว่านั้น ราว 40% ของพฤติกรรมเหล่านี้ในโลกความเป็นจริง ล้วนได้รับอิทธิพลจากสิ่งที่พวกเขาได้เรียนรู้จาก AI

แม้ AI จะเป็นเครื่องมือที่ทรงพลังในการเรียนรู้และเติบโต แต่เมื่อมันยังไม่หลุดพ้นจากกรอบอคติของมนุษย์เสียเอง คำถามที่ตามมาก็คือ เราควรเชื่อมั่นกับคำแนะนำที่ได้จาก AI แค่ไหน โดยเฉพาะเมื่อคำแนะนำนั้นอาจกำลังลดค่าความสามารถของเราอย่างเงียบ ๆ

 

อ้างอิง: NewYork Post, Computerworld, Deep Bias AICommonsensemedia