ตะลึง! เมื่อ AI มีความคิด "อคติ" แถมยัง "เลือกปฏิบัติ" ไม่ต่างจากมนุษย์

ตะลึง! เมื่อ AI มีความคิด "อคติ"  แถมยัง "เลือกปฏิบัติ" ไม่ต่างจากมนุษย์

นักวิจัยด้านวิทยาการหุ่นยนต์กำลังหาทางป้องกันไม่ให้ ‘หุ่นยนต์’ แสดงพฤติกรรมเลือกปฏิบัติและอคติต่อมนุษย์ หลังพบว่าระบบอัลกอริทึมของ AI สามารถสร้างรูปแบบการเลือกที่รักมักที่ชังได้

เพื่อให้แน่ใจว่าหุ่นยนต์ และ AI นั้นปฏิบัติกับมนุษย์ทุกคนอย่างเท่าเทียม นักวิจัยปัญญาประดิษฐ์ จึงได้ทำการวิจัยกับแขนกลหุ่นยนต์ในสถานการณ์จำลอง โดยแขนกลนี้ถูกติดตั้งระบบการมองเห็น ทำให้สามารถเรียนรู้การเชื่อมโยงระหว่างภาพกับคำจากภาพถ่าย และข้อความออนไลน์ได้ 

ทีมวิจัยทดลองด้วยการให้หุ่นยนต์ดูรูปภาพใบหน้าคนหลากหลายเชื้อชาติที่ถ่ายในลักษณะเดียวกันกับพาสปอร์ต ไม่ว่าจะเป็นชาวเอเชีย คนผิวดำ คนละติน หรือคนผิวขาว แล้วให้แขนกลหยิบรูปภาพที่ตรงกับกลุ่มคำศัพท์ที่ใช้ระบุตัว เช่น "กลุ่มอาชญากร" หรือ "กลุ่มแม่บ้าน"

 

หุ่นยนต์เลือกปฏิบัติไม่ต่างจากคน

จากการทดลองกว่า 1,300,000 ครั้งในโลกเสมือนจริง พบว่า การจัดรูปแบบอัลกอริทึมนั้นมีความสอดคล้องกับการกีดกันทางเพศและการเหยียดเชื้อชาติในอดีต แม้จะไม่มีการเขียนข้อความหรือทำตำหนิบนรูปภาพใด ๆ ทั้งสิ้น แต่เมื่อสั่งให้หุ่นยนต์หยิบใบหน้าของอาชญากร หุ่นยนต์มักเลือกภาพถ่ายของคนผิวดำมากกว่ากลุ่มอื่นถึง 10% และเมื่อให้เลือกภาพของหมอ หุ่นยนต์มักจะเลือกภาพผู้ชายมากกว่าผู้หญิงเสมอ

เมื่อถามว่าลักษณะของบุคคลเป็นอย่างไร หุ่นยนต์มักจะเลือกรูปภาพของชายผิวขาวมากกว่าผู้หญิง ไม่ว่าจะเชื้อชาติใดก็ตาม นอกจากนี้ในการทดลองทั้งหมดหุ่นยนต์จะเลือกรูปภาพของหญิงผิวดำน้อยกว่ากลุ่มอื่น ๆ 

วิลลี่ แอคนิว นักวิจัยจากมหาวิทยาลัยวอชิงตัน ผู้ทำการศึกษาดังกล่าว เขาพบว่างานวิจัยของเขาเป็นสัญญาณเตือนให้กับสาขาวิทยาการหุ่นยนต์เฝ้าระวังอันตรายจากการเลือกปฏิบัติของหุ่นยนต์ รวมถึงหาหนทางใหม่ ๆ ในการทดสอบหุ่นยนต์ พร้อมตั้งคำถามกับโปรแกรม Pretrained Model ที่ใช้รวบรวมคลังข้อมูลทั้งภาพและข้อความจากอินเทอร์เน็ตให้กับ AI ว่ามีส่วนทำให้ AI เกิดอคติต่อกลุ่มคนหรือไม่ เพราะข้อมูลในอินเทอร์เน็ตเปรียบเสมือนกระจกที่บิดเบี้ยวของโลก แต่ปัญหานี้อาจแก้ได้ด้วยการใส่ข้อมูลให้ AI มากขึ้น

“การทดลองทำให้เห็นว่าหุ่นยนต์ของเราเต็มไปด้วยอคติ มีแนวคิดที่เฉพาะเจาะจง และการเหมารวมที่เป็นพิษอย่างมาก” - แอคนิวกล่าวถึงข้อสรุปของงานวิจัย

 

การตรวจสอบอคติของอัลกอริทึมนี้เริ่มเป็นที่พูดถึงในช่วงไม่กี่ปีที่ผ่านมา เนื่องจากอัลกอริทึมเริ่มส่งผลกระทบและละเมิดสิทธิมนุษยชนในหลายวงการ ไม่ว่าจะเป็น การจับกุมคนร้ายด้วยระบบจดจำใบหน้า ส่งผลให้ผู้บริโภคในสหรัฐ จีน และประเทศอื่น ๆ ต้องโดนจับกุม เพราะการเป็นแพะ รวมไปถึงการทำธุรกรรมทางการเงินที่ระบบสามารถปฏิเสธการทำธุรกรรมอย่างไม่เป็นธรรมได้

แอคนิวและทีมวิจัยเชื่อว่า การอคติของแขนหุ่นยนต์เสมือนของพวกเขามาจากข้อมูลของ CLIP ซึ่งเป็นซอฟต์แวร์ปัญญาประดิษฐ์แบบเปิด ที่เปิดตัวในปี 2564 โดยบริษัทสตาร์ทอัพ OpenAI ที่รวบรวมคลังรูปภาพและคำบรรยายข้อความนับล้านที่คัดลอกมาจากเว็บไซต์ต่าง ๆ โดยซอฟต์แวร์นี้ถูกใช้ในโครงการวิจัย AI หลายโครงการ จากการทดสอบพบว่าแหล่งข้อมูลของ CLIP นั้น มีอคติเชิงลบต่อกลุ่มคนต่าง ๆ อย่างมาก โดยเฉพาะคนผิวดำและผู้หญิง

 

แม้ว่าคลังข้อมูลของ CLIP จะมีข้อมูลจำนวนมากที่เป็นการเลือกปฏิบัติ แต่นักวิจัยส่วนใหญ่ยังเลือกใช้คลังข้อมูลนี้ในการฝึกหุ่นยนต์ของพวกเขา โดยเลือกเฉพาะข้อมูลเกี่ยวข้องกับงานของพวกเขา แทนที่จะสร้างคลังข้อมูลขึ้นมาเอง จนแทบจะกลายเป็นเรื่องปรกติ 

 

จะป้องกันเหตุการณ์เหล่านี้อย่างไร ?

ทีมวิจัยได้เสนอวิธีการป้องกันการเลือกปฏิบัติของหุ่นยนต์ ไม่ว่าจะเป็นการลดต้นทุนการผลิตหุ่นยนต์เพื่อให้คนหลายกลุ่มสามารถสร้างได้ รวมถึงกำหนดให้มีใบประกอบวิชาชีพวิทยาการหุ่นยนต์ที่คล้ายกับใบผู้ประกอบวิชาชีพทางการแพทย์ หรือแม้กระทั่งเปลี่ยนนิยามความสำเร็จ

พวกเขายังแนะนำให้เลิกตัดสินคนด้วยรูปลักษณ์ภายนอก เพราะสิ่งเหล่านี้ไม่สามารถตัดสินนิสัยหรือจิตใจของแต่ละบุคคลได้ นอกจากนี้ ระบบแมชชีนวิชัน ยังถูกกล่าวอ้างว่าเป็นอัลกอริทึมที่สามารถตรวจสอบได้ว่าบุคคลนั้นเป็น LGBTQIA+ หรือเป็นอาชญากร หรือมีคุณสมบัติเหมาะสมกับการจ้างงานหรือไม่ หรือแม้กระทั่งใช้เป็นเครื่องจับเท็จในคำให้การของบุคคลได้ด้วย อีกหนึ่งงานวิจัยของแอคนิวระบุว่า มีเพียง 1% ของงานวิจัยเท่านั้นที่ศึกษาเกี่ยวกับผลด้านลบของโครงการ AI

การค้นพบของ แอคนิว นั้นอาจจะน่าประหลาดใจสำหรับคนภายนอก แต่เป็นเรื่องที่รู้กันอยู่แล้วในแวดวงของนักวิทยาการหุ่นยนต์ที่ใช้เวลาหลายปีในการพยายามเปลี่ยนแปลงอุตสาหกรรมนี้

ปี 2563 RAND Corporation องค์กรที่ไม่หวังผลกำไรของสหรัฐ เผยแพร่บทความที่เตือนให้รีบแก้ไขอคติในการเรียนรู้ของเครื่องจักรกลอย่างเร่งด่วน ทั้งทางเทคนิคและการเข้าใจความหลากหลายและความแตกต่างทางเชื้อชาติ

เมย์นาร์ด ฮอลลิเดย์ รองประธานฝ่ายเทคโนโลยีที่สำคัญของกระทรวงกลาโหมสหรัฐ ได้ก่อตั้ง Black in Robotics องค์กรไม่แสวงหาผลกำไร ที่มีเป้าหมายเพื่อสร้างการรับรู้ถึงการมีอยู่ของคนผิวดำและชนกลุ่มน้อยอื่น ๆ ในอุตสาหกรรมวิทยาการหุ่นยนต์

นอกจากนี้ สำนักงานนโยบายวิทยาศาสตร์และเทคโนโลยีแห่งทำเนียบขาว กำลังพัฒนาร่างกฎหมายสิทธิด้านปัญญาประดิษฐ์ โดยฮอลลิเดย์เผยว่ากฎหมายดังกล่าวมีหลักสำคัญที่ช่วยลดความเสี่ยงที่อาจเกิดขึ้นจากการเลือกปฏิบัติของอัลกอริทึม คือ ต้องเปิดเผยข้อมูลและแจ้งให้ประชาชนทราบเมื่ออัลกอริทึมจะทำการตัดสินใจที่ส่งผลกระทบอย่างสูงต่อพวกเขา และประชาชนสามารถขอให้ทบทวนหรือโต้แย้งการตัดสินใจดังกล่าวได้

นักพัฒนาหุ่นยนต์ผิวดำหลายคนกล่าวว่า พวกเขาเป็นกังวลเกี่ยวกับหุ่นยนต์ที่ได้รับข้อมูลการเหยียดผิวและเชื้อชาติจากประสบการณ์ส่วนตัวของผู้สร้างที่หลอมรวมกับความเชี่ยวชาญทางด้านวิศวกรรม

เทอร์เรนซ์ เซาเธิร์น คนผิวดำผู้ดูแลหุ่นยนต์ในบริษัทรถแห่งหนึ่ง เปิดเผยว่า ในอุตสาหกรรมนี้ไม่มีคนผิวดำมากนัก และในบริษัทของเขาก็ไม่มีคนผิวดำคนอื่นนอกจากเขาเลย นี่จึงเป็นเหตุผลหนึ่งที่เขาพยายามให้คำแนะนำแก่คนผิวดำรุ่นใหม่ที่สนใจในงานสายนี้ อีกทั้งเขายังคิดว่า ตอนนี้สายเกินไปแล้วที่จะป้องกันไม่ให้หุ่นยนต์มีแนวคิดการเหยียดสีผิวและเลือกปฏิบัติ แต่เขาเชื่อว่าจะสามารถลดความรุนแรงของภาวะดังกล่าวได้ด้วยการใส่ชุดข้อมูลใหม่ ๆ ที่มีคุณภาพสูง 

ขณะที่ อันดรา คีย์ กรรมการผู้จัดการกลุ่มอุตสาหกรรม Silicon Valley Robotics และประธานกลุ่ม Women in Robotics ซึ่งมีสมาชิกมากกว่า 1,700 คนทั่วโลก เธอเผยว่าไม่ใช่เรื่องน่าแปลกใจที่หุ่นยนต์จะมีอคติทางเพศและทางเชื้อชาติ เพราะชุดข้อมูลที่จำเป็นต่อการเรียนรู้ของหุ่นยนต์นั้น เป็นเหมือนสลัดจานใหญ่ที่อาจมีข้อผิดพลาดได้เสมอ

โดยคีย์ กำลังวางแผนที่จะผลักดันให้หน่วยงานกำหนดมาตรฐานในอุตสาหกรรม AI เช่น สถาบันวิชาชีพวิศวกรไฟฟ้าและอิเล็กทรอนิกส์ หรือ IEEE ออกกฎเกณฑ์กำหนดให้หุ่นยนต์ไม่มีเพศที่ชัดเจนและเป็นกลางในเชื้อชาติ เนื่องจากหุ่นยนต์ได้รับการยอมรับมากยิ่งขึ้นเนื่องจากการระบาดใหญ่ของโควิด-19 นอกจากนี้ คีย์ยังสนับสนุนแนวคิดของรัฐบาลกลางสหรัฐ ที่จะให้ลงทะเบียนหุ่นยนต์เพื่อตรวจสอบการใช้งานเครื่องจักรในอุตสาหกรรม

ปลายปี 2564 IEEE อนุมัติมาตรฐานความโปร่งใสใหม่สำหรับระบบปฏิบัติการอัตโนมัติ ซึ่งเป็นอีกหนทางที่จะทำให้บริษัทผลิตหุ่นยนต์ตรวจสอบว่าหุ่นยนต์เหล่านั้นปฏิบัติต่อทุกคนอย่างยุติธรรม โดยอัลกอริทึมจะต้องเปิดเผยสาเหตุของการกระทำหรือการตัดสินใจแก่ผู้ใช้งานอย่างตรงไปตรงมา

คาร์ล็อตตา เบอร์รี ผู้อำนวยการระดับชาติ ของ Black in Robotics ชุมชนของคนผิวดำในอุตสาหกรรมวิทยาการหุ่นยนต์ มีความเชื่อว่าจะสามารถแก้ปัญหาไม่ให้หุ่นยนต์เกิดการกีดกันทางเพศและเหยียดสีผิวได้ ด้วยการทำแบบประเมินระบบปฏิบัติการก่อนเผยแพร่สู่สาธารณะ

อีกทั้งเบอร์รีเห็นว่าผู้ผลิตระบบปัญญาประดิษฐ์ควรให้ความสำคัญกับการทดสอบในผู้ใช้งาน และเพิ่มฟังก์ชันด้านความปลอดภัยกับผู้ใช้งาน ให้มากกว่าเร่งรีบแข่งขันกันผลิตผลงานใหม่ “ฉันคิดว่านักวิจัยในห้องแล็บยังมองไม่เห็นปัญหาในภาพรวม และไม่รู้ว่ามีปัญหาทั้งที่มันได้เกิดขึ้นแล้ว”

ตราบใดที่มนุษย์ยังมีทัศนคติมองผู้คนไม่เท่ากัน มีการแบ่งแยก การกีดกันทางเพศ การเลือกปฏิบัติ การเหยียดสีผิว หุ่นยนต์และระบบปัญญาประดิษฐ์ที่เกิดขึ้นจากการสร้างสรรค์ของมนุษย์ย่อมต้องได้รับการถ่ายทอดสิ่งเหล่านี้อย่างหลีกเลี่ยงไม่ได้ หากไม่มีการกรองชุดข้อมูลที่จะป้อนให้กับหุ่นยนต์ ซึ่งไม่ต่างอะไรกับเด็กที่ถูกหล่อหลอมจากการเลี้ยงดูของผู้ใหญ่


ที่มา: Association for Computing MachineryForbesFrontiersinRANDScientific AmericanWired