ปัญญาประดิษฐ์ (Artificial Intelligence: AI) กำลังแทรกซึมเข้าไปในทุกอุตสาหกรรมตั้งแต่การผลิต การบริการ การเงิน การแพทย์ การบันเทิง การสร้างงานศิลปะดนตรี ฯลฯ และประเด็นที่สำคัญก็คือ AI อาจลดความเหลื่อมล้ำทางสังคม
เช่น ช่วยผู้พิการให้มีคุณภาพชีวิตดีขึ้น และยังเข้ามามีบทบาทสำคัญในด้านสุขภาพทำให้สามารถก้าวข้ามข้อจำกัด
แม้ AI จะมีความสามารถหลากหลาย แต่ก็ยังมีจุดอ่อนที่เรียกว่าภาวะหลอน (hallucination) คือ การให้ผลลัพธ์ที่ผิดพลาดหรือ AI สร้างคำตอบขึ้นมาเองแล้วนำเสนออย่างมั่นใจทั้ง ๆ ที่ข้อมูลเหล่านี้ไม่มีอยู่จริง ซึ่งเกิดขึ้นในระบบโมเดลภาษาขนาดใหญ่ ซึ่งอาจจะเกิดจากข้อมูลที่ใช้ฝึกมีจำกัด ไม่ครอบคลุมหรือคลุมเครือ
ไม่เชื่อมโยงกับฐานข้อมูลภายนอกที่สามารถดึงข้อมูลที่ถูกต้องมานำเสนอได้ หรือผู้ถามอาจจะมีคำถามที่ไม่ชัดเจน หรือมีหลายความหมาย แต่ AI พยายามคาดเดาและประมวลเพื่อให้คำตอบ
ความท้าทายของ AI ยังเกิดจาก “ปัญหากล่องดำ” (Black Box Problem) ใน Deep Learning เกิดจากผู้พัฒนาไม่สามารถที่จะอธิบายได้ว่า AI ได้ผลลัพธ์มาได้อย่างไร จึงเป็นหนึ่งในประเด็นหลักที่ทำให้ AI ยุคปัจจุบันถูกวิจารณ์เรื่อง ความโปร่งใส (transparency) และการตรวจสอบได้ (explainability) ทำให้เกิดปัญหาความน่าเชื่อถือ (trustworthiness) และความรับผิดชอบ (accountability) ตามมา
ปัญหากล่องดำอาจเกิดจากความตั้งใจของผู้พัฒนาเพื่อรักษาความลับทางการค้าหรือเป็นผลพลอยได้ของเทคโนโลยีที่สามารถแสดงผลลัพธ์ได้ดี โดยที่ผู้พัฒนาเองก็ไม่เข้าใจว่ากระบวนการตัดสินใจภายในของ AI เป็นอย่างไร
AI ในยุคแรกใช้กฎของผู้เชี่ยวชาญ “If...., then” ทำให้อธิบายคำตอบของผลลัพธ์ได้ แต่ AI ในยุคปัจจุบันมีโครงสร้างที่ซับซ้อน (Complex Architecture) และถูกฝึกสอนโดยข้อมูลขนาดใหญ่โดยใช้โครงข่ายประสาทเทียม (neural networks) หลายชั้น (multi-layer) ซ้อนกันจำนวนมากที่มีจุดเชื่อมนับพัน - นับล้านตัว ที่เชื่อมโยงกันผ่านค่าน้ำหนักที่ปรับเปลี่ยนไป
โดยการเรียนรู้ AI จะเรียนรู้จากการปรับค่าน้ำหนักเหล่านี้ให้เหมาะสมเพื่อค้นหารูปแบบที่จะใช้ในการทำนายผลลัพธ์ใหม่ การทำงานที่อาศัยค่าน้ำหนักจำนวนมหาศาลและเชื่อมโยงกันอย่างซับซ้อน ทำให้มนุษย์ไม่สามารถติดตามกระบวนการตัดสินใจของ AI ได้
เมื่อไม่มีความโปร่งใสก็ทำให้เกิดปัญหา ความน่าเชื่อถือตามมา โดยเฉพาะในเรื่องที่เกี่ยวกับความเป็นความตายหรือการเงิน และมีปัญหาด้านความรับผิดชอบ (accountability) กล่าวคือ ใครจะรับผิดชอบหาก AI ตัดสินใจผิดพลาด เช่น การขับรถจนเกิดอุบัติเหตุ (Kosinski, 2024)
นอกจากนี้ AI ยังอาจสร้างผลลัพธ์ที่มีอคติในข้อมูล (data bias) AI เรียนรู้จากข้อมูลขนาดใหญ่ซึ่งถ้าข้อมูลนี้ ไม่ครอบคลุมหรือสะท้อนอคติของสังคม AI ก็จะนำเสนอผลลัพธ์ที่มีอคติด้วย เช่น ข้อมูลที่ด้อยค่าคนผิวสี ผู้หญิง LGBTQ+ เป็นต้น สำหรับผลกระทบของ AI ด้านอคติทำให้เกิดความไม่ยุติธรรม (fairness) มีกรณีศึกษาหลายกรณี เช่น
- ในปี 2558 Google Photos ซึ่งเป็นแอปพลิเคชันที่ใช้จัดหมวดหมู่ภาพถ่ายโดยอัตโนมัติ ได้ติดป้ายอัตโนมัติ (auto tag) ชาวอเมริกันผิวดำสองคนว่าเป็นกอริลลา และได้มีผู้นำเรื่องนี้ไปโพสต์ลงในทวิตเตอร์ว่าเป็นการแสดงอคติทางเชื้อชาติ ทำให้สังคมมีความไม่พอใจอย่างยิ่ง Google ต้องรีบลบคำดังกล่าวออก
- กรณี Amazon AI Recruitment Tool (ปี 2557-2560) เป็นตัวอย่างคลาสสิกของ อคติทางเพศใน AI เนื่องจาก Amazon สร้างระบบ AI สำหรับคัดกรองประวัติการทำงาน (resume) ของผู้สมัครงานในสายเทคโนโลยี โมเดลถูกฝึกจากข้อมูลประวัติการทำงานของพนักงาน 10 ปีย้อนหลัง ซึ่งส่วนใหญ่เป็นผู้ชาย
ผลลัพธ์คือ AI ให้คะแนนผู้หญิงต่ำกว่าผู้ชาย แม้แต่หากประวัติการทำงานมีคำว่า “women’s” (เช่น “women’s chess club”) ก็จะถูกลดคะแนนลงด้วย (Dastin, 2018)
แต่ที่ฮือฮากันมากก็คือ เรื่องการละเมิดสิทธิส่วนบุคคล (privacy) โดยนำข้อมูลส่วนบุคคลมาใช้โดยไม่ได้รับอนุญาต มีกรณีศึกษาที่เป็นคดีความ เช่น กรณีบริษัท Cambridge Analytica ในสหรัฐอเมริกาและสหราชอาณาจักร บริษัท Cambridge Analytica เก็บข้อมูลผู้ใช้ Facebook กว่า 87 ล้านบัญชี ผ่านแอปพลิเคชันที่ทดสอบบุคลิกภาพโดยไม่ได้รับความยินยอมจากเจ้าของ
บริษัทใช้เทคนิค machine learning วิเคราะห์บุคลิกและพฤติกรรมการโหวตของผู้ใช้ เพื่อนำไปใช้ในการกำหนดโฆษณาการเมืองแบบเจาะจง (micro-targeting) ถือว่าเป็นการละเมิดสิทธิส่วนบุคคลและมีผลเชิงสาธารณะ ในกรณีนี้ ได้แก่ (1) ข้อมูลถูกนำไปใช้โดยผู้ใช้ไม่รู้ตัว (2) มีผลต่อการเลือกตั้ง (เช่น การเลือกตั้งสหรัฐ 2559 และกรณี Brexit ในปี 2559)
เรื่องนี้ปรากฏแก่สาธารณะเพราะมีการให้ปากคำและเปิดเผยเอกสารโดย Christopher Wylie ซึ่งเป็นพนักงานในบริษัท Cambridge Analytica และมีการทำข่าวสืบสาวราวเรื่องโดย The Guardian, The Observer และ The New York Times ที่นำประเด็นนี้มารายงานพร้อมกันในเดือน มีนาคม 2561
หลังจากที่ข่าวออกสู่สาธารณะ Facebook ถูกวิจารณ์อย่างหนักและมีแรงกดดันจากสังคมและหน่วยงานกำกับดูแล นำไปสู่การสอบสวนของรัฐสภาทั้งในสหรัฐและสหราชอาณาจักร ในปี 2562 Federal Trade Commission (FTC) ลงโทษ Facebook (Meta) ฐานไม่คุ้มครองข้อมูลผู้ใช้ และสั่งปรับ 5,000 ล้านดอลลาร์
แต่ Cambridge Analytica และบริษัทแม่ SCL group รอดพ้นการดำเนินคดีและไม่ถูกปรับโดยตรงในสหรัฐ เพราะบริษัทล้มละลายไปก่อน
ในสหราชอาณาจักร Information Commissioner’s Office (ICO) ปรับ Facebook 500,000 ปอนด์ (สูงสุดตามกฎหมายข้อมูลส่วนบุคคลของสหราชอาณาจักรในขณะนั้น) Cambridge Analytica และบริษัทยังไม่ทันถูกตัดสินก็ล้มละลายไปก่อน ส่วนผู้บริหาร คือ Alexander Nix (CEO) ถูกสั่งห้ามทำงานในบริษัทที่เกี่ยวข้องกับข้อมูลส่วนบุคคลในสหราชอาณาจักร เป็นต้น (Facebook Data Scandal, 2018)
ปัญหาเกี่ยวกับอคติและคุณค่าที่เกิดจากปัญหาเทคนิคของ AI นั้นแสดงให้เห็นว่าผู้ใช้ AI ต้องมีความรู้และความเข้าใจเกี่ยวกับความท้าทายด้านจริยธรรม





