สิทธิมนุษยชนกับการปรากฏตัวของ AI: แนวทางในสหภาพยุโรป

การเปลี่ยนแปลงสำคัญด้านเทคโนโลยีของโลกในช่วงทศวรรษที่ผ่านมาหนีไม่พ้นการปรากฏ (หรือไม่ปรากฏ) ของ “ปัญญาประดิษฐ์” หรือ “AI (Artificial Intelligence)” จนเป็นส่วนหนึ่งของชีวิตประจำวันซึ่งเปลี่ยนวิถีชีวิตของเราไปอย่างสิ้นเชิง
ผู้เขียนได้เคยเขียนภาพรวมความท้าทายของการปรากฏตัวดังกล่าวที่มีต่อกรอบคิดสิทธิมนุษยชนไปเมื่อเดือนกันยายนปีที่แล้ว วันนี้ผู้เขียนจะมาพูดถึงความคืบหน้าในช่วงประมาณ 1 ปีที่ผ่านมาจากตัวอย่างของสหภาพยุโรป (European Union: EU) โดยเฉพาะอย่างยิ่งในประเด็น “ความเป็นมนุษย์” กัน
สหภาพยุโรปออกแบบข้อกำหนดในการควบคุมการใช้ AI ในชื่อย่อว่า “AI Act” บนฐานความเสี่ยง (risk-based regulations) โดยแบ่งการควบคุมการใช้ AI เป็น 4 ประเภท ได้แก่
(1) “ความเสี่ยงที่ไม่สามารถยอมรับได้ (unacceptable risk)”
(2) “ความเสี่ยงสูง (high-risk)”
(3) “ความเสี่ยงจำกัด (limited risk)” และ
(4) “ความเสี่ยงต่ำ (minimal risk)”
อีกทั้งยังมีการแบ่งประเภทแบบอื่นด้วย คือ General Purpose AI (GPAI)
ประเภท “limited risk” และ “minimal risk” เป็น AI ประเภทที่ถูกควบคุมน้อยมากจนถึงไม่ถูกควบคุมเลย เช่น นักพัฒนาและผู้ใช้ AI ประเภท “limited risk” ถูกเรียกร้องเพียงให้แจ้งให้ผู้ใช้งานปลายทางทราบว่าตนกำลังมีปฏิสัมพันธ์อยู่กับ AI เป็นต้น
ประเภท “unacceptable risk” เป็น AI ที่ถูกห้ามมิให้ใช้ (เว้นแต่เข้าข้อยกเว้นตามที่กำหนด) โดยมีลักษณะต่างๆ ตัวอย่างเช่น การใช้เทคนิคแอบแฝง บิดเบือน หรือหลอกลวง เพื่อบิดเบือนพฤติกรรมซึ่งส่งผลกระทบต่อการตัดสินใจ
การใช้ประโยชน์จากความเปราะบางด้านอายุ ความพิการ หรือสภาพเชิงสังคมเศรษฐกิจ การให้คะแนนทางสังคม (social scoring) คือ การประเมินหรือจัดกลุ่มบุคคลหรือกลุ่มตามพฤติกรรมทางสังคมหรือลักษณะส่วนบุคคล ซึ่งก่อให้เกิดการปฏิบัติที่เสียหายหรือไม่เป็นธรรมต่อบุคคลเหล่านั้น
การสังเคราะห์อารมณ์ในสถานที่ทำงานหรือสถาบันการศึกษา ยกเว้นเพื่อเหตุผลทางการแพทย์หรือความปลอดภัย การรวบรวมฐานข้อมูลการจดจำใบหน้า (facial recognition) โดยการดึงข้อมูลภาพใบหน้าอย่างไร้เป้าหมายจากอินเทอร์เน็ตหรือกล้องวงจรปิด
การระบุตัวตนทางชีวมิติระยะไกลแบบ “เรียลไทม์” (“real-time” remote biometric identification: RBI) ในพื้นที่สาธารณะที่เข้าถึงได้ สำหรับการบังคับใช้กฎหมาย (ยกเว้นในกรณีการค้นหาบุคคลสูญหายหรือบุคคลอื่นในทำนองเดียวกัน การป้องกันภัยคุกคามที่ร้ายแรง และการระบุตัวผู้ต้องสงสัยในคดีอาชญากรรมร้ายแรง) เป็นต้น
เนื้อหาของ AI Act ส่วนใหญ่เป็นการควบคุม AI ประเภท “high-risk” AI ประเภทนี้สามารถนำมาใช้ได้ แต่อยู่ภายใต้การควบคุมอย่างเข้มงวดโดยมี 2 ประเภทย่อย ได้แก่
(1) AI ที่ถูกใช้เป็นส่วนประกอบด้านความปลอดภัยหรือผลิตภัณฑ์ที่อยู่ภายใต้กฎหมายของสหภาพยุโรปในภาคผนวก I (Annex I) และจำเป็นต้องผ่านการประเมินความสอดคล้องโดยบุคคลที่สามภายใต้กฎหมายในภาคผนวก I (Annex I)
(2) AI ที่ถูกใช้ในรูปแบบในภาคผนวก III (Annex III) อาทิ ด้านการศึกษาและการฝึกอบรม เช่น ระบบ AI ที่พิจารณาการเข้าถึง การรับเข้า หรือการมอบหมายที่เกี่ยวกับสถาบันการฝึกอบรมด้านการศึกษาและด้านอาชีพในทุกระดับ ระบบ AI ที่ใช้เพื่อประเมินระดับความเหมาะสมของการรับการศึกษาของบุคคล เป็นต้น
ด้านการเข้าถึงและอุปโภคบริการที่จำเป็นทั้งจากภาครัฐและภาคเอกชน เช่น ระบบ AI ที่ใช้เพื่อการประเมินความเหมาะสมที่จะได้รับบริการดังกล่าว เว้นแต่เป็นการใช้เพื่อตรวจสอบการฉ้อโกง ระบบ AI ที่ใช้ประเมินความเสี่ยงและกำหนดราคาที่เกี่ยวกับการประกันสุขภาพและประกันชีวิต เป็นต้น
ด้านการบังคับใช้กฎหมาย เช่น ระบบ AI ที่ใช้เพื่อประเมินความเสี่ยงของบุคคลที่จะเป็นเหยื่ออาชญากรรม ระบบ AI ที่ใช้ประเมินความเสี่ยงของการจะกระทำความผิดหรือการกระทำความผิดซ้ำที่ไม่ได้วางโดยสิ้นเชิงบนฐานการประเมินลักษณะส่วนบุคคลหรือพฤติกรรมการกระทำความผิดที่ผ่านมา (หากวางอยู่บนฐานเหล่านี้โดยสิ้นเชิงจะเป็นประเภท “unacceptable risk”) เป็นต้น
อย่างไรก็ดี AI ในข้อ (2) นี้ หากเข้ากรณียกเว้นข้อหนึ่งข้อใดต่อไปนี้ จะไม่ถือว่าอยู่ในประเภท high-risk:
1) ระบบ AI ที่ปฏิบัติงานเชิงกระบวนการที่ขอบเขตแคบ
2) ระบบ AI ที่ใช้เพื่อปรับปรุงผลของกิจกรรมที่มนุษย์ทำเสร็จแล้ว
3) ระบบ AI ที่ใช้ตรวจจับรูปแบบการตัดสินใจหรือความเบี่ยงเบนจากรูปแบบการตัดสินใจที่ผ่านมา และไม่ได้ถูกทำให้ทดแทนหรือมีอิทธิพลต่อการประเมินที่มนุษย์ได้ทำไว้แล้วโดยไม่มีการตรวจสอบที่เหมาะสมจากมนุษย์ หรือ
4) ระบบ AI ที่ปฏิบัติงานด้านการเตรียมการประเมินที่เกี่ยวข้องกับวัตถุประสงค์ของกรณีการใช้งานที่ระบุในภาคผนวก III (Annex III)
สำหรับเรื่องการใช้บังคับ ในเชิงพื้นที่ AI Act มีผลใช้บังคับกับการใช้ AI ใน EU ไม่ว่าผู้ใช้นั้นจะอยู่ใน EU หรือไม่ ในด้านเวลา AI Act มีผลใช้บังคับไปแล้วเมื่อวันที่ 1 สิงหาคม พ.ศ. 2567 ที่ผ่านมา อย่างไรก็ตาม แต่ละส่วนจะมีผลใช้บังคับหลังจาก AI Act มีผลใช้บังคับ ดังนี้
- 6 เดือน สำหรับประเภท unacceptable risk
- 12 เดือน สำหรับ GPAI
- 24 เดือน สำหรับประเภท high risk AI systems ภายใต้ภาคผนวก III (Annex III)
- 36 เดือน สำหรับประเภท high risk AI systems ภายใต้ภาคผนวก I (Annex I)
หมายเหตุ: บทความนี้สรุปและเรียบเรียงจาก AI Act และจากบทสรุปสาระสำคัญ ที่เผยแพร่เมื่อเดือนวันที่ 27 กุมภาพันธ์ พ.ศ. 2567
AI Act : Regulation (EU) 2024/1689 of the European Parliament And of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence and amending Regulations (EC) No 300/2008, (EU) No 167/2013, (EU) No 168/2013, (EU) 2018/858, (EU) 2018/1139 and (EU) 2019/2144 and Directives 2014/90/EU, (EU) 2016/797 and (EU) 2020/1828 (Artificial Intelligence Act)