คอลัมนิสต์

จริยธรรมและกฎหมายเกี่ยวกับ AI

AI ปัญญาประดิษฐ์ เทคโนโลยีใหม่ที่ทั้งโลกจับตามอง เป็นทั้งความหวังของมนุษยชาติ และในขณะเดียวกันก็เป็นสิ่งที่ก่อให้เกิดความกังวลในหลายเรื่อง

ความกังวลทั้งในประเด็นที่ AI-Artificial intelligence อาจจะทำให้หลาย ๆ อาชีพไม่เป็นที่ต้องการในตลาดแรงงานอีกต่อไป หรือการก่อให้เกิด “ดิสรัปชั่น” ในภาคอุตสาหกรรมต่าง ๆ อันนำไปสู่ข้อถกเถียงทต่าง ๆ มากมาย

ประเด็นหนึ่งที่น่าสนใจและเป็นที่ถกเถียงกันเป็นอย่างมากก็คือ ประเด็นเรื่องจริยธรรม เช่นในเรื่องของการตัดสินใจในเหตุการณ์ต่าง ๆ ของ AI ซึ่งในบางครั้งก็อาจไม่ได้มีคำตอบที่ถูกต้องและชัดเจนสำหรับการตัดสินใจนั้นเพียงคำตอบเดียวเสมอไป

ยกตัวอย่างเช่น ในกรณีสมมติที่คล้ายกับคำถามของ ศาสตราจารย์ Michael J. Sandel แห่งมหาวิทยาลัยฮาร์วาร์ดที่นำเสนอในหนังสือ Justice ซึ่งทางผู้เขียนอยากให้ผู้อ่านลองคิดตามกันเล่น ๆ

สมมติว่า AI ในระบบยานยนต์ไร้คนขับ ประสบกับสถานการณ์คับขันที่ไม่อาจหลีกเลี่ยงได้ มีคนเดินข้ามถนนจากมุมบอดที่ไม่อาจมองเห็นได้ หลังจาก AI ได้พยายามเบรกเพื่อลดความเร็วของรถลงแล้วแต่ก็ไม่ทันการณ์ และจำเป็นต้องเลือกระหว่าง (1) ปล่อยให้รถเคลื่อนที่ตรงต่อไปข้างหน้าและอาจชนคนเดินข้ามถนนทำให้ได้รับบาดเจ็บสาหัส นั้น หรือ (2) สั่งให้รถหักหลบอย่างกะทันหันและชนต้นไม้ข้างทางโดยที่ผู้ที่อยู่ในยานพาหนะมีโอกาสจะได้รับบาดเจ็บสาหัส ในกรณีเช่นนี้ AI ควรจะตัดสินใจอย่างไร

สถานการณ์ข้างต้นนี้นอาจจะปรับเปลี่ยนได้ไปในหลายรูปแบบ เช่น กรณีที่ในรถมีคนนั่งอยู่ 4 คน แต่คนเดินถนนที่จะโดนชนมีคนเดียว หรือในรถมีคนนั่งอยู่คนเดียว แต่คนเดินถนนที่จะโดนชนมี 4 คน หรือคนข้ามถนนนั้นข้ามถนนในที่ที่ห้ามข้ามโดยผิดกฎจราจร AI ควรจะตัดสินใจเหมือนเดิมหรือไม่ อย่างไร

คำถามนี้เป็นหนึ่งในตัวอย่างคำถามที่น่าสนใจสำหรับการพัฒนาระบบ AI ในระดับสูงซึ่งคงไม่สามารถตอบได้ในอนาคตอันใกล้ และคงต้องรอการวางหลักการณ์ในอนาคตต่อไป แต่อย่างไรก็ดี ในเบื้องต้นได้มีความพยายามที่จะวางแนวทางการควบคุมกำกับ AI รวมถึงในส่วนของประเด็นจริยธรรมของ AI โดยผู้เขียนเห็นว่าประเด็นที่ผู้พัฒนา ซึ่งรวมถึง โซนี่ และ พานาโซนิค ให้ความสนใจในขณะนี้จะเป็นเรื่องอคติหรือการเลือกปฏิบัติ โดยเมื่อวันที่ 21 เมษายน 2564 ที่ผ่านมา ทางสหภาพยุโรปได้ประกาศร่างกฎหมายเพื่อควบคุมกำกับการใช้ AI  

ซึ่งในร่างกฎหมายดังกล่าวมีการวางโครงสร้างเพื่อแก้ปัญหาประเด็นเรื่องอคติและการเลือกปฏิบัติโดยมีกฎเกณฑ์เกี่ยวกับการออกแบบ และคุณภาพของข้อมูลที่ใช้ในการพัฒนา ควบคู่ไปกับหน้าที่ในการทดสอบ และการตรวจสอบโดยมนุษย์ เพื่อไม่ให้ AI ตัดสินใจอย่างมีอคติและการเลือกปฏิบัติ นอกจากประเด็นดังลก่าวแล้ว ร่างกฎหมายฉบับนี้ยังมีประเด็นที่น่าสนใจอีกหลายประเด็น ซึ่งรวมถึงการกำหนดให้มีการแยกประเภทการใช้งาน AI ตามระดับความเสี่ยงที่แตกต่างกันไป ทั้งนี้ AI ใน 2 ประเภทดังต่อไปนี้ จะมีการกำกับการใช้งาน โดยการกำกับนั้นจะกำกับทั้งผู้ให้บริการระบบและผู้ใช้บริการ

(1) AI ประเภทที่ห้ามเอกชนใช้

AI ประเภทที่ห้ามเอกชนใช้ หมายถึง การใช้ AI ที่อาจก่อให้เกิดความเสียหายทางร่างกายหรือจิตใจแก่บุคคลใด ๆ โดยใช้วิธีปรับพฤติกรรมผ่านจิตใต้สำนึก และการใช้ประโยชน์จากความเปราะบางของกลุ่มคนบางกลุ่มเนื่องจากอายุ สภาพร่างกาย หรือ สุขภาพจิตของบุคคลเหล่านั้น เช่น การใช้ AI ในระบบการให้คะแนน social scoring การใช้ระบบตรวจสอบตัวตนโดยชีวมิติ (biometric) แบบเรียลไทม์เพื่อระบุตัวตนในที่สาธารณะเพื่อจุดประสงค์ในการบังคับใช้กฎหมาย

ในส่วนของการใช้ระบบตรวจสอบตัวตนโดยชีวมิติ (biometric) แบบเรียลไทม์เพื่อระบุตัวตนในที่สาธารณะเพื่อจุดประสงค์ในการบังคับใช้กฎหมายนั้นจะมีข้อยกเว้นที่อนุญาตให้ใช้ได้ ในกรณีที่ประโยชน์สาธารณะของการใช้มีน้ำหนักมากกว่าความเสี่ยง เช่น การใช้เพื่อค้นหาเด็กหาย การใช้เพื่อจัดการต่อสถานการณ์การก่อการร้าย หรือการใช้เพื่อหาตัวผู้กระทำความผิดสำหรับความผิดบางประเภท ทั้งนี้ การใช้ในรูปแบบนี้จะต้องได้รับการรับรองจากหน่วยงานฝ่ายตุลาการหรือหน่วยงานภาครัฐที่เป็นอิสระในประเทศสมาชิกที่เกี่ยวข้องก่อนการใช้

(2)  AI ประเภทที่มีความเสี่ยงสูง

AI ประเภทที่มีความเสี่ยงสูง เป็นประเภทหลักที่ร่างกฎหมายนี้ต้องการกำกับดูแล ตัวอย่างประเภท AI ที่มีความเสี่ยงสูง เช่น การใช้ AI เพื่อพิจารณาความน่าเชื่อถือ (credit rating) ของบุคคล การใช้ AI ในการเลือกคนเข้าทำงานหรือการตัดสินใจเลื่อนตำแหน่ง เนื่องจากการตัดสินใจในเรื่องพวกนี้จะส่งผลต่อโอกาสและความก้าวหน้าของพนักงาน หรือการใช้ AI ในการคัดเลือกคนเข้าศึกษาต่อในโรงเรียนหรือมหาวิทยาลัย หรือการตัดเกรดในการสอบ เนื่องจากการตัดสินใจในเรื่องเหล่านี้จะส่งผลต่อโอกาสในการเลือกอาชีพและการประกอบอาชีพของบุคคลเหล่านั้น

ในส่วนของการกำกับผู้ให้บริการระบบ AI นั้น ผู้ให้บริการจะต้องดำเนินการให้เป็นไปตามกฎในหลาย ๆ ด้าน เช่น บังคับให้มีระบบควบคุมคุณภาพและระบบจัดการความเสี่ยงตามที่กฎหมายกำหนด ควบคุมชุดข้อมูลที่ใส่ในระบบในกรณีที่จะต้องมีการป้อนข้อมูลเพื่อฝึก AI บังคับให้จัดทำเอกสารทางเทคนิคเพื่อแสดงว่ามีการปฏิบัติตามร่างกฎหมายนี้ และจดทะเบียนในฐานข้อมูล AI เป็นต้น

ในส่วนของผู้ใช้บริการระบบ AI ก็จะมีหน้าที่ต่าง ๆ ตามที่กฎหมายกำหนด เช่น หน้าที่ในการทำตามคำสั่งของผู้ให้บริการระบบ หน้าที่ในการตรวจสอบการปฏิบัติการของระบบ เก็บข้อมูล log file และหน้าที่ในการแจ้งเจ้าของระบบในกรณีที่มีเหตุการณ์ผิดพลาดหรือการปฏิบัติงานที่ผิด

ในส่วนของ AI ประเภทอื่น ๆ นอกจาก AI ประเภทที่ห้ามเอกชนใช้ และ  AI ประเภทที่มีความเสี่ยงสูง ก็จะไม่ได้มีข้อจำกัดพิเศษในการกำกับแต่อย่างใด

ประเด็นสุดท้ายที่ทางผู้เขียนอยากจะนำเสนอ ก็คือ ค่าปรับตามร่างกฎหมายฉบับนี้นั้นสูงมาก โดยโทษสูงสุดจะเป็นค่าปรับไม่เกิน 30 สิบล้านยูโร (หากคิดเป็นเงินไทยก็ประมาณกว่า 1 พันล้านบาท) หรือ 6% ของยอดขายทั่วโลกต่อปี แล้วแต่ว่าจำนวนใดจะสูงกว่า ซึ่งจำนวนเงินค่าปรับที่สูงขนาดนี้คงจะเป็นโทษที่ทำให้ผู้ประกอบการเกรงกลัวอย่างมากทีเดียว

ผู้เขียนเห็นว่า ร่างกฎหมายเพื่อควบคุมกำกับ AI ฉบับนี้มีความน่าสนใจ และอาจจะเป็นต้นแบบการออกกฎหมายเกี่ยวกับ AI สำหรับหลาย ๆ ประเทศนอกสหภาพยุโรป ได้ต่อไป เหมือนดังเช่น การที่กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป (General Data Protection Regulation (EU GDPR))  เป็นต้นแบบของ กฎหมายคุ้มครองข้อมูลส่วนบุคคลของประเทศไทย และกฎหมายเกี่ยวกับการคุ้มครองข้อมูลส่วนบุคคลของอีกหลาย ๆ ประเทศ นอกจากนี้ ยังมีความเป็นไปได้ที่กฎหมายเพื่อควบคุมกำกับ AI ของสหภาพยุโรปอาจบังคับใช้นอกอาณาเขตของสหภาพยุโรปมาถึงผู้ประกอบการไทยได้ในบางกรณี ดังเช่นกฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรปก็เป็นได้.