นโยบายกฎหมายเพื่อการพัฒนา AI

นโยบายกฎหมายเพื่อการพัฒนา AI

Artificial intelligence (AI) หรือปัญญาประดิษฐ์ เข้ามามีบทบาทมากขึ้นเรื่อยๆ ต่ออุตสาหกรรมและการกำหนดทิศทางการพัฒนาของประเทศต่างๆ

จากรายงานวิจัยเชิงสถิติของ PwC (2017) คาดการณ์ว่ามูลค่าทางเศรษฐกิจจาก AI จะสูงถึง 15.7 ล้านล้านเหรียญ ภายในปี 2030 และทำให้มูลค่า GDP ทั่วโลกเพิ่มขึ้น 26% ซึ่งปัจจุบันทิศทางการพัฒนา AI ในประเทศต่างๆ ยังไม่มีกรอบกฎหมายเข้มงวดชัดเจนมากนัก

รายงานการวิจัยของบริษัทที่ปรึกษา KPMG (Living in an AI World 2020)ซึ่งได้ทำการสำรวจความเห็นผู้บริหาร 751 คนในสหรัฐ ที่มีความรู้ความเข้าใจเกี่ยวกับ AI และได้มีการนำ AI มาใช้ในอุตสาหกรรมหรือธุรกิจพบว่า 75% ของผู้ให้ความเห็นต้องการให้รัฐบาลกลางเข้ามากำกับดูแลเทคโนโลยี AI ในขณะที่ Sundar Pichai ซีอีโอของ Google และAlphabet Inc (บริษัทแม่ของGoogle)และBrad Lee Smithประธาน Microsoft Inc ได้กล่าวในการประชุม World Economic Forum ที่เมืองดาวอส ประเทศสวิสเซอร์แลนด์ (21-24 ม.ค. 2563)ให้ความเห็นไปในทิศทางเดียวกับรายงานของ PwC ถึงความต้องการของกลุ่มอุตสาหกรรมเทคโนโลยีที่ต้องการให้รัฐบาลเข้ามาควบคุมเทคโนโลยี AI และสร้างกติการะหว่างประเทศเพื่อขับเคลื่อนและกำกับเทคโนโลยีดังกล่าวเช่นกัน

สหภาพยุโรป หรืออียู เล็งเห็นความสำคัญของการกำกับทิศทางของเทคโนโลยี AI และได้ดำเนินการอย่างเป็นรูปธรรมโดยได้กำหนด AI Strategy ขึ้นเมื่อวันที่ 25 เม.ย.2561และต่อมาเมื่อวันที่ 19 ก.พ.2563 ได้เผยแพร่เอกสาร “White Paper on Artificial Intelligence – A European Approach to Excellence and Trust” เพื่อนำไปสู่การตรากฎหมายในอนาคต โดยWhite Paper กำหนดกรอบปัญหาเพื่อการพิจารณาไว้ 2 ประการ กล่าวคือ

(1)ความเสี่ยงอันเนื่องมาจากการออกแบบเทคโนโลยี ที่อาจไม่คำนึงถึงสิทธิขั้นพื้นฐานของพลเมืองโดยเฉพาะสิทธิในความเป็นส่วนตัวของข้อมูลส่วนบุคคลและการไม่เลือกปฏิบัติ

สภาพปัญญาหาดังกล่าว เนื่องจากในปัจจุบันเทคโนโลยี AI ทำให้เครื่องจักรมีความสามารถในการทำความเข้าใจ เรียนรู้องค์ความรู้ต่างๆ การให้เหตุผลและการแก้ปัญหาต่างๆ มากขึ้นตามลำดับ และผลที่ตามมาจากการที่ AI สามารถคิดและตัดสินใจได้เสมือนมนุษย์มากขึ้น คือ ปัญหาของการตัดสินใจโดยมีอคติบางประการที่อาจเกิดจากเหตุผลต่างๆ เช่น เพศสภาพ อายุ เชื้อชาติ เผ่าพันธุ์ หรือศาสนา เป็นต้น ซึ่งอคติเหล่านั้นอาจไม่ได้เกิดจากความตั้งใจของผู้ออกแบบอัลกอริทึม หรือขั้นตอนการทำงานและการประมวลของ AI แต่เกิดจากการคัดเลือกข้อมูลและการประมวลผลข้อมูลขนาดใหญ่ตลอดเวลาของ AI นัjนเอง ซึ่งการเลือกปฏิบัติดังกล่าวขัดกับหลักการด้านสิทธิพลเมืองของอียูอย่างร้ายแรง

นอกจากนี้ ในกระบวนการเรียนรู้และดำเนินการของ AI มีความจำเป็นต้องใช้ข้อมูลส่วนบุคคลจำนวนมาก โดยเฉพาะ Big data จึงอาจนำมาซึ่งการละเมิดสิทธิในความเป็นส่วนตัวของข้อมูลส่วนบุคคลได้ในหลายๆ ลักษณะ รวมถึงอาจถูกใช้ในการจำกัดสิทธิในทางการเมืองด้วย เป็นต้น

(2)ความเสี่ยงอันเนื่องมาจากความปลอดภัยของเทคโนโลยีและหลักความรับผิด

เนื่องจากผลิตภัณฑ์ที่มี AI เป็นองค์ประกอบสำคัญ มีลักษณะที่ต่างจากสินค้าอุตสาหกรรมทั่วไป กล่าวคือ การมีความสามารถในการเรียนรู้และพัฒนาในช่วงอายุของผลิตภัณฑ์ นั่นหมายความว่าตัวสินค้า ณ วันที่ออกสู่ท้องตลาดกับวันที่สินค้านั้นก่อให้เกิดความเสียหายต่อผู้ใช้หรือบุคคลภายนอก คุณสมบัติบางประการของสินค้าอาจเปลี่ยนแปลงไปอย่างมีนัยสำคัญ หรือบางกรณีความเสียหายอาจจะเกิดจากปัจจัยภายนอกเนื่องจากตัวสินค้านั้นต้องมีปฏิสัมพันธ์กับสภาวะแวดล้อม

หากพิจารณากฎหมายที่ควบคุมเรื่องความปลอดภัยของสินค้าจะพบว่าการควบคุมความปลอดภัยอาจจำแนกได้เป็น2 ช่วงเวลา คือ การควบคุมก่อน-หลังสินค้าออกสู่ท้องตลาด จะพบปัญหาดังนี้

* ก่อนสินค้าออกสู่ท้องตลาด อาจมีความไม่เหมาะสมหรือไม่เพียงพอกับสินค้าอัจฉริยะต่างๆ ที่มี AI เป็นองค์ประกอบสำคัญ เนื่องจากสินค้ามีการเรียนรู้จากสภาวะแวดล้อม มีการอัพเดทข้อมูลและการประมวลผลต่างๆ ตลอดอายุของผลิตภัณฑ์ จึงทำให้ไม่สามารถประเมินความเสี่ยงและกำหนดมาตรฐานความปลอดภัยได้ทั้งหมดล่วงหน้า

* การควบคุมหลังสินค้าออกสู่ท้องตลาดที่สำคัญได้แก่ กฎหมายว่าด้วยความรับผิดต่างๆ อาทิ กฎหมายเกี่ยวกับสินค้าที่ไม่ปลอดภัย (Product liability law)กฎหมายเหล่านี้มีความไม่ชัดเจนต่อการกำหนดความรับผิด หากความเสียหายนั้น เกิดจากซอฟต์แวร์ และกฎหมายยังไม่มีความชัดเจนในเรื่องการจัดสรรความรับผิดระหว่างผู้ออกแบบโปรแกรม(AIDesigner/developer)และผู้นำโปรแกรมนั้นไปใช้(Deployer) ว่าจะจัดสรรความรับผิดอย่างไรอีกด้วย

นอกจากนี้ หากความเสียหายเกิดจาก Cybersecurity หรือการเข้าจู่โจมระบบโดยบุคคลภายนอก หรือความล้มเหลวของระบบสภาวะแวดล้อมที่ต้องใช้ในการทำงานของระบบ AI อาทิ โครงข่ายการสื่อสารขาดการเชื่อมต่อ เป็นต้น กรณีเหล่านี้ กฎหมายที่มีอยู่ในปัจจุบันก็ไม่เพียงพอต่อการสร้างความเชื่อมั่นให้แก่ผู้ที่ต้องเกี่ยวข้องในเทคโนโลยีได้ว่าจะมีการจัดสรรความรับผิดชอบอย่างไร

ดังนั้น การจัดสรรต้นทุนระหว่างภาคส่วนต่างๆ ที่เกี่ยวข้องกับอุตสาหกรรม ทั้งผู้ผลิต นักพัฒนาและผู้บริโภคจึงมีความสำคัญต่อการพัฒนา AI และการสร้างความเชื่อมั่นให้กับผู้บริโภคให้สามารถเชื่อใจและไว้ใจในเทคโนโลยีได้(Trustworthy AI) อีกทั้งเป็นการสร้างความแน่นอนในระบบกฎหมายภายในอียู (Legal certainty)ดังนั้น จึงมีความแน่นอนระดับหนึ่งแล้วว่า อียูจะตรากฎหมายเพื่อกำกับและควบคุมเทคโนโลยี AI ซึ่งกฎหมายนี้อาจเป็นต้นแบบของการกำหนดกรอบการพัฒนาเทคโนโลยี AI ของโลกก็ได้

สำหรับประเทศไทยหากต้องการเป็นส่วนหนึ่งของกลไกขับเคลื่อนเศรษฐกิจครั้งสำคัญนี้ “นโยบายแห่งชาติว่าด้วย AI” จึงเป็นสิ่งที่ทุกภาคส่วนต้องร่วมกันผลักดัน.

โดย... 

ศุภวัชร์ มาลานนท์

Hubert Humphrey Fellow

American University Washington College of Law