นโยบายกฎหมาย เพื่อการพัฒนา AI

นโยบายกฎหมาย เพื่อการพัฒนา AI

เมื่อเทคโนโลยีและ AI เข้ามามีบทบาทมากขึ้นในการพัฒนาประเทศ ภาคส่วนต่างๆ คงต้องพัฒนาและนำมาปรับใช้ให้เหมาะสมกับแต่ละอุตสาหกรรม และจะดีกว่าหรือไม่หากมีนโยบายแห่งชาติว่าด้วย AI ที่จะเข้ามาสนับสนุนและผลักดันภาคส่วนต่างๆ

Artificial intelligence (AI) หรือปัญญาประดิษฐ์ เข้ามามีบทบาทมากขึ้นเรื่อยๆ ต่ออุตสาหกรรมและการกำหนดทิศทางการพัฒนาของประเทศต่างๆ จากรายงานวิจัยเชิงสถิติของ PwC (2017) คาดการณ์ว่ามูลค่าทางเศรษฐกิจจาก AI จะสูงถึง 15.7 ล้านล้านเหรียญ ภายในปี 2030 และทำให้มูลค่า GDP ทั่วโลกเพิ่มขึ้น 26% ซึ่งปัจจุบันทิศทางการพัฒนา AI ในประเทศต่างๆ ยังไม่มีกรอบกฎหมายเข้มงวดชัดเจนมากนัก

รายงานการวิจัยของบริษัทที่ปรึกษา KPMG (Living in an AI World 2020) ซึ่งได้ทำการสำรวจความเห็นผู้บริหาร 751 คนในสหรัฐ ที่มีความรู้ความเข้าใจเกี่ยวกับ AI และได้มีการนำ AI มาใช้ในอุตสาหกรรมหรือธุรกิจ พบว่า 75% ของผู้ให้ความเห็นต้องการให้รัฐบาลกลางเข้ามากำกับดูแลเทคโนโลยี AI

ในขณะที่ Sundar Pichai ซีอีโอของ Google และ Alphabet Inc (บริษัทแม่ของ Google) และ Brad Lee Smith ประธาน Microsoft Inc ได้กล่าวในการประชุม World Economic Forum ที่เมืองดาวอส ประเทศสวิสเซอร์แลนด์ (21-24 ม.ค.2563) ให้ความเห็นไปในทิศทางเดียวกับรายงานของ PwC ถึงความต้องการของกลุ่มอุตสาหกรรมเทคโนโลยีที่ต้องการให้รัฐบาลเข้ามาควบคุมเทคโนโลยี AI และสร้างกติการะหว่างประเทศเพื่อขับเคลื่อนและกำกับเทคโนโลยีดังกล่าวเช่นกัน

สหภาพยุโรป หรืออียู เล็งเห็นความสำคัญของการกำกับทิศทางของเทคโนโลยี AI และได้ดำเนินการอย่างเป็นรูปธรรมโดยได้กำหนด AI Strategy ขึ้นเมื่อวันที่ 25 เม.ย.2561 และต่อมาเมื่อวันที่ 19 ก.พ.2563 ได้เผยแพร่เอกสาร “White Paper on Artificial Intelligence-A European Approach to Excellence and Trust” เพื่อนำไปสู่การตรากฎหมายในอนาคต โดย White Paper กำหนดกรอบปัญหาเพื่อการพิจารณาไว้ 2 ประการ กล่าวคือ

(1) ความเสี่ยงอันเนื่องมาจากการออกแบบเทคโนโลยี ที่อาจไม่คำนึงถึงสิทธิขั้นพื้นฐานของพลเมืองโดยเฉพาะสิทธิในความเป็นส่วนตัวของข้อมูลส่วนบุคคลและการไม่เลือกปฏิบัติ

สภาพปัญญาหาดังกล่าว เนื่องจากในปัจจุบันเทคโนโลยี AI ทำให้เครื่องจักรมีความสามารถในการทำความเข้าใจ เรียนรู้องค์ความรู้ต่างๆ การให้เหตุผลและการแก้ปัญหาต่างๆ มากขึ้นตามลำดับ และผลที่ตามมาจากการที่ AI สามารถคิดและตัดสินใจได้เสมือนมนุษย์มากขึ้น คือ ปัญหาของการตัดสินใจโดยมีอคติบางประการที่อาจเกิดจากเหตุผลต่างๆ เช่น เพศสภาพ อายุ เชื้อชาติ เผ่าพันธุ์ หรือศาสนา เป็นต้น ซึ่งอคติเหล่านั้นอาจไม่ได้เกิดจากความตั้งใจของผู้ออกแบบอัลกอริทึม หรือขั้นตอนการทำงานและการประมวลของ AI แต่เกิดจากการคัดเลือกข้อมูลและการประมวลผลข้อมูลขนาดใหญ่ตลอดเวลาของ AI นัjนเอง ซึ่งการเลือกปฏิบัติดังกล่าวขัดกับหลักการด้านสิทธิพลเมืองของอียูอย่างร้ายแรง

เนื่องจากในปัจจุบันเทคโนโลยี AI ทำให้เครื่องจักรมีความสามารถในการทำความเข้าใจ เรียนรู้องค์ความรู้ต่างๆ การให้เหตุผลและการแก้ปัญหาต่างๆ มากขึ้นตามลำดับ และผลที่ตามมาจากการที่ AI สามารถคิดและตัดสินใจได้เสมือนมนุษย์มากขึ้น

นอกจากนี้ ในกระบวนการเรียนรู้และดำเนินการของ AI มีความจำเป็นต้องใช้ข้อมูลส่วนบุคคลจำนวนมาก โดยเฉพาะ Big data จึงอาจนำมาซึ่งการละเมิดสิทธิในความเป็นส่วนตัวของข้อมูลส่วนบุคคลได้ในหลายๆ ลักษณะ รวมถึงอาจถูกใช้ในการจำกัดสิทธิในทางการเมืองด้วย เป็นต้น

(2)ความเสี่ยงอันเนื่องมาจากความปลอดภัยของเทคโนโลยีและหลักความรับผิด

เนื่องจากผลิตภัณฑ์ที่มี AI เป็นองค์ประกอบสำคัญ มีลักษณะที่ต่างจากสินค้าอุตสาหกรรมทั่วไป กล่าวคือ การมีความสามารถในการเรียนรู้และพัฒนาในช่วงอายุของผลิตภัณฑ์ นั่นหมายความว่าตัวสินค้า ณ วันที่ออกสู่ท้องตลาดกับวันที่สินค้านั้นก่อให้เกิดความเสียหายต่อผู้ใช้หรือบุคคลภายนอก คุณสมบัติบางประการของสินค้าอาจเปลี่ยนแปลงไปอย่างมีนัยสำคัญ หรือบางกรณีความเสียหายอาจจะเกิดจากปัจจัยภายนอกเนื่องจากตัวสินค้านั้นต้องมีปฏิสัมพันธ์กับสภาวะแวดล้อม

หากพิจารณากฎหมายที่ควบคุมเรื่องความปลอดภัยของสินค้าจะพบว่าการควบคุมความปลอดภัยอาจจำแนกได้เป็น 2 ช่วงเวลา คือ การควบคุมก่อน-หลังสินค้าออกสู่ท้องตลาด จะพบปัญหาดังนี้

  • ก่อนสินค้าออกสู่ท้องตลาด อาจมีความไม่เหมาะสมหรือไม่เพียงพอกับสินค้าอัจฉริยะต่างๆ ที่มี AI เป็นองค์ประกอบสำคัญ เนื่องจากสินค้ามีการเรียนรู้จากสภาวะแวดล้อม มีการอัพเดทข้อมูลและการประมวลผลต่างๆ ตลอดอายุของผลิตภัณฑ์ จึงทำให้ไม่สามารถประเมินความเสี่ยงและกำหนดมาตรฐานความปลอดภัยได้ทั้งหมดล่วงหน้า

  • การควบคุมหลังสินค้าออกสู่ท้องตลาดที่สำคัญ ได้แก่ กฎหมายว่าด้วยความรับผิดต่างๆ อาทิ กฎหมายเกี่ยวกับสินค้าที่ไม่ปลอดภัย (Product liability law)กฎหมายเหล่านี้มีความไม่ชัดเจนต่อการกำหนดความรับผิด หากความเสียหายนั้น เกิดจากซอฟต์แวร์ และกฎหมายยังไม่มีความชัดเจนในเรื่องการจัดสรรความรับผิดระหว่างผู้ออกแบบโปรแกรม (AI Designer/developer) และผู้นำโปรแกรมนั้นไปใช้ (Deployer) ว่าจะจัดสรรความรับผิดอย่างไรอีกด้วย

นอกจากนี้ หากความเสียหายเกิดจาก Cybersecurity หรือการเข้าจู่โจมระบบโดยบุคคลภายนอก หรือความล้มเหลวของระบบสภาวะแวดล้อมที่ต้องใช้ในการทำงานของระบบ AI อาทิ โครงข่ายการสื่อสารขาดการเชื่อมต่อ เป็นต้น กรณีเหล่านี้ กฎหมายที่มีอยู่ในปัจจุบันก็ไม่เพียงพอต่อการสร้างความเชื่อมั่นให้แก่ผู้ที่ต้องเกี่ยวข้องในเทคโนโลยีได้ว่าจะมีการจัดสรรความรับผิดชอบอย่างไร

ดังนั้น การจัดสรรต้นทุนระหว่างภาคส่วนต่างๆ ที่เกี่ยวข้องกับอุตสาหกรรม ทั้งผู้ผลิต นักพัฒนาและผู้บริโภคจึงมีความสำคัญต่อการพัฒนา AI และการสร้างความเชื่อมั่นให้กับผู้บริโภคให้สามารถเชื่อใจและไว้ใจในเทคโนโลยีได้ (Trustworthy AI) อีกทั้งเป็นการสร้างความแน่นอนในระบบกฎหมายภายในอียู (Legal certainty) ดังนั้น จึงมีความแน่นอนระดับหนึ่งแล้วว่า อียูจะตรากฎหมายเพื่อกำกับและควบคุมเทคโนโลยี AI ซึ่งกฎหมายนี้อาจเป็นต้นแบบของการกำหนดกรอบการพัฒนาเทคโนโลยี AI ของโลกก็ได้

สำหรับประเทศไทยหากต้องการเป็นส่วนหนึ่งของกลไกขับเคลื่อนเศรษฐกิจครั้งสำคัญนี้ “นโยบายแห่งชาติว่าด้วย AI” จึงเป็นสิ่งที่ทุกภาคส่วนต้องร่วมกันผลักดัน