จริยธรรมการพัฒนาเอไอโลก บิ๊กเทคร่วมร่างแผนผ่านกลไกG7 -OECD

จริยธรรมการพัฒนาเอไอโลก  บิ๊กเทคร่วมร่างแผนผ่านกลไกG7 -OECD

ฝุ่นควันทางการค้ายังคงฟุ้งไปทั่วโลก หลังสหรัฐประกาศสงครามการค้ากับหลายประเทศทั่วโลก การโต้กลับย่อมเกิดขึ้น

เวทีความร่วมมือในกรอบต่างๆทั่วโลกจะเข้ามามีบทบาทที่สำคัญในเรื่องนี้

กลุ่มประเทศอุตสาหกรรมชั้นนำ 7 ประเทศ (Group of Seven : G7) ได้แก่ แคนาดา ฝรั่งเศส เยอรมนี อิตาลี ญี่ปุ่น สหราชอาณาจักร และสหรัฐ ซึ่งเป็นเวทีความร่วมมือที่ทรงพลังสามารถขับเคลื่อนประเด็นต่างๆของโลกให้เกิดเป็นรูปธรรม หรือ อย่างน้อยก็สร้างผลกระทบในวงกว้างได้ 

     สำหรับการประชุม กลุ่ม G7 หรือ The 2025 Canadian Presidency เนื่องในโอกาสครบรอบ 50 ปีของการประชุมสุดยอดผู้นำกลุ่มประเทศ G7 ครั้งแรก  แคนาดา ได้ดำรงตำแหน่งประธานกลุ่มประเทศ G7 ประจำปี 2568  โดยการประชุมสุดยอดผู้นำกลุ่มประเทศ G7 ประจำปี 2568  จะจัดขึ้นที่เมืองคานานาสกิส รัฐอัลเบอร์ตา ระหว่างวันที่ 15 ถึง 17 มิ.ย.2568

“เรื่องที่จะคุยกันมีตั้งแต่สันติภาพและความมั่นคงระหว่างประเทศ ไปจนถึงเสถียรภาพและการเติบโตทางเศรษฐกิจระดับโลก ไปจนถึงการเปลี่ยนผ่านสู่ระบบดิจิทัล ความท้าทายและโอกาสระดับโลกในปัจจุบันต้องการให้เราทำงานร่วมกันเพื่อค้นหาแนวทางแก้ปัญหาร่วมกัน”

    เมื่อเร็วๆนี้  องค์การเพื่อความร่วมมือและการพัฒนาทางเศรษฐกิจ (OECD) เปิดตัวกรอบการทำงานระดับโลกชุดแรกสำหรับภาคธุรกิจต่างๆ เพื่อรายงานความพยายามในการส่งเสริม AI ที่ปลอดภัย มั่นคง และน่าเชื่อถือ

โครงการนี้เป็นไปตามความพยายามสร้างจรรยาบรรณระหว่างประเทศของ Hiroshima Process สำหรับองค์กรที่พัฒนาระบบ AI ขั้นสูง ซึ่งเป็นองค์ประกอบหลักของ Hiroshima AI Process ที่เปิดตัวในช่วงที่ญี่ปุ่นเป็นประธาน G7 เมื่อปี 2566 ที่ผ่านมา (Hiroshima Process International Guiding Principles for Organizations Developing Advanced AI systems)

ก่อนที่จะมีการกำหนดระเบียบปฎิบัติด้านการพัฒนา AI ของโลก นี่เป็นครั้งแรกที่ภาคธุรกิจต่างๆ จะสามารถให้ข้อมูลเกี่ยวกับการดำเนินการและแนวทางการจัดการความเสี่ยงด้าน AI เช่น การประเมินความเสี่ยง การรายงานเหตุการณ์ และกลไกการแบ่งปันข้อมูล ซึ่งจะช่วยส่งเสริมความไว้วางใจและความรับผิดชอบในการพัฒนาระบบ AI ขั้นสูง

“นักพัฒนาระบบ AI ขั้นสูงรายใหญ่ที่สุดของโลกบางรายได้มีส่วนสนับสนุนโครงการนี้และมีบทบาทสำคัญในช่วงนำร่อง โดยทำการทดสอบคุณสมบัติต่างๆ และรับรองประสิทธิภาพของโครงการ”

สำหรับ นักพัฒนา AI ชั้นนำ เช่น Amazon, Anthropic, Fujitsu, Google, KDDI CORPORATION, Microsoft, NEC Corporation, NTT, OpenAI, Preferred Networks Inc., Rakuten Group Inc., Salesforce และ Softbank Corp. ซึ่งได้ให้คำมั่นว่าจะดำเนินการตามกรอบงานเปิดตัวให้เสร็จสมบูรณ์แล้ว

    สาระสำคัญของ Hiroshima Process International จรรยาบรรณสำหรับองค์กรการพัฒนาระบบ AI ขั้นสูง(ร่างเบื้องต้นก่อนรับฟังความเห็น)  ได้แก่ 1. ใช้มาตรการที่เหมาะสมตลอดการพัฒนาระบบ AI ขั้นสูง รวมถึงก่อนและตลอดการใช้งานและวางตลาด เพื่อ

ระบุ ประเมิน และบรรเทาความเสี่ยงตลอดวงจรชีวิตของ AI เพื่อจัดการกับความเสี่ยง AI ทั้งความเสี่ยงทางเคมี ชีวภาพ รังสี และนิวเคลียร์  ,ความสามารถด้านไซเบอร์เชิงรุก,ความเสี่ยงต่อสุขภาพและ/หรือความปลอดภัย รวมถึงผลกระทบของปฏิสัมพันธ์ของระบบและการใช้เครื่องมือ เช่น ความสามารถในการควบคุมระบบทางกายภาพและรบกวนโครงสร้างพื้นฐานที่สำคัญ

       ความเสี่ยงจากแบบจำลองของการทำสำเนาตัวเองหรือ “การจำลองตัวเอง” หรือการฝึกอบรมแบบจำลองอื่น ,ความเสี่ยงต่อสังคม ตลอดจนความเสี่ยงต่อบุคคลและชุมชน เช่น วิธีการที่ระบบหรือโมเดล AI ขั้นสูงสามารถก่อให้เกิดอคติและการเลือกปฏิบัติที่เป็นอันตราย หรือนำไปสู่การละเมิดกรอบกฎหมายที่เกี่ยวข้อง รวมถึงเรื่องความเป็นส่วนตัวและการปกป้องข้อมูล,ภัยคุกคามต่อค่านิยมประชาธิปไตยและสิทธิมนุษยชน รวมถึงการอำนวยความสะดวกในการให้ข้อมูลเท็จหรือความเป็นส่วนตัวและความเสี่ยงที่เหตุการณ์ใดเหตุการณ์หนึ่งอาจนำไปสู่ปฏิกิริยาลูกโซ่ที่มีผลกระทบเชิงลบอย่างมาก

2.ระบุและบรรเทาช่องโหว่ กรณีการใช้งานในทางที่ผิด หลังจากการปรับใช้ รวมถึงการวางตลาดแล้วองค์กรควรใช้ระบบ AI ตามความเหมาะสมตามระดับความเสี่ยงตามที่ตั้งใจไว้ และตรวจสอบช่องโหว่ เหตุการณ์ ความเสี่ยงที่เกิดขึ้น และการใช้งานในทางที่ผิดวัตุประสงค์

3. รายงานความสามารถ ข้อจำกัด และโดเมนของระบบ AI ขั้นสูงต่อสาธารณะ เพื่อสนับสนุนให้มีความโปร่งใสและควรได้รับการปรับปรุงให้ทันสมัยอยู่เสมอ  4. ทำงานเพื่อการแบ่งปันข้อมูลและการรายงานเหตุการณ์อย่างมีความรับผิดชอบระหว่างองค์กรที่พัฒนาระบบ AI ขั้นสูง รวมถึงภาคอุตสาหกรรม รัฐบาล ภาคประชาสังคม และสถาบันการศึกษา

5 .การปฎิบัติจริงเรื่องเปิดเผยนโยบายการกำกับดูแลและการจัดการความเสี่ยงด้าน AI โดยยึดตามแนวทางที่อิงตามความเสี่ยง ซึ่งรวมถึงนโยบายความเป็นส่วนตัวและมาตรการบรรเทาผลกระทบ องค์กรต่างๆ ควรกำหนดกลไกขององค์กรที่เหมาะสมเพื่อพัฒนา เปิดเผย และนำนโยบายการจัดการความเสี่ยงและการจัดการความเสี่ยงไปปฏิบัติ

6 ลงทุนและนำการระบบควบคุมความปลอดภัยที่แข็งแกร่งมาใช้ รวมถึงความปลอดภัยทางกายภาพ ความปลอดภัยทางไซเบอร์ และการป้องกันภัยคุกคามจากภายในตลอดวงจรชีวิตของ AIซึ่งอาจรวมถึงการรักษาน้ำหนักของโมเดล อัลกอริทึม เซิร์ฟเวอร์ และชุดข้อมูล เช่น ผ่านมาตรการรักษาความปลอดภัยในการปฏิบัติงานเพื่อความปลอดภัยของข้อมูลและการควบคุมการเข้าถึงทางไซเบอร์/ทางกายภาพที่เหมาะสม

7 พัฒนาและปรับใช้กลไกการตรวจสอบและแหล่งที่มาของเนื้อหาที่เชื่อถือได้ หากทำได้ในทางเทคนิค เช่น การใส่ลายน้ำหรือเทคนิคอื่นๆ เพื่อให้ผู้ใช้สามารถระบุเนื้อหาที่สร้างโดย AI ได้ซึ่งรวมถึงกลไกการตรวจสอบและแหล่งที่มาของเนื้อหาสำหรับเนื้อหาที่สร้างด้วยระบบ AI ขั้นสูงขององค์กร

8. ให้ความสำคัญกับการวิจัยเพื่อบรรเทาความเสี่ยงทางสังคม ความปลอดภัย และความมั่นคง และให้ความสำคัญกับการลงทุนในมาตรการบรรเทาที่มีประสิทธิผลซึ่งรวมถึงการดำเนินการ ความร่วมมือ และการลงทุนในการวิจัยที่สนับสนุนความก้าวหน้า

ด้านความปลอดภัย ความมั่นคง และความน่าเชื่อถือของ AI และการจัดการความเสี่ยงที่สำคัญ ตลอดจนการลงทุนในการพัฒนา

เครื่องมือบรรเทาที่เหมาะสม

9 ให้ความสำคัญกับการพัฒนาระบบ AI ขั้นสูงเพื่อรับมือกับความท้าทายที่ยิ่งใหญ่ที่สุดในโลก โดยเฉพาะอย่างยิ่งแต่ไม่จำกัดเพียงวิกฤตสภาพอากาศ สุขภาพและการศึกษาในระดับโลก

10 ส่งเสริมการพัฒนาและการนำมาตรฐานทางเทคนิคระหว่างประเทศมาใช้อย่างเหมาะสม องค์กรต่างๆ ควรมีส่วนร่วมในการพัฒนาและนำมาตรฐานทางเทคนิคระหว่างประเทศและแนวทางปฏิบัติที่ดีที่สุดมาใช้อย่างเหมาะสม รวมทั้งการใส่ลายน้ำและการทำงานร่วมกับ

11 ดำเนินการตามมาตรการป้อนข้อมูลที่เหมาะสมและการคุ้มครองข้อมูลส่วนบุคคลและทรัพย์สินทางปัญญา องค์กรต่างๆ ควรดำเนินการตามมาตรการที่เหมาะสมในการจัดการคุณภาพข้อมูล รวมถึงข้อมูลการฝึกอบรมและการรวบรวมข้อมูล เพื่อลดความเสี่ยงจากอคติที่เป็นอันตราย

 นายมาทีอัส คอร์มันน์เลขาธิการ OECDกล่าวว่า OECD มุ่งมั่นที่จะส่งเสริมความโปร่งใส การรายงานที่เปรียบเทียบได้ และความร่วมมือระหว่างผู้มีส่วนได้ส่วนเสียทั่วโลก ซึ่งท้ายที่สุดแล้วจะสร้างความไว้วางใจในระบบ AIการเปิดโอกาสให้เอกชนต่างๆ แบ่งปันแนวทางปฏิบัติของตนและแสดงให้เห็นถึงการเน้นย้ำด้านความปลอดภัย ความรับผิดชอบ และความโปร่งใส จะช่วยส่งเสริมการพัฒนา การนำไปใช้งาน และการใช้ระบบ AI ขั้นสูงอย่างมีความรับผิดชอบ

ทั้งนี้ OECD มีเป้าหมายที่จะส่งเสริมการทำงานร่วมกันและความสอดคล้องกันระหว่างกลไกการกำกับดูแล AI ระหว่างประเทศ โดยการจัดกรอบงานการรายงานให้สอดคล้องกับระบบการจัดการความเสี่ยงหลายระบบ รวมถึงจรรยาบรรณฮิโรชิม่าและองค์กรต่างๆ ที่พัฒนาระบบ AI ขั้นสูงได้รับเชิญให้ส่งรายงานเปิดตัวภายในวันที่ 15 เม.ย.2568 หลังจากนั้นจะรับรายงานที่ส่งมาอย่างต่อเนื่อง ซึ่งองค์กรต่างๆสามารถอัปเดตรายงานของตนได้เป็นประจำทุกปี