ไขรหัสการสร้างความไว้วางใจใน AI ผ่านแผนงานการกำกับดูแลอย่างรับผิดชอบ

ไขรหัสการสร้างความไว้วางใจใน AI ผ่านแผนงานการกำกับดูแลอย่างรับผิดชอบ

สร้างกรอบการกำกับดูแล AI ที่มีโครงสร้างชัดเจน ประกอบด้วยนโยบาย มาตรฐาน และกระบวนการ เพื่อบริหารความเสี่ยง (เช่น ความเอนเอียง, การละเมิดความเป็นส่วนตัว) และสร้างความเชื่อมั่น โดยต้องรักษาสมดุลระหว่างนวัตกรรมและการจัดการความเสี่ยง

KEY

POINTS

  • สร้างกรอบการกำกับดูแล AI ที่มีโครงสร้างชัดเจน ประกอบด้วยนโยบาย มาตรฐาน และกระบวนการ เพื่อบริหารความเสี่ยง (เช่น ความเอนเอียง, การละเมิดความเป็นส่วนตัว) และสร้างความเชื่อมั่น โดยต้องรักษาสมดุลระหว่างนวัตกรรมและการจัดการความเสี่ยง
  • เริ่มต้นเส้นทางการกำกับดูแลโดยใช้แนวทางที่มีโครงสร้างครอบคลุม 3 ด้านสำคัญ: การออกแบบ (กำหนดวัตถุประสงค์และความเสี่ยง), กระบวนการ (พัฒนา ตรวจสอบ และติดตามแบบจำลองอย่างเป็นกลาง), และการฝึกอบรม (ส่งเสริมจริยธรรมและใช้ข้อมูลที่เชื่อถือได้เพื่อลดความเอนเอียง)
  • ยึดหลัก 7 ประการของ Trustworthy AI เป็นรากฐานของแผนงาน: ต้องมีความยุติธรรมและเป็นกลาง, โปร่งใสและอธิบายได้, มีความรับผิดชอบ (Accountable), มีเสถียรภาพและเชื่อถือได้, เคารพความเป็นส่วนตัว, ปลอดภัยและมั่นคง, และมีความรับผิดชอบต่อสังคม (Responsible)
  • สร้างความสอดคล้องของผู้มีส่วนได้ส่วนเสียโดยการมีส่วนร่วมของทีมงานต่างๆ เพื่อให้กรอบกำกับดูแลครอบคลุมครบถ้วน และหมั่นติดตามจัดการการใช้งาน AI ให้ถูกต้องตามกฎระเบียบอย่างสม่ำเสมอ

ปัญญาประดิษฐ์ (AI) ได้พัฒนาอย่างรวดเร็ว จากเทคโนโลยีเฉพาะทางสู่ความสามารถหลักทางธุรกิจ ในปีที่ผ่านมา AI ได้ถูกนำมาใช้ในหลากหลายอุตสาหกรรมมากขึ้น ด้วยความคาดหวังในด้านประสิทธิภาพ นวัตกรรม และความได้เปรียบในการแข่งขัน

ยกตัวอย่างเช่น บริษัทฟินเทค (Fintech) แห่งหนึ่งในประเทศไทยมีแอปพลิเคชันให้กู้เงินดิจิทัลที่ขับเคลื่อนด้วย AI ซึ่งสามารถอนุมัติสินเชื่อให้กับผู้สมัครกว่าร้อยละ 30 ที่เคยถูกธนาคารปฏิเสธ เพราะไม่มีเอกสารแสดงรายได้อย่างเป็นทางการหรือประวัติเครดิต ระบบ AI ได้ช่วยให้เข้าถึงลูกค้าได้อย่างแม่นยำและลดความเอนเอียง พร้อมปรับปรุงการฟื้นคืนทุนของพอร์ตสินเชื่อโดยรวม

การเติบโตอย่างรวดเร็วของ AI นี้เน้นย้ำถึงความสำคัญของกรอบการกำกับดูแลที่เชื่อถือได้ ที่จะช่วยให้องค์กรบริหารความเสี่ยง AI อย่างมั่นใจ ผลลัพธ์ที่ไม่น่าเชื่อถือจาก AI อาจนำไปสู่เกิดการฟ้องร้อง การปรับ หรือการเสียชื่อเสียง องค์กรในปัจจุบันเผชิญแรงกดดันมากขึ้นในการใช้ AI อย่างรับผิดชอบและตรงตามวัตถุประสงค์

การบริหารความเสี่ยง AI

กรอบกำกับดูแล AI มีโครงสร้างชัดเจน ประกอบด้วยนโยบาย มาตรฐาน และกระบวนการกำกับวงจรชีวิต AI ที่ส่งเสริมการพัฒนาอย่างรับผิดชอบ เพิ่มประโยชน์สูงสุด และลดความเสี่ยง (ความเอนเอียงและการละเมิดความเป็นส่วนตัว) สร้างความเชื่อมั่น ตามข้อกำหนดที่เปลี่ยนแปลงอยู่เสมอ

กรอบกำกับดูแลต้องมีความสมดุลระหว่างนวัตกรรมและการจัดการความเสี่ยง ไม่เป็นอุปสรรคต่อนวัตกรรม แต่มีความน่าเชื่อถือและสอดคล้องกับการจัดการความเสี่ยงที่มีอยู่ รวมถึงความสอดคล้องของผู้มีส่วนได้ส่วนเสีย โดยการมีส่วนร่วมของทีมงานต่างๆ เพื่อให้กรอบกำกับดูแลครอบคลุมครบถ้วน และสุดท้าย องค์กรควรหมั่นติดตามและจัดการการใช้งาน AI ให้ถูกต้องตามกฎระเบียบอย่างสม่ำเสมอ

องค์กรจะเริ่มต้นอย่างไร

กรอบแนวคิด Trustworthy AI ของดีลอยท์ นำเสนอแนวทางที่เป็นระบบโดยใช้แนวปฏิบัติด้านจริยธรรมของ AI และลดความเสี่ยงตลอดวงจรชีวิตของ AI การเริ่มต้นเส้นทางการกำกับดูแล AI ต้องใช้แนวทางที่มีโครงสร้างและครอบคลุม โดยองค์กรเริ่มต้นได้โดยมุ่งเน้น 3 ด้านสำคัญ ได้แก่

· การออกแบบ เกี่ยวกับการวางแนวคิดและบันทึกการใช้งานตามวัตถุประสงค์และความเสี่ยงของระบบ AI การปรึกษาผู้มีส่วนได้ส่วนเสีย การรวบรวมสถานการณ์จำลอง การระบุผลลัพธ์ไม่พึงประสงค์ที่อาจเกิดขึ้น และความเข้าใจข้อกำหนดกฎระเบียบและกฎหมาย

· กระบวนการ หมายถึงการพัฒนา การนำไปใช้ การตรวจสอบความถูกต้อง และการติดตามระบบอย่างต่อเนื่อง โดยควรระบุวัตถุประสงค์ชัดเจนในการพัฒนาแบบจำลอง มีเกณฑ์คัดเลือกแบบจำลองที่เป็นกลาง รวมถึงการทดสอบพัฒนาควรประเมินสมมติฐาน ความเสถียร ความเอนเอียง และพฤติกรรมของแบบจำลอง

· การฝึกอบรมจริยธรรมด้าน AI สำหรับนักพัฒนาและผู้ใช้ช่วยส่งเสริมความตระหนักถึงอันตรายและข้อควรพิจารณาทางจริยธรรม การใช้แหล่งข้อมูลที่เชื่อถือได้ มีเอกสารประกอบ และชุดข้อมูลตัวแทนช่วยให้เป็นธรรม โดยควรระบุตัวชี้วัดคุณภาพข้อมูล และลดความเอนเอียงด้วยการเลือกฟีเจอร์และประเมินการเปลี่ยนแปลง

การสร้างการกำกับดูแล AI ที่น่าเชื่อถือ กรอบแนวคิด Trustworthy AI ของดีลอยท์ ได้สรุปหลัก 7 ประการ ซึ่งเป็นรากฐานของโปรแกรมการจัดการความเสี่ยงด้าน AI ที่มีประสิทธิภาพ ดังนี้

· ยุติธรรมและเป็นกลาง: องค์กรควรระบุและจัดการกับความเอนเอียงเพื่อป้องกันผลลัพธ์ที่ไม่เป็นธรรม เช่น แชทบอท GenAI อาจทำงานได้ดีในบางกลุ่มเท่านั้น ซึ่งอาจลดความไว้วางใจของผู้ใช้ต่อเครื่องมือและธุรกิจ

· โปร่งใสและอธิบายได้: ผู้มีส่วนได้ส่วนเสียควรเข้าใจในการนำข้อมูลไปใช้และการตัดสินใจของ AI โดยอัลกอริทึมต้องตรวจสอบได้ เช่น คำแนะนำทางการแพทย์แบบ GenAI ควรระบุว่าคำแนะนำนั้นมาจาก AI พร้อมคำอธิบายชัดเจนและเข้าถึงได้

· มีความรับผิดชอบ: นโยบายที่ชัดเจนกำหนดว่าใครรับผิดชอบการตัดสินใจนั้น ๆ ไม่ว่าองค์กรจะสร้างแบบจำลองภายในองค์กร หรือจากผู้จัดจำหน่าย ต้องมีความเชื่อมโยงที่ชัดเจนระหว่างแบบจำลอง GenAI และธุรกิจที่นำไปใช้ 

· มีเสถียรภาพและเชื่อถือได้: ระบบ AI ควรสร้างผลลัพธ์ที่เชื่อถือได้อย่างสม่ำเสมอ เรียนรู้จากมนุษย์และระบบอื่น ๆ ได้

· มีความเป็นส่วนตัว: ข้อมูลที่ใช้ฝึกและทดสอบโมเดล AI อาจมีความละเอียดอ่อน จึงควรจำกัดการใช้งานข้อมูลตามวัตถุประสงค์ที่ตั้งใจไว้ และผู้ใช้ควรมีสิทธิควบคุมการตั้งค่าการแบ่งปันข้อมูลของตัวเอง

· ปลอดภัยและมั่นคง: เนื้อหา GenAI อาจถูกนำไปใช้ในทางที่ผิดเพื่อสร้างข้อมูลเท็จให้กับผู้มีส่วนได้ส่วนเสีย องค์กรจึงต้องจัดการกับความเสี่ยงด้านความมั่นคงปลอดภัยทางไซเบอร์ และปรับผลลัพธ์ของ AI ให้สอดคล้องกับเป้าหมายทางธุรกิจและความสนใจของผู้ใช้เพื่อความปลอดภัยและความมั่นคง

· มีความรับผิดชอบ: AI ควรได้รับการพัฒนาและดำเนินการอย่างมีความรับผิดชอบต่อสังคม สะท้อนถึงคุณค่าทางจริยธรรมและบรรทัดฐาน 

มองไปข้างหน้า สู่อนาคตที่น่าเชื่อถือ

เมื่อมีการกำกับดูแลที่มีความรับผิดชอบ องค์กรจะเป็นผู้นำได้อย่างมั่นใจ ปลดล็อกคุณค่าของการเปลี่ยนแปลง และกำหนดอนาคตที่นวัตกรรมและความซื่อสัตย์เดินทางไปด้วยกันได้อย่างสมบูรณ์

เรียนรู้เพิ่มเติมเกี่ยวกับ AI ได้ที่ AI Institute | Deloitte Southeast Asia หรือติดต่อ [email protected]

หมายเหตุ: บทความนี้เขียนโดย อิง ฮาว แทน (Ing Houw Tan) Assurance Leader ดีลอยท์ ประเทศไทย