ไขรหัสการสร้างความไว้วางใจใน AI ผ่านแผนงานการกำกับดูแลอย่างรับผิดชอบ

สร้างกรอบการกำกับดูแล AI ที่มีโครงสร้างชัดเจน ประกอบด้วยนโยบาย มาตรฐาน และกระบวนการ เพื่อบริหารความเสี่ยง (เช่น ความเอนเอียง, การละเมิดความเป็นส่วนตัว) และสร้างความเชื่อมั่น โดยต้องรักษาสมดุลระหว่างนวัตกรรมและการจัดการความเสี่ยง
KEY
POINTS
- สร้างกรอบการกำกับดูแล AI ที่มีโครงสร้างชัดเจน ประกอบด้วยนโยบาย มาตรฐาน และกระบวนการ เพื่อบริหารความเสี่ยง (เช่น ความเอนเอียง, การละเมิดความเป็นส่วนตัว) และสร้างความเชื่อมั่น โดยต้องรักษาสมดุลระหว่างนวัตกรรมและการจัดการความเสี่ยง
- เริ่มต้นเส้นทางการกำกับดูแลโดยใช้แนวทางที่มีโครงสร้างครอบคลุม 3 ด้านสำคัญ: การออกแบบ (กำหนดวัตถุประสงค์และความเสี่ยง), กระบวนการ (พัฒนา ตรวจสอบ และติดตามแบบจำลองอย่างเป็นกลาง), และการฝึกอบรม (ส่งเสริมจริยธรรมและใช้ข้อมูลที่เชื่อถือได้เพื่อลดความเอนเอียง)
- ยึดหลัก 7 ประการของ Trustworthy AI เป็นรากฐานของแผนงาน: ต้องมีความยุติธรรมและเป็นกลาง, โปร่งใสและอธิบายได้, มีความรับผิดชอบ (Accountable), มีเสถียรภาพและเชื่อถือได้, เคารพความเป็นส่วนตัว, ปลอดภัยและมั่นคง, และมีความรับผิดชอบต่อสังคม (Responsible)
- สร้างความสอดคล้องของผู้มีส่วนได้ส่วนเสียโดยการมีส่วนร่วมของทีมงานต่างๆ เพื่อให้กรอบกำกับดูแลครอบคลุมครบถ้วน และหมั่นติดตามจัดการการใช้งาน AI ให้ถูกต้องตามกฎระเบียบอย่างสม่ำเสมอ
ปัญญาประดิษฐ์ (AI) ได้พัฒนาอย่างรวดเร็ว จากเทคโนโลยีเฉพาะทางสู่ความสามารถหลักทางธุรกิจ ในปีที่ผ่านมา AI ได้ถูกนำมาใช้ในหลากหลายอุตสาหกรรมมากขึ้น ด้วยความคาดหวังในด้านประสิทธิภาพ นวัตกรรม และความได้เปรียบในการแข่งขัน
ยกตัวอย่างเช่น บริษัทฟินเทค (Fintech) แห่งหนึ่งในประเทศไทยมีแอปพลิเคชันให้กู้เงินดิจิทัลที่ขับเคลื่อนด้วย AI ซึ่งสามารถอนุมัติสินเชื่อให้กับผู้สมัครกว่าร้อยละ 30 ที่เคยถูกธนาคารปฏิเสธ เพราะไม่มีเอกสารแสดงรายได้อย่างเป็นทางการหรือประวัติเครดิต ระบบ AI ได้ช่วยให้เข้าถึงลูกค้าได้อย่างแม่นยำและลดความเอนเอียง พร้อมปรับปรุงการฟื้นคืนทุนของพอร์ตสินเชื่อโดยรวม
การเติบโตอย่างรวดเร็วของ AI นี้เน้นย้ำถึงความสำคัญของกรอบการกำกับดูแลที่เชื่อถือได้ ที่จะช่วยให้องค์กรบริหารความเสี่ยง AI อย่างมั่นใจ ผลลัพธ์ที่ไม่น่าเชื่อถือจาก AI อาจนำไปสู่เกิดการฟ้องร้อง การปรับ หรือการเสียชื่อเสียง องค์กรในปัจจุบันเผชิญแรงกดดันมากขึ้นในการใช้ AI อย่างรับผิดชอบและตรงตามวัตถุประสงค์
การบริหารความเสี่ยง AI
กรอบกำกับดูแล AI มีโครงสร้างชัดเจน ประกอบด้วยนโยบาย มาตรฐาน และกระบวนการกำกับวงจรชีวิต AI ที่ส่งเสริมการพัฒนาอย่างรับผิดชอบ เพิ่มประโยชน์สูงสุด และลดความเสี่ยง (ความเอนเอียงและการละเมิดความเป็นส่วนตัว) สร้างความเชื่อมั่น ตามข้อกำหนดที่เปลี่ยนแปลงอยู่เสมอ
กรอบกำกับดูแลต้องมีความสมดุลระหว่างนวัตกรรมและการจัดการความเสี่ยง ไม่เป็นอุปสรรคต่อนวัตกรรม แต่มีความน่าเชื่อถือและสอดคล้องกับการจัดการความเสี่ยงที่มีอยู่ รวมถึงความสอดคล้องของผู้มีส่วนได้ส่วนเสีย โดยการมีส่วนร่วมของทีมงานต่างๆ เพื่อให้กรอบกำกับดูแลครอบคลุมครบถ้วน และสุดท้าย องค์กรควรหมั่นติดตามและจัดการการใช้งาน AI ให้ถูกต้องตามกฎระเบียบอย่างสม่ำเสมอ
องค์กรจะเริ่มต้นอย่างไร
กรอบแนวคิด Trustworthy AI ของดีลอยท์ นำเสนอแนวทางที่เป็นระบบโดยใช้แนวปฏิบัติด้านจริยธรรมของ AI และลดความเสี่ยงตลอดวงจรชีวิตของ AI การเริ่มต้นเส้นทางการกำกับดูแล AI ต้องใช้แนวทางที่มีโครงสร้างและครอบคลุม โดยองค์กรเริ่มต้นได้โดยมุ่งเน้น 3 ด้านสำคัญ ได้แก่
· การออกแบบ เกี่ยวกับการวางแนวคิดและบันทึกการใช้งานตามวัตถุประสงค์และความเสี่ยงของระบบ AI การปรึกษาผู้มีส่วนได้ส่วนเสีย การรวบรวมสถานการณ์จำลอง การระบุผลลัพธ์ไม่พึงประสงค์ที่อาจเกิดขึ้น และความเข้าใจข้อกำหนดกฎระเบียบและกฎหมาย
· กระบวนการ หมายถึงการพัฒนา การนำไปใช้ การตรวจสอบความถูกต้อง และการติดตามระบบอย่างต่อเนื่อง โดยควรระบุวัตถุประสงค์ชัดเจนในการพัฒนาแบบจำลอง มีเกณฑ์คัดเลือกแบบจำลองที่เป็นกลาง รวมถึงการทดสอบพัฒนาควรประเมินสมมติฐาน ความเสถียร ความเอนเอียง และพฤติกรรมของแบบจำลอง
· การฝึกอบรมจริยธรรมด้าน AI สำหรับนักพัฒนาและผู้ใช้ช่วยส่งเสริมความตระหนักถึงอันตรายและข้อควรพิจารณาทางจริยธรรม การใช้แหล่งข้อมูลที่เชื่อถือได้ มีเอกสารประกอบ และชุดข้อมูลตัวแทนช่วยให้เป็นธรรม โดยควรระบุตัวชี้วัดคุณภาพข้อมูล และลดความเอนเอียงด้วยการเลือกฟีเจอร์และประเมินการเปลี่ยนแปลง
การสร้างการกำกับดูแล AI ที่น่าเชื่อถือ กรอบแนวคิด Trustworthy AI ของดีลอยท์ ได้สรุปหลัก 7 ประการ ซึ่งเป็นรากฐานของโปรแกรมการจัดการความเสี่ยงด้าน AI ที่มีประสิทธิภาพ ดังนี้
· ยุติธรรมและเป็นกลาง: องค์กรควรระบุและจัดการกับความเอนเอียงเพื่อป้องกันผลลัพธ์ที่ไม่เป็นธรรม เช่น แชทบอท GenAI อาจทำงานได้ดีในบางกลุ่มเท่านั้น ซึ่งอาจลดความไว้วางใจของผู้ใช้ต่อเครื่องมือและธุรกิจ
· โปร่งใสและอธิบายได้: ผู้มีส่วนได้ส่วนเสียควรเข้าใจในการนำข้อมูลไปใช้และการตัดสินใจของ AI โดยอัลกอริทึมต้องตรวจสอบได้ เช่น คำแนะนำทางการแพทย์แบบ GenAI ควรระบุว่าคำแนะนำนั้นมาจาก AI พร้อมคำอธิบายชัดเจนและเข้าถึงได้
· มีความรับผิดชอบ: นโยบายที่ชัดเจนกำหนดว่าใครรับผิดชอบการตัดสินใจนั้น ๆ ไม่ว่าองค์กรจะสร้างแบบจำลองภายในองค์กร หรือจากผู้จัดจำหน่าย ต้องมีความเชื่อมโยงที่ชัดเจนระหว่างแบบจำลอง GenAI และธุรกิจที่นำไปใช้
· มีเสถียรภาพและเชื่อถือได้: ระบบ AI ควรสร้างผลลัพธ์ที่เชื่อถือได้อย่างสม่ำเสมอ เรียนรู้จากมนุษย์และระบบอื่น ๆ ได้
· มีความเป็นส่วนตัว: ข้อมูลที่ใช้ฝึกและทดสอบโมเดล AI อาจมีความละเอียดอ่อน จึงควรจำกัดการใช้งานข้อมูลตามวัตถุประสงค์ที่ตั้งใจไว้ และผู้ใช้ควรมีสิทธิควบคุมการตั้งค่าการแบ่งปันข้อมูลของตัวเอง
· ปลอดภัยและมั่นคง: เนื้อหา GenAI อาจถูกนำไปใช้ในทางที่ผิดเพื่อสร้างข้อมูลเท็จให้กับผู้มีส่วนได้ส่วนเสีย องค์กรจึงต้องจัดการกับความเสี่ยงด้านความมั่นคงปลอดภัยทางไซเบอร์ และปรับผลลัพธ์ของ AI ให้สอดคล้องกับเป้าหมายทางธุรกิจและความสนใจของผู้ใช้เพื่อความปลอดภัยและความมั่นคง
· มีความรับผิดชอบ: AI ควรได้รับการพัฒนาและดำเนินการอย่างมีความรับผิดชอบต่อสังคม สะท้อนถึงคุณค่าทางจริยธรรมและบรรทัดฐาน
มองไปข้างหน้า สู่อนาคตที่น่าเชื่อถือ
เมื่อมีการกำกับดูแลที่มีความรับผิดชอบ องค์กรจะเป็นผู้นำได้อย่างมั่นใจ ปลดล็อกคุณค่าของการเปลี่ยนแปลง และกำหนดอนาคตที่นวัตกรรมและความซื่อสัตย์เดินทางไปด้วยกันได้อย่างสมบูรณ์
เรียนรู้เพิ่มเติมเกี่ยวกับ AI ได้ที่ AI Institute | Deloitte Southeast Asia หรือติดต่อ [email protected]
หมายเหตุ: บทความนี้เขียนโดย อิง ฮาว แทน (Ing Houw Tan) Assurance Leader ดีลอยท์ ประเทศไทย







