ใช้ AI อย่างมีจริยธรรม ขับเคลื่อนอนาคตยั่งยืน

เมื่อเราใช้เทคโนโลยีโดยคำนึงถึงมาตรฐานทางจริยธรรมควบคู่กันไป เชื่อได้ว่า AI จะเป็น “ตัวเร่ง” มากกว่า “ตัวถ่วง” ที่จะขับเคลื่อนให้เราบรรลุเป้าหมายด้านความยั่งยืนในทุกด้าน

สวัสดีครับ

ปัญญาประดิษฐ์ หรือ AI โดยเฉพาะปัญญาประดิษฐ์แบบรู้สร้าง (Generative AI) ได้เข้ามาพลิกโฉมการทำธุรกิจของทุกองค์กร เมื่อไม่กี่วันที่ผ่านมา ผมได้อ่านรายงานล่าสุดของ World Economic Forum ชื่อว่า “Future of Jobs Report 2025” ที่ได้ระบุข้อมูลที่น่าสนใจว่าช่วงระหว่างปี 2025 - 2030 อาจมีงานเกี่ยวกับ AI เกิดใหม่กว่า 78 ล้านตำแหน่ง นอกจากนี้ บริษัทที่ตอบแบบสอบถามกว่าร้อยละ 50 ยังระบุว่ากำลังวางแผนเพื่อปรับธุรกิจให้รองรับการเข้ามาของ AI โดยเฉพาะ แสดงให้เห็นว่า AI กำลังเข้ามาพลิกโฉมการทำงานแทบจะทุกด้านครับ

อนึ่ง แม้ AI จะมีประโยชน์มากมาย แต่ต้องไม่ลืมเรื่องการใช้อย่างรับผิดชอบด้วย หากท่านใดเป็นนักอ่าน น่าจะเคยอ่านผลงานของ Isaac Asimov นักเขียนชื่อดังชาวอเมริกันที่เคยฝากผลงานไว้มากมาย หนึ่งในนั้นคือ “I, Robot” นวนิยายคลาสสิกอิงวิทยาศาสตร์ที่ตีพิมพ์ในปี ค.ศ.1950 ซึ่งได้กล่าวถึงความซับซ้อนของกระบวนการคิดของหุ่นยนต์ไว้ กาลเวลาผ่านไปจนมาถึงศตวรรษที่ 21 ปัญญาประดิษฐ์กำลังเข้ามายึดครองทุกแวดวงธุรกิจ ซึ่งการเข้ามาเปลี่ยนกระบวนการธุรกิจรูปแบบเดิมเช่นนี้ ชวนให้นึกถึงโลกที่ถูกควบคุมด้วยหุ่นยนต์เข้าไปทุกที ถึงขนาดมีข่าวว่า AI ปฏิเสธคำสั่งการปิดตัวเอง ดังนั้นหากเราไม่เท่าทันอาจทำให้ความท้าทายต่างๆ ซับซ้อนยิ่งกว่าเดิม โดยเฉพาะประเด็นเรื่อง ESG ครับ

วันนี้ผมจึงอยากชวนคิดในประเด็นนี้ โดยเน้นย้ำในแต่ละมิติ เริ่มจากเรื่องสิ่งแวดล้อม (E) การใช้ปัญญาประดิษฐ์ใช้ทรัพยากรคอมพิวเตอร์จำนวนมากและใช้พลังงานที่ค่อนข้างสูง หากปราศจากแผนงาน เทคโนโลยีนี้อาจส่งผลกระทบจากการปล่อยก๊าซเรือนกระจก Plan Be Eco เว็บไซต์เกาะติดพัฒนาการด้าน ESG ได้เผยแพร่ข้อมูลที่น่าสนใจว่า การ “Train” หรือฝึกฝน Generative AI ยอดนิยมอย่าง GPT-3 ได้ปล่อยก๊าซคาร์บอนไดออกไซด์กว่า 502 ตันขึ้นสู่ชั้นบรรยากาศ เทียบได้กับการปล่อยก๊าซคาร์บอนไดออกไซด์ของรถยนต์พลังงานเครื่องยนต์สันดาป (Internal Combustion Engine : ICE) จำนวน 112 คัน ในระยะเวลาหนึ่งปี นอกจากนี้การพัฒนา AI ต้องใช้อุปกรณ์ IT หลายอย่าง อาทิ หน่วยประมวลผลกราฟิก (GPUs) ที่เป็นหัวใจในการพัฒนาการเรียนรู้ของเครื่อง (Machine Learning: ML) ซึ่งอุปกรณ์เหล่านี้มักตกรุ่นไวและกลายเป็นขยะอิเล็กทรอนิกส์อย่างรวดเร็ว

อีกประเด็นที่สำคัญไม่แพ้กันคือปัญหาเรื่องการกล่าวอ้างเกินจริง (Greenwashing) เรื่องนี้นับว่าเป็นปัญหาใหญ่ที่สุดอย่างหนึ่งที่ทำให้นักลงทุนจำนวนไม่น้อยต้อง “คิดหนัก” ก่อนจะลงทุน ผลสำรวจของ Google Cloud Sustainability Survey เผยว่าผู้บริหารกว่าร้อยละ 70 เชื่อว่า หากมีการตรวจสอบอย่างจริงจัง อาจเป็นไปได้ที่เราจะเห็นว่ามีบางองค์กรมีแนวโน้มที่จะกล่าวอ้างเกินจริงในเรื่อง ESG และหากมีการนำ AI มาใช้ปกปิด บิดเบือน หรือแม้กระทั่งนำเสนอข้อมูลเท็จ อาจจะทำให้การตรวจสอบทำได้ยากกว่าเดิมครับ

ถัดมาคือความเสี่ยงด้านสังคม (S) เราทราบดีว่าการฝึกฝนปัญญาประดิษฐ์ต้องดำเนินการโดยมนุษย์ หากผู้ที่ฝึกฝน AI มีอคติ อาจทำให้ข้อมูลที่ได้จากการวิเคราะห์ของ AI (Output) ผิดไปจากความเป็นจริงจนก่อให้เกิดการเลือกปฏิบัติได้ เช่น หากป้อนชุดข้อมูลที่มีอคติเข้าไปในขั้นตอนการวิเคราะห์และอนุมัติสินเชื่อรายย่อย อาจทำให้ประชากรกลุ่มเปราะบาง เช่น ชนกลุ่มน้อย กลุ่มชาติพันธุ์ หรือกลุ่มคนชายขอบ ไม่สามารถเข้าถึงสินเชื่อได้ ซึ่งอาจไม่สอดคล้องกับเป้าหมายของสถาบันการเงินที่มุ่งเน้นลดความไม่เท่าเทียม หรือแม้แต่การใช้ AI ในการสงครามโดยขาดจริยธรรมที่อาจกระทบต่อชีวิตผู้บริสุทธิ์

ท้ายสุดคือความเสี่ยงด้านธรรมาภิบาล (G) การใช้ AI ที่ขาดความรับผิดชอบอาจนำไปสู่การบริหารหรือใช้ประโยชน์จากข้อมูลลูกค้าอย่างไม่เหมาะสม รวมถึงข้อมูลที่เป็นความลับ (Sensitive Information) อาจ “หลุด” ออกมาสู่สาธารณะจนเกิดความเสียหายแก่เจ้าของข้อมูลได้ ก่อนหน้านี้เคยมีข่าวว่าบริษัทยักษ์ใหญ่ด้านสื่อสังคมออนไลน์นำรูปภาพที่ผู้ใช้งานตั้งค่าเป็นสาธารณะ (Public) ในบางประเทศไปฝึกฝนปัญญาประดิษฐ์โดยที่ไม่ได้รับความยินยอมจากผู้ใช้งาน และนำไปสู่ผลลัพธ์ด้านลบในแง่ของชื่อเสียง (Reputation Risk) ตามมาครับ

ดังนั้น การใช้ AI อย่างรับผิดชอบควรเริ่มจากการกำหนดกลยุทธ์ที่ครอบคลุมด้านที่เกี่ยวข้องกับจริยธรรม ความเป็นส่วนตัว และความโปร่งใส ต้องสอดคล้องกับข้อบังคับทางกฎหมายและค่านิยมขององค์กร หนึ่งในตัวอย่างที่ดี คือกรณีของ Microsoft บริษัทเทคโนโลยีระดับโลกที่ได้กำหนดคู่มือการใช้ AI อย่างรับผิดชอบที่ชื่อว่า “Microsoft Responsible AI Standard” ที่ตั้งอยู่บนหลักพื้นฐาน 6 ด้าน ได้แก่ ความเป็นธรรม (Fairness) ความน่าเชื่อถือและความปลอดภัย (Reliability and Safety) ความเป็นส่วนตัวและความมั่นคงปลอดภัย (Privacy and Security) การมีส่วนร่วมอย่างทั่วถึง (Inclusiveness) ความโปร่งใส (Transparency) และความรับผิดชอบ (Accountability)

AI มาพร้อมทั้งโอกาสและความเสี่ยง เป็นเรื่องดีที่องค์กรต่างๆ จะศึกษาความเป็นไปได้ที่จะนำ AI มาใช้ให้เกิดประโยชน์ แต่ต้องไม่ลืมว่าควรใช้งานเทคโนโลยีนี้ด้วยความระมัดระวังและรับผิดชอบด้วย เพื่อหลีกเลี่ยงปัญหาที่อาจเกิดขึ้นในระยะยาว เพราะการใช้นวัตกรรมใดๆ โดยขาดการควบคุม ย่อมเกิดผลเสียตามมา เมื่อเราใช้เทคโนโลยีโดยคำนึงถึงมาตรฐานทางจริยธรรมควบคู่กันไป เชื่อได้ว่า AI จะเป็น “ตัวเร่ง” มากกว่า “ตัวถ่วง” ที่จะขับเคลื่อนให้เราบรรลุเป้าหมายด้านความยั่งยืนในทุกด้านครับ