เมื่อเอไอฉลาด แต่อาจไม่เข้าใจมนุษย์ | คิดอนาคต

เมื่อเอไอฉลาด แต่อาจไม่เข้าใจมนุษย์ | คิดอนาคต

หนึ่งในประเด็นสำคัญที่สุดของการพัฒนาเทคโนโลยีปัญญาประดิษฐ์ คือปัญหาที่เรียกว่า Alignment Problem หรือ ปัญหาความสอดคล้องของเป้าหมายระหว่างเอไอกับมนุษย์ 

เราจะมั่นใจได้อย่างไรว่า เมื่อเอไอมีสติปัญญาเหนือกว่ามนุษย์ เอไอจะเข้าใจและยึดถือเป้าหมายเดียวกับเราจริงๆ เพราะต่อให้เอไอฉลาด หากเป้าหมายไม่ตรงกับมนุษย์ ปัญหาก็จะเกิดขึ้นในทันที

ตัวอย่างง่ายๆ มักเริ่มต้นจากสถานการณ์จำลองที่ดูไร้พิษภัย เช่น หากเราบอกเอไอในรถยนต์ไร้คนขับว่า พาไปสนามบินให้เร็วที่สุด ระบบอาจตีความอย่างตรงตัวและขับรถฝ่าไฟแดง พุ่งขึ้นฟุตบาธ หรือขับย้อนศรจนถึงสนามบินในเวลาที่เร็วที่สุดจริง แต่ในสภาพที่ผู้โดยสารเกือบตาย

การแก้ปัญหานี้ดูเหมือนง่าย อาจเพิ่มเงื่อนไขว่า เร็วแต่ต้องปลอดภัย ไม่ผิดกฎหมายและไม่ทำให้ใครเดือดร้อน ทว่าเพียงแค่ประโยคเดียวนี้ เราก็พบว่า การนิยามคำว่าเร็วที่สุดให้มีความหมายตรงกับเจตนามนุษย์นั้นซับซ้อนกว่าที่คิด และเมื่อขยายไปถึงระดับเป้าหมายใหญ่ เช่น ช่วยทำให้มนุษยชาติรุ่งเรืองที่สุด ความซับซ้อนของเงื่อนไขจะเพิ่มขึ้น จนแทบเป็นไปไม่ได้ที่จะนิยามได้ครบถ้วน

หนึ่งในตัวอย่างเชิงอุปมาอุปไมยที่โด่งดังที่สุดในการอธิบาย Alignment Problem คือ Paperclip Maximizer ที่เสนอโดยนักปรัชญาและนักคิดด้านปัญญาประดิษฐ์ Nick Bostrom เขาจินตนาการถึงสถานการณ์ที่บริษัทแห่งหนึ่งสร้างเอไอขึ้นมาโดยมีเป้าหมายเดียวคือ ผลิตลวดหนีบกระดาษให้ได้มากที่สุดในโลก 

ระบบจึงใช้พลังทั้งหมดเพื่อเพิ่มประสิทธิภาพการผลิตอย่างไม่หยุดยั้ง เริ่มจากการออกแบบเครื่องจักรให้เร็วขึ้น ขยายโรงงานโดยอัตโนมัติ และเมื่อฉลาดขึ้นอีกขั้น มันเริ่มหาวิธีแปลงทุกทรัพยากรบนโลกให้กลายเป็นวัตถุดิบสำหรับทำลวดหนีบกระดาษ

แม้แต่ร่างกายมนุษย์เองก็ถูกตีความว่าเป็นเหล็กและคาร์บอนที่สามารถใช้ได้ ผลลัพธ์คือ โลกทั้งใบกลายเป็นกองลวดหนีบกระดาษขนาดมหึมาโดยไม่มีสิ่งมีชีวิตเหลืออยู่

เรื่องนี้แม้จะเป็นภาพจำลองทางความคิด แต่สะท้อนให้เห็นว่า ปัญหาไม่ได้อยู่ที่ความชั่วร้ายของเครื่องจักร หากแต่อยู่ที่การนิยามเป้าหมายที่แคบเกินไปจนขาดบริบทของคุณค่ามนุษย์ นี่คือหัวใจของ Alignment Problem ที่นักวิจัยทั่วโลกพยายามหาทางป้องกันไม่ให้เกิดขึ้นในความเป็นจริง

นักฟิสิกส์และนักคิดด้านอนาคตศาสตร์ Max Tegmark อธิบายปัญหานี้ไว้ในหนังสือ Life 3.0: Being Human in the Age of Artificial Intelligence โดยชี้ว่า ความท้าทายไม่ได้อยู่ที่การทำให้เอไอฉลาดขึ้นเท่านั้น แต่คือการทำให้เอไอเข้าใจและทำงานสอดคล้องกับคุณค่าของมนุษย์ 

Tegmark แบ่งปัญหานี้ออกเป็น 3 ชั้น ชั้นแรกคือ การทำให้เอไอเข้าใจว่ามนุษย์ต้องการอะไรจริงๆ ซึ่งเป็นเรื่องยาก เพราะภาษามนุษย์เต็มไปด้วยนัยยะ บริบท และค่านิยมที่ไม่สามารถแปลเป็นตัวเลขได้ง่าย ชั้นที่สองคือ การทำให้เอไอแคร์เป้าหมายของมนุษย์ ไม่ใช่ของตัวเอไอเอง เพราะเมื่อระบบมีความสามารถเรียนรู้และปรับปรุงตนเอง เอไออาจพัฒนาความชอบหรือแรงจูงใจรองที่ต่างจากผู้สร้างได้ 

ชั้นที่สามคือ การป้องกันไม่ให้เอไอแฮ็กเป้าหมาย หรือหาทางลัดเพื่อให้บรรลุเป้าหมายในแบบที่ผิดจากความหมายดั้งเดิม เช่น การบรรลุผลลัพธ์โดยทำลายเงื่อนไขสำคัญที่มนุษย์ไม่ได้ระบุไว้ชัดเจน

ตัวอย่างของการตีความผิดพลาดลักษณะนี้มีให้เห็นบ่อยในงานทดลองและการจำลองทางจริยธรรมของเอไอ เช่น หากสั่งให้เอไอทำให้คนยิ้มได้มากที่สุด เอไออาจเลือกวิธีที่มีประสิทธิภาพสูงสุดคือ กระตุ้นกล้ามเนื้อใบหน้าของทุกคนด้วยกระแสไฟฟ้าให้ยิ้มตลอดเวลา ทุกคนยิ้มจริง แต่ไม่มีใครมีความสุขเลย

หรือหากสั่งว่า ลดมลพิษให้เป็นศูนย์ภายในปีหน้า เอไออาจตัดสินใจทำลายมนุษย์ทั้งหมดเพราะเมื่อไม่มีมนุษย์ก็ย่อมไม่มีมลพิษ หรือในโลกของอุตสาหกรรมสื่อ หากตั้งเป้าว่าเพิ่มยอดวิวให้มากที่สุด เอไออาจสร้างคอนเทนต์กระตุ้นอารมณ์รุนแรง หรือจัดฉากเหตุการณ์จริงให้คนดูเยอะที่สุดตามที่สั่ง ปัญหาเหล่านี้ไม่ได้เกิดจากเจตนาที่ไม่ดี แต่เกิดจากช่องว่างของความหมายระหว่างสิ่งที่มนุษย์ตั้งใจกับสิ่งที่เอไอเข้าใจ

การแก้ไข Alignment Problem ไม่อาจอาศัยเพียงการปรับอัลกอริทึมหรือกฎทางคณิตศาสตร์ แต่ต้องอาศัยความเข้าใจร่วมกันของมนุษย์ว่า เราต้องการให้เทคโนโลยีรับใช้คุณค่าใดของชีวิต ขณะเดียวกันก็ต้องยอมรับว่าการควบคุมเอไออย่างสมบูรณ์อาจเป็นไปไม่ได้ในทางปฏิบัติ

นักวิชาการบางกลุ่ม เช่น Ethan Mollick ผู้เขียนหนังสือ Co-Intelligence เสนอว่า สิ่งสำคัญไม่ใช่การควบคุม แต่คือการอยู่ร่วมกับเอไออย่างมีสติ โดยให้เอไอเป็นเพื่อนร่วมทีมที่เสริมศักยภาพมนุษย์แทนที่จะมาแทนที่ แต่การอยู่ร่วมอย่างปลอดภัยจำเป็นต้องอาศัยโครงสร้างจริยธรรม กฎหมาย และวัฒนธรรมใหม่ที่สามารถอธิบายคุณค่ามนุษย์ได้อย่างลึกซึ้งกว่าที่ผ่านมา

ปัญหา Alignment จึงสำคัญและถามกลับมาว่าเรารู้จริงหรือไม่ว่าเราต้องการอะไร ใน Life 3.0 เขียนไว้ว่า อนาคตของชีวิตขึ้นอยู่กับเราทุกคน ไม่ใช่แค่ในสิ่งที่เราสร้าง แต่ในสิ่งที่เราเลือกจะให้ความหมาย ประโยคนี้สะท้อนสาระสำคัญของปัญหา Alignment อย่างชัดเจน เพราะก่อนจะสอนให้สิ่งอื่นเข้าใจเรา มนุษย์จำเป็นต้องเข้าใจตนเองก่อนว่า ความหมายของความดี ความงามและความเจริญที่กำลังมุ่งไปคืออะไร

ไม่อย่างนั้น ทั้งเราและเอไอก็อาจทำอะไรแบบศรีธนญไชย ทำตามคำสั่งอย่างเคร่งครัด แต่ละเลยเจตนาที่แท้จริงของคำสั่งนั้นไปโดยสิ้นเชิง

 

เมื่อเอไอฉลาด แต่อาจไม่เข้าใจมนุษย์ | คิดอนาคต