วันพุธ ที่ 22 เมษายน 2569

Login
Login

AI ถูกกักตัว เพราะเก่งและอันตรายเกินไป

AI ถูกกักตัว เพราะเก่งและอันตรายเกินไป

เอไอเก่งขึ้นในทุกสัปดาห์ที่ผ่านไป เราคาดการณ์กันตลอดว่าเอไอจะทำอะไรได้เพิ่มขึ้น เก่งขึ้นแค่ไหน และอาจตกใจเป็นระยะๆ ว่าเอไอเก่งขนาดนี้แล้ว บางวันอาจกังวลว่าอาชีพไหนจะตกงาน

กังวลว่าจะต้องเพิ่มทักษะเพื่อทำงานอะไรอีก แล้วอนาคตหากเอไอรวมตัวกับหุ่นยนต์ที่ดูคล่องแคล่วมาก ผลกระทบจะเป็นอย่างไร

ล่าสุดมีข่าวหนึ่งที่ทำให้ต้องหยุดคิดพิจารณาว่านัยของเรื่องนี้คืออะไร เมื่อบริษัท Anthropic ตัดสินใจ ไม่ปล่อยโมเดลเอไอตัวใหม่ของตนเองสู่สาธารณะ โดยให้เหตุผลว่ามีศักยภาพที่จะถูกใช้ในการโจมตีระบบซึ่งอันตรายเกินกว่าจะเปิดให้ใช้งานทั่วไป จึงจำกัดการใช้งานเฉพาะบริษัทขนาดใหญ่ประมาณ 50 แห่งในกลุ่มคอมพิวเตอร์ ซอฟต์แวร์และการเงิน

โมเดลนั้นมีชื่อว่า Claude Mythos เป็นเอไอที่สามารถค้นหาช่องโหว่ในระบบซอฟต์แวร์ วิเคราะห์โครงสร้างความปลอดภัยของระบบขนาดใหญ่ หรือแม้กระทั่งช่วยเขียนโค้ดที่สามารถนำไปใช้โจมตีระบบได้จริง โดย Mythos สามารถเปิดเผยช่องโหว่นับพันรายการในแอปพลิเคชันที่มีการใช้งานอย่างแพร่หลายในปัจจุบัน

Anthropic ระบุว่าช่องโหว่ที่เอไอตรวจพบนั้นมักมีความซับซ้อน ละเอียดอ่อน และยากต่อการตรวจจับ ยกตัวอย่างเช่นเอไอโมเดล Mythos พบข้อบกพร่องที่ไม่เคยมีใครสังเกตเห็นมาก่อนในซอฟต์แวร์วิดีโอ ซึ่งผู้พัฒนาได้ทดสอบมาแล้วมากกว่า 5 ล้านครั้ง

ข่าวนี้จึงเป็นครั้งแรกๆ ที่ได้ฟังว่าบริษัทเทคโนโลยียอมรับว่า เทคโนโลยีของตัวเองเก่งและอันตรายเกินไปจนอาจนำไปใช้อย่างไม่เหมาะสม เลยไม่อยากให้หลุดไปใช้งานทั่วไป

ใจหนึ่งเราอาจคิดว่าหรือจะเป็นการโฆษณาของบริษัทว่ามีโมเดลที่เก่งมากๆ และบริษัทก็มีจริยธรรมพอที่จะไม่ปล่อยโมเดลเอไอนี้ แต่ในอีกมุมหนึ่ง ก็คิดว่าหากเป็นความจริงแล้ว อะไรจะเกิดขึ้นกับโลกต่อไป

เรื่องนี้ก็เปรียบเสมือนว่า เรากำลังเข้าสู่ยุคที่เทคโนโลยีบางอย่างต้อง “กักตัว” ไว้เหมือนอาวุธ คล้ายๆ กับเนื้อหาบทแรกของหนังสือ Life 3.0 ที่เล่าเรื่องสมมติว่ามีเอไอที่เก่งมากจนต้องกักตัวไว้ในห้อง และไม่ให้เชื่อมต่อกับอินเทอร์เน็ต เพราะกลัวจะหลุดออกไปสู่โลกภายนอก

สำหรับเรื่องการกักตัวเทคโนโลยีนี้ เราเคยเผชิญกับสถานการณ์คล้ายกันมาก่อน เช่น เทคโนโลยีนิวเคลียร์ในโครงการ Manhattan Project ซึ่งไม่ได้เปิดเผยทันทีหลังค้นพบ แต่ให้ควบคุมอย่างเข้มงวด เพราะศักยภาพในการทำลายล้างสูงเกินกว่าจะปล่อยให้กระจายโดยไม่มีการกำกับ

หรือกรณีเทคโนโลยีชีวภาพบางประเภท หรือแม้แต่ความรู้ด้านไซเบอร์ในยุคแรก ๆ ที่มักจำกัดอยู่ในวงผู้เชี่ยวชาญ เราจึงกำลังเผชิญกับเทคโนโลยีเอไอที่มีศักยภาพระดับอาวุธ แต่ไม่มีโครงสร้างการควบคุมแบบอาวุธ รองรับอยู่

กรณีของโมเดล Mythos ดูจะสะท้อนปัญหาที่ลึกกว่านั้น มีสิ่งที่นักนโยบายเรียกว่า “dual-use technology” หรือเทคโนโลยีที่สามารถใช้ได้ทั้งในทางสร้างสรรค์และทำลายล้าง ซึ่งก็มีการพูดถึงมาหลายปีแล้ว

โมเดลเอไอนี้จึงมีลักษณะ Dual-use อย่างชัดเจน คือ สามารถช่วยบริษัทค้นหาช่องโหว่เพื่อป้องกันการโจมตี หรือในอีกด้านหนึ่ง สามารถถูกใช้เพื่อเจาะระบบของรัฐหรือองค์กรสำคัญได้อย่างมีประสิทธิภาพ

ในอดีต บริษัทเทคโนโลยีมักแข่งขันกันปล่อยของให้เร็วที่สุดเพื่อครองตลาด เราจึงเห็นการเกทับกันตลอดเวลาว่าโมเดลเอไอใครเก่งกว่า แต่ในกรณีนี้ เหมือนจะเริ่มเห็นสัญญาณใหม่ บริษัทเลือกชะลอตัวเองลง เพราะความเสี่ยงสูงเกินไป

ในอนาคต เราอาจเห็นอะไรสักอย่างแบบ Anti-Ai ออกมาเหมือน Anti-Virus เพื่อทำลายความสามารถของเอไอที่สามารถทำลายล้างระบบได้ ทุกวันนี้ เราเริ่มเห็น AI ตรวจจับ AI ในหลายๆ เรื่องแล้ว ทั้งการระบุเนื้อหา รูปภาพ วิดีโอ ว่าสร้างจากเอไอหรือไม่ รวมถึงการควบคุมน่าจะยกระดับไปสู่กฎระเบียบหรือมาตรฐานในระดับระบบนิเวศของเทคโนโลยี

ในนโยบายการควบคุมเอไอ ยังมีช่องว่างสำคัญอย่างน้อย 3 ประการ ประการแรกคือ ความเร็วของเทคโนโลยีที่นำหน้าการกำกับดูแลอย่างมาก ระบบกฎหมายและนโยบายสาธารณะออกแบบมาในยุคที่การเปลี่ยนแปลงค่อนข้างช้า แต่เอไอพัฒนาในระดับที่อาจเรียกได้ว่าก้าวกระโดด ทำให้การกำกับดูแลซึ่งมักจะช้าอยู่แล้วตามไม่ทัน

ประการที่สองคือ โครงสร้างความรับผิดชอบที่ยังไม่ชัดเจน หากเอไอนำไปใช้ในทางที่ก่อให้เกิดความเสียหาย ใครควรรับผิด ระหว่างผู้พัฒนา ผู้ใช้งาน หรือแพลตฟอร์ม? ประการที่สามคือ เอไอสามารถพัฒนาและใช้งานได้โดยบริษัทเอกชน หรือแม้แต่กลุ่มคนเล็ก ๆ ที่มีความสามารถสูง ทำให้การควบคุมแบบรวมศูนย์ทำได้ยาก

เหตุการณ์ที่เรียกว่า “Mythos Moment” นี้อาจมองได้ว่าเป็นสัญญาณของการเปลี่ยนผ่านครั้งสำคัญของเอไอ จากเดิมที่เป็นเพียงเครื่องมือช่วยเพิ่มประสิทธิภาพ ไปสู่การเป็นโครงสร้างพื้นฐานของความเสี่ยงที่สามารถทั้งค้นพบและสร้างผลกระทบต่อระบบขนาดใหญ่ได้พร้อมกัน

สิ่งที่น่าสนใจคือ วิธีที่บริษัท Anthropic เลือกใช้ ไม่ใช่การปิดเทคโนโลยีทั้งหมด แต่เป็นการปล่อยแบบจำกัดให้กับองค์กรบางประเภท เช่น บริษัทเทคโนโลยีหรือสถาบันการเงิน ภายใต้โครงการ “Glasswing” เพื่อใช้ในการทดสอบความปลอดภัย แนวทางนี้สะท้อนความพยายามหาจุดสมดุลระหว่างการพัฒนาและการควบคุม

เหตุการณ์นี้เป็นสัญญาณที่เตือนว่าโลกกำลังเข้าสู่ยุคที่ความก้าวหน้าและความเสี่ยงของเอไอกำลังเดินไปพร้อมกัน ไม่แน่ว่า เราอาจได้เห็นเอไออีกหลายตัวหรือเทคโนโลยีอีกหลายประเภทที่ถูกกักตัว เพราะมันเก่งและอันตรายมากเกินไป

AI ถูกกักตัว เพราะเก่งและอันตรายเกินไป