ผู้สร้าง AI เริ่มกลัว AI เอง พูดถึง ‘บังเกอร์วันสิ้นโลก’

ในขณะที่โลกตื่นเต้นกับอนาคตของ AI ที่ฉลาดขึ้นทุกวัน เบื้องหลังกลับเป็นความหวาดกลัวของผู้สร้าง อัจฉริยะใน Silicon Valley เริ่มพูดถึง ‘บังเกอร์วันสิ้นโลก’ หาก AI หลุดการควบคุมของมนุษย์ คำถามจึงไม่ใช่ AI จะไปได้ไกลแค่ไหน แต่คือ มนุษย์พร้อมรับมือมันแล้วหรือยัง หาก AI เหนือกว่ามนุษย์ขึ้นมา
ในโลกที่ความสามารถปัญญาประดิษฐ์ (AI) รุดหน้าไปอย่างรวดเร็ว นี่ไม่เพียงเขย่าอุตสาหกรรมดั้งเดิมเท่านั้น แต่ยังสร้าง “ความกลัว” ขึ้นมาด้วย กลุ่มอัจฉริยะระดับท็อปของวงการและผู้สร้าง AI เริ่มพูดถึงการขุด “บังเกอร์วันสิ้นโลก” เตรียมไว้ในวันที่ AI หลุดพ้นจากการควบคุมของมนุษย์
ไม่ใช่เพราะพวกเขาไม่เชื่อในอนาคตของ AI แต่เพราะพวกเขารู้ดีกว่าใครว่า อะไรอาจเกิดขึ้น เมื่อมนุษย์ไม่ได้เป็นสิ่งมีชีวิตที่ฉลาดที่สุดบนโลกอีกต่อไป
ปรากฏการณ์นี้ถูกสะท้อนอย่างชัดเจนจากเรื่องราวของ อิลยา ซุตสเคเวอร์ ผู้ร่วมก่อตั้งและอดีตหัวหน้าทีมนักวิจัยของ OpenAI ผู้อยู่เบื้องหลัง ChatGPT หนึ่งในมันสมอง AI อันทรงพลังในโลกปัจจุบัน
ในช่วงฤดูร้อนปี 2023 เขาได้เรียกประชุมทีมนักวิจัยหลักของ OpenAI และกล่าวด้วยน้ำเสียงจริงจังว่า
“เราทุกคนลงไปในบังเกอร์…”
นักวิจัยคนหนึ่งขัดขึ้นมาทันทีด้วยความงุนงง “ขอโทษนะ… บังเกอร์?”
แต่ซุตสเคเวอร์ยืนยันอย่างมั่นใจ “เราจะสร้างบังเกอร์ก่อนปล่อย AGI อย่างแน่นอน”
สำหรับ AGI หรือ Artificial General Intelligence คือจุดที่ปัญญาประดิษฐ์ฉลาดเทียบเท่า หรือเหนือกว่ามนุษย์ในทุกด้าน ซึ่งผู้สร้าง AI หลายรายเชื่อว่าเมื่อถึงวันนั้น โลกอาจเกิดความวุ่นวายครั้งใหญ่ ทั้งการแข่งขันทางอำนาจของมหาอำนาจ การโจรกรรมเทคโนโลยี การก่อการร้ายเชิงไซเบอร์ หรือแม้กระทั่งการที่ AI มองมนุษย์เป็น “อุปสรรค”
ซุตสเคเวอร์เชื่อว่า หาก AGI ถูกปล่อยออกสู่โลก ทีมผู้สร้างจะต้องมีที่หลบภัยที่ปลอดภัยก่อน และไม่ใช่แค่เขาที่คิดแบบนั้น
ภายใน OpenAI มีคนกลุ่มหนึ่งเชื่อจริงจังว่า การสร้าง AGI อาจทำให้เกิดปรากฏการณ์เหมือน “วันพิพากษาโลก”
ความกลัวนี้ไม่ได้จำกัดอยู่ใน OpenAI เท่านั้น แต่เริ่มแพร่กระจายไปในหมู่มหาเศรษฐีและผู้นำเทคโนโลยีหลายคน ตัวอย่างเช่น
มาร์ก ซักเคอร์เบิร์ก กำลังก่อสร้างคอมเพล็กซ์ขนาดใหญ่ในฮาวาย มี “พื้นที่ใต้ดินลึกลับ” ราว 5,000 ตารางฟุต
ส่วนรีด ฮอฟฟ์แมน ผู้ก่อตั้ง LinkedIn กล่าวตรงๆว่า คนรวยจำนวนมากมี “ประกันวันสิ้นโลก” โดยนิยมซื้อที่ในนิวซีแลนด์
ขณะเดียวกัน วงการอสังหาริมทรัพย์ระดับพันล้าน ก็กำลังเติบโตแบบเงียบๆ เพื่อทำที่อยู่หลบภัยใต้ดิน
ไม่ว่าจะเรียกว่า “บังเกอร์” “บ้านพักตากอากาศ” หรือ “ห้องใต้ดิน” โครงสร้างเหล่านี้ดูคล้ายกันอย่างน่าประหลาด
ความย้อนแย้งที่น่ากังวล คือ คนที่เร่งสร้าง AI กลับเป็นคนที่กลัวมันมากที่สุด
ย้อนไปในปี 2023 ความกังวลนี้ได้ปะทุขึ้น จนเป็นหนึ่งในเหตุผลที่ขับไล่แซม อัลท์แมน ออกจากซีอีโอ OpenAI ซึ่งซุตสเคเวอร์และทีมนักวิจัยบางคนมองว่า อัลท์แมนผลักดัน AI เร็วมากเกินไปและละเลยความปลอดภัย
ซุตสเคเวอร์พูดประโยคที่เลื่องลือว่า “ผมไม่คิดว่า แซมควรเป็นคนที่กดปุ่มปล่อย AGI”
แม้การปลดครั้งนั้นจะล้มเหลวและอัลท์แมนกลับมา จากแรงหนุนของ Microsoft แต่ความแตกแยกภายในเผยให้เห็นความกังวลใหญ่อย่างหนึ่งขึ้น เพราะแม้แต่ผู้สร้าง AI ก็ไม่แน่ใจว่ามนุษยชาติพร้อมรับมันแล้วหรือยัง
ยิ่งล่าสุด ปธน.ทรัมป์ออกคำสั่ง “Genesis Mission” ยกระดับ AI เทียบชั้นโครงการแมนฮัตตัน ก็ยิ่งสร้างความหวาดหวั่นว่าจะซ้ำรอย “Genisys” ซึ่งเป็น Skynet ร่างใหม่ในหนัง Terminator Genisys หรือไม่ โดย Genisys เป็น AI เดียวที่ควบคุมทุกอย่าง ตั้งแต่การสื่อสาร สมาร์ทโฮม บริการสาธารณะ ไปจนถึงระบบการทหาร รวมถึงการควบคุมขีปนาวุธ
อย่างไรก็ตาม แม้ว่ากระแส AGI และความกังวลใน AI มาแรง แต่บาบัก โฮดจัต ประธานเจ้าหน้าที่ฝ่ายเทคโนโลยีของบริษัทเทคโนโลยี Cognizant มองว่า ก่อนจะไปถึงจุดนั้น จำเป็นต้องมีการปฏิวัติความก้าวหน้าเชิงพื้นฐานอีกหลายขั้นให้เกิดขึ้นก่อน เพราะความรู้ของ AI ล้วนเกิดจากข้อมูลมหาศาลที่มนุษย์ป้อนเข้าไปให้เรียนรู้ ต่างจากสมองมนุษย์ที่มาจากประสาทสัมผัส และประสบการณ์โดยตรง
“ถ้าคุณบอกมนุษย์ว่า มีการค้นพบสิ่งมีชีวิตบนดาวเคราะห์นอกระบบสุริยะ มนุษย์จะเรียนรู้ทันที และข้อมูลนั้นจะเปลี่ยนมุมมองต่อโลกของเขาไปในอนาคต แต่สำหรับโมเดลภาษาขนาดใหญ่ (LLM) พวกมันจะ ‘รู้’ เรื่องนั้นก็ต่อเมื่อคุณคอยบอกซ้ำ ๆ ว่านั่นคือความจริงเท่านั้น”
เขากล่าวต่อว่า “LLM ยังไม่มีความสามารถด้าน Meta-cognition หมายความว่าพวกมันไม่รู้จริง ๆ ว่าตัวเองรู้อะไร ขณะที่มนุษย์มีความสามารถในการสำรวจความคิดของตัวเอง ซึ่งบางครั้งเรียกว่า ‘สติรู้ตัว’ (Consciousness) ทำให้เรารับรู้ว่าตัวเองรู้อะไรอยู่”
นี่คือองค์ประกอบพื้นฐานของสติปัญญามนุษย์ และเป็นสิ่งที่จนถึงตอนนี้ ยังไม่มีใครสามารถสร้างเลียนแบบได้ในห้องทดลอง







