ธัชกรณ์ วชิรมน

CEO Sertis (เซอร์ทิส)

6 กรกฎาคม 2561
803

มองอนาคต ‘เมื่อเอไอฉลาดกว่ามนุษย์’

หากถามว่า เอไอจะพัฒนาถึงขั้นทำลายมนุษย์หรือไม่ คำตอบคือขึ้นอยู่กับการโปรแกรมของนักพัฒนาเอไอ

เราเคยพูดถึงหรืออ่านเรื่องราวของปัญญาประดิษฐ ที่เรียกกันว่า “เอไอ” หลายครั้ง ไม่ว่าจะเป็นเรื่องประโยชน์ของเอไอในภาคธุรกิจและต่อมนุษยชาติ ตลอดจนเอไอจะเข้ามามีบทบาทเป็นมิตรหรือเป็นภัยต่อมนุษย์ ความคิดเห็นที่แตกต่างกันนี้เป็นที่ถกเถียงมานาน สร้างความเคลือบแคลงใจให้ทั้งกับผู้พัฒนาเอไอ และคนทั่วไปอย่างพวกเรา ยิ่งเอไอพัฒนาได้เร็วเท่าไหร่ ก็ยิ่งเกิดคำถามว่า ‘วันหนึ่งเอไอจะมีศักยภาพมากพอที่จะทำงานได้เหนือมนุษย์จนทำลายมนุษย์หรือไม่’ มากขึ้นเท่านั้น

มนุษย์เราถือกำเนิดขึ้นและใช้เวลายาวนานถึง 2.3 ล้านปี ในการวิวัฒนาการจนมีศักยภาพอย่างในปัจจุบัน เมื่อเปรียบเทียบกับเอไอที่มีต้นกำเนิดเมื่อปี ค.ศ.1956 ภายในระยะเวลาเพียง 62 ปี เท่านั้น เอไอสามารถพัฒนาศักยภาพจนทำงานได้ดีเทียบเท่า หรือเหนือกว่ามนุษย์ในบางด้าน ยกตัวอย่างเช่น Netflix และ Amazon ต้องมีเอไอคอยช่วยแนะนำสินค้า หรือแม้แต่ AlphaGo สามารถเอาชนะแชมป์หมากล้อมระดับโลกที่เป็นมนุษย์ได้ จนอย่างที่เป็นข่าวเผยแพร่ไปทั่วโลก

แต่หากถามว่า เอไอจะพัฒนาถึงขั้นทำลายมนุษย์หรือไม่ ขึ้นอยู่กับการโปรแกรมของนักพัฒนาเอไอ ลองคิดว่า หากเราโปรแกรมสั่งให้เอไอพัฒนาตัวเองให้เก่งขึ้นได้ มันก็จะทำทุกอย่างเพื่อพัฒนาตัวเองโดยที่ไม่สนความถูกผิด และอาจไปถึงขั้นสร้างโรงผลิตไฟฟ้าเพื่อนำมาเสริมสร้างศักยภาพการทำงานให้ดีขึ้นอีก และหากเราไม่ได้เขียนโปรแกรมให้รักษามนุษย์ไว้ มันอาจทำลายล้างเผ่าพันธุ์มนุษย์เพื่อจำกัดพื้นที่ ทรัพยากร และพลังงานไฟฟ้าให้มีเพียงพอต่อการนำไปพัฒนาให้เก่งขึ้นได้

หากจะลงลึกไปถึงระดับความรู้สึก (Feeling) และความตระหนักรู้ (Consciousness) สำหรับมนุษย์ สิ่งเหล่านี้เกิดจากการสั่งการของสมองและหลั่งสารเคมีบางชนิด ส่งผลให้เกิดความกลัว ความชอบ ดีใจ เสียใจ หรือการแสดงออกทางอารมณ์อื่นๆ โดยสิ่งที่อยู่เบื้องหลังคือหน้าที่หลักของสมอง นั่นคือการเอาชีวิตรอดและสืบสายพันธุ์ ฉะนั้นหากเราโปรแกรมเอไอให้มีหน้าที่เหมือนสมองมนุษย์ คงไม่แปลกที่มันจะมีความรู้สึก ‘กลัวตาย’ และแสดงพฤติกรรมเพื่อเอาชีวิตรอดทุกวิถีทาง

หากไปถึงขั้นนั้น บางคนอาจบอกว่าอุปกรณ์พวกนี้ล้วนพึ่งพาไฟฟ้า ก็เพียงแค่ปิดมันเท่านั้น แต่หากลองคิดว่า แม้ลิงชิมแปนซีที่มีความแข็งแรงมากกว่ามนุษย์ แต่เหตุใดการกระทำของมนุษย์กลับส่งผลต่อพวกมันมากกว่าพฤติกรรมของสายพันธุ์มันเอง สาเหตุคือมนุษย์มีวิวัฒนาการ และสมองที่รุดหน้ามากกว่าลิง ดังนั้น หากเอไอมีศักยภาพที่เหนือกว่าสมองมนุษย์ขึ้นมา คงไม่ใช่เรื่องง่ายที่เราจะไปกดปุ่มปิดสวิตซ์ของพวกมัน

ดังนั้น ผู้เรียนด้านพัฒนาเอไอควรศึกษาและเรียนรู้เรื่องจริยธรรมอย่างเข้มข้น คิดอย่างรอบคอบถึงผลกระทบที่จะตามมา และควรมีการตรวจสอบการทำงานของคอมพิวเตอร์ประสิทธิภาพสูงที่สามารถทำงานได้เกินกว่าสมองมนุษย์อยู่เสมอ เพื่อให้มั่นใจว่าคอมพิวเตอร์ยังคงทำงานตามกรอบที่กำหนด อีกทั้ง เราอาจเข้าไปเป็นส่วนหนึ่งของเอไอ โดยการสร้างอุปกรณ์ควบคุมเอไอผ่านสมอง หรือพัฒนาตัวเองให้เหนือกว่าเอไอโดยการฝังชิปในตัวมนุษย์เพื่อช่วยเพิ่มศักยภาพการทำงาน 

แต่ทั้งหมดนั้น ควรอยู่ภายใต้จริยธรรม และหลักความเป็นมนุษย์ด้วย นอกจากนี้ อาจเพิ่มสถานะให้ทุกคนสามารถเข้าถึงเอไอได้ ตัวอย่างเช่น บริษัท OpenAI ของ Elon Musk ที่เปิดให้ทุกคนเข้าถึงงานพัฒนาเอไอ และยกสิทธิบัตรเป็นของสาธารณะ เพื่อลดโอกาสที่คนกลุ่มใดกลุ่มหนึ่งจะพัฒนาเอไอในทางที่ผิดหรือรู้เท่าไม่ถึงการณ์

แม้การสร้างเอไอที่ทรงภูมิปัญญาจะเป็นเรื่องท้าทาย แต่หากไม่สามารถสร้างความปลอดภัย ก็ไม่มีตัวรับประกันความยั่งยืนของมนุษย์ได้ ดังนั้น เราทุกคนควรวางแผนด้านการควบคุมไว้เพื่อเตรียมความพร้อมในกรณีจำเป็น โดยยกเอาสำนวนไทยที่ว่า “วัวหายล้อมคอก” นั้น คงดูไม่เหมาะกับสถานการณ์นี้เสียเท่าไหร่ เนื่องจาก ผลกระทบที่อาจจะเกิดขึ้น ย่อมอาจสร้างความเสียหายได้เหลือคณานัป ดังนั้น ควรจะเป็นสำนวนไทยที่ว่า “กันไว้ดีกว่าแก้” เพราะยิ่งเราสามารถจัดการมันได้ดีเท่าไหร่ โอกาสในการก้าวสู่ยุคแห่งปัญญาประดิษฐ์หรือเอไอเอก็จะเป็นไปด้วยดีมากขึ้นเท่านั้น

แชร์ข่าว :
Tags:

i-Newspaperดูทั้งหมด

กนง.จ่อปิดฉาก‘ดอกเบี้ยต่ำ’