CES 2026: อ่านทิศทางเทคโนโลยีโลก ผ่านวิสัยทัศน์ ‘เจนเซน หวง’ และบทบาทใหม่ของ Nvidia

CES 2026: อ่านทิศทางเทคโนโลยีโลก ผ่านวิสัยทัศน์ ‘เจนเซน หวง’ และบทบาทใหม่ของ Nvidia

จากชิป Rubin สู่รถยนต์ไร้คนขับ Alpamayo เวที CES 2026 เผยภาพเอไอที่กำลังขยายบทบาทจากโครงสร้างพื้นฐาน สู่การใช้งานที่จับต้องได้ พร้อมสะท้อนวิสัยทัศน์ของ เจนเซน หวง ต่ออนาคตที่เอไอจะอยู่ใกล้มนุษย์มากกว่าที่เคย

KEY

POINTS

  • เจนเซน หวง ซีอีโออินวิเดีย เปิดตัว Rubin ชิปเอไอรุ่นใหม่ที่เป็นแพลตฟอร์มครบวงจร เพื่อแก้ปัญหาคอขวดและเพิ่มประสิทธิภาพการประมวลผลเอไอ
  • อินวิเดียวางบทบาทเป็นผู้ให้บริการโครงสร้างพื้นฐานเอไอแบบครบวงจร รับมือการแข่งขันจากคู่แข่งอย่างเอเอ็มดีและลูกค้ารายใหญ่ที่เริ่มพัฒนาชิปของตนเอง
  • “ช่วงเวลาแบบ ChatGPT ของเอไอเชิงกายภาพกำลังมาถึง” หวงกล่าว พร้อมเปิดตัว Alpamayo แพลตฟอร์มเอไอสำหรับรถยนต์ขับขี่อัตโนมัติ
  • เลโก้เข้าร่วมงาน CES ครั้งแรก จัดแสดงของเล่นอัจฉริยะ บล็อก ตัวต่อ และตัวละครที่สามารถโต้ตอบกันได้ผ่านเสียงและการเคลื่อนไหวธีม Star Wars

งาน CES 2026 หรือ Consumer Electronics Show ประจำปี 2026 ที่จัดขึ้นในนครลาสเวกัส สหรัฐ เริ่มเปิดให้ประชาชนทั่วไปเข้าชม หลังจากสองวันแรกถูกใช้ไปกับการแถลงข่าวของบริษัทเทคโนโลยีรายใหญ่หลายแห่ง เช่น โซนี่ (Sony) และ เอเอ็มดี (Advanced Micro Devices - AMD)

ตลอดหลายปีที่ผ่านมา CES รู้จักในฐานะเวทีโชว์นวัตกรรมอุปกรณ์อิเล็กทรอนิกส์สำหรับผู้บริโภค ตั้งแต่โทรทัศน์ เครื่องใช้ไฟฟ้า ไปจนถึงแก็ดเจ็ตแปลกใหม่ที่บางครั้งยังห่างไกลจากการใช้งานจริง แต่ในช่วงสองถึงสามปีหลัง บทบาทของงาน CES ค่อยๆ เปลี่ยนไป จากงานโชว์ของใหม่ ไปสู่เวทีที่สะท้อนว่า เทคโนโลยีจะเข้ามาอยู่ตรงไหนในชีวิตประจำวัน

ภาพที่เห็นใน 2026 คือ ปัญญาประดิษฐ์ไม่ได้เป็นเพียงเทคโนโลยีที่ทำงานอยู่เบื้องหลังซอฟต์แวร์หรือแอปพลิเคชันอีกต่อไป แต่กำลังถูกผลักออกจากดาต้าเซ็นเตอร์ ไปสู่โลกจริง ตั้งแต่ถนน บ้าน โรงงาน ไปจนถึงโต๊ะทำงานของผู้คน

ในบรรดาผู้บริหารที่ถูกจับตามองมากที่สุดบนเวที คือ เจนเซน หวง ประธานเจ้าหน้าที่บริหารของอินวิเดีย (Nvidia) ในฐานะบริษัทโครงสร้างพื้นฐานของเอไอที่มีบทบาทตั้งแต่ชิปประมวลผล ซอฟต์แวร์ ไปจนถึงเครื่องมือพัฒนาเอไอสำหรับโลกจริง 

สำหรับเวที CES 2026 หวงได้บรรยายตั้งแต่ความสำเร็จของบริษัทในยุคเอไอ ไปจนถึงการอธิบายว่าเทคโนโลยีรุ่นถัดไปกำลังมุ่งหน้าไปทางใด พร้อมประกาศเปิดตัวสถาปัตยกรรมประมวลผลเอไอรุ่นใหม่ที่ใช้ชื่อว่า Rubin ซึ่งตั้งชื่อตาม เวรา รูบิน (Vera Rubin) นักดาราศาสตร์หญิงผู้มีบทบาทสำคัญต่อความเข้าใจเรื่องสสารมืด 

Rubin คืออะไร และต่างจากรุ่นก่อนอย่างไร

ชิป Rubin ถูกวางให้เป็นสถาปัตยกรรมที่จะเข้ามาแทนที่ Blackwell ในช่วงครึ่งหลังของปี 2026 และเป็นอีกก้าวหนึ่งในวงจรการพัฒนาฮาร์ดแวร์แบบต่อเนื่องของอินวิเดีย อย่างไรก็ตาม Rubin ไม่ได้เป็นเพียงชิปตัวใหม่ แต่เป็นแพลตฟอร์มที่ประกอบด้วยชิปหลายชนิดทำงานร่วมกัน

แกนหลักของระบบคือ Rubin GPU ซึ่งทำงานร่วมกับหน่วยประมวลผลกลาง Vera CPU และชิปด้านเครือข่ายและการจัดการข้อมูล เช่น NVLink ระบบเชื่อมต่อความเร็วสูงระหว่างชิป, ConnectX การ์ดเครือข่ายอัจฉริยะ, BlueField ชิปสำหรับจัดการข้อมูลและความปลอดภัย และ Spectrum Ethernet Switch อุปกรณ์สวิตช์เครือข่ายสำหรับศูนย์ข้อมูล

อินวิเดียอธิบายว่า การออกแบบในลักษณะนี้มีเป้าหมายเพื่อแก้ปัญหาคอขวดที่เกิดขึ้นเมื่อเอไอต้องจัดการข้อมูลจำนวนมหาศาล และต้องตอบสนองคำสั่งอย่างรวดเร็วในระดับวินาที โดยเฉพาะในงานฝึกโมเดลและการนำเอไอไปใช้งานจริง

หวง กล่าวบนเวทีว่า ความท้าทายของยุคเอไอในปัจจุบันไม่ใช่เพียงคำถามว่า ชิปเร็วพอหรือไม่ แต่คือการทำให้ทุกส่วนของระบบ ตั้งแต่การประมวลผล การเชื่อมต่อ ไปจนถึงการจัดเก็บข้อมูล ทำงานสอดประสานกันอย่างมีประสิทธิภาพ Rubin จึงถูกออกแบบมาในลักษณะคิดมาทั้งระบบไม่ใช่แค่การเพิ่มความเร็วของจีพียูเพียงอย่างเดียว

อินวิเดียระบุเพิ่มเติมว่า ชิป Rubin รุ่นใหม่นี้สามารถประมวลผลได้โดยใช้พลังงานน้อยลงเมื่อเทียบกับชิปเอไอรุ่นปัจจุบัน ซึ่งอาจช่วยลดต้นทุนในการพัฒนาและใช้งานเทคโนโลยีเอไอในระยะยาว โดยชิปดังกล่าวอยู่ในขั้นตอนการผลิตแล้ว และมีกำหนดเปิดตัวภายในปีนี้

CES 2026: อ่านทิศทางเทคโนโลยีโลก ผ่านวิสัยทัศน์ ‘เจนเซน หวง’ และบทบาทใหม่ของ Nvidia

(REUTERS/Steve Marcus)

คู่แข่งที่ไล่ตาม และลูกค้าที่เริ่มทำเอง

แม้อินวิเดียจะถูกมองว่าเป็นผู้นำตลาดชิปเอไอในปัจจุบัน แต่การเปิดตัว Rubin ก็เกิดขึ้นท่ามกลางการแข่งขันที่เข้มข้นขึ้น ทั้งจากคู่แข่งโดยตรง และจากบริษัทเทคโนโลยีรายใหญ่ที่เคยเป็นลูกค้าสำคัญของอินวิเดียเอง

ในฝั่งคู่แข่ง เอเอ็มดี เดินหน้าขยายบทบาทในตลาดชิปสำหรับดาต้าเซ็นเตอร์และงานเอไออย่างต่อเนื่อง โดยในช่วงเดียวกับงาน CES 2026 บริษัทได้เปิดตัวระบบประมวลผลระดับแร็ก ซึ่งเป็นการรวมชิปจำนวนมากเข้าด้วยกัน เพื่อรองรับงานเอไอขนาดใหญ่ในศูนย์ข้อมูล

ตลาดนี้เป็นพื้นที่ที่อินวิเดียครองความได้เปรียบมานาน ผ่านแพลตฟอร์มอย่าง DGX และ NVL72 การที่เอเอ็มดีขยับมาพัฒนาระบบระดับแร็ก จึงไม่ใช่แค่การแข่งขันเรื่อง “ชิปใครแรงกว่าใคร” แต่เป็นการแข่งขันในระดับระบบครบชุด ซึ่งเป็นจุดที่อินวิเดียพยายามวางตัวเป็นผู้ให้โครงสร้างพื้นฐานเอไอแบบครบวงจร

ขณะเดียวกัน อินวิเดียยังต้องเผชิญแรงกดดันจากบริษัทเทคโนโลยีรายใหญ่ที่ให้บริการคลาวด์ เช่น กูเกิล (Google) และ อะเมซอน (Amazon) ซึ่งเริ่มลงทุนพัฒนาชิปของตนเองเพื่อใช้งานในศูนย์ข้อมูล 

แม้ทั้งสองบริษัทจะยังใช้จีพียูของอินวิเดียเป็นแกนหลักของบริการเอไอและคลาวด์ แต่การทำชิปเองสะท้อนความพยายามลดการพึ่งพาผู้ผลิตรายเดียว โดยเฉพาะในช่วงที่ชิปเอไอมีความต้องการสูง ราคาแพง และผลิตได้จำกัด

นักวิเคราะห์มองว่า ชิปที่กูเกิลและอะเมซอนพัฒนาขึ้น ยังไม่สามารถทดแทนจีพียูของอินวิเดียได้ทั้งหมด โดยเฉพาะในงานที่ซับซ้อนและต้องการความยืดหยุ่นสูง แต่การที่ลูกค้าเริ่มมีทางเลือกมากขึ้น ก็ทำให้โครงสร้างตลาดเปลี่ยนไป จากเดิมที่อินวิเดียครองอำนาจแทบเบ็ดเสร็จ สู่ตลาดที่มีแรงต่อรองเพิ่มขึ้น

ช่วงเวลา ChatGPT ของเอไอเชิงกายภาพ

“ช่วงเวลาแบบ ChatGPT ของเอไอเชิงกายภาพกำลังจะมาถึง” หวงกล่าว คำพูดนี้มาพร้อมกับการเปิดตัว Alpamayo แพลตฟอร์มเอไอสำหรับรถยนต์ขับขี่อัตโนมัติ ซึ่งถูกออกแบบมาเพื่อทำให้รถไม่ได้แค่ขับได้ แต่สามารถคิดและอธิบายการตัดสินใจของตัวเองได้ 

หวงอธิบายว่า เอไอในรถยนต์ไม่ควรเพียงรับข้อมูลจากเซ็นเซอร์แล้วสั่งเบรกหรือเลี้ยว แต่ต้องสามารถอธิบายได้ว่าทำไมจึงตัดสินใจเช่นนั้น เพื่อสร้างความเชื่อมั่นให้กับผู้ใช้งานและหน่วยงานกำกับดูแล

อินวิเดียเปิดเผยว่า กำลังทำงานร่วมกับ เมอร์เซเดส-เบนซ์ (Mercedes-Benz) เพื่อพัฒนารถยนต์ไร้คนขับที่ใช้เทคโนโลยี Alpamayo โดยคาดว่าจะเริ่มเปิดตัวในสหรัฐในอีกไม่กี่เดือนข้างหน้า ก่อนจะขยายไปยังยุโรปและเอเชีย 

ในการสาธิตบนเวที มีการฉายวิดีโอรถยนต์ Mercedes-Benz ที่ขับเคลื่อนด้วย Alpamayo วิ่งอยู่บนถนนในนครซานฟรานซิสโก โดยมีผู้โดยสารนั่งอยู่หลังพวงมาลัยและวางมือไว้บนตักตลอดการเดินทาง หวงกล่าวว่า ระบบนี้ขับขี่ได้อย่างเป็นธรรมชาติ เพราะเรียนรู้จากพฤติกรรมของมนุษย์ และในทุกสถานการณ์ รถจะสามารถบอกได้ว่ากำลังจะทำอะไร และให้เหตุผลว่าทำไมจึงตัดสินใจเช่นนั้น

มุมของอินวิเดีย นี่คือช่วงเวลาที่เอไอเชิงกายภาพเริ่มมีคุณสมบัติครบถ้วนพอที่จะถูกนำไปใช้งานจริงในระดับอุตสาหกรรม คล้ายกับช่วงที่ ChatGPT ทำให้ผู้คนจำนวนมากเริ่มเห็นว่า เอไอเชิงภาษาสามารถใช้งานได้จริง ไม่ใช่แค่แนวคิดเชิงวิชาการ

นอกจากนี้ การที่อินวิเดียเปิด Alpamayo แบบโอเพนซอร์ส ผ่านแพลตฟอร์ม Hugging Face เพื่อให้นักวิจัยและนักพัฒนาทั่วโลกสามารถเข้าถึง นำไปปรับแต่ง และพัฒนาต่อยอดได้ แนวทางนี้สะท้อนบทเรียนจากยุคของโมเดลภาษาที่การเปิดให้คนจำนวนมากเข้ามามีส่วนร่วม ช่วยเร่งให้เทคโนโลยีพัฒนาและถูกนำไปใช้งานจริงได้เร็วขึ้น

การเปรียบเทียบกับ Tesla 

การเปิดตัว Alpamayo ยังทำให้เกิดการเปรียบเทียบกับ เทสลา (Tesla) ซึ่งมีระบบช่วยขับขี่อัตโนมัติ Autopilot มาก่อนหน้านี้ โดย อีลอน มัสก์ ระบุว่า การพัฒนาระบบขับขี่อัตโนมัติสามารถไปได้ไกลระดับหนึ่งไม่ยาก แต่ความท้าทายที่แท้จริงคือการรับมือกับสถานการณ์ที่เกิดขึ้นไม่บ่อยและคาดเดายาก

อินวิเดียเองก็เปิดเผยว่ามีแผนเปิดให้บริการรถแท็กซี่ไร้คนขับ หรือ Robotaxi ในอนาคต โดยร่วมมือกับพันธมิตร แม้ยังไม่เปิดเผยรายละเอียดว่าเป็นใคร หรือจะเริ่มให้บริการที่ใด

CES 2026: อ่านทิศทางเทคโนโลยีโลก ผ่านวิสัยทัศน์ ‘เจนเซน หวง’ และบทบาทใหม่ของ Nvidia

(LEGO)

เอไอในบ้าน อุปกรณ์ และความบันเทิง

นอกเหนือจากชิปประมวลผลและระบบขนาดใหญ่สำหรับดาต้าเซ็นเตอร์ งาน CES 2026 ยังสะท้อนอีกภาพหนึ่งที่ชัดเจน นั่นคือ เอไอกำลังค่อยๆ ถูกออกแบบให้เข้ามาอยู่ใกล้ตัวผู้บริโภคมากขึ้น ตั้งแต่ในบ้าน บนโต๊ะทำงาน ไปจนถึงพื้นที่ความบันเทิงและการเล่นของเด็ก

หนึ่งในบริษัทที่ขยับตัวชัดเจนในทิศทางนี้ คือ อะเมซอน ซึ่งใช้เวที CES เปิดตัวการอัปเดตผู้ช่วยเสียง Alexa เวอร์ชันใหม่ที่ถูกออกแบบให้ทำงานคล้ายแชตบอตมากขึ้น ไม่ใช่เพียงแค่รับคำสั่งสั้นๆ เช่น เปิดไฟหรือเช็กสภาพอากาศ แต่สามารถโต้ตอบเป็นบทสนทนา เข้าใจคำถามที่ซับซ้อนขึ้น และทำงานผ่านหลายอุปกรณ์ได้พร้อมกัน

อะเมซอนยังเปิดให้ผู้ใช้บางกลุ่มทดลองใช้งาน Alexa ผ่านเว็บไซต์และแอปพลิเคชันในลักษณะเดียวกับแชตบอต 

ในฝั่งของอุปกรณ์ไลฟ์สไตล์และเกม เรเซอร์ (Razer) ซึ่งในอดีตมักเป็นที่จดจำจากการนำเสนอฮาร์ดแวร์แนวทดลองสุดโต่งในงาน CES ปีนี้เลือกนำเสนอเอไอในรูปแบบที่แตกต่างออกไป โดยเปิดตัวโครงการแนวคิดสองรายการ ได้แก่ Project AVA และ Project Motoko

Project AVA เป็นแนวคิดของผู้ช่วยเอไอที่ปรากฏในรูปแบบอวตารบนโต๊ะทำงาน ทำหน้าที่เป็นเพื่อนร่วมงานดิจิทัลที่สามารถโต้ตอบกับผู้ใช้ได้ ขณะที่ Project Motoko เป็นอุปกรณ์สวมใส่เชิงทดลอง ซึ่งมีแนวคิดใกล้เคียงกับแว่นอัจฉริยะ แต่ไม่จำเป็นต้องสวมแว่นจริง

แม้ทั้งสองโครงการยังอยู่ในขั้นแนวคิด แต่การนำเสนอของ Razer สะท้อนแนวโน้มว่า เอไอสำหรับผู้บริโภคไม่ได้ถูกจำกัดอยู่แค่ในสมาร์ตโฟนหรือคอมพิวเตอร์อีกต่อไป แต่กำลังถูกทดลองในรูปแบบที่มีตัวตนมากขึ้น ทั้งในฐานะผู้ช่วยส่วนตัว และอุปกรณ์ที่อยู่ในพื้นที่การทำงานและการเล่นเกม

อีกด้านหนึ่ง คือ เลโก้ (Lego) เข้าร่วมงาน CES เป็นครั้งแรก โดยเลือกจัดแสดงระบบของเล่นอัจฉริยะในรูปแบบปิด ซึ่งประกอบด้วยบล็อก ตัวต่อ และตัวละครที่สามารถโต้ตอบกันได้ผ่านเสียงและการเคลื่อนไหว ชุดแรกที่เปิดตัวมาในธีม Star Wars

ระบบของเล่นดังกล่าวถูกออกแบบให้ชิ้นส่วนต่างๆ สามารถสื่อสารกันได้ ไม่ใช่แค่ของเล่นแบบประกอบตามจินตนาการเหมือนในอดีต แต่เป็นของเล่นที่ตอบสนองต่อการเล่นของเด็ก และสร้างประสบการณ์แบบโต้ตอบมากขึ้น 

ภาพรวมของเอไอในบ้านและความบันเทิงที่ปรากฏใน CES 2026 จึงชี้ให้เห็นว่า บริษัทเทคโนโลยีกำลังพยายามทำให้เอไอเข้าถึงได้และอยู่ร่วมกับผู้คนในชีวิตประจำวันมากขึ้น ไม่ว่าจะในรูปแบบผู้ช่วยเสียง เพื่อนดิจิทัล อุปกรณ์สวมใส่ หรือแม้แต่ของเล่นเด็ก ซึ่งเป็นอีกด้านหนึ่งของการขยายบทบาทเอไอ จากเทคโนโลยีระดับโครงสร้างพื้นฐาน สู่ประสบการณ์ที่ผู้คนสามารถสัมผัสได้โดยตรงในบ้านของตนเอง

อ้างอิง: Techcrunch BBC Finance Yahoo LEGO และ CES