‘AI’ กินพลังงานมาก ยิ่งคำสั่งยาก ตอบยาว ยิ่งปล่อยคาร์บอนสูง

‘AI’ กินพลังงานมาก ยิ่งคำสั่งยาก ตอบยาว ยิ่งปล่อยคาร์บอนสูง

ยิ่งคำสั่งยาก ตอบยาว AI ยิ่งกินพลังงานมาก ปล่อยก๊าซคาร์บอนสูง ใช้น้ำเยอะมากกว่ามากกว่าหาข้อมูลผ่าน Google 10 เท่า

KEY

POINTS

  • กระบวนการตอบคำถามของ AI อาจใช้พลังงานมากกว่าการค้นหาบน Google ทั่วไปถึง 10 เท่า
  • คำถามที่ซับซ้อนก่อให้เกิดการปล่อยก๊าซคาร์บอนไดออกไซด์มากกว่าคำถามที่มีคำตอบสั้น ๆ ถึง 6 เท่า 
  • ส่วนหนึ่งเป็นเพราะโมเดล AI จำนวนมากได้รับการฝึกฝนมาให้มีคำอธิบายที่ยาว

ปัจจุบัน AI กลายเป็นผู้ช่วยที่น่าเชื่อถือได้ของผู้คนจำนวนมาก ไม่ว่าจะช่วยให้เขียนอีเมลทางการ หรือค้นหาข้อมูล หรือแม้แต่เขียนคำสั่งต่าง ๆ ล้วนมีต้นทุนด้านสิ่งแวดล้อมที่ซ่อนอยู่เสมอ ในตอนนี้มีงานวิจัยมากขึ้นเรื่อย ๆ ที่พยายามศึกษาปริมาณการใช้พลังงานของ AI แม้ว่าบริษัทต่าง ๆ เจ้าของปัญญาประดิษฐ์เหล่านี้จะไม่เคยเปิดเผยตัวเลจการปล่อยคาร์บอนก็ตาม

แต่ละพรอมต์ที่เขียนสั่งให้ AI ทำตามจะถูกแบ่งออกเป็นกลุ่มตัวเลขที่เรียกว่า “รหัสโทเค็น” (token IDs) และส่งไปยังศูนย์ข้อมูลขนาดใหญ่ ซึ่งบางแห่งมีขนาดใหญ่กว่าสนามฟุตบอล โดยใช้พลังงานจากโรงไฟฟ้าถ่านหินหรือก๊าซธรรมชาติ จากนั้นคอมพิวเตอร์ขนาดใหญ่หลายเครื่องจะสร้างคำตอบผ่านการคำนวณอย่างรวดเร็วหลายสิบครั้ง โดยกระบวนการทั้งหมดอาจใช้พลังงานมากกว่าการค้นหาบน Google ทั่วไปถึง 10 เท่า ตามการประมาณการที่มักถูกอ้างถึงโดยสถาบันวิจัยพลังงานไฟฟ้า (EPRI) 

เพื่อค้นหาคำตอบว่า AI ใช้พลังงานไปมากเท่าใด นักวิจัยในเยอรมนีได้ทดสอบระบบ AI แบบจำลองภาษาขนาดใหญ่ (LLM) 14 ระบบ รวมถึงโมเดล Meta Llama สองโมเดลและโมเดล DeepSeek สามโมเดล โดยถามคำถามแบบตอบอิสระและแบบเลือกตอบ พบว่า คำถามที่ซับซ้อนก่อให้เกิดการปล่อยก๊าซคาร์บอนไดออกไซด์มากกว่าคำถามที่มีคำตอบสั้น ๆ ถึง 6 เท่า 

อีกทั้ง LLM ที่ฉลาดและมีความสามารถในการใช้เหตุผลมากกว่า ยังก่อให้เกิดการปล่อยก๊าซคาร์บอนมากกว่าระบบที่ง่ายกว่าในการตอบคำถามเดียวกันถึง 50 เท่า เนื่องจาก LLM ที่ฉลาดจะสร้างโทเค็นการคิดได้มากกว่ามาก ซึ่งเป็นการวัดการใช้เหตุผลภายในที่สร้างขึ้นในโมเดลขณะสร้างคำตอบ ดังนั้นจึงให้คำตอบที่แม่นยำมากกว่าในคำถามที่มีซับซ้อน

โดยเฉลี่ยแล้ว โมเดลการใช้เหตุผลจะสร้างโทเค็นการคิดประมาณ 543.5 โทเค็นต่อคำถาม ในขณะที่โมเดลที่กระชับต้องการเพียง 37.7 โทเค็นต่อคำถาม โทเค็นที่มากขึ้นหมายถึงการปล่อยคาร์บอนไดออกไซด์ที่สูงขึ้นเสมอ อย่างไรก็ตาม ไม่ได้หมายความว่าคำตอบที่ได้จากโมเดลที่มีโทเค็นสูงจะมีความถูกต้องมากขึ้น เนื่องจากรายละเอียดที่ซับซ้อนไม่ได้การันตีความถูกต้อง

โมเดลที่มีความแม่นยำที่สุดคือโมเดล Cogito ที่เปิดใช้การใช้เหตุผล ซึ่งมีพารามิเตอร์มากถึง 70,000 ล้านพารามิเตอร์ โดยมีความแม่นยำ 84.9% โมเดลนี้ปล่อยคาร์บอนไดออกไซด์ มากกว่าโมเดลที่มีขนาดใกล้เคียงกันซึ่งให้คำตอบที่กระชับถึงสามเท่า

“สิ่งนี้แสดงให้เราเห็นถึงการแลกเปลี่ยนระหว่างการใช้พลังงานและความแม่นยำของประสิทธิภาพของแบบจำลอง” แม็กซิมิเลียน ดาวเนอร์ นักศึกษาปริญญาเอกจาก มหาวิทยาลัยวิทยาศาสตร์ประยุกต์มิวนิก และผู้เขียนคนแรกของการศึกษากล่าว

เนื้อหายังส่งผลให้ระดับการปล่อยคาร์บอนไดออกไซด์ แตกต่างกันอย่างมีนัยสำคัญ คำถามที่ต้องใช้กระบวนการคิดอย่างยาวนาน เช่น พีชคณิตนามธรรมหรือปรัชญา ทำให้มีการปล่อยก๊าซมากกว่าวิชาที่ง่ายกว่า เช่น ประวัติศาสตร์ระดับมัธยมศึกษาตอนปลายถึง 6 เท่า ส่วนหนึ่งเป็นเพราะโมเดล AI จำนวนมากได้รับการฝึกฝนมาให้มีคำอธิบายที่ยาว หากสั่งให้แชทบอท AI แก้คำถามพีชคณิต มันจะอธิบายขั้นตอนต่าง ๆ ที่ใช้ในการหาคำตอบ

“AI ใช้พลังงานจำนวนมากในการแสดงความสุภาพ โดยเฉพาะอย่างยิ่งถ้าผู้ใช้มีความสุภาพ เช่น พูดว่า ‘กรุณา’ และ ‘ขอบคุณ’ แต่สิ่งนี้จะทำให้คำตอบของพวกเขายาวขึ้น และใช้พลังงานมากขึ้นในการสร้างคำแต่ละคำ” ดาวเนอร์อธิบาย

ด้วยเหตุผลนี้ ดาวเนอร์จึงแนะนำให้ผู้ใช้สื่อสารโดยตรงกับโมเดล AI มากขึ้น ระบุความยาวของคำตอบที่คุณต้องการและจำกัดให้เหลือหนึ่งหรือสองประโยค หรือบอกว่าไม่ต้องการคำอธิบายเลยก็ได้

สิ่งที่สำคัญที่สุด การศึกษาวิจัยนี้ เน้นย้ำว่าโมเดล AI ไม่ได้ถูกสร้างขึ้นมาเท่าเทียมกัน ดังนั้นผู้ใช้ที่ต้องการลดปริมาณการปล่อยคาร์บอนอาจตั้งใจมากขึ้นในการเลือกโมเดลสำหรับงานแต่ละงาน ผู้ใช้ควรค้นคว้าว่าความสามารถใดเหมาะกับความต้องการมากที่สุด

หากคุณเป็นวิศวกรซอฟต์แวร์ที่ต้องแก้ปัญหาการเขียนโค้ดที่ซับซ้อนทุกวัน โมเดล AI ที่เหมาะสำหรับการเขียนโค้ดอาจมีความจำเป็น แต่สำหรับนักเรียนมัธยมปลายทั่วไปที่ต้องการความช่วยเหลือในการทำการบ้าน การพึ่งพาเครื่องมือ AI ที่มีประสิทธิภาพก็เปรียบเสมือนการใช้เครื่องคิดเลขดิจิทัลที่ใช้พลังงานนิวเคลียร์ หากเป็นไปได้ ซาชา ลุชซิโอนี หัวหน้าฝ่ายสภาพอากาศของบริษัท AI Hugging Face แนะนำให้กลับไปใช้แหล่งข้อมูลพื้นฐาน เช่น สารานุกรมออนไลน์และเครื่องคิดเลขในโทรศัพท์ เพื่อทำภารกิจง่าย ๆ ให้สำเร็จ

 

การวัดผลกระทบต่อสิ่งแวดล้อมของ AI ทำได้ยาก

การศึกษาพบว่าการใช้พลังงานอาจแตกต่างกันไป ขึ้นอยู่กับระยะห่างของผู้ใช้กับโครงข่ายพลังงานในพื้นที่และฮาร์ดแวร์ที่ใช้ในการเรียกใช้โมเดล AI ยิ่งไปกว่านั้น บริษัท AI หลายแห่งไม่แบ่งปันข้อมูลเกี่ยวกับการใช้พลังงานของตน หรือรายละเอียด เช่น ขนาดเซิร์ฟเวอร์หรือเทคนิคการเพิ่มประสิทธิภาพที่อาจช่วยให้นักวิจัยประมาณการใช้พลังงานได้ 

“คุณไม่สามารถพูดได้จริง ๆ ว่า AI ใช้พลังงานหรือน้ำมากขนาดไหน เราต้องดูโมเดลแต่ละโมเดลแล้ว ตรวจสอบว่าโมเดลนั้นใช้น้ำเท่าใด สำหรับแต่ละงาน” เหริน เชาหลี่ ผู้ช่วยศาสตราจารย์ด้านวิศวกรรมไฟฟ้าและคอมพิวเตอร์ที่มหาวิทยาลัยแคลิฟอร์เนีย ริเวอร์ไซด์ ผู้ศึกษาการบริโภคน้ำของ AI กล่าว

ดาวเนอร์เสนอให้บริษัท AI เปิดเผยปริมาณการปล่อยคาร์บอนที่เกี่ยวข้องกับแต่ละข้อความ เพราะถ้าหากผู้คนได้รับข้อมูลเกี่ยวกับต้นทุนเฉลี่ยด้านสิ่งแวดล้อมของแต่ละข้อความที่ AI ตอบมา ทำให้ผู้ใช้อาจเลือกและคิดอย่างรอบคอบมากขึ้นว่าจะใช้เทคโนโลยีเหล่านี้เมื่อใดและอย่างไร

“วิธีนี้อาจจะทำให้ผู้คนเริ่มคิดว่า จำเป็นจริงหรือที่ต้องเปลี่ยนตัวเองให้เป็นตัวการ์ตูนเพียงเพราะรู้สึกเบื่อ หรือ ต้องฟังเรื่องตลกจาก ChatGPT เพราะไม่มีอะไรทำ” ดาวเนอร์กล่าว

นอกจากนี้ เนื่องจากบริษัทต่าง ๆ พยายามเพิ่มเครื่องมือ AI เชิงสร้างสรรค์ลงในระบบของตนมากขึ้น ผู้คนจึงใช้เครื่องมือเหล่านี้โดยที่ไม่จำเป็นต้องใช้ ลุชชิโอนีกล่าวว่า

“เราไม่ต้องการ AI เชิงสร้างสรรค์ในการค้นหาบนเว็บ ไม่มีใครขอให้มีแชทบอท AI ในแอปข้อความรือบนโซเชียลมีเดีย การแข่งขันเพื่อยัดเยียดสิ่งเหล่านี้ลงในเทคโนโลยีที่มีอยู่ทั้งหมดนั้นน่าหงุดหงิดจริง ๆ เนื่องจากมันส่งผลที่ตามมาอย่างแท้จริงต่อโลกของเรา”

ดาวเนอร์หวังว่าผู้พัฒนา AI จะคิดหาวิธีสร้างโมเดลที่ใช้พลังงานน้อยกว่าอย่างมีประสิทธิภาพมากขึ้นสำหรับการค้นหาต่าง ๆ โดยเขาจินตนาการถึงกระบวนการที่คำถามที่สั้นกว่าและง่ายกว่าจะถูกส่งต่อไปยังโมเดลที่ใช้พลังงานน้อยกว่าโดยอัตโนมัติ ซึ่งยังคงให้คำตอบที่แม่นยำได้ โดยในระหว่างกระบวนการปล่อยคาร์บอนไดออกไซด์น้อยลง


ที่มา: BloombergCNNWired