ปัญญาประดิษฐ์ (AI) ใช้พลังงานมากแค่ไหน?

ปัญญาประดิษฐ์ (AI) ใช้พลังงานมากแค่ไหน?

คำตอบ: AI สามารถใช้ไฟฟ้าได้น้อยมากสำหรับงานประมวลผลข้อความแบบง่ายๆ แต่จะใช้พลังงานมากขึ้นเมื่อข้อความยาว ผลลัพธ์มีหลายรูปแบบ หรือระบบทำงานในระดับขนาดใหญ่ โดยปกติแล้ว การฝึกฝนจะเป็นการใช้พลังงานหลักในช่วงเริ่มต้น ในขณะที่การประมวลผลในแต่ละวันจะใช้พลังงานมากขึ้นเมื่อจำนวนคำขอเพิ่มมากขึ้น

ประเด็นสำคัญ:

บริบท : กำหนดงาน รูปแบบ ฮาร์ดแวร์ และขนาดให้ชัดเจนก่อนที่จะเสนอราคาประมาณการพลังงานใดๆ

การฝึกอบรม : ควรพิจารณาการฝึกอบรมเกี่ยวกับแบบจำลองเป็นกิจกรรมด้านพลังงานหลักในช่วงเริ่มต้นของการวางแผนงบประมาณ

การอนุมาน : ควรจับตาดูการอนุมานซ้ำๆ อย่างใกล้ชิด เพราะต้นทุนเล็กน้อยต่อคำขอแต่ละครั้งจะสะสมเพิ่มขึ้นอย่างรวดเร็วเมื่อขยายขนาดขึ้น

โครงสร้างพื้นฐาน : ควรพิจารณาระบบทำความเย็น ระบบจัดเก็บพลังงาน เครือข่าย และกำลังการผลิตที่ไม่ได้ใช้งาน ในการประมาณการที่สมจริงทุกครั้ง

ประสิทธิภาพ : ใช้โมเดลขนาดเล็กกว่า ข้อความแจ้งเตือนสั้นกว่า การแคช และการประมวลผลแบบกลุ่ม เพื่อลดการใช้พลังงาน

ปัญญาประดิษฐ์ (AI) ใช้พลังงานมากแค่ไหน? (ดูอินโฟกราฟิก)

บทความที่คุณอาจสนใจอ่านต่อหลังจากบทความนี้:

🔗 ปัญญาประดิษฐ์ส่งผลกระทบต่อสิ่งแวดล้อมอย่างไร
อธิบายถึงผลกระทบต่อสิ่งแวดล้อม การใช้พลังงาน และข้อแลกเปลี่ยนด้านความยั่งยืนของ AI.

🔗 ปัญญาประดิษฐ์ (AI) เป็นอันตรายต่อสิ่งแวดล้อมหรือไม่?
เปิดเผยต้นทุนด้านสิ่งแวดล้อมที่ซ่อนเร้นของโมเดล AI และศูนย์ข้อมูล.

🔗 ปัญญาประดิษฐ์ (AI) ดีหรือร้าย? ข้อดีและข้อเสีย
การวิเคราะห์อย่างรอบด้านเกี่ยวกับประโยชน์ ความเสี่ยง จริยธรรม และผลกระทบที่แท้จริงของปัญญาประดิษฐ์.

🔗 ปัญญาประดิษฐ์ (AI) คืออะไร? คู่มือฉบับย่อ
เรียนรู้พื้นฐาน AI คำศัพท์สำคัญ และตัวอย่างในชีวิตประจำวันได้ภายในไม่กี่นาที.

ทำไมคำถามนี้ถึงสำคัญกว่าที่หลายคนคิด 🔍

การใช้พลังงานของ AI ไม่ใช่แค่ประเด็นด้านสิ่งแวดล้อมที่พูดถึงกันเท่านั้น แต่ยังส่งผลกระทบต่อหลายสิ่งหลายอย่างในชีวิตจริงด้วย:

  • ต้นทุนค่าไฟฟ้า - โดยเฉพาะสำหรับธุรกิจที่ใช้งาน AI จำนวนมาก

  • ผลกระทบต่อคาร์บอน - ขึ้นอยู่กับแหล่งพลังงานที่ใช้กับเซิร์ฟเวอร์

  • ภาระของฮาร์ดแวร์ - ชิปประสิทธิภาพสูงกินไฟมาก

  • การตัดสินใจเกี่ยวกับการขยายขนาด - การแจ้งเตือนราคาถูกเพียงครั้งเดียวอาจกลายเป็นการแจ้งเตือนราคาแพงนับล้านครั้งได้

  • การออกแบบผลิตภัณฑ์ - ประสิทธิภาพมักเป็นคุณสมบัติที่ดีกว่าที่หลายคนคิด ( Google Cloud , AI สีเขียว )

หลายคนถามว่า “ปัญญาประดิษฐ์ (AI) ใช้พลังงานมากแค่ไหน?” เพราะพวกเขาต้องการตัวเลขที่น่าทึ่ง ตัวเลขมหาศาล ตัวเลขที่ดึงดูดความสนใจ แต่คำถามที่ดีกว่าคือ เรากำลังพูดถึงการใช้งาน AI ในรูปแบบใด? เพราะนั่นจะเปลี่ยนทุกอย่าง ( IEA )

คำแนะนำเติมคำอัตโนมัติเพียงคำเดียว? เล็กน้อยมาก
การฝึกโมเดลล้ำสมัยบนคลัสเตอร์ขนาดใหญ่? ใหญ่กว่ามาก
เวิร์กโฟลว์ AI ระดับองค์กรที่ทำงานตลอดเวลาและเข้าถึงผู้ใช้หลายล้านคน? ใช่ มันเพิ่มขึ้นอย่างรวดเร็ว... เหมือนเงินเหรียญเล็ก ๆ กลายเป็นค่าเช่า ( DOE , Google Cloud )

AI ใช้พลังงานเท่าไหร่? คำตอบสั้นๆ ⚡

นี่คือเวอร์ชันที่ใช้งานได้จริง.

AI สามารถใช้พลังงานได้ตั้งแต่เศษเสี้ยวของวัตต์-ชั่วโมงสำหรับงานเบาๆ ไปจนถึงพลังงานไฟฟ้ามหาศาลสำหรับการฝึกอบรมและการใช้งานในวงกว้าง ช่วงการใช้พลังงานนี้ฟังดูกว้างมากเพราะมันกว้างจริงๆ ( Google Cloud , Strubell et al. )

พูดให้เข้าใจง่ายๆ คือ:

  • งานอนุมานอย่างง่าย - โดยทั่วไปมักมีค่าใช้จ่ายไม่มากนักเมื่อพิจารณาต่อการใช้งานแต่ละครั้ง

  • การสนทนาที่ยาวนาน การส่งออกข้อมูลจำนวนมาก การสร้างภาพ การสร้างวิดีโอ ล้วนใช้พลังงานมากกว่าอย่างเห็นได้ชัด

  • การฝึกโมเดลขนาดใหญ่ - แชมป์เปี้ยนด้านการใช้พลังงานตัวท็อป

  • การใช้งาน AI ในระดับขนาดใหญ่ตลอดทั้งวัน - ที่ซึ่ง "ค่าใช้จ่ายต่อคำขอเล็กน้อย" กลายเป็น "ค่าใช้จ่ายรวมจำนวนมาก" ( Google Cloud , DOE )

หลักการง่ายๆ ที่ควรยึดถือคือ:

  • การฝึกซ้อมเป็นกิจกรรมที่ต้องใช้พลังงานมหาศาลในตอนเริ่มต้น 🏭

  • การอนุมานเปรียบเสมือนบิลค่าสาธารณูปโภคที่ต้องจ่ายอย่างต่อเนื่อง 💡 ( Strubell et al. , Google Research )

ดังนั้น เมื่อมีคนถามว่า AI ใช้พลังงานมากแค่ไหน คำตอบโดยตรงคือ “ไม่ใช่ปริมาณที่แน่นอน แต่มากพอที่จะทำให้ประสิทธิภาพมีความสำคัญ และมากพอที่จะทำให้ขนาดเปลี่ยนแปลงเรื่องราวทั้งหมด” ( IEA , AI สีเขียว )

ฉันรู้ว่ามันอาจจะไม่ติดหูอย่างที่หลายคนหวัง แต่เป็นความจริง.

อะไรคือคุณสมบัติที่ทำให้การประมาณการพลังงานด้วย AI เวอร์ชันที่ดี? 🧠

การประมาณค่าที่ดีไม่ใช่แค่ตัวเลขที่ดูน่าตื่นตาตื่นใจแล้วนำมาแสดงบนกราฟ การประมาณค่าที่ใช้งานได้จริงนั้นต้องคำนึงถึงบริบทด้วย มิเช่นนั้นก็เหมือนกับการชั่งน้ำหนักหมอกด้วยตาชั่งในห้องน้ำ ใกล้เคียงพอที่จะฟังดูน่าประทับใจ แต่ไม่ใกล้เคียงพอที่จะเชื่อถือได้ ( IEA , Google Cloud )

การประเมินการใช้พลังงานของ AI ที่ดีควรประกอบด้วย:

  • ประเภทของงาน - ข้อความ รูปภาพ เสียง วิดีโอ การฝึกอบรม การปรับแต่ง

  • ขนาดของโมเดล - โมเดลขนาดใหญ่มักต้องการการประมวลผลที่มากกว่า

  • ฮาร์ดแวร์ที่ใช้ - ไม่ใช่ว่าชิปทุกตัวจะมีประสิทธิภาพเท่ากัน

  • ระยะเวลาของเซสชัน - คำถามสั้นๆ กับขั้นตอนการทำงานหลายขั้นตอนที่ยาวนั้นแตกต่างกันมาก

  • การใช้งาน - ระบบที่ไม่ได้ใช้งานก็ยังคงใช้พลังงานอยู่

  • ระบายความร้อนและโครงสร้างพื้นฐาน - เซิร์ฟเวอร์ไม่ใช่ค่าใช้จ่ายทั้งหมด

  • สถานที่ตั้งและส่วนผสมของแหล่งพลังงาน - ไฟฟ้าไม่ได้สะอาดเท่ากันทุกที่ ( Google Cloud , IEA )

นี่แหละคือเหตุผลว่าทำไมคนสองคนถึงเถียงกันเรื่องการใช้ไฟฟ้าของ AI แล้วดูมั่นใจทั้งคู่ ทั้งๆ ที่พูดถึงเรื่องที่แตกต่างกันอย่างสิ้นเชิง คนหนึ่งหมายถึงการตอบกลับของแชทบอทเพียงครั้งเดียว อีกคนหมายถึงการฝึกฝนระบบครั้งใหญ่ แต่พอทั้งคู่พูดว่า "AI" บทสนทนาก็เริ่มออกนอกประเด็นซะแล้ว 😅

ตารางเปรียบเทียบ - วิธีที่ดีที่สุดในการประเมินการใช้พลังงานของ AI 📊

นี่คือตารางที่ใช้งานได้จริงสำหรับทุกคนที่พยายามตอบคำถามโดยไม่ต้องเปลี่ยนมันให้กลายเป็นศิลปะการแสดง.

เครื่องมือหรือวิธีการ กลุ่มเป้าหมายที่ดีที่สุด ราคา เหตุผลที่มันได้ผล
การประมาณค่าแบบง่ายๆ โดยใช้หลักการคร่าวๆ ผู้อ่านที่ใฝ่รู้ นักเรียน ฟรี รวดเร็ว ง่าย และไม่คมชัดนัก แต่ก็ดีพอสำหรับการเปรียบเทียบคร่าวๆ
มิเตอร์วัดวัตต์ฝั่งอุปกรณ์ ผู้สร้างอิสระ, ผู้ที่ชื่นชอบงานอดิเรก ต่ำ วัดปริมาณการดึงของเครื่องจักรจริง ซึ่งเป็นสิ่งที่ชัดเจนและน่าพอใจ
แดชบอร์ดข้อมูลการวัดระยะไกล GPU วิศวกร, ทีม ML ปานกลาง ให้รายละเอียดที่ดีขึ้นเกี่ยวกับงานที่ต้องใช้การประมวลผลหนัก แต่ก็อาจพลาดข้อมูลเกี่ยวกับค่าใช้จ่ายส่วนเกินของโรงงานขนาดใหญ่ไปบ้าง
การเรียกเก็บเงินผ่านระบบคลาวด์ + บันทึกการใช้งาน สตาร์ทอัพ, ทีมปฏิบัติการ ระดับปานกลางถึงสูง การเชื่อมโยงการใช้งาน AI กับการใช้จ่ายจริง - แม้จะไม่สมบูรณ์แบบ แต่ก็ยังถือว่ามีคุณค่ามาก
การรายงานพลังงานของศูนย์ข้อมูล ทีมองค์กร สูง ช่วยให้มองเห็นภาพรวมการดำเนินงานได้กว้างขึ้น ระบบระบายความร้อน และโครงสร้างพื้นฐานเริ่มปรากฏให้เห็นชัดเจนขึ้น
การประเมินตลอดวงจรชีวิต ทีมงานด้านความยั่งยืน องค์กรขนาดใหญ่ ค่อนข้างสูง บางครั้งก็เจ็บปวด เหมาะที่สุดสำหรับการวิเคราะห์อย่างจริงจัง เพราะมันวิเคราะห์ได้มากกว่าแค่ตัวชิป... แต่ก็ช้าและค่อนข้างใหญ่เทอะทะ

ไม่มีวิธีการใดที่สมบูรณ์แบบ นั่นเป็นส่วนที่น่าหงุดหงิดเล็กน้อย แต่ก็มีระดับของมูลค่า และโดยปกติแล้ว สิ่งที่ใช้งานได้ดีย่อมดีกว่าสิ่งที่สมบูรณ์แบบ ( Google Cloud )

ปัจจัยสำคัญที่สุดไม่ใช่เวทมนตร์ แต่เป็นพลังการประมวลผลและฮาร์ดแวร์ 🖥️🔥

เมื่อผู้คนนึกภาพการใช้พลังงานของ AI พวกเขามักจะนึกภาพว่าตัวโมเดลเองเป็นสิ่งที่ใช้พลังงาน แต่แท้จริงแล้ว โมเดลเป็นเพียงตรรกะซอฟต์แวร์ที่ทำงานบนฮาร์ดแวร์ ฮาร์ดแวร์ต่างหากที่เป็นส่วนที่ทำให้ค่าไฟฟ้าปรากฏขึ้น ( Strubell et al. , Google Cloud )

ตัวแปรสำคัญที่สุดมักได้แก่:

ระบบที่ได้รับการปรับแต่งอย่างเหมาะสมที่สุดสามารถทำงานได้มากขึ้นโดยใช้พลังงานน้อยลง ในขณะที่ระบบที่ไม่ได้มาตรฐานอาจสิ้นเปลืองไฟฟ้าอย่างน่าตกใจ คุณก็รู้ใช่ไหม บางระบบก็เหมือนรถแข่ง บางระบบก็เหมือนรถเข็นที่ติดจรวดไว้แบบลวกๆ 🚀🛒

ใช่แล้ว ขนาดของโมเดลมีความสำคัญ โมเดลขนาดใหญ่มีแนวโน้มที่จะต้องการหน่วยความจำและการประมวลผลมากขึ้น โดยเฉพาะอย่างยิ่งเมื่อสร้างเอาต์พุตที่ยาวหรือจัดการกับการให้เหตุผลที่ซับซ้อน แต่เทคนิคการเพิ่มประสิทธิภาพสามารถเปลี่ยนสถานการณ์ได้ (เช่น AI สีเขียว การแบ่งกลุ่ม การจัดกลุ่ม และกลยุทธ์การให้บริการในการใช้พลังงานของ LLM )

ดังนั้นคำถามจึงไม่ใช่แค่ "โมเดลนี้มีขนาดใหญ่แค่ไหน?" แต่ยังรวมถึง "โมเดลนี้ถูกบริหารจัดการอย่างชาญฉลาดแค่ไหน?" ด้วย

การฝึกฝนกับการอนุมาน - สองสิ่งนี้แตกต่างกันอย่างสิ้นเชิง 🐘🐇

นี่คือการแบ่งแยกที่ทำให้เกือบทุกคนงงงวย.

การฝึกอบรม

การฝึกฝนคือกระบวนการที่แบบจำลองเรียนรู้รูปแบบจากชุดข้อมูลขนาดใหญ่ ซึ่งอาจเกี่ยวข้องกับการใช้ชิปจำนวนมากทำงานเป็นเวลานาน และประมวลผลข้อมูลปริมาณมหาศาล ขั้นตอนนี้ใช้พลังงานสูงมาก บางครั้งก็สูงมากจนเกินไป ( Strubell et al. )

พลังงานในการฝึกฝนขึ้นอยู่กับ:

  • ขนาดโมเดล

  • ขนาดของชุดข้อมูล

  • จำนวนการฝึกซ้อม

  • การทดลองที่ล้มเหลว

  • การปรับแต่งอย่างละเอียด

  • ประสิทธิภาพของฮาร์ดแวร์

  • การระบายความร้อนเหนือศีรษะ ( Strubell et al. , Google Research )

และนี่คือส่วนที่คนมักมองข้ามไป – สาธารณชนมักนึกภาพการฝึกฝนครั้งใหญ่เพียงครั้งเดียว จบเรื่อง ในทางปฏิบัติ การพัฒนาอาจเกี่ยวข้องกับการฝึกฝนซ้ำๆ การปรับแต่ง การฝึกฝนใหม่ การประเมินผล และกระบวนการต่างๆ ที่ดูธรรมดาแต่มีค่าใช้จ่ายสูงรอบๆ ขั้นตอนหลัก ( Strubell et al. , Green AI )

การอนุมาน

การอนุมานคือแบบจำลองที่ตอบสนองต่อคำขอของผู้ใช้จริง คำขอหนึ่งอาจดูไม่มากนัก แต่การอนุมานเกิดขึ้นซ้ำแล้วซ้ำเล่าเป็นล้านครั้ง บางครั้งอาจเป็นพันล้านครั้ง ( Google Research , DOE )

พลังงานการอนุมานจะเพิ่มขึ้นตาม:

ดังนั้น การฝึกฝนเปรียบเสมือนแผ่นดินไหว การอนุมานเปรียบเสมือนกระแสน้ำ อย่างหนึ่งเกิดขึ้นอย่างรวดเร็ว อีกอย่างหนึ่งเกิดขึ้นอย่างต่อเนื่อง และทั้งสองอย่างสามารถเปลี่ยนแปลงชายฝั่งได้บ้าง อาจเป็นคำเปรียบเทียบที่แปลกไปบ้าง แต่ก็พอใช้ได้...ไม่มากก็น้อย.

ค่าใช้จ่ายด้านพลังงานที่ซ่อนอยู่ซึ่งคนส่วนใหญ่มักลืมไป 😬

เมื่อมีคนประเมินการใช้พลังงาน AI โดยพิจารณาจากชิปเพียงอย่างเดียว พวกเขามักจะประเมินต่ำกว่าความเป็นจริง ไม่ถึงกับหายนะเสมอไป แต่ก็มากพอที่จะส่งผลกระทบ ( Google Cloud , IEA )

นี่คือชิ้นส่วนที่ซ่อนอยู่:

ทำความเย็น ❄️

เซิร์ฟเวอร์สร้างความร้อน ฮาร์ดแวร์ AI ประสิทธิภาพสูงสร้างความร้อนจำนวนมาก การระบายความร้อนจึงเป็นสิ่งจำเป็น พลังงานทุกวัตต์ที่ใช้ในการประมวลผลมักจะนำไปสู่การใช้พลังงานเพิ่มเติมเพื่อรักษาระดับอุณหภูมิให้เหมาะสม ( IEA , Google Cloud )

การเคลื่อนย้ายข้อมูล 🌐

การเคลื่อนย้ายข้อมูลระหว่างหน่วยจัดเก็บ หน่วยความจำ และเครือข่ายก็ต้องใช้พลังงานเช่นกัน ปัญญาประดิษฐ์ไม่ใช่แค่ "การคิด" เท่านั้น แต่ยังเป็นการสลับสับเปลี่ยนข้อมูลอยู่ตลอดเวลาด้วย ( IEA )

ความจุขณะไม่ได้ใช้งาน 💤

ระบบที่สร้างขึ้นเพื่อรองรับความต้องการสูงสุดไม่ได้ทำงานที่ระดับความต้องการสูงสุดเสมอไป โครงสร้างพื้นฐานที่ไม่ได้ใช้งานหรือใช้งานน้อยก็ยังคงใช้ไฟฟ้าอยู่ ( Google Cloud )

ความซ้ำซ้อนและความน่าเชื่อถือ 🧱

ระบบสำรองข้อมูล ระบบสลับการทำงานเมื่อเกิดข้อผิดพลาด พื้นที่สำรองข้อมูล และชั้นความปลอดภัยต่างๆ ล้วนมีคุณค่าและเป็นส่วนหนึ่งของภาพรวมด้านพลังงานที่ใหญ่กว่า ( IEA )

พื้นที่จัดเก็บ 📦

ข้อมูลสำหรับการฝึกอบรม, การฝังข้อมูล, บันทึก, จุดตรวจสอบ, ผลลัพธ์ที่สร้างขึ้น – ทั้งหมดนี้ล้วนถูกจัดเก็บไว้ที่ใดที่หนึ่ง การจัดเก็บข้อมูลนั้นถูกกว่าการประมวลผลก็จริง แต่ไม่ได้ฟรีในแง่ของพลังงาน ( IEA )

ด้วยเหตุนี้ คำถามที่ว่า AI ใช้พลังงานเท่าไหร่ จึง ไม่สามารถตอบได้อย่างดีโดยการดูแค่แผนภูมิเปรียบเทียบเพียงอย่างเดียว ภาพรวมทั้งหมดมีความสำคัญ ( Google Cloud , IEA )

ทำไมข้อความแจ้งเตือนจาก AI บางข้อความถึงเล็กนิดเดียว แต่บางข้อความกลับใหญ่โตมโหฬาร 📝➡️🎬

คำขอแต่ละอย่างไม่เหมือนกัน คำขอสั้นๆ เช่น การแก้ไขประโยค ย่อมไม่สามารถเทียบได้กับการขอวิเคราะห์อย่างละเอียด การเขียนโค้ดหลายขั้นตอน หรือการสร้างภาพความละเอียดสูง ( Google Cloud )

สิ่งต่างๆ ที่มักทำให้สิ้นเปลืองพลังงานต่อการโต้ตอบแต่ละครั้ง:

การตอบข้อความแบบง่ายๆ อาจมีราคาถูกกว่า แต่เวิร์กโฟลว์แบบหลายรูปแบบขนาดใหญ่ก็อาจมีราคาไม่ถูกนัก มันก็เหมือนกับการสั่งกาแฟกับการจัดเลี้ยงงานแต่งงาน ทั้งสองอย่างจัดอยู่ในหมวด "บริการด้านอาหาร" เหมือนกัน แต่สิ่งหนึ่งไม่เหมือนอีกสิ่งหนึ่ง ☕🎉

เรื่องนี้สำคัญอย่างยิ่งสำหรับทีมพัฒนาผลิตภัณฑ์ ฟีเจอร์ที่ดูเหมือนไม่มีอันตรายเมื่อมีการใช้งานน้อย อาจกลายเป็นเรื่องแพงเมื่อมีการใช้งานมากขึ้น หากแต่ละเซสชันของผู้ใช้ยาวนานขึ้น มีรายละเอียดมากขึ้น และใช้ทรัพยากรการประมวลผลมากขึ้น ( DOE , Google Cloud )

AI สำหรับผู้บริโภคและ AI สำหรับองค์กรไม่เหมือนกัน 🏢📱

คนทั่วไปที่ใช้ AI เป็นครั้งคราวอาจคิดว่าการแจ้งเตือนที่เกิดขึ้นเป็นครั้งคราวนั้นเป็นปัญหาใหญ่ แต่โดยปกติแล้ว นั่นไม่ใช่จุดสำคัญของเรื่องราวการใช้พลังงาน ( Google Cloud )

การใช้งานในระดับองค์กรทำให้การคำนวณเปลี่ยนไป:

  • พนักงานหลายพันคน

  • นักบินผู้ช่วยที่พร้อมให้บริการตลอดเวลา

  • การประมวลผลเอกสารอัตโนมัติ

  • การสรุปการโทร

  • การวิเคราะห์ภาพ

  • เครื่องมือตรวจสอบโค้ด

  • เอเจนต์เบื้องหลังทำงานอยู่ตลอดเวลา

นั่นคือจุดที่การใช้พลังงานโดยรวมเริ่มมีความสำคัญอย่างมาก ไม่ใช่เพราะการกระทำแต่ละครั้งจะนำมาซึ่งหายนะ แต่เพราะการทำซ้ำจะทวีคูณขึ้น ( DOE , IEA )

จากการทดสอบและการตรวจสอบขั้นตอนการทำงานของผมเอง พบว่านี่คือจุดที่หลายคนประหลาดใจ พวกเขามุ่งเน้นไปที่ชื่อรุ่น หรือการสาธิตที่ดูหวือหวา แต่กลับมองข้ามปริมาณ ปริมาณต่างหากที่เป็นตัวขับเคลื่อนที่แท้จริง หรือเป็นตัวช่วยชีวิต ขึ้นอยู่กับว่าคุณกำลังเรียกเก็บเงินจากลูกค้าหรือจ่ายค่าสาธารณูปโภค 😅

สำหรับผู้บริโภค ผลกระทบอาจดูเป็นนามธรรม แต่สำหรับธุรกิจ ผลกระทบจะปรากฏชัดเจนอย่างรวดเร็ว:

  • ร่างกฎหมายโครงสร้างพื้นฐานที่ใหญ่กว่า

  • แรงกดดันที่มากขึ้นในการปรับปรุงให้เหมาะสม

  • มีความจำเป็นอย่างยิ่งที่ต้องใช้โมเดลขนาดเล็กหากเป็นไปได้

  • การรายงานความยั่งยืนภายในองค์กร

  • ให้ความสำคัญกับการแคชและการกำหนดเส้นทางมากขึ้น ( Google Cloud , Green AI )

วิธีลดการใช้พลังงานของ AI โดยไม่ต้องละทิ้ง AI 🌱

ส่วนนี้สำคัญเพราะเป้าหมายไม่ใช่ “หยุดใช้ AI” ซึ่งโดยปกติแล้วไม่ใช่เรื่องที่เป็นไปได้และไม่จำเป็นด้วยซ้ำ การใช้งานอย่างมีประสิทธิภาพมากขึ้นต่างหากคือแนวทางที่ชาญฉลาดกว่า.

นี่คือปัจจัยสำคัญที่สุด:

1. เลือกใช้รุ่นที่เล็กที่สุดที่สามารถทำงานได้สำเร็จ

ไม่ใช่ทุกงานที่จะต้องใช้ตัวเลือกที่มีประสิทธิภาพสูงเสมอไป โมเดลที่เบากว่าสำหรับการจำแนกประเภทหรือการสรุปข้อมูลสามารถลดความสิ้นเปลืองได้อย่างรวดเร็ว ( ปัญญาประดิษฐ์สีเขียว , Google Cloud )

2. ลดความยาวของข้อความแจ้งเตือนและผลลัพธ์

ป้อนรายละเอียดมาก ผลลัพธ์ก็มากตามไปด้วย โทเค็นเพิ่มเติมหมายถึงการคำนวณเพิ่มเติม บางครั้งการตัดทอนข้อความแจ้งเตือนก็เป็นวิธีที่ง่ายที่สุด ( กลยุทธ์การกำหนดปริมาณ การจัดกลุ่ม และการให้บริการในการใช้พลังงาน LLM , Google Cloud )

3. แคชผลลัพธ์ที่ซ้ำกัน

หากคำค้นหาเดิมปรากฏขึ้นซ้ำๆ อย่าสร้างคำค้นหาใหม่ทุกครั้ง นี่เป็นเรื่องที่ชัดเจนมาก แต่หลายคนกลับมองข้ามไป ( Google Cloud )

4. ประมวลผลงานแบบกลุ่มเมื่อเป็นไปได้

การดำเนินการงานเป็นชุดๆ สามารถเพิ่มประสิทธิภาพการใช้ทรัพยากรและลดของเสียได้ ( กลยุทธ์การกำหนดปริมาณ การจัดกลุ่ม และการให้บริการในการใช้พลังงานของ LLM )

5. จัดสรรเส้นทางการทำงานอย่างชาญฉลาด

ควรใช้โมเดลขนาดใหญ่เฉพาะเมื่อความมั่นใจลดลงหรือความซับซ้อนของงานเพิ่มขึ้นเท่านั้น ( ปัญญาประดิษฐ์สีเขียว , Google Cloud )

6. ปรับปรุงโครงสร้างพื้นฐานให้เหมาะสม

การจัดตารางเวลาที่ดีขึ้น ฮาร์ดแวร์ที่ดีขึ้น กลยุทธ์การระบายความร้อนที่ดีขึ้น - สิ่งธรรมดาๆ แต่ให้ผลตอบแทนมหาศาล ( Google Cloud , DOE )

7. วัดก่อนสรุป

หลายทีมคิดว่าพวกเขารู้ว่าพลังงานไปอยู่ที่ไหน แต่พอไปวัดดูก็พบว่าส่วนที่แพงที่สุดอยู่ที่อื่น ( Google Cloud )

การทำงานเพื่อเพิ่มประสิทธิภาพอาจไม่ใช่เรื่องที่น่าดึงดูดใจ และไม่ค่อยได้รับเสียงชื่นชม แต่เป็นหนึ่งในวิธีที่ดีที่สุดที่จะทำให้ AI มีราคาที่เข้าถึงได้และมีความน่าเชื่อถือมากขึ้นในระดับใหญ่ 👍

ความเชื่อผิดๆ เกี่ยวกับการใช้ไฟฟ้าของ AI 🚫

เรามาลบล้างความเข้าใจผิดบางประการกันก่อน เพราะหัวข้อนี้ค่อนข้างซับซ้อน.

ความเชื่อผิดๆ ข้อที่ 1 - การค้นหาข้อมูลด้วย AI ทุกครั้งนั้นสิ้นเปลืองอย่างมาก

ไม่จำเป็นเสมอไป บางแห่งก็มีขนาดเล็ก ขนาดและประเภทของงานมีความสำคัญมาก ( Google Cloud )

ความเชื่อผิดๆ ข้อที่ 2 - การฝึกฝนเป็นสิ่งเดียวที่สำคัญ

ไม่ การอนุมานสามารถมีบทบาทสำคัญมากขึ้นเมื่อเวลาผ่านไป เมื่อมีการใช้งานอย่างมหาศาล ( Google Research , DOE )

ความเชื่อผิดๆ ข้อที่ 3 - โมเดลขนาดใหญ่กว่าย่อมให้ผลลัพธ์ที่ดีกว่าเสมอไป

บางครั้งก็ใช่ บางครั้งก็ไม่ใช่เลย งานหลายอย่างก็ทำงานได้ดีด้วยระบบขนาดเล็ก ( AI สีเขียว )

ความเชื่อผิดๆ ข้อที่ 4 - การใช้พลังงานเท่ากับผลกระทบต่อคาร์บอนโดยอัตโนมัติ

ไม่เชิง คาร์บอนยังขึ้นอยู่กับแหล่งพลังงานด้วย ( IEA , Strubell et al. )

ความเชื่อผิดๆ ข้อที่ 5 - คุณสามารถหาตัวเลขเดียวที่ใช้ได้ทั่วไปสำหรับการใช้พลังงานของ AI

คุณทำไม่ได้หรอก อย่างน้อยก็ไม่ใช่ในรูปแบบที่ยังคงมีความหมายอยู่ หรือคุณอาจทำได้ แต่ผลลัพธ์จะถูกเฉลี่ยออกไปจนหมดคุณค่าไป ( IEA )

นี่จึงเป็นเหตุผลว่าทำไมการถามว่า AI ใช้พลังงานมากแค่ไหน จึงเป็นคำถามที่ฉลาด – แต่จะได้ผลก็ต่อเมื่อคุณพร้อมที่จะรับคำตอบที่มีหลายแง่มุม แทนที่จะเป็นเพียงคำขวัญสั้นๆ

แล้ว... AI ใช้พลังงานมากแค่ไหนกันแน่? 🤔

นี่คือข้อสรุปที่อิงตามหลักเหตุผล.

การใช้งาน AI:

  • เล็กน้อย สำหรับงานง่ายๆ บางอย่าง

  • มากขึ้นอีกมาก สำหรับการผลิตสื่อหลายรูปแบบที่มีปริมาณมาก

  • ปริมาณมหาศาล สำหรับการฝึกโมเดลขนาดใหญ่

  • โดยรวมแล้วจะเป็นจำนวนมหาศาล เมื่อคำขอหลายล้านรายการสะสมมากขึ้นเรื่อยๆ ( Google Cloud , DOE )

ลักษณะมันก็ประมาณนั้นแหละ.

ประเด็นสำคัญคืออย่าลดทอนปัญหาทั้งหมดให้เหลือแค่ตัวเลขที่น่ากลัวหรือการเพิกเฉยอย่างไม่ใส่ใจ การใช้พลังงานของ AI เป็นเรื่องจริง มันสำคัญ และสามารถปรับปรุงได้ และวิธีที่ดีที่สุดในการพูดคุยเกี่ยวกับเรื่องนี้คือการให้บริบท ไม่ใช่การสร้างภาพ ( IEA , Green AI )

การสนทนาสาธารณะส่วนใหญ่มักแกว่งไปมาระหว่างสองขั้วสุดโต่ง – “AI นั้นแทบจะฟรี” ในด้านหนึ่ง และ “AI คือหายนะทางไฟฟ้า” ในอีกด้านหนึ่ง ความเป็นจริงนั้นธรรมดามากกว่า ซึ่งทำให้ข้อมูลมีประโยชน์มากขึ้น มันเป็นปัญหาของระบบ ฮาร์ดแวร์ ซอฟต์แวร์ การใช้งาน ขนาด การระบายความร้อน การเลือกออกแบบ ธรรมดาไหม? นิดหน่อย สำคัญไหม? สำคัญมาก ( IEA , Google Cloud )

ประเด็นสำคัญ ⚡🧾

หากคุณมาที่นี่เพื่อถามว่า AI ใช้พลังงานมากแค่ไหน? นี่คือข้อสรุป:

  • ไม่มีตัวเลขใดที่เหมาะกับทุกคน

  • การฝึกฝนมักจะใช้พลังงานมากที่สุดในช่วงแรก

  • การอนุมานกลายเป็นปัจจัยสำคัญเมื่อพิจารณาในระดับที่ใหญ่ขึ้น

  • ขนาดของโมเดล ฮาร์ดแวร์ ปริมาณงาน และระบบระบายความร้อน ล้วนมีความสำคัญ

  • การปรับปรุงเล็กน้อยสามารถสร้างความแตกต่างอย่างมากได้อย่างน่าประหลาดใจ

  • คำถามที่ชาญฉลาดที่สุดไม่ใช่แค่ "เท่าไหร่" แต่ยังรวมถึง "สำหรับงานอะไร บนระบบใด ในระดับใด" ด้วย ( IEA , Google Cloud )

ใช่แล้ว AI ใช้พลังงานจริง มากพอที่จะสมควรได้รับความสนใจ มากพอที่จะ justifies การออกแบบทางวิศวกรรมที่ดีกว่า แต่ไม่ใช่ในแบบที่ดูตลกหรือวัดผลด้วยตัวเลขเพียงตัวเดียว.

คำถามที่พบบ่อย

AI ใช้พลังงานเท่าไหร่ในการแสดงข้อความแจ้งเตือนเพียงครั้งเดียว?

ไม่มีตัวเลขตายตัวสำหรับคำถามแต่ละข้อ เพราะการใช้พลังงานขึ้นอยู่กับรุ่น ฮาร์ดแวร์ ความยาวของคำถาม ความยาวของผลลัพธ์ และเครื่องมือเสริมอื่นๆ ที่เกี่ยวข้อง การตอบข้อความสั้นๆ อาจใช้พลังงานค่อนข้างน้อย ในขณะที่งานหลายรูปแบบที่ยาวกว่าอาจใช้พลังงานมากกว่าอย่างเห็นได้ชัด คำตอบที่มีความหมายที่สุดไม่ใช่ตัวเลขหลักเพียงตัวเดียว แต่เป็นบริบทโดยรอบของงานนั้น.

เหตุใดการประมาณการการใช้พลังงาน AI จึงแตกต่างกันมาก?

การประมาณการอาจแตกต่างกันไป เนื่องจากผู้คนมักเปรียบเทียบสิ่งต่างๆ ที่แตกต่างกันมากภายใต้ชื่อเดียวกันว่า AI การประมาณการหนึ่งอาจอธิบายถึงการตอบกลับของแชทบอทขนาดเล็ก ในขณะที่อีกการประมาณการหนึ่งอาจครอบคลุมการสร้างภาพ วิดีโอ หรือการฝึกโมเดลขนาดใหญ่ เพื่อให้การประมาณการมีความหมาย จำเป็นต้องมีบริบท เช่น ประเภทของงาน ขนาดของโมเดล ฮาร์ดแวร์ การใช้งาน การระบายความร้อน และสถานที่ตั้ง.

การฝึกฝน AI หรือการใช้งาน AI ในแต่ละวัน อย่างไหนใช้พลังงานมากกว่ากัน?

โดยปกติแล้ว การฝึกฝน (Training) มักเป็นกระบวนการที่ใช้พลังงานมากที่สุดในช่วงเริ่มต้น เพราะอาจเกี่ยวข้องกับการใช้ชิปจำนวนมากทำงานเป็นเวลานานกับชุดข้อมูลขนาดใหญ่ ในขณะที่การอนุมาน (Inference) เป็นต้นทุนที่เกิดขึ้นอย่างต่อเนื่องทุกครั้งที่ผู้ใช้ส่งคำขอ และในระดับที่ใหญ่ขึ้น ต้นทุนนี้ก็อาจสูงมากเช่นกัน ในทางปฏิบัติ ทั้งสองอย่างมีความสำคัญ แต่มีความสำคัญในรูปแบบที่แตกต่างกัน.

อะไรทำให้คำขอ AI หนึ่งใช้พลังงานมากกว่าคำขอ AI อื่นอย่างเห็นได้ชัด?

หน้าต่างบริบทที่ยาวขึ้น ผลลัพธ์ที่ยาวขึ้น การประมวลผลซ้ำ การเรียกใช้เครื่องมือ ขั้นตอนการดึงข้อมูล และการสร้างแบบหลายรูปแบบ ล้วนมีแนวโน้มที่จะเพิ่มการใช้พลังงานต่อการโต้ตอบแต่ละครั้ง เป้าหมายด้านความหน่วงก็มีความสำคัญเช่นกัน เพราะข้อกำหนดการตอบสนองที่เร็วขึ้นอาจลดประสิทธิภาพลง คำขอเขียนใหม่ขนาดเล็กและเวิร์กโฟลว์การเขียนโค้ดหรือรูปภาพที่ยาวนานนั้นไม่สามารถเปรียบเทียบกันได้.

อะไรคือต้นทุนพลังงานแฝงที่ผู้คนมองข้ามไปเมื่อถามว่า AI ใช้พลังงานมากแค่ไหน?

หลายคนมักให้ความสนใจเฉพาะตัวชิป แต่ละเลยปัจจัยอื่นๆ เช่น การระบายความร้อน การเคลื่อนย้ายข้อมูล การจัดเก็บข้อมูล ความจุขณะไม่ได้ใช้งาน และระบบความน่าเชื่อถือ เช่น ระบบสำรองข้อมูลหรือส่วนสำรองข้อมูลเมื่อเกิดข้อผิดพลาด องค์ประกอบสนับสนุนเหล่านี้สามารถเปลี่ยนแปลงการใช้พลังงานโดยรวมได้อย่างมาก นั่นเป็นเหตุผลว่าทำไมการทดสอบประสิทธิภาพเพียงอย่างเดียวจึงไม่สามารถแสดงภาพรวมการใช้พลังงานทั้งหมดได้อย่างครบถ้วน.

โมเดล AI ขนาดใหญ่ใช้พลังงานมากกว่าเสมอไปหรือไม่?

โดยทั่วไปแล้ว โมเดลขนาดใหญ่ต้องการพลังประมวลผลและหน่วยความจำมากกว่า โดยเฉพาะอย่างยิ่งสำหรับผลลัพธ์ที่ยาวหรือซับซ้อน ดังนั้นจึงมักใช้พลังงานมากกว่า แต่ขนาดใหญ่ไม่ได้หมายความว่าดีกว่าเสมอไปสำหรับทุกงาน และการเพิ่มประสิทธิภาพสามารถเปลี่ยนแปลงภาพรวมได้อย่างมาก โมเดลเฉพาะทางขนาดเล็ก การแบ่งกลุ่ม การจัดกลุ่มข้อมูล การแคช และการกำหนดเส้นทางที่ชาญฉลาด ล้วนสามารถปรับปรุงประสิทธิภาพได้.

การใช้งาน AI ของผู้บริโภคเป็นปัญหาหลักด้านพลังงาน หรือ AI ขององค์กรเป็นปัญหาใหญ่กว่ากัน?

การใช้งานทั่วไปของผู้บริโภคอาจก่อให้เกิดการใช้พลังงานจำนวนมาก แต่ปัญหาการใช้พลังงานที่ใหญ่กว่ามักเกิดขึ้นในการใช้งานระดับองค์กร ระบบช่วยเหลืออัตโนมัติที่ทำงานตลอดเวลา การประมวลผลเอกสาร การสรุปการโทร การตรวจสอบโค้ด และเอเจนต์ที่ทำงานอยู่เบื้องหลัง สร้างความต้องการใช้งานซ้ำๆ ในกลุ่มผู้ใช้จำนวนมาก ปัญหาโดยทั่วไปไม่ได้อยู่ที่การกระทำเพียงครั้งเดียว แต่เป็นปริมาณการใช้งานที่ต่อเนื่องยาวนานมากกว่า.

AI ใช้พลังงานมากแค่ไหนเมื่อรวมถึงศูนย์ข้อมูลและระบบระบายความร้อน?

เมื่อรวมระบบโดยรวมเข้าไปด้วย คำตอบก็จะสมจริงมากขึ้นและมักจะมีขนาดใหญ่กว่าที่ประมาณการไว้จากเฉพาะชิปเพียงอย่างเดียว ศูนย์ข้อมูลต้องการพลังงานไม่เพียงแต่สำหรับการประมวลผลเท่านั้น แต่ยังรวมถึงการระบายความร้อน การเชื่อมต่อเครือข่าย การจัดเก็บข้อมูล และการรักษากำลังการผลิตสำรองด้วย นั่นเป็นเหตุผลว่าทำไมการออกแบบโครงสร้างพื้นฐานและประสิทธิภาพของสิ่งอำนวยความสะดวกจึงมีความสำคัญเกือบเท่ากับการออกแบบโมเดล.

วิธีที่ใช้งานได้จริงที่สุดในการวัดการใช้พลังงานของ AI ในขั้นตอนการทำงานจริงคืออะไร?

วิธีการที่ดีที่สุดนั้นขึ้นอยู่กับว่าใครเป็นผู้ทำการวัดและเพื่อวัตถุประสงค์ใด กฎง่ายๆ ทั่วไปอาจช่วยในการเปรียบเทียบอย่างรวดเร็ว ในขณะที่เครื่องวัดวัตต์ ข้อมูลการใช้งาน GPU บันทึกการเรียกเก็บเงินบนคลาวด์ และรายงานจากศูนย์ข้อมูลจะให้ข้อมูลเชิงลึกด้านการดำเนินงานที่แข็งแกร่งขึ้นเรื่อยๆ สำหรับงานด้านความยั่งยืนที่จริงจัง มุมมองตลอดวงจรชีวิตที่สมบูรณ์จะยิ่งมีประสิทธิภาพมากขึ้น แม้ว่าจะช้ากว่าและต้องใช้ทรัพยากรมากกว่าก็ตาม.

ทีมต่างๆ จะลดการใช้พลังงานของ AI โดยไม่ลดทอนคุณสมบัติ AI ที่มีประโยชน์ได้อย่างไร?

โดยทั่วไปแล้ว ผลประโยชน์ที่มากที่สุดมักมาจากการใช้โมเดลที่เล็กที่สุดที่ยังคงทำงานได้ ลดจำนวนข้อความแจ้งเตือนและผลลัพธ์ จัดเก็บผลลัพธ์ที่ซ้ำกันไว้ในแคช จัดกลุ่มงาน และส่งต่อเฉพาะงานที่ยากกว่าไปยังโมเดลขนาดใหญ่กว่า การเพิ่มประสิทธิภาพโครงสร้างพื้นฐานก็มีความสำคัญเช่นกัน โดยเฉพาะอย่างยิ่งการจัดตารางเวลาและประสิทธิภาพของฮาร์ดแวร์ ในหลายๆ กระบวนการ การวัดผลก่อนจะช่วยป้องกันไม่ให้ทีมเพิ่มประสิทธิภาพในสิ่งที่ผิดพลาด.

เอกสารอ้างอิง

  1. สำนักงานพลังงานระหว่างประเทศ (IEA) - ความต้องการพลังงานจาก AI - iea.org

  2. กระทรวงพลังงานสหรัฐฯ (DOE) - DOE เผยแพร่รายงานฉบับใหม่ประเมินความต้องการใช้ไฟฟ้าที่เพิ่มขึ้นของศูนย์ข้อมูล - energy.gov

  3. Google Cloud - การวัดผลกระทบต่อสิ่งแวดล้อมของการประมวลผล AI - cloud.google.com

  4. Google Research - ข่าวดีเกี่ยวกับรอยเท้าคาร์บอนของการฝึกอบรมแมชชีนเลิร์ - research.google

  5. Google Research - รอยเท้าคาร์บอนของการฝึกอบรมแมชชีนเลิร์นนิงจะทรงตัวแล้วลดลงในที่สุด - research.google

  6. arXiv - ปัญญาประดิษฐ์สีเขียว - arxiv.org

  7. arXiv - Strubell และคณะ - arxiv.org

  8. arXiv - กลยุทธ์การกำหนดปริมาณ การจัดกลุ่ม และการให้บริการในการใช้พลังงานของ LLM - arxiv.org

ค้นหา AI รุ่นล่าสุดได้ที่ร้านค้าผู้ช่วย AI อย่างเป็นทางการ

เกี่ยวกับเรา

กลับไปที่บล็อก