คำตอบ: AI สามารถใช้ไฟฟ้าได้น้อยมากสำหรับงานประมวลผลข้อความแบบง่ายๆ แต่จะใช้พลังงานมากขึ้นเมื่อข้อความยาว ผลลัพธ์มีหลายรูปแบบ หรือระบบทำงานในระดับขนาดใหญ่ โดยปกติแล้ว การฝึกฝนจะเป็นการใช้พลังงานหลักในช่วงเริ่มต้น ในขณะที่การประมวลผลในแต่ละวันจะใช้พลังงานมากขึ้นเมื่อจำนวนคำขอเพิ่มมากขึ้น
ประเด็นสำคัญ:
บริบท : กำหนดงาน รูปแบบ ฮาร์ดแวร์ และขนาดให้ชัดเจนก่อนที่จะเสนอราคาประมาณการพลังงานใดๆ
การฝึกอบรม : ควรพิจารณาการฝึกอบรมเกี่ยวกับแบบจำลองเป็นกิจกรรมด้านพลังงานหลักในช่วงเริ่มต้นของการวางแผนงบประมาณ
การอนุมาน : ควรจับตาดูการอนุมานซ้ำๆ อย่างใกล้ชิด เพราะต้นทุนเล็กน้อยต่อคำขอแต่ละครั้งจะสะสมเพิ่มขึ้นอย่างรวดเร็วเมื่อขยายขนาดขึ้น
โครงสร้างพื้นฐาน : ควรพิจารณาระบบทำความเย็น ระบบจัดเก็บพลังงาน เครือข่าย และกำลังการผลิตที่ไม่ได้ใช้งาน ในการประมาณการที่สมจริงทุกครั้ง
ประสิทธิภาพ : ใช้โมเดลขนาดเล็กกว่า ข้อความแจ้งเตือนสั้นกว่า การแคช และการประมวลผลแบบกลุ่ม เพื่อลดการใช้พลังงาน

บทความที่คุณอาจสนใจอ่านต่อหลังจากบทความนี้:
🔗 ปัญญาประดิษฐ์ส่งผลกระทบต่อสิ่งแวดล้อมอย่างไร
อธิบายถึงผลกระทบต่อสิ่งแวดล้อม การใช้พลังงาน และข้อแลกเปลี่ยนด้านความยั่งยืนของ AI.
🔗 ปัญญาประดิษฐ์ (AI) เป็นอันตรายต่อสิ่งแวดล้อมหรือไม่?
เปิดเผยต้นทุนด้านสิ่งแวดล้อมที่ซ่อนเร้นของโมเดล AI และศูนย์ข้อมูล.
🔗 ปัญญาประดิษฐ์ (AI) ดีหรือร้าย? ข้อดีและข้อเสีย
การวิเคราะห์อย่างรอบด้านเกี่ยวกับประโยชน์ ความเสี่ยง จริยธรรม และผลกระทบที่แท้จริงของปัญญาประดิษฐ์.
🔗 ปัญญาประดิษฐ์ (AI) คืออะไร? คู่มือฉบับย่อ
เรียนรู้พื้นฐาน AI คำศัพท์สำคัญ และตัวอย่างในชีวิตประจำวันได้ภายในไม่กี่นาที.
ทำไมคำถามนี้ถึงสำคัญกว่าที่หลายคนคิด 🔍
การใช้พลังงานของ AI ไม่ใช่แค่ประเด็นด้านสิ่งแวดล้อมที่พูดถึงกันเท่านั้น แต่ยังส่งผลกระทบต่อหลายสิ่งหลายอย่างในชีวิตจริงด้วย:
-
ต้นทุนค่าไฟฟ้า - โดยเฉพาะสำหรับธุรกิจที่ใช้งาน AI จำนวนมาก
-
ผลกระทบต่อคาร์บอน - ขึ้นอยู่กับแหล่งพลังงานที่ใช้กับเซิร์ฟเวอร์
-
ภาระของฮาร์ดแวร์ - ชิปประสิทธิภาพสูงกินไฟมาก
-
การตัดสินใจเกี่ยวกับการขยายขนาด - การแจ้งเตือนราคาถูกเพียงครั้งเดียวอาจกลายเป็นการแจ้งเตือนราคาแพงนับล้านครั้งได้
-
การออกแบบผลิตภัณฑ์ - ประสิทธิภาพมักเป็นคุณสมบัติที่ดีกว่าที่หลายคนคิด ( Google Cloud , AI สีเขียว )
หลายคนถามว่า “ปัญญาประดิษฐ์ (AI) ใช้พลังงานมากแค่ไหน?” เพราะพวกเขาต้องการตัวเลขที่น่าทึ่ง ตัวเลขมหาศาล ตัวเลขที่ดึงดูดความสนใจ แต่คำถามที่ดีกว่าคือ เรากำลังพูดถึงการใช้งาน AI ในรูปแบบใด? เพราะนั่นจะเปลี่ยนทุกอย่าง ( IEA )
คำแนะนำเติมคำอัตโนมัติเพียงคำเดียว? เล็กน้อยมาก
การฝึกโมเดลล้ำสมัยบนคลัสเตอร์ขนาดใหญ่? ใหญ่กว่ามาก
เวิร์กโฟลว์ AI ระดับองค์กรที่ทำงานตลอดเวลาและเข้าถึงผู้ใช้หลายล้านคน? ใช่ มันเพิ่มขึ้นอย่างรวดเร็ว... เหมือนเงินเหรียญเล็ก ๆ กลายเป็นค่าเช่า ( DOE , Google Cloud )
AI ใช้พลังงานเท่าไหร่? คำตอบสั้นๆ ⚡
นี่คือเวอร์ชันที่ใช้งานได้จริง.
AI สามารถใช้พลังงานได้ตั้งแต่เศษเสี้ยวของวัตต์-ชั่วโมงสำหรับงานเบาๆ ไปจนถึงพลังงานไฟฟ้ามหาศาลสำหรับการฝึกอบรมและการใช้งานในวงกว้าง ช่วงการใช้พลังงานนี้ฟังดูกว้างมากเพราะมันกว้างจริงๆ ( Google Cloud , Strubell et al. )
พูดให้เข้าใจง่ายๆ คือ:
-
งานอนุมานอย่างง่าย - โดยทั่วไปมักมีค่าใช้จ่ายไม่มากนักเมื่อพิจารณาต่อการใช้งานแต่ละครั้ง
-
การสนทนาที่ยาวนาน การส่งออกข้อมูลจำนวนมาก การสร้างภาพ การสร้างวิดีโอ ล้วนใช้พลังงานมากกว่าอย่างเห็นได้ชัด
-
การฝึกโมเดลขนาดใหญ่ - แชมป์เปี้ยนด้านการใช้พลังงานตัวท็อป
-
การใช้งาน AI ในระดับขนาดใหญ่ตลอดทั้งวัน - ที่ซึ่ง "ค่าใช้จ่ายต่อคำขอเล็กน้อย" กลายเป็น "ค่าใช้จ่ายรวมจำนวนมาก" ( Google Cloud , DOE )
หลักการง่ายๆ ที่ควรยึดถือคือ:
-
การฝึกซ้อมเป็นกิจกรรมที่ต้องใช้พลังงานมหาศาลในตอนเริ่มต้น 🏭
-
การอนุมานเปรียบเสมือนบิลค่าสาธารณูปโภคที่ต้องจ่ายอย่างต่อเนื่อง 💡 ( Strubell et al. , Google Research )
ดังนั้น เมื่อมีคนถามว่า AI ใช้พลังงานมากแค่ไหน คำตอบโดยตรงคือ “ไม่ใช่ปริมาณที่แน่นอน แต่มากพอที่จะทำให้ประสิทธิภาพมีความสำคัญ และมากพอที่จะทำให้ขนาดเปลี่ยนแปลงเรื่องราวทั้งหมด” ( IEA , AI สีเขียว )
ฉันรู้ว่ามันอาจจะไม่ติดหูอย่างที่หลายคนหวัง แต่เป็นความจริง.
อะไรคือคุณสมบัติที่ทำให้การประมาณการพลังงานด้วย AI เวอร์ชันที่ดี? 🧠
การประมาณค่าที่ดีไม่ใช่แค่ตัวเลขที่ดูน่าตื่นตาตื่นใจแล้วนำมาแสดงบนกราฟ การประมาณค่าที่ใช้งานได้จริงนั้นต้องคำนึงถึงบริบทด้วย มิเช่นนั้นก็เหมือนกับการชั่งน้ำหนักหมอกด้วยตาชั่งในห้องน้ำ ใกล้เคียงพอที่จะฟังดูน่าประทับใจ แต่ไม่ใกล้เคียงพอที่จะเชื่อถือได้ ( IEA , Google Cloud )
การประเมินการใช้พลังงานของ AI ที่ดีควรประกอบด้วย:
-
ประเภทของงาน - ข้อความ รูปภาพ เสียง วิดีโอ การฝึกอบรม การปรับแต่ง
-
ขนาดของโมเดล - โมเดลขนาดใหญ่มักต้องการการประมวลผลที่มากกว่า
-
ฮาร์ดแวร์ที่ใช้ - ไม่ใช่ว่าชิปทุกตัวจะมีประสิทธิภาพเท่ากัน
-
ระยะเวลาของเซสชัน - คำถามสั้นๆ กับขั้นตอนการทำงานหลายขั้นตอนที่ยาวนั้นแตกต่างกันมาก
-
การใช้งาน - ระบบที่ไม่ได้ใช้งานก็ยังคงใช้พลังงานอยู่
-
ระบายความร้อนและโครงสร้างพื้นฐาน - เซิร์ฟเวอร์ไม่ใช่ค่าใช้จ่ายทั้งหมด
-
สถานที่ตั้งและส่วนผสมของแหล่งพลังงาน - ไฟฟ้าไม่ได้สะอาดเท่ากันทุกที่ ( Google Cloud , IEA )
นี่แหละคือเหตุผลว่าทำไมคนสองคนถึงเถียงกันเรื่องการใช้ไฟฟ้าของ AI แล้วดูมั่นใจทั้งคู่ ทั้งๆ ที่พูดถึงเรื่องที่แตกต่างกันอย่างสิ้นเชิง คนหนึ่งหมายถึงการตอบกลับของแชทบอทเพียงครั้งเดียว อีกคนหมายถึงการฝึกฝนระบบครั้งใหญ่ แต่พอทั้งคู่พูดว่า "AI" บทสนทนาก็เริ่มออกนอกประเด็นซะแล้ว 😅
ตารางเปรียบเทียบ - วิธีที่ดีที่สุดในการประเมินการใช้พลังงานของ AI 📊
นี่คือตารางที่ใช้งานได้จริงสำหรับทุกคนที่พยายามตอบคำถามโดยไม่ต้องเปลี่ยนมันให้กลายเป็นศิลปะการแสดง.
| เครื่องมือหรือวิธีการ | กลุ่มเป้าหมายที่ดีที่สุด | ราคา | เหตุผลที่มันได้ผล |
|---|---|---|---|
| การประมาณค่าแบบง่ายๆ โดยใช้หลักการคร่าวๆ | ผู้อ่านที่ใฝ่รู้ นักเรียน | ฟรี | รวดเร็ว ง่าย และไม่คมชัดนัก แต่ก็ดีพอสำหรับการเปรียบเทียบคร่าวๆ |
| มิเตอร์วัดวัตต์ฝั่งอุปกรณ์ | ผู้สร้างอิสระ, ผู้ที่ชื่นชอบงานอดิเรก | ต่ำ | วัดปริมาณการดึงของเครื่องจักรจริง ซึ่งเป็นสิ่งที่ชัดเจนและน่าพอใจ |
| แดชบอร์ดข้อมูลการวัดระยะไกล GPU | วิศวกร, ทีม ML | ปานกลาง | ให้รายละเอียดที่ดีขึ้นเกี่ยวกับงานที่ต้องใช้การประมวลผลหนัก แต่ก็อาจพลาดข้อมูลเกี่ยวกับค่าใช้จ่ายส่วนเกินของโรงงานขนาดใหญ่ไปบ้าง |
| การเรียกเก็บเงินผ่านระบบคลาวด์ + บันทึกการใช้งาน | สตาร์ทอัพ, ทีมปฏิบัติการ | ระดับปานกลางถึงสูง | การเชื่อมโยงการใช้งาน AI กับการใช้จ่ายจริง - แม้จะไม่สมบูรณ์แบบ แต่ก็ยังถือว่ามีคุณค่ามาก |
| การรายงานพลังงานของศูนย์ข้อมูล | ทีมองค์กร | สูง | ช่วยให้มองเห็นภาพรวมการดำเนินงานได้กว้างขึ้น ระบบระบายความร้อน และโครงสร้างพื้นฐานเริ่มปรากฏให้เห็นชัดเจนขึ้น |
| การประเมินตลอดวงจรชีวิต | ทีมงานด้านความยั่งยืน องค์กรขนาดใหญ่ | ค่อนข้างสูง บางครั้งก็เจ็บปวด | เหมาะที่สุดสำหรับการวิเคราะห์อย่างจริงจัง เพราะมันวิเคราะห์ได้มากกว่าแค่ตัวชิป... แต่ก็ช้าและค่อนข้างใหญ่เทอะทะ |
ไม่มีวิธีการใดที่สมบูรณ์แบบ นั่นเป็นส่วนที่น่าหงุดหงิดเล็กน้อย แต่ก็มีระดับของมูลค่า และโดยปกติแล้ว สิ่งที่ใช้งานได้ดีย่อมดีกว่าสิ่งที่สมบูรณ์แบบ ( Google Cloud )
ปัจจัยสำคัญที่สุดไม่ใช่เวทมนตร์ แต่เป็นพลังการประมวลผลและฮาร์ดแวร์ 🖥️🔥
เมื่อผู้คนนึกภาพการใช้พลังงานของ AI พวกเขามักจะนึกภาพว่าตัวโมเดลเองเป็นสิ่งที่ใช้พลังงาน แต่แท้จริงแล้ว โมเดลเป็นเพียงตรรกะซอฟต์แวร์ที่ทำงานบนฮาร์ดแวร์ ฮาร์ดแวร์ต่างหากที่เป็นส่วนที่ทำให้ค่าไฟฟ้าปรากฏขึ้น ( Strubell et al. , Google Cloud )
ตัวแปรสำคัญที่สุดมักได้แก่:
-
ประเภท GPU หรือตัวเร่งความเร็ว
-
ใช้ชิปจำนวนเท่าใด
-
ระยะเวลาที่พวกมันยังคงใช้งานอยู่
-
โหลดหน่วยความจำ
-
ขนาดชุดการผลิตและอัตราการประมวลผล
-
ไม่ว่าระบบจะได้รับการปรับให้เหมาะสมอย่างดีหรือเพียงแค่ใช้กำลังทั้งหมด ( Google Cloud , การกำหนดปริมาณ, การจัดกลุ่ม และกลยุทธ์การให้บริการในการใช้พลังงาน LLM )
ระบบที่ได้รับการปรับแต่งอย่างเหมาะสมที่สุดสามารถทำงานได้มากขึ้นโดยใช้พลังงานน้อยลง ในขณะที่ระบบที่ไม่ได้มาตรฐานอาจสิ้นเปลืองไฟฟ้าอย่างน่าตกใจ คุณก็รู้ใช่ไหม บางระบบก็เหมือนรถแข่ง บางระบบก็เหมือนรถเข็นที่ติดจรวดไว้แบบลวกๆ 🚀🛒
ใช่แล้ว ขนาดของโมเดลมีความสำคัญ โมเดลขนาดใหญ่มีแนวโน้มที่จะต้องการหน่วยความจำและการประมวลผลมากขึ้น โดยเฉพาะอย่างยิ่งเมื่อสร้างเอาต์พุตที่ยาวหรือจัดการกับการให้เหตุผลที่ซับซ้อน แต่เทคนิคการเพิ่มประสิทธิภาพสามารถเปลี่ยนสถานการณ์ได้ (เช่น AI สีเขียว การแบ่งกลุ่ม การจัดกลุ่ม และกลยุทธ์การให้บริการในการใช้พลังงานของ LLM )
-
การหาปริมาณ
-
การกำหนดเส้นทางที่ดีขึ้น
-
รุ่นเฉพาะทางขนาดเล็กกว่า
-
การแคช
-
การจัดกลุ่ม
-
การจัดตารางเวลาฮาร์ดแวร์ที่ชาญฉลาดกว่า ( กลยุทธ์การกำหนดปริมาณ การจัดกลุ่ม และการให้บริการในการใช้พลังงาน LLM )
ดังนั้นคำถามจึงไม่ใช่แค่ "โมเดลนี้มีขนาดใหญ่แค่ไหน?" แต่ยังรวมถึง "โมเดลนี้ถูกบริหารจัดการอย่างชาญฉลาดแค่ไหน?" ด้วย
การฝึกฝนกับการอนุมาน - สองสิ่งนี้แตกต่างกันอย่างสิ้นเชิง 🐘🐇
นี่คือการแบ่งแยกที่ทำให้เกือบทุกคนงงงวย.
การฝึกอบรม
การฝึกฝนคือกระบวนการที่แบบจำลองเรียนรู้รูปแบบจากชุดข้อมูลขนาดใหญ่ ซึ่งอาจเกี่ยวข้องกับการใช้ชิปจำนวนมากทำงานเป็นเวลานาน และประมวลผลข้อมูลปริมาณมหาศาล ขั้นตอนนี้ใช้พลังงานสูงมาก บางครั้งก็สูงมากจนเกินไป ( Strubell et al. )
พลังงานในการฝึกฝนขึ้นอยู่กับ:
-
ขนาดโมเดล
-
ขนาดของชุดข้อมูล
-
จำนวนการฝึกซ้อม
-
การทดลองที่ล้มเหลว
-
การปรับแต่งอย่างละเอียด
-
ประสิทธิภาพของฮาร์ดแวร์
-
การระบายความร้อนเหนือศีรษะ ( Strubell et al. , Google Research )
และนี่คือส่วนที่คนมักมองข้ามไป – สาธารณชนมักนึกภาพการฝึกฝนครั้งใหญ่เพียงครั้งเดียว จบเรื่อง ในทางปฏิบัติ การพัฒนาอาจเกี่ยวข้องกับการฝึกฝนซ้ำๆ การปรับแต่ง การฝึกฝนใหม่ การประเมินผล และกระบวนการต่างๆ ที่ดูธรรมดาแต่มีค่าใช้จ่ายสูงรอบๆ ขั้นตอนหลัก ( Strubell et al. , Green AI )
การอนุมาน
การอนุมานคือแบบจำลองที่ตอบสนองต่อคำขอของผู้ใช้จริง คำขอหนึ่งอาจดูไม่มากนัก แต่การอนุมานเกิดขึ้นซ้ำแล้วซ้ำเล่าเป็นล้านครั้ง บางครั้งอาจเป็นพันล้านครั้ง ( Google Research , DOE )
พลังงานการอนุมานจะเพิ่มขึ้นตาม:
-
ความยาวของข้อความแจ้งเตือน
-
ความยาวเอาต์พุต
-
จำนวนผู้ใช้
-
ข้อกำหนดด้านความหน่วงแฝง
-
คุณลักษณะหลายรูปแบบ
-
ความคาดหวังเรื่องความพร้อมใช้งาน
-
ขั้นตอนด้านความปลอดภัยและการประมวลผลภายหลัง ( Google Cloud , การกำหนดปริมาณ, การจัดกลุ่ม และกลยุทธ์การให้บริการในการใช้พลังงาน LLM )
ดังนั้น การฝึกฝนเปรียบเสมือนแผ่นดินไหว การอนุมานเปรียบเสมือนกระแสน้ำ อย่างหนึ่งเกิดขึ้นอย่างรวดเร็ว อีกอย่างหนึ่งเกิดขึ้นอย่างต่อเนื่อง และทั้งสองอย่างสามารถเปลี่ยนแปลงชายฝั่งได้บ้าง อาจเป็นคำเปรียบเทียบที่แปลกไปบ้าง แต่ก็พอใช้ได้...ไม่มากก็น้อย.
ค่าใช้จ่ายด้านพลังงานที่ซ่อนอยู่ซึ่งคนส่วนใหญ่มักลืมไป 😬
เมื่อมีคนประเมินการใช้พลังงาน AI โดยพิจารณาจากชิปเพียงอย่างเดียว พวกเขามักจะประเมินต่ำกว่าความเป็นจริง ไม่ถึงกับหายนะเสมอไป แต่ก็มากพอที่จะส่งผลกระทบ ( Google Cloud , IEA )
นี่คือชิ้นส่วนที่ซ่อนอยู่:
ทำความเย็น ❄️
เซิร์ฟเวอร์สร้างความร้อน ฮาร์ดแวร์ AI ประสิทธิภาพสูงสร้างความร้อนจำนวนมาก การระบายความร้อนจึงเป็นสิ่งจำเป็น พลังงานทุกวัตต์ที่ใช้ในการประมวลผลมักจะนำไปสู่การใช้พลังงานเพิ่มเติมเพื่อรักษาระดับอุณหภูมิให้เหมาะสม ( IEA , Google Cloud )
การเคลื่อนย้ายข้อมูล 🌐
การเคลื่อนย้ายข้อมูลระหว่างหน่วยจัดเก็บ หน่วยความจำ และเครือข่ายก็ต้องใช้พลังงานเช่นกัน ปัญญาประดิษฐ์ไม่ใช่แค่ "การคิด" เท่านั้น แต่ยังเป็นการสลับสับเปลี่ยนข้อมูลอยู่ตลอดเวลาด้วย ( IEA )
ความจุขณะไม่ได้ใช้งาน 💤
ระบบที่สร้างขึ้นเพื่อรองรับความต้องการสูงสุดไม่ได้ทำงานที่ระดับความต้องการสูงสุดเสมอไป โครงสร้างพื้นฐานที่ไม่ได้ใช้งานหรือใช้งานน้อยก็ยังคงใช้ไฟฟ้าอยู่ ( Google Cloud )
ความซ้ำซ้อนและความน่าเชื่อถือ 🧱
ระบบสำรองข้อมูล ระบบสลับการทำงานเมื่อเกิดข้อผิดพลาด พื้นที่สำรองข้อมูล และชั้นความปลอดภัยต่างๆ ล้วนมีคุณค่าและเป็นส่วนหนึ่งของภาพรวมด้านพลังงานที่ใหญ่กว่า ( IEA )
พื้นที่จัดเก็บ 📦
ข้อมูลสำหรับการฝึกอบรม, การฝังข้อมูล, บันทึก, จุดตรวจสอบ, ผลลัพธ์ที่สร้างขึ้น – ทั้งหมดนี้ล้วนถูกจัดเก็บไว้ที่ใดที่หนึ่ง การจัดเก็บข้อมูลนั้นถูกกว่าการประมวลผลก็จริง แต่ไม่ได้ฟรีในแง่ของพลังงาน ( IEA )
ด้วยเหตุนี้ คำถามที่ว่า AI ใช้พลังงานเท่าไหร่ จึง ไม่สามารถตอบได้อย่างดีโดยการดูแค่แผนภูมิเปรียบเทียบเพียงอย่างเดียว ภาพรวมทั้งหมดมีความสำคัญ ( Google Cloud , IEA )
ทำไมข้อความแจ้งเตือนจาก AI บางข้อความถึงเล็กนิดเดียว แต่บางข้อความกลับใหญ่โตมโหฬาร 📝➡️🎬
คำขอแต่ละอย่างไม่เหมือนกัน คำขอสั้นๆ เช่น การแก้ไขประโยค ย่อมไม่สามารถเทียบได้กับการขอวิเคราะห์อย่างละเอียด การเขียนโค้ดหลายขั้นตอน หรือการสร้างภาพความละเอียดสูง ( Google Cloud )
สิ่งต่างๆ ที่มักทำให้สิ้นเปลืองพลังงานต่อการโต้ตอบแต่ละครั้ง:
-
หน้าต่างบริบทที่ยาวขึ้น
-
คำตอบที่ยาวขึ้น
-
ขั้นตอนการใช้งานและการดึงเครื่องมือ
-
การประมวลผลหลายรอบเพื่อการให้เหตุผลหรือการตรวจสอบความถูกต้อง
-
การสร้างภาพ เสียง หรือวิดีโอ
-
การทำงานพร้อมกันที่สูงขึ้น
-
เป้าหมายความหน่วงต่ำ ( Google Cloud , การกำหนดปริมาณ, การจัดกลุ่ม และกลยุทธ์การให้บริการในการใช้พลังงาน LLM )
การตอบข้อความแบบง่ายๆ อาจมีราคาถูกกว่า แต่เวิร์กโฟลว์แบบหลายรูปแบบขนาดใหญ่ก็อาจมีราคาไม่ถูกนัก มันก็เหมือนกับการสั่งกาแฟกับการจัดเลี้ยงงานแต่งงาน ทั้งสองอย่างจัดอยู่ในหมวด "บริการด้านอาหาร" เหมือนกัน แต่สิ่งหนึ่งไม่เหมือนอีกสิ่งหนึ่ง ☕🎉
เรื่องนี้สำคัญอย่างยิ่งสำหรับทีมพัฒนาผลิตภัณฑ์ ฟีเจอร์ที่ดูเหมือนไม่มีอันตรายเมื่อมีการใช้งานน้อย อาจกลายเป็นเรื่องแพงเมื่อมีการใช้งานมากขึ้น หากแต่ละเซสชันของผู้ใช้ยาวนานขึ้น มีรายละเอียดมากขึ้น และใช้ทรัพยากรการประมวลผลมากขึ้น ( DOE , Google Cloud )
AI สำหรับผู้บริโภคและ AI สำหรับองค์กรไม่เหมือนกัน 🏢📱
คนทั่วไปที่ใช้ AI เป็นครั้งคราวอาจคิดว่าการแจ้งเตือนที่เกิดขึ้นเป็นครั้งคราวนั้นเป็นปัญหาใหญ่ แต่โดยปกติแล้ว นั่นไม่ใช่จุดสำคัญของเรื่องราวการใช้พลังงาน ( Google Cloud )
การใช้งานในระดับองค์กรทำให้การคำนวณเปลี่ยนไป:
-
พนักงานหลายพันคน
-
นักบินผู้ช่วยที่พร้อมให้บริการตลอดเวลา
-
การประมวลผลเอกสารอัตโนมัติ
-
การสรุปการโทร
-
การวิเคราะห์ภาพ
-
เครื่องมือตรวจสอบโค้ด
-
เอเจนต์เบื้องหลังทำงานอยู่ตลอดเวลา
นั่นคือจุดที่การใช้พลังงานโดยรวมเริ่มมีความสำคัญอย่างมาก ไม่ใช่เพราะการกระทำแต่ละครั้งจะนำมาซึ่งหายนะ แต่เพราะการทำซ้ำจะทวีคูณขึ้น ( DOE , IEA )
จากการทดสอบและการตรวจสอบขั้นตอนการทำงานของผมเอง พบว่านี่คือจุดที่หลายคนประหลาดใจ พวกเขามุ่งเน้นไปที่ชื่อรุ่น หรือการสาธิตที่ดูหวือหวา แต่กลับมองข้ามปริมาณ ปริมาณต่างหากที่เป็นตัวขับเคลื่อนที่แท้จริง หรือเป็นตัวช่วยชีวิต ขึ้นอยู่กับว่าคุณกำลังเรียกเก็บเงินจากลูกค้าหรือจ่ายค่าสาธารณูปโภค 😅
สำหรับผู้บริโภค ผลกระทบอาจดูเป็นนามธรรม แต่สำหรับธุรกิจ ผลกระทบจะปรากฏชัดเจนอย่างรวดเร็ว:
-
ร่างกฎหมายโครงสร้างพื้นฐานที่ใหญ่กว่า
-
แรงกดดันที่มากขึ้นในการปรับปรุงให้เหมาะสม
-
มีความจำเป็นอย่างยิ่งที่ต้องใช้โมเดลขนาดเล็กหากเป็นไปได้
-
การรายงานความยั่งยืนภายในองค์กร
-
ให้ความสำคัญกับการแคชและการกำหนดเส้นทางมากขึ้น ( Google Cloud , Green AI )
วิธีลดการใช้พลังงานของ AI โดยไม่ต้องละทิ้ง AI 🌱
ส่วนนี้สำคัญเพราะเป้าหมายไม่ใช่ “หยุดใช้ AI” ซึ่งโดยปกติแล้วไม่ใช่เรื่องที่เป็นไปได้และไม่จำเป็นด้วยซ้ำ การใช้งานอย่างมีประสิทธิภาพมากขึ้นต่างหากคือแนวทางที่ชาญฉลาดกว่า.
นี่คือปัจจัยสำคัญที่สุด:
1. เลือกใช้รุ่นที่เล็กที่สุดที่สามารถทำงานได้สำเร็จ
ไม่ใช่ทุกงานที่จะต้องใช้ตัวเลือกที่มีประสิทธิภาพสูงเสมอไป โมเดลที่เบากว่าสำหรับการจำแนกประเภทหรือการสรุปข้อมูลสามารถลดความสิ้นเปลืองได้อย่างรวดเร็ว ( ปัญญาประดิษฐ์สีเขียว , Google Cloud )
2. ลดความยาวของข้อความแจ้งเตือนและผลลัพธ์
ป้อนรายละเอียดมาก ผลลัพธ์ก็มากตามไปด้วย โทเค็นเพิ่มเติมหมายถึงการคำนวณเพิ่มเติม บางครั้งการตัดทอนข้อความแจ้งเตือนก็เป็นวิธีที่ง่ายที่สุด ( กลยุทธ์การกำหนดปริมาณ การจัดกลุ่ม และการให้บริการในการใช้พลังงาน LLM , Google Cloud )
3. แคชผลลัพธ์ที่ซ้ำกัน
หากคำค้นหาเดิมปรากฏขึ้นซ้ำๆ อย่าสร้างคำค้นหาใหม่ทุกครั้ง นี่เป็นเรื่องที่ชัดเจนมาก แต่หลายคนกลับมองข้ามไป ( Google Cloud )
4. ประมวลผลงานแบบกลุ่มเมื่อเป็นไปได้
การดำเนินการงานเป็นชุดๆ สามารถเพิ่มประสิทธิภาพการใช้ทรัพยากรและลดของเสียได้ ( กลยุทธ์การกำหนดปริมาณ การจัดกลุ่ม และการให้บริการในการใช้พลังงานของ LLM )
5. จัดสรรเส้นทางการทำงานอย่างชาญฉลาด
ควรใช้โมเดลขนาดใหญ่เฉพาะเมื่อความมั่นใจลดลงหรือความซับซ้อนของงานเพิ่มขึ้นเท่านั้น ( ปัญญาประดิษฐ์สีเขียว , Google Cloud )
6. ปรับปรุงโครงสร้างพื้นฐานให้เหมาะสม
การจัดตารางเวลาที่ดีขึ้น ฮาร์ดแวร์ที่ดีขึ้น กลยุทธ์การระบายความร้อนที่ดีขึ้น - สิ่งธรรมดาๆ แต่ให้ผลตอบแทนมหาศาล ( Google Cloud , DOE )
7. วัดก่อนสรุป
หลายทีมคิดว่าพวกเขารู้ว่าพลังงานไปอยู่ที่ไหน แต่พอไปวัดดูก็พบว่าส่วนที่แพงที่สุดอยู่ที่อื่น ( Google Cloud )
การทำงานเพื่อเพิ่มประสิทธิภาพอาจไม่ใช่เรื่องที่น่าดึงดูดใจ และไม่ค่อยได้รับเสียงชื่นชม แต่เป็นหนึ่งในวิธีที่ดีที่สุดที่จะทำให้ AI มีราคาที่เข้าถึงได้และมีความน่าเชื่อถือมากขึ้นในระดับใหญ่ 👍
ความเชื่อผิดๆ เกี่ยวกับการใช้ไฟฟ้าของ AI 🚫
เรามาลบล้างความเข้าใจผิดบางประการกันก่อน เพราะหัวข้อนี้ค่อนข้างซับซ้อน.
ความเชื่อผิดๆ ข้อที่ 1 - การค้นหาข้อมูลด้วย AI ทุกครั้งนั้นสิ้นเปลืองอย่างมาก
ไม่จำเป็นเสมอไป บางแห่งก็มีขนาดเล็ก ขนาดและประเภทของงานมีความสำคัญมาก ( Google Cloud )
ความเชื่อผิดๆ ข้อที่ 2 - การฝึกฝนเป็นสิ่งเดียวที่สำคัญ
ไม่ การอนุมานสามารถมีบทบาทสำคัญมากขึ้นเมื่อเวลาผ่านไป เมื่อมีการใช้งานอย่างมหาศาล ( Google Research , DOE )
ความเชื่อผิดๆ ข้อที่ 3 - โมเดลขนาดใหญ่กว่าย่อมให้ผลลัพธ์ที่ดีกว่าเสมอไป
บางครั้งก็ใช่ บางครั้งก็ไม่ใช่เลย งานหลายอย่างก็ทำงานได้ดีด้วยระบบขนาดเล็ก ( AI สีเขียว )
ความเชื่อผิดๆ ข้อที่ 4 - การใช้พลังงานเท่ากับผลกระทบต่อคาร์บอนโดยอัตโนมัติ
ไม่เชิง คาร์บอนยังขึ้นอยู่กับแหล่งพลังงานด้วย ( IEA , Strubell et al. )
ความเชื่อผิดๆ ข้อที่ 5 - คุณสามารถหาตัวเลขเดียวที่ใช้ได้ทั่วไปสำหรับการใช้พลังงานของ AI
คุณทำไม่ได้หรอก อย่างน้อยก็ไม่ใช่ในรูปแบบที่ยังคงมีความหมายอยู่ หรือคุณอาจทำได้ แต่ผลลัพธ์จะถูกเฉลี่ยออกไปจนหมดคุณค่าไป ( IEA )
นี่จึงเป็นเหตุผลว่าทำไมการถามว่า AI ใช้พลังงานมากแค่ไหน จึงเป็นคำถามที่ฉลาด – แต่จะได้ผลก็ต่อเมื่อคุณพร้อมที่จะรับคำตอบที่มีหลายแง่มุม แทนที่จะเป็นเพียงคำขวัญสั้นๆ
แล้ว... AI ใช้พลังงานมากแค่ไหนกันแน่? 🤔
นี่คือข้อสรุปที่อิงตามหลักเหตุผล.
การใช้งาน AI:
-
เล็กน้อย สำหรับงานง่ายๆ บางอย่าง
-
มากขึ้นอีกมาก สำหรับการผลิตสื่อหลายรูปแบบที่มีปริมาณมาก
-
ปริมาณมหาศาล สำหรับการฝึกโมเดลขนาดใหญ่
-
โดยรวมแล้วจะเป็นจำนวนมหาศาล เมื่อคำขอหลายล้านรายการสะสมมากขึ้นเรื่อยๆ ( Google Cloud , DOE )
ลักษณะมันก็ประมาณนั้นแหละ.
ประเด็นสำคัญคืออย่าลดทอนปัญหาทั้งหมดให้เหลือแค่ตัวเลขที่น่ากลัวหรือการเพิกเฉยอย่างไม่ใส่ใจ การใช้พลังงานของ AI เป็นเรื่องจริง มันสำคัญ และสามารถปรับปรุงได้ และวิธีที่ดีที่สุดในการพูดคุยเกี่ยวกับเรื่องนี้คือการให้บริบท ไม่ใช่การสร้างภาพ ( IEA , Green AI )
การสนทนาสาธารณะส่วนใหญ่มักแกว่งไปมาระหว่างสองขั้วสุดโต่ง – “AI นั้นแทบจะฟรี” ในด้านหนึ่ง และ “AI คือหายนะทางไฟฟ้า” ในอีกด้านหนึ่ง ความเป็นจริงนั้นธรรมดามากกว่า ซึ่งทำให้ข้อมูลมีประโยชน์มากขึ้น มันเป็นปัญหาของระบบ ฮาร์ดแวร์ ซอฟต์แวร์ การใช้งาน ขนาด การระบายความร้อน การเลือกออกแบบ ธรรมดาไหม? นิดหน่อย สำคัญไหม? สำคัญมาก ( IEA , Google Cloud )
ประเด็นสำคัญ ⚡🧾
หากคุณมาที่นี่เพื่อถามว่า AI ใช้พลังงานมากแค่ไหน? นี่คือข้อสรุป:
-
ไม่มีตัวเลขใดที่เหมาะกับทุกคน
-
การฝึกฝนมักจะใช้พลังงานมากที่สุดในช่วงแรก
-
การอนุมานกลายเป็นปัจจัยสำคัญเมื่อพิจารณาในระดับที่ใหญ่ขึ้น
-
ขนาดของโมเดล ฮาร์ดแวร์ ปริมาณงาน และระบบระบายความร้อน ล้วนมีความสำคัญ
-
การปรับปรุงเล็กน้อยสามารถสร้างความแตกต่างอย่างมากได้อย่างน่าประหลาดใจ
-
คำถามที่ชาญฉลาดที่สุดไม่ใช่แค่ "เท่าไหร่" แต่ยังรวมถึง "สำหรับงานอะไร บนระบบใด ในระดับใด" ด้วย ( IEA , Google Cloud )
ใช่แล้ว AI ใช้พลังงานจริง มากพอที่จะสมควรได้รับความสนใจ มากพอที่จะ justifies การออกแบบทางวิศวกรรมที่ดีกว่า แต่ไม่ใช่ในแบบที่ดูตลกหรือวัดผลด้วยตัวเลขเพียงตัวเดียว.
คำถามที่พบบ่อย
AI ใช้พลังงานเท่าไหร่ในการแสดงข้อความแจ้งเตือนเพียงครั้งเดียว?
ไม่มีตัวเลขตายตัวสำหรับคำถามแต่ละข้อ เพราะการใช้พลังงานขึ้นอยู่กับรุ่น ฮาร์ดแวร์ ความยาวของคำถาม ความยาวของผลลัพธ์ และเครื่องมือเสริมอื่นๆ ที่เกี่ยวข้อง การตอบข้อความสั้นๆ อาจใช้พลังงานค่อนข้างน้อย ในขณะที่งานหลายรูปแบบที่ยาวกว่าอาจใช้พลังงานมากกว่าอย่างเห็นได้ชัด คำตอบที่มีความหมายที่สุดไม่ใช่ตัวเลขหลักเพียงตัวเดียว แต่เป็นบริบทโดยรอบของงานนั้น.
เหตุใดการประมาณการการใช้พลังงาน AI จึงแตกต่างกันมาก?
การประมาณการอาจแตกต่างกันไป เนื่องจากผู้คนมักเปรียบเทียบสิ่งต่างๆ ที่แตกต่างกันมากภายใต้ชื่อเดียวกันว่า AI การประมาณการหนึ่งอาจอธิบายถึงการตอบกลับของแชทบอทขนาดเล็ก ในขณะที่อีกการประมาณการหนึ่งอาจครอบคลุมการสร้างภาพ วิดีโอ หรือการฝึกโมเดลขนาดใหญ่ เพื่อให้การประมาณการมีความหมาย จำเป็นต้องมีบริบท เช่น ประเภทของงาน ขนาดของโมเดล ฮาร์ดแวร์ การใช้งาน การระบายความร้อน และสถานที่ตั้ง.
การฝึกฝน AI หรือการใช้งาน AI ในแต่ละวัน อย่างไหนใช้พลังงานมากกว่ากัน?
โดยปกติแล้ว การฝึกฝน (Training) มักเป็นกระบวนการที่ใช้พลังงานมากที่สุดในช่วงเริ่มต้น เพราะอาจเกี่ยวข้องกับการใช้ชิปจำนวนมากทำงานเป็นเวลานานกับชุดข้อมูลขนาดใหญ่ ในขณะที่การอนุมาน (Inference) เป็นต้นทุนที่เกิดขึ้นอย่างต่อเนื่องทุกครั้งที่ผู้ใช้ส่งคำขอ และในระดับที่ใหญ่ขึ้น ต้นทุนนี้ก็อาจสูงมากเช่นกัน ในทางปฏิบัติ ทั้งสองอย่างมีความสำคัญ แต่มีความสำคัญในรูปแบบที่แตกต่างกัน.
อะไรทำให้คำขอ AI หนึ่งใช้พลังงานมากกว่าคำขอ AI อื่นอย่างเห็นได้ชัด?
หน้าต่างบริบทที่ยาวขึ้น ผลลัพธ์ที่ยาวขึ้น การประมวลผลซ้ำ การเรียกใช้เครื่องมือ ขั้นตอนการดึงข้อมูล และการสร้างแบบหลายรูปแบบ ล้วนมีแนวโน้มที่จะเพิ่มการใช้พลังงานต่อการโต้ตอบแต่ละครั้ง เป้าหมายด้านความหน่วงก็มีความสำคัญเช่นกัน เพราะข้อกำหนดการตอบสนองที่เร็วขึ้นอาจลดประสิทธิภาพลง คำขอเขียนใหม่ขนาดเล็กและเวิร์กโฟลว์การเขียนโค้ดหรือรูปภาพที่ยาวนานนั้นไม่สามารถเปรียบเทียบกันได้.
อะไรคือต้นทุนพลังงานแฝงที่ผู้คนมองข้ามไปเมื่อถามว่า AI ใช้พลังงานมากแค่ไหน?
หลายคนมักให้ความสนใจเฉพาะตัวชิป แต่ละเลยปัจจัยอื่นๆ เช่น การระบายความร้อน การเคลื่อนย้ายข้อมูล การจัดเก็บข้อมูล ความจุขณะไม่ได้ใช้งาน และระบบความน่าเชื่อถือ เช่น ระบบสำรองข้อมูลหรือส่วนสำรองข้อมูลเมื่อเกิดข้อผิดพลาด องค์ประกอบสนับสนุนเหล่านี้สามารถเปลี่ยนแปลงการใช้พลังงานโดยรวมได้อย่างมาก นั่นเป็นเหตุผลว่าทำไมการทดสอบประสิทธิภาพเพียงอย่างเดียวจึงไม่สามารถแสดงภาพรวมการใช้พลังงานทั้งหมดได้อย่างครบถ้วน.
โมเดล AI ขนาดใหญ่ใช้พลังงานมากกว่าเสมอไปหรือไม่?
โดยทั่วไปแล้ว โมเดลขนาดใหญ่ต้องการพลังประมวลผลและหน่วยความจำมากกว่า โดยเฉพาะอย่างยิ่งสำหรับผลลัพธ์ที่ยาวหรือซับซ้อน ดังนั้นจึงมักใช้พลังงานมากกว่า แต่ขนาดใหญ่ไม่ได้หมายความว่าดีกว่าเสมอไปสำหรับทุกงาน และการเพิ่มประสิทธิภาพสามารถเปลี่ยนแปลงภาพรวมได้อย่างมาก โมเดลเฉพาะทางขนาดเล็ก การแบ่งกลุ่ม การจัดกลุ่มข้อมูล การแคช และการกำหนดเส้นทางที่ชาญฉลาด ล้วนสามารถปรับปรุงประสิทธิภาพได้.
การใช้งาน AI ของผู้บริโภคเป็นปัญหาหลักด้านพลังงาน หรือ AI ขององค์กรเป็นปัญหาใหญ่กว่ากัน?
การใช้งานทั่วไปของผู้บริโภคอาจก่อให้เกิดการใช้พลังงานจำนวนมาก แต่ปัญหาการใช้พลังงานที่ใหญ่กว่ามักเกิดขึ้นในการใช้งานระดับองค์กร ระบบช่วยเหลืออัตโนมัติที่ทำงานตลอดเวลา การประมวลผลเอกสาร การสรุปการโทร การตรวจสอบโค้ด และเอเจนต์ที่ทำงานอยู่เบื้องหลัง สร้างความต้องการใช้งานซ้ำๆ ในกลุ่มผู้ใช้จำนวนมาก ปัญหาโดยทั่วไปไม่ได้อยู่ที่การกระทำเพียงครั้งเดียว แต่เป็นปริมาณการใช้งานที่ต่อเนื่องยาวนานมากกว่า.
AI ใช้พลังงานมากแค่ไหนเมื่อรวมถึงศูนย์ข้อมูลและระบบระบายความร้อน?
เมื่อรวมระบบโดยรวมเข้าไปด้วย คำตอบก็จะสมจริงมากขึ้นและมักจะมีขนาดใหญ่กว่าที่ประมาณการไว้จากเฉพาะชิปเพียงอย่างเดียว ศูนย์ข้อมูลต้องการพลังงานไม่เพียงแต่สำหรับการประมวลผลเท่านั้น แต่ยังรวมถึงการระบายความร้อน การเชื่อมต่อเครือข่าย การจัดเก็บข้อมูล และการรักษากำลังการผลิตสำรองด้วย นั่นเป็นเหตุผลว่าทำไมการออกแบบโครงสร้างพื้นฐานและประสิทธิภาพของสิ่งอำนวยความสะดวกจึงมีความสำคัญเกือบเท่ากับการออกแบบโมเดล.
วิธีที่ใช้งานได้จริงที่สุดในการวัดการใช้พลังงานของ AI ในขั้นตอนการทำงานจริงคืออะไร?
วิธีการที่ดีที่สุดนั้นขึ้นอยู่กับว่าใครเป็นผู้ทำการวัดและเพื่อวัตถุประสงค์ใด กฎง่ายๆ ทั่วไปอาจช่วยในการเปรียบเทียบอย่างรวดเร็ว ในขณะที่เครื่องวัดวัตต์ ข้อมูลการใช้งาน GPU บันทึกการเรียกเก็บเงินบนคลาวด์ และรายงานจากศูนย์ข้อมูลจะให้ข้อมูลเชิงลึกด้านการดำเนินงานที่แข็งแกร่งขึ้นเรื่อยๆ สำหรับงานด้านความยั่งยืนที่จริงจัง มุมมองตลอดวงจรชีวิตที่สมบูรณ์จะยิ่งมีประสิทธิภาพมากขึ้น แม้ว่าจะช้ากว่าและต้องใช้ทรัพยากรมากกว่าก็ตาม.
ทีมต่างๆ จะลดการใช้พลังงานของ AI โดยไม่ลดทอนคุณสมบัติ AI ที่มีประโยชน์ได้อย่างไร?
โดยทั่วไปแล้ว ผลประโยชน์ที่มากที่สุดมักมาจากการใช้โมเดลที่เล็กที่สุดที่ยังคงทำงานได้ ลดจำนวนข้อความแจ้งเตือนและผลลัพธ์ จัดเก็บผลลัพธ์ที่ซ้ำกันไว้ในแคช จัดกลุ่มงาน และส่งต่อเฉพาะงานที่ยากกว่าไปยังโมเดลขนาดใหญ่กว่า การเพิ่มประสิทธิภาพโครงสร้างพื้นฐานก็มีความสำคัญเช่นกัน โดยเฉพาะอย่างยิ่งการจัดตารางเวลาและประสิทธิภาพของฮาร์ดแวร์ ในหลายๆ กระบวนการ การวัดผลก่อนจะช่วยป้องกันไม่ให้ทีมเพิ่มประสิทธิภาพในสิ่งที่ผิดพลาด.
เอกสารอ้างอิง
-
สำนักงานพลังงานระหว่างประเทศ (IEA) - ความต้องการพลังงานจาก AI - iea.org
-
กระทรวงพลังงานสหรัฐฯ (DOE) - DOE เผยแพร่รายงานฉบับใหม่ประเมินความต้องการใช้ไฟฟ้าที่เพิ่มขึ้นของศูนย์ข้อมูล - energy.gov
-
Google Cloud - การวัดผลกระทบต่อสิ่งแวดล้อมของการประมวลผล AI - cloud.google.com
-
Google Research - ข่าวดีเกี่ยวกับรอยเท้าคาร์บอนของการฝึกอบรมแมชชีนเลิร์ - research.google
-
Google Research - รอยเท้าคาร์บอนของการฝึกอบรมแมชชีนเลิร์นนิงจะทรงตัวแล้วลดลงในที่สุด - research.google
-
arXiv - ปัญญาประดิษฐ์สีเขียว - arxiv.org
-
arXiv - Strubell และคณะ - arxiv.org
-
arXiv - กลยุทธ์การกำหนดปริมาณ การจัดกลุ่ม และการให้บริการในการใช้พลังงานของ LLM - arxiv.org