Theo The New Yorker, ChatGPT của OpenAI đang sử dụng hơn nửa triệu KWh điện mỗi giờ để đáp ứng khoảng 200 triệu truy vấn mỗi ngày. Để so sánh, một hộ gia đình trung bình ở Mỹ tiêu thụ khoảng 29 KWh điện mỗi ngày, nghĩa là ChatGPT tiêu thụ lượng điện gấp 17.000 lần so với một hộ gia đình ở Mỹ hàng ngày.
Nếu AI tạo sinh tiếp tục được cải tiến và sử dụng rộng rãi hơn, lượng điện tiêu thụ có thể tăng đáng kể. Theo tính toán của nhà khoa học dữ liệu Alex de Vries từ Ngân hàng Quốc gia Hà Lan, nếu Google tích hợp công nghệ AI tạo sinh vào mọi tìm kiếm, lượng điện tiêu thụ hàng năm có thể lên tới khoảng 29 tỉ KWh, vượt qua lượng điện tiêu thụ hàng năm của các hộ gia đình ở các quốc gia như Kenya, Guatemala và Croatia.
Alex de Vries đã chia sẻ với Business Insider rằng “AI tiêu thụ rất nhiều điện năng. Mỗi máy chủ AI có thể tiêu thụ nhiều điện hơn mười hộ gia đình ở Anh cộng lại. Và con số này có thể tăng rất nhanh“. Tuy nhiên, hiện tại rất khó để ước tính chính xác lượng điện năng mà ngành công nghiệp AI tiêu thụ. Theo The Verge, các công ty công nghệ lớn vẫn chưa công bố chính xác về việc sử dụng năng lượng của các mô hình AI của họ.
Trong bài báo của mình, Alex de Vries đã đưa ra các tính toán sơ bộ dựa trên số liệu từ Nvidia, công ty chip lớn nhất và có giá trị nhất thế giới, được gọi là “Cisco” của sự bùng nổ AI. Theo New Street Research, Nvidia chiếm khoảng 95% thị phần bộ xử lý đồ họa (GPU). Alex de Vries ước tính rằng đến năm 2027, toàn bộ lĩnh vực AI sẽ tiêu thụ từ 85-134 tỉ KWh mỗi năm. Ông cũng chia sẻ với The Verge rằng “Mức tiêu thụ điện của AI có thể chiếm một nửa lượng tiêu thụ điện toàn cầu vào năm 2027”.
Một số doanh nghiệp tiêu thụ điện năng nhiều nhất thế giới thậm chí không đạt đến con số này. Theo báo cáo của Consumer Energy Solutions, Samsung Electronics sử dụng gần 23 tỉ KWh điện mỗi năm, trong khi Google chỉ sử dụng hơn 12 tỉ KWh và Microsoft khoảng 10 tỉ KWh mỗi năm để vận hành các trung tâm dữ liệu, mạng và thiết bị của người dùng.
Theo: vista.gov.vn