My człowiek w centrum danych

Dzieci też zużywają energię. Altman wywołał burzę porównaniem z AI

Szef OpenAI, Sam Altman, ostro broni branży AI przed zarzutami o nadmierne zużycie zasobów. Twierdzi, że doniesienia o „galonach wody na jedno zapytanie do ChatGPT” są nieprawdziwe, a porównania powinny uwzględniać także… energetyczny koszt kształcenia człowieka.

Podczas AI Impact Summit w Nowym Delhi Altman odniósł się do narastającej krytyki dotyczącej śladu środowiskowego sztucznej inteligencji. W rozmowie z indyjskimi mediami stwierdził, że krążące w sieci tezy, jakoby ChatGPT zużywał „galony wody na jedno zapytanie”, są „całkowicie nieprawdziwe” i „oderwane od rzeczywistości”.

Rzeczywiście, centra danych od lat wykorzystują wodę do chłodzenia infrastruktury i zapobiegania przegrzewaniu serwerów. Część nowych obiektów ogranicza lub całkowicie eliminuje chłodzenie wodne na rzecz innych technologii. Jednocześnie raporty branżowe wskazują, że wraz ze wzrostem zapotrzebowania na moc obliczeniową – napędzaną głównie przez AI – globalne zużycie wody do chłodzenia może w długim terminie znacząco wzrosnąć.

Niemniej Altman w wywiadzie dla CNBC powiedział to:

– Uważam, że dyskusje o zużyciu energii przez AI są często niesprawiedliwe. Pomyślmy o tym w ten sposób: wytrenowanie człowieka do poziomu wysokiej klasy specjalisty zajmuje 20 lat życia i wymaga ogromnej ilości pożywienia, zasobów i energii w tym czasie. AI robi to znacznie efektywniej w skali globalnej korzyści.

Energia? „To uczciwy zarzut – ale patrzmy całościowo”

Altman przyznał jednak, że zużycie energii przez AI to realne wyzwanie. Nie chodzi – jak podkreślił – o pojedyncze zapytanie, lecz o skalę globalną.

– Świat używa coraz więcej AI, więc musimy bardzo szybko przechodzić na energię jądrową, wiatrową i słoneczną – zaznaczył.

Debata ta toczy się w momencie, gdy rządy i firmy inwestują miliardy dolarów w nowe centra danych. Według raportu International Monetary Fund zużycie energii elektrycznej przez światowe centra danych w 2023 roku osiągnęło poziom porównywalny z zapotrzebowaniem takich krajów jak Germany czy France – krótko po premierze przełomowego modelu ChatGPT.

AI vs. człowiek. Kontrowersyjne porównanie

Altman odniósł się również do wcześniejszych słów współzałożyciela Microsoft, Bill Gates, który sugerował, że skoro ludzki mózg jest niezwykle energooszczędny, to również AI z czasem stanie się bardziej efektywna.

Szef OpenAI odpowiedział, że porównania często są „nieuczciwe”. Krytycy wskazują na ogromną ilość energii potrzebną do trenowania modeli AI, ale – jak argumentował – „wytrenowanie człowieka” też trwa około 20 lat i wymaga ogromnych nakładów energii w postaci pożywienia i infrastruktury społecznej.

Jego zdaniem uczciwsze jest porównanie kosztu energetycznego odpowiedzi AI na pytanie (tzw. inference) z energią potrzebną człowiekowi do wykonania tego samego zadania. W tej kategorii – jak twierdzi – AI mogła już osiągnąć porównywalną, a nawet lepszą efektywność.

Fala krytyki. Nie zrównujmy technologii z człowiekiem

Wypowiedzi Altmana wywołały burzę w sieci, szczególnie w kontekście obaw o zastępowanie ludzi przez algorytmy. Krytycznie odniósł się do nich m.in. Sridhar Vembu z Zoho Corporation, który stwierdził, że nie chce żyć w świecie, w którym „zrównuje się technologię z człowiekiem”.

Równolegle rośnie presja społeczna wobec nowych inwestycji infrastrukturalnych. W USA lokalne społeczności coraz częściej protestują przeciw budowie energochłonnych centrów danych, obawiając się przeciążenia sieci i wzrostu cen energii. Niedawno rada miasta San Marcos w Teksasie odrzuciła projekt wartego 1,5 mld dolarów centrum danych po miesiącach sprzeciwu mieszkańców.

AI potrzebuje więcej energii. Ale jakiej?

W obliczu rosnącego zapotrzebowania liderzy branży – w tym Altman – coraz głośniej mówią o konieczności rozbudowy mocy wytwórczych, szczególnie w oparciu o energetykę jądrową i OZE. Jednocześnie organizacje ekologiczne ostrzegają, że przyspieszanie procesów inwestycyjnych może kolidować z globalnymi celami neutralności klimatycznej.

Spór o „wodę i waty” w AI to w rzeczywistości szersza debata o tym, kto i jak powinien ponosić koszty cyfrowej transformacji. Czy AI okaże się bardziej energooszczędnym „mózgiem” świata, czy też stanie się kolejnym gigantycznym konsumentem zasobów – to pytanie, na które odpowiedź dopiero się kształtuje.

Foto: Qwen/AI.

Podziel się artykułem

PortalTechnologiczny.pl

Wykorzystujemy ciasteczka do spersonalizowania treści i reklam, aby oferować funkcje społecznościowe i analizować ruch w naszej witrynie.

Informacje o tym, jak korzystasz z naszej witryny, udostępniamy partnerom społecznościowym, reklamowym i analitycznym. Partnerzy mogą połączyć te informacje z innymi danymi otrzymanymi od Ciebie lub uzyskanymi podczas korzystania z ich usług.

Informacja o tym, w jaki sposób Google przetwarza dane, znajdują się tutaj.