In sozialen Medien und Artikeln taucht immer wieder die besorgniserregende Zahl auf: ChatGPT verbrauche 500 Milliliter Wasser für ein typisches Gespräch. Doch wie viel Wasser fließt tatsächlich für unsere Unterhaltungen mit künstlicher Intelligenz?
Warum KI überhaupt Wasser verbraucht
Der Wasserverbrauch von KI-Anwendungen wie ChatGPT hängt mit der zugrundeliegenden Infrastruktur zusammen. Vor allem die Kühlung der Hardware spielt eine entscheidende Rolle: Hochleistungs-GPUs und TPUs laufen während des Trainings und der Nutzung ununterbrochen und erzeugen dabei erhebliche Wärme. Um die Chips unter der kritischen Temperatur von etwa 80 Grad Celsius zu halten, setzen Datenzentren überwiegend auf Verdunstungskühltürme – warmes Wasser nimmt die Hitze der Server auf, wird in den Kühlturm gesprüht, und ein Teil (2 – 5 Prozent) verdunstet.
Hinzu kommt der indirekte Wasserverbrauch durch die Stromerzeugung. Etwa 60 Prozent der weltweiten Elektrizität stammt noch immer aus thermischen Kraftwerken (Gas, Kohle, Atomkraft), die für die Kondensation von Dampf Fluss- oder Turmwasser benötigen. Auch die Herstellung der Chips trägt zum Wasserverbrauch bei – für einen fortschrittlichen GPU können zehn bis hunderte Liter „virtuelles“ Wasser anfallen.
Der tatsächliche Wasserverbrauch
Verbraucht ChatGPT also wirklich 500 Milliliter Wasser pro zehn Anfragen? Diese Zahl stammt aus einer Studie der UC Riverside: „Additionally, GPT-3 needs to ‚drink‘ (i.e., consume) a 500ml bottle of water for roughly 10 – 50 medium-length responses, depending on when and where it is deployed.“ Die Studie rechnet also mit einem längeren Gespräch von bis zu fünfzig Antworten, nicht nur einer kurzen Nachfrage.
Wichtig ist auch: Die Berechnung basiert auf dem mittlerweile über drei Jahre alten GPT-3 und stellt keine streng wissenschaftliche Erhebung dar, sondern eher eine grobe Überschlagsrechnung. Mittlerweile sind neuere KI-Modelle verfügbar, die deutlich effizienter sind. Neuere Studien für die Nutzung aktueller Modelle kommen teilweise zu deutlich niedrigeren Werten – teilweise weniger als ein Zehntel so viel. Allerdings benötigen neuere Modelle auch mehr Ressourcen fürs Training.
Dabei macht es auch einen erheblichen Unterschied, ob wir nur eine einfache Frage stellen oder ob komplexere Funktionen wie Web-Recherchen aktiviert werden. Aus heutiger Sicht könnte eine ChatGPT-Anfrage zwischen 5 Milliliter (für eine eher einfache Anfrage) und 50 Milliliter (für eine komplexere Research- oder Reasoning-Anfrage) Wasser verbrauchen. Dennoch – diese Zahlen sind spekulativ, und es gibt bislang keine wissenschaftliche Studie, die eindeutig Klarheit schafft.