Ereignishorizont Digitalisierung - Energiehunger

Über den Energiehunger Künstlicher Intelligenz

Künstliche Intelligenz (KI) ist heute ein wesentlicher Treiber der Digitalisierung. Viel wird auch darüber diskutiert, wie KI zur Bewältigung des Klimawandels und zum Sparen von Energie beitragen kann. Die spektakulärsten Fortschritte und Anwendungen entstammen dabei zuletzt v. a. dem Machine Learning. Machine Learning ist die Teildisziplin in der KI-Welt, die sich mit der Entwicklung von Machine-Learning-Modellen (bzw. Algorithmen) für das automatische Erkennen von Mustern und Gesetzmäßigkeiten in vorhandenen Datenbeständen beschäftigt. Machine Learning hilft schon heute Landwirten die Bestellung ihrer Felder zu verbessern, Förstern die Bewirtschaftung von Wäldern zu optimieren, Meteorologen Klimaeffekte und deren Auswirkungen präziser vorherzusagen, oder Tierschützern dabei vorherzusagen, wo Wilderei stattfindet.  

Kaum adressiert ist bislang jedoch die Frage, wie viel Energie die Entwicklung und Anwendung von KI und Machine Learning selbst benötigt. Erste Antworten liefert nun eine Analyse der University of Massachusetts Amherst in den USA. In ihrem Paper „Energy and Policy Considerations for Deep Learning in NLP“ zeigen Emma Strubell, Ananya Ganesh und Andrew McCallum, dass das Trainieren eines Machine-Learning-Algorithmus CO2-Emmissionen von 284 Tonnenerzeugt. Zur Verdeutlichung: Das entspricht der 5-fachen Menge an CO2-Emmissionen, die ein einzelnes Auto während seines Lebenszyklus erzeugt. Konkret analysierten die drei Forscher vier sehr bekannte und heute weltweit genutzte Machine-Learning-Modelle (Transformer, ELMo, BERT, and GPT-2) und berechneten dann, wie viel Energie das Training dieser vier Modelle bis zur Anwendungsreife benötigte. 

Natürlich kann von dem Training der vier untersuchten Machine-Learning-Modelle NICHT auf alle anderen Machine-Learning-Modelle geschlossen werden. Dazu unterscheiden sich einzelne Machine-Learning-Modelle viel zu stark. Gleichermaßen variiert auch das erforderliche Training, um ein Machine-Learning-Modell praktisch anwenden zu können, von Modell zu Modell sehr stark. Interessant ist aber die weiterführende Analyse von Strubell und ihren Forscherkollegen: Ursache für den sehr großen Energiebedarf des Machine Learning ist v. a. der Trial-and-Error-Ansatz, der für das Training von Machine-Learning-Modellen eingesetzt wird. Einfach gesagt: Um zu lernen, um also Muster und Gesetzmäßigkeiten in vorhandenen Datenbeständen möglichst zuverlässig zu erkennen, müssen Machine-Learning-Modelle oft Millionen von Trainingsläufen durchführen, von denen wiederum die allermeisten keine relevanten Ergebnisse liefern. Jeder Trainingslauf entspricht einer einzelnen mathematischen Berechnung, von denen jede wiederum Energie benötigt und damit zum Gesamt-CO2-Fussabdruck des Machine-Learning-Modells beiträgt.

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Video: How Much Energy Does The Internet Use?

Dass die Frage nach dem Energiehunger von KI immer stärker ins Bewusstsein rückt zeigen nicht zuletzt die Äußerungen von Gary Dickerson, dem CEO des amerikanischen Technologieunternehmens Applied Materials. Laut Dickerson wird der Betrieb von KI-Lösungen im Jahr 2025 bereits 10% der weltweit verfügbaren Energieressourcen fressen – zumindest dann, wenn es keine Fortschritte in den Bereichen Werkstoffen oder Fertigungsverfahren (z. B. von Mikroprozessoren) gibt. Zum Vergleich: Stand heute (August 2019) benötigt der Betrieb von KI laut Dickerson nur 0,1% des weltweiten Energiebedarfs.

Geschrieben von