Energieversorgung der KI

Der Klimawandel ist die größte existenzielle Gefahr für unseren Planeten und für uns. Bis Anfang dieses Jahres nahm die Menge der Treibhausgase in der Atmosphäre unkontrolliert zu. Aber in den letzten Monaten haben wir alle die dramatischen Veränderungen gesehen, die die Beschränkungen aufgrund der Covid-19-Pandemie für die Umwelt mit sich gebracht haben – in China zum Beispiel konnten die Kohlenstoffemissionen um 25% und die Stickoxide um 50% reduziert werden. Gleichzeitig haben wir gesehen, wie die künstliche Intelligenz in den Vordergrund getreten ist, um das Virus zu bekämpfen, indem sie seine Ausbreitung vorhersagt und dazu beiträgt, der Fülle der durchgeführten Forschung einen Sinn zu geben. Aber diese beiden Dinge – der Nutzen für die Umwelt und der Einsatz der künstlichen Intelligenz – schließen sich nicht gegenseitig aus. Tatsächlich wird die AI selbst zu einem bedeutenden Umweltverschmutzer.

Um ein Beispiel für den Energie-Hunger der KI zu nennen, haben Forscher kürzlich eine Roboterhand entwickelt, die KI zur Lösung eines Zauberwürfels einsetzt. Die Leistung war beeindruckend, aber anscheinend verbrauchte eine einzige Aktion etwa 2,8 Gigawattstunden Strom, was dem Stromverbrauch eines ganzen Atomkraftwerks entspricht, das drei Stunden lang in Betrieb ist.

Das ist nur ein Beispiel, aber wir wissen, dass die KI in vielen verschiedenen Bereichen eingesetzt wird, von der Bilderkennung und -vorhersage bis hin zum Führen von Fahrzeugen. Da die Anwendungen für die KI immer komplexer werden, werden die Schulungsanforderungen der KI immer anspruchsvoller, und die Energie, die für den Betrieb der Computer zur Durchführung der Schulung benötigt wird, wird immer wichtiger.

Das Training eines leistungsfähigen KI-Algorithmus und insbesondere die erforderliche Feinabstimmung kann den Betrieb vieler Computer über Tage oder sogar Wochen erfordern. Der Bereich der KI, der als Natural Language Understanding (NLU) bezeichnet wird und der versucht, aus Texten Sinn zu machen, hat in letzter Zeit einige große Fortschritte gemacht, aber diese Fortschritte haben ihren Preis. Die Forscher von UMass Amherst fanden heraus, dass das Training eines einzigen großen NLU-Modells über seine gesamte Lebensdauer so viel Energie verbrauchen kann wie ein Auto, einschließlich der Energie, die für den Bau des Modells benötigt wird.

Nun, da die Umweltproblematik in aller Munde ist, machen sich die KI-Experten selbst immer mehr Gedanken über die Auswirkungen ihrer Arbeit auf die Umwelt. Viele Akademiker sind sich zum Beispiel darüber im Klaren, wie viel Energie ihre Algorithmen verbrauchen. Diese Vorgehensweise sollte sich auch auf Unternehmensanwendungen ausweiten. Business Cases sollten die “Energieschuld” in alle verwendeten Algorithmen einbeziehen, sowohl in Bezug auf den Geldwert als auch auf die Auswirkungen auf die Umwelt. Was wir alle vermeiden wollen, ist, dass wir ein Problem mit KI lösen und dabei ein anderes, möglicherweise größeres Problem schaffen.

 

Tags: Artificial intelligence, Digitalisation, Industrie 4.0