Mit Künstlicher Intelligenz zur optimierten Streaming-Wirkkette
Video-Streaming dominiert heute unseren Medienkonsum und verursacht dabei enorme Datenströme und CO₂-Emissionen – oft mehr, als allgemein bewusst ist. Was kann man selbst tun, um den Energieverbrauch zu reduzieren? Das vom Bundesministerium für Wirtschaft und Klimaschutz geförderte Projekt »Green Streaming« untersucht erstmals die gesamte Streaming-Wirkkette mithilfe von Künstlicher Intelligenz und realen Messdaten, um nachhaltigere Lösungen für die Zukunft des digitalen Medienkonsums zu entwickeln.
Robert, du leitest das Projekt »Green Streaming« beim Fraunhofer-Institut für Offene Kommunikationssysteme FOKUS, was war der Anstoß für das Projekt?
Der Ausgangspunkt war, die Effizienz und den ökologischen Fußabdruck des Videostreamings besser zu verstehen. Normalerweise ging es bei Videostreaming hauptsächlich darum, Datenraten zu optimieren und mehr Inhalte effizienter zu übertragen. Doch wir wollten uns die andere Seite ansehen und herausfinden, wie der Energieverbrauch und damit der ökologische Fußabdruck aussieht. Videostreaming macht über 70 % des globalen Datenverkehrs aus, und obwohl der Traffic exponentiell wächst, bleibt der Energieverbrauch in Rechenzentren relativ stabil – dank effizienterer Technologien. Wir haben uns jedoch gefragt: Was passiert entlang der gesamten Wertschöpfungskette, vom Encoding bis zum Endverbrauch durch den Kunden?
Ein weiterer Auslöser waren bestehende Studien, die den CO₂-Fußabdruck von Streaming untersuchten. Ihre Ergebnisse waren extrem unterschiedlich – von “eine Stunde Streaming entspricht einer Viertelmeile Autofahren“ bis zu viel höheren Werten. Diese Diskrepanzen entstehen, weil bisher keine einheitliche Methodik existierte. Zudem spielt der regionale Strommix eine große Rolle: Deutschland hat eine andere CO₂-Bilanz als etwa Norwegen oder Frankreich. Deshalb haben wir ein Konsortium gebildet, um das Thema ganzheitlich anzugehen. Unser Fokus lag auf der technischen Optimierung des Streaming-Prozesses – von der Inhaltserstellung über Encoding und Distribution bis hin zum Endgerät des Zuschauers. Das CO₂, welches durch Dreharbeiten entsteht, haben wir bewusst ausgeklammert, da dazu schon Initiativen existieren.
Was sind die einzelnen Komponenten der Streaming-Wirkkette, die ihr analysiert?
Beim ersten Schritt dem »Ingest«, werden die videobasierten Inhalte auf die Server der Anbieter gebracht. Das können Live-Feeds sein, wie zum Beispiel aus einem Stadion oder von einem Konzert, oder auch vorproduzierte Unterhaltungsformate wie Serien oder Filme. Diese Inhalte werden in einem Masterdateiformat angeliefert, also in möglichst hoher Qualität und Bitrate.
Die zweite Komponente ist das Encoding und Packaging, was typischerweise jeder Streaminganbieter selbst macht. Dabei werden Inhalte in verschiedene Dateiformate, Auflösungen und Bitraten umgewandelt, damit sie auf möglichst vielen Geräten optimal abgespielt werden können. Das Ziel ist es, immer die beste Qualität bei gleichzeitig höchster Effizienz für das jeweilige Endgerät zu liefern.
Der nächste Schritt ist das Content Delivery Network (CDN). Das ist ein Netzwerk, das wie ein riesiger Cache funktioniert. Hier werden die Videodaten verteilt und zwischengespeichert, damit Nutzerinnen und Nutzer gleichzeitig darauf zugreifen können, ohne einzelne Server zu überlasten. Vor allem bei Live-Events, wie Fußballspielen mit Millionen parallelen Zuschauer*innen, geht es ohne ein CND technisch gar nicht.
Dann kommen die Netze, die wir noch mal in Zugangs- und Verteilnetze unterteilen. Das sind zum Beispiel Mobilfunknetze, Kabelanschlüsse oder DSL-Verbindungen, über welche die Daten zu den Endgeräten gebracht werden.
Am Ende stehen die Endgeräte, also Smart-TVs, Tablets, Smartphones – all die Geräte, auf denen wir Inhalte konsumieren. Die Endgeräte sind ein wichtiger Faktor, weil sie oft einen großen Teil des Energieverbrauchs ausmachen. Das sind die Hauptbestandteile, die wir uns angeschaut haben, um zu verstehen, wo wir etwas optimieren können.
Welche Methoden habt ihr zur Analyse angewendet?
Das war gar nicht so einfach, weil die verschiedenen Teile der Wertschöpfungskette sehr unterschiedliche Herangehensweisen erfordern. Bei einer Liveproduktion kann man zum Beispiel relativ gut messen, was wie viel Strom verbraucht. Da kann man schauen: Was braucht die Kamera an Energie? Was braucht ein SNG-Fahrzeug, also ein Übertragungswagen, der das Signal per Satellit oder auch direkt per IP ins Netz bringt? Das kann man mit entsprechenden Messgeräten ziemlich genau erfassen.
Auf der anderen Seite ist es bei den Endgeräten ebenfalls vergleichsweise einfach. Hier lässt sich messen, wie viel Energie ein Fernseher beim Streamen verbraucht. Der Knackpunkt ist: Es reicht nicht, einfach nur den Stromverbrauch zu messen. Man muss auch verstehen, wie die Streams technisch aufgebaut sind, also welcher Codec, welche Auflösung, welche Bitrate genutzt wird. Diese Parameter haben einen Einfluss und nur, wenn ich die mit einbeziehe, kann ich die Messergebnisse sinnvoll auswerten und mögliche Einsparpotenziale zu identifizieren. Um das zu schaffen, haben wir ein Framework entwickelt. Damit führen wir die verschiedenen Messungen zusammen – sowohl die Energieverbräuche als auch technische Details der Streams und das Verhalten der Endgeräte. Das kombinieren wir, um einen vollständigen Überblick zu bekommen.
Etwas schwieriger wird es bei den Netzwerken. Da kann man nicht einfach ein Messgerät anschließen, weil die Netzwerke eine geteilte Infrastruktur aufweisen. Ein Stream nutzt kein eigenes Netz, sondern teilt sich Ressourcen mit vielen anderen Nutzerinnen und Nutzern. Deshalb arbeiten wir dort mit Allokationsmodellen. Das heißt, dass wir im besten Fall den Verbrauch einzelner Komponenten des Netzes kennen und diesen dann herunterbrechen, um herauszufinden, welcher Anteil auf einen bestimmten Stream oder eine Dienstleistung entfällt.
Das ist ein komplexer Ansatz und es gibt verschiedene Modelle, die dabei zu unterschiedlichen Ergebnissen kommen. Aber genau solche Herausforderungen mussten wir angehen, um die gesamte Wirkkette nachvollziehbar zu analysieren.
Was hat es mit dem »Power Model« und dem »Energy Intensity Model« auf sich?
Die beiden Modelle gehen unterschiedliche Wege, um den Energieverbrauch eines Netzes zu analysieren und zu verstehen, wie viel Energie für eine bestimmte Dienstleistung, etwa eine Stunde Videostreaming, benötigt wird. Das »Energy Intensity Model« schaut sich an, wie viel Energie pro übertragendem Datenvolumen benötigt wird. Es wird in Kilowattstunden pro Gigabyte berechnet und setzt den Gesamtverbrauch des Netzes ins Verhältnis zum gesamten übertragenen Datenvolumen. Das Modell eignet sich gut für retrospektive Analysen, zum Beispiel für Umwelt-Berichte. Man kann damit berechnen, wie effizient ein Netz über einen bestimmten Zeitraum gearbeitet hat. Es ist jedoch weniger hilfreich, wenn es darum geht, den Energieverbrauch in Echtzeit zu bestimmen. Wenn du zum Beispiel, einen Ultra-HD-Stream auf HD umstellst, sinkt zwar die Datenrate, aber das Modell kann nicht präzise berechnen, wie viel Energie dadurch tatsächlich eingespart wird. Es betrachtet den Energieverbrauch eher global und über Zeiträume hinweg und weniger dynamisch.
Das »Power Model« ist detaillierter und berücksichtigt sowohl die Grundlast des Netzes als auch den nutzungsabhängigen Anteil. Netzwerke brauchen immer eine gewisse Menge Energie, um überhaupt aktiv zu sein. Zum Beispiel müssen Funkmasten oder IP-Netze bereitstehen, damit sie genutzt werden können. Die Grundlast, auch »Idle Load« genannt, macht etwa 70-80 % des gesamten Energieverbrauchs eines Netzes aus. Der nutzungsabhängige Anteil variiert je nach tatsächlicher Nutzung. Das »Power Model« kann daher besser einschätzen, wie sich der Energieverbrauch verändert, wenn zum Beispiel ein Ultra-HD-Stream auf HD umgestellt wird.
Der »Idle Load« macht also einen großen Anteil des Energieverbrauchs aus. Gibt es Ansätze, diesen zu reduzieren?
Ja, es gibt Möglichkeiten, daran zu arbeiten, aber das ist ein kompliziertes Unterfangen. Die Werte, die wir hier betrachten, stammen von unserem Projektpartner und zeigen ziemlich deutlich, wie hoch der Energieverbrauch selbst bei geringer Nutzung ist. Selbst nachts oder früh morgens, wenn die Netzwerkauslastung vielleicht nur bei 10 bis 20 Prozent liegt, bleibt der Energieverbrauch bei etwa 80 Prozent der Maximallast. Das liegt daran, dass die Netze heute sehr statisch gebaut sind. Diese Leerlaufleistung ist immer da, egal wie stark das Netz genutzt wird. Das Problem ist, dass die verbrauchsabhängige Energie, also die Energie, die zusätzlich zur Grundlast kommt, wenn mehr Daten übertragen werden, relativ gering ist – oft nur 10 bis 15 Prozent. Selbst wenn wir durch effizientes Encodieren oder geringere Datenraten die Datenlast reduzieren, hat das kaum Einfluss auf den Energieverbrauch des Netzwerks, weil die Basislast so dominant bleibt.
Um das zu ändern, gibt es zwei Ansatzpunkte: Mittel- bis langfristig könnten wir den Energieverbrauch senken, indem wir die Netzwerkinfrastruktur modernisieren. Neue Hardwaregenerationen sind oft deutlich energieeffizienter – sie können den Stromverbrauch in vielen Fällen deutlich senken. Ein weiterer Punkt wäre der Ausbau von Glasfaser. Glasfaser ist im Vergleich zu Kupferleitungen wie DSL deutlich energieeffizienter. Länder, die stärker auf Glasfaser setzen, haben hier einen klaren Vorteil.
Ein weiterer Ansatz ist, Netzwerke dynamischer zu gestalten. Heute müssen Netzwerke jederzeit voll einsatzbereit sein, auch wenn nur weniger Nutzerinnen und Nutzer aktiv sind. Wenn es gelänge, Teile des Netzwerks bei geringer Nutzung gezielt abzuschalten oder herunterzufahren, ließe sich der Energieverbrauch weiter reduzieren. Das ist allerdings technisch und organisatorisch eine große Herausforderung, weil die Netzwerke so konzipiert sind, dass sie konstant verfügbar sein müssen. Kurzfristig lässt sich der »Idle Load« also kaum reduzieren, aber durch technologische Innovationen und dynamische Betriebsmodelle gibt es vielversprechende Ansätze, den Energieverbrauch von Netzwerken nachhaltig zu senken.
Wie kann eure Analyse sonst noch dabei helfen, die durch Streaming-Angebote anfallende Energie effizienter zu nutzen?
Eine weitere Möglichkeit für Energieeinsparungen steht im Zusammenhang mit der Nutzung von Smart-TVs beim Streaming. Hier haben wir herausgefunden, dass die Energie, die ein Endgerät beim Streaming verbraucht, überwiegend von der Displayhelligkeit des Gerätes bestimmt wird.
Laut Netflix finden etwa 80 % des Streamings großer Anbieter auf Smart-TVs statt. Das liegt daran, dass man auf diesen Geräten oft lange Filme oder Serien anschaut, während Plattformen wie TikTok oder Instagram meist auf dem Smartphone genutzt werden. Diese kleineren Geräte verbrauchen im Vergleich zu Smart TVs deutlich weniger Strom. Im Gesamtsystem macht die Nutzung der Endgeräte den größten Teil des Energieverbrauchs aus. Wir haben getestet, ob Faktoren wie Videoauflösung, Bitrate, der verwendete Codec oder die Art des Inhalts den Stromverbrauch signifikant beeinflussen. Das Ergebnis war, dass diese Faktoren nur eine sehr geringe Rolle spielen, etwa 1 bis 2 %. Der entscheidende Faktor ist die Helligkeit des Displays. Ein leuchtendes Display benötigt deutlich mehr Energie, weshalb größere Fernseher mit helleren Displays auch mehr Strom verbrauchen. Ein Fire TV Stick von Amazon beispielsweise, der den Stream dekodiert und verarbeitet, benötigt nur etwa 1,5 Watt pro Stunde. Der Fernseher allerdings, mit dem der Stick verbunden ist, benötigt den Großteil der Energie nur um das Bild anzuzeigen. Wenn man also beim Streaming Energie sparen möchte, bringt es wenig, die Videoauflösung zu senken. Stattdessen könnte man die Displayhelligkeit reduzieren oder effizientere Displaytechnologien einsetzen, die weniger Strom benötigen.
An welcher Stelle eurer Messungen und Analysen wird Machine Learning und Künstliche Intelligenz eingesetzt?
Künstliche Intelligenz und Machine Learning kommen an mehreren Stellen zum Einsatz, besonders dort, wo direkte Messungen schwierig oder unmöglich sind. Wir entwickeln zum Beispiel ein KI-Modell, das das Verhalten von Fernsehern simuliert. Damit können wir vorhersagen, wie viel Strom ein bestimmtes Gerät bei einem bestimmten Inhalt und mit individuellen Bildschirmeinstellungen verbrauchen wird, ohne physische Messgeräte im Wohnzimmer installieren zu müssen. Ziel ist es, mit Hilfe von KI die Helligkeit der Displays so zu optimieren, dass die visuelle Qualität erhalten bleibt, der Stromverbrauch jedoch um 10 bis 15 % reduziert wird. Das wäre die Grundlage für die sogenannten »Green Streaming-Modi«, bei denen Nutzerinnen und Nutzer einfach einen Knopf drücken, um sparsamer zu streamen, ohne dass sie einen Unterschied bemerken.
Für die Netzwerke wird ein digitales Modell entwickelt, das das Verhalten und den Energieverbrauch verschiedener Netzwerkinfrastrukturen simuliert. Dies soll eine Optimierung des Netzbetriebs ermöglichen. Hier wird KI allerdings nicht nur eingesetzt, um die Modelle zu erstellen, sondern auch um sie dynamisch zu verbessern und den Netzwerkbetrieb effizienter zu gestalten.
(lna)
Experte
Robert Seeliger
Fraunhofer-Institut für Offene Kommunikationssysteme FOKUS