Die Forderung, das Stromnetz für die klimapolitischen Anforderungen der nächsten 40 Jahre fit zu machen, ist zum Mantra der Energiepolitik geworden. Bei genauerem Hinsehen zeigt sich jedoch, wie heterogen die hiermit verbundene Zielstruktur ist und wie steinig ihr Implementierungsweg. Der folgende Beitrag versteht sich als Erläuterung dieses Sachverhalts. Der Fokus liegt dabei auf Verteilnetzen (also nicht auf Übertragungsnetzen), da ein wesentlicher Teil der erneuerbaren Energiequellen an diese angeschlossen ist und somit Verteilnetze zu einem wichtigen operativen Baustein der Energiewende werden.

Haupttreiber und -ziele der Modernisierung

In Deutschland gibt es über 800 Stromnetzbetreiber mit insgesamt mehr als 500.000 Transformatoren und 1,7 Mio. km Leitungen. Beim weit überwiegenden Teil handelt es sich um Verteilnetze im Mittel- und Niederspannungsbereich. Von einigen regionalen Versorgern abgesehen, gehören die meisten dieser Verteilnetze den Stadtwerken und werden von deren Netzgesellschaften gemanagt. Seit der Liberalisierung des Energiesektors hat es auch in den Stadtwerken einen deutlichen Rationalisierungsschub gegeben. Dennoch stellen die heraufziehenden Anforderungen alle bisherigen in den Schatten. Es gibt fünf Haupttreiber für diese Entwicklung:

  • Demographischer und sozioökonomischer Wandel: Bevölkerungsrückgang und Arbeitsmarkt bedingte Migrationsbewegungen sowie Verlagerung oder Untergang von Industriekunden führen in einigen Regionen zu einer Bedarfsreduktion von mehr als 20% (siehe hierzu den Bericht von RWE zur Rhein-Ruhr-Region: Smart Grid Projekte, 25.02.2011)).
  • Altersstruktur der Geräte und Anlagen (Assets): In den 60er und 70er Jahren wurden die deutschen Stromnetze massiv ausgeweitet, d.h. der Assetbestand ist mit einem angenommen Durchschnittswert von 30 Jahren so alt, dass den meisten Verteilnetzbetreibern in den  nächsten 10 bis 15 Jahren massive Ersatzinvestitionen ins Haus stehen.
  • Einspeisung erneuerbarer Energien: Laut klimapolitischen Vorgaben soll sich der Anteil der Erneuerbaren Energien am Stromverbrauch bis 2020 auf mindestens 35% steigern, was gegenüber heute nahezu einer Verdoppelung entspricht.
  • Smart-Grid-Visionen: „Smart Grid“ ist ein schillernder Begriff, der unterschiedlichste Tatbestände umfassen kann. Allgemein formuliert zielt der Smart Grid-Ansatz darauf ab, Stromerzeugung und -Bedarf unter den Bedingungen fluktuierender, dezentraler Energieeinspeisung quantitativ und qualitativ besser aufeinander abzustimmen, als dies im bisherigen unidirektionalen Lastfolgebetrieb möglich ist.  Das Netz muss “smart” werden, weil nun Strom nicht mehr bloß von „oben“ nach „unten“ verteilt wird sondern aufgrund der lokalen Produktion auch in die Gegenrichtung, d.h. vom Niederspannungs- ins Mittel und Hochspannungsnetz fließen kann, wenn dort Nachfrage besteht. Außerdem soll die Last, d.h. die Stromnutzung, zu Zeitpunkten stattfinden, an denen die Stromverfügbarkeit besonders hoch ist. Automatisierter Lastabwurf und tarifliche Anreize, transparent gemacht durch Smart Meters, sind zwei Umsetzungsoptionen für diese Lastverschiebestrategie. Alle dieser Konzepte setzten die Implementierung eines geschlossenen Informationskreislaufes, eines “Closed Loop”, mit den beiden Endpunkten Erzeugung und Verbrauch voraus. Aus Produktsicht läßt sich das Smart Grid-Thema in die die Bereiche „Smart Metering“ und „Intelligente Verteilnetze“ segmentieren (siehe hierzu die kürzlich erschienene exzellente Studie von acatech, Future Energy Grid).  Außerdem gibt es auch noch Marktplatzkonzepte für die dynamische Bepreisung des von Haushalten erzeugten Stroms (siehe hierzu z.B. das E-Energy-Projekt des BMWi www.e-energy.de). Die anfängliche Euphorie um das Thema Intelligente Zähler (Smart Meter) ist in den letzten Jahren allerdings deutlich abgekühlt, weil empirische Tests gezeigt haben, dass der Stromverbrauch der Konsumenten in nur begrenztem Umfang in netzauslastungsarme Phasen verschoben werden kann, selbst wenn die Tarifstrukturen entsprechend angepasst würden (siehe hierzu auch den kürzlich veröffentlichten Zwischenbericht  des MoMa – Modellstadt-Mannheim-Projektes. Ein größerer Hebel bestände natürlich, wenn über gezielte Endgerätesteuerung aus dem Netz heraus, Lasten verschoben werden könnten. Aber dies setzt bereits ein intelligentes Verteilnetz voraus, was wieder zeigt, dass Smart Meter erst an späterer Stelle der Netzevolution voll zur Entfaltung kommen werden. Infolgedessen verschiebt sich derzeit die Aufmerksamkeit von den Endpunkten (Smart Meter) auf den infrastrukturellen Kern der Verteilnetze, aber dazu später mehr.
  • Wettbewerbsregulierung: Die seit 2009 wirksame Anreizregulierung (ARegV) ist ein weiterer wichtiger Treiber der Netzentwicklung. Allerdings liegt der Fokus hier auf dem Heben von Effizienzpotenzialen und weniger auf einer Grunderneuerung der Netztechnik.

Die Elektromobilität wurde bewusst nicht als Haupttreiber aufgelistet, weil in Deutschland bis 2020 der Effekt eher gering sein wird. Die von der Bundesregierung für 2020 geplanten 1 Mio Elektrofahrzeuge würden weder eine signifikante Belastung des Netzes darstellen noch als Elektrospeicher zu einer nennenswerten Entlastung führen. Das würde sich natürlich ändern, wenn bis 2030 die Elektroautos tatsächlich den Sprung zum Massenvehikel schafften.

Um zu verstehen, wie sich die genannten Entwicklungstreiber voraussichtlich auswirken werden, skizziere ich zunächst die Ist-Situation der Verteilnetze auf Basis eigener Erfahrungen aus dem Asset Management-Segment sowie vielen Hintergrundgesprächen mit anderen Marktteilnehmern. Aus der Gegenüberstellung von Soll und Ist wird ersichtlich, wie groß die Kluft zwischen Modernisierungsanforderungen und der aktuellen Ausgangssituation ist.

Netzstrukturen und Assets stammen aus einer Zeit, wo der Netzbetrieb unidirektional erfolgte und die Versorgungssicherheit das Hauptziel der Netzbetreiber war. Der Gesichtspunkt der Kostenoptimierung und intelligenten Netzsteuerung war demgegenüber eher tertiär als sekundär. Der Netzbetrieb wurde und wird vielerorts von den Verantwortlichen als primär technische Aufgabe verstanden. Betriebswirtschaftliches Denken im Allgemeinen sowie Kosteneffizienz im Netz- und Asset-Management im Besonderen erscheint in dieser Lesart als schlecht vereinbar mit der angestrebten Versorgungssicherheit und –zuverlässigkeit.

Die Optimierung der Netzauslastung und die Minimierung von Asset-Redundanzen sind vergleichsweise neue Anforderungen. Parallel zur Liberalisierung der Energiemärkte verschärfte sich der staatliche Druck auf Stromerzeuger und Netzbetreiber, kostenbewusster zu wirtschaften. So wurde z.B. der Ruf nach Zustands- und Risiko-basiertem Asset Management (Anlageninvestitionen und -instandhaltung) laut, noch bevor die Diskussion um die Energiewende einsetzte.

Allerdings sind bisher die meisten Netzbetreiber diesem Ruf eher zögerlich gefolgt, in vielen Fällen haben sie ihn auch so gut es ging ignoriert. Bis heute sind daher in den meisten Verteilnetzen Anlagenhistorie- und zustand sowie relevante Umgebungsparameter nur unzureichend dokumentiert. Budgetallokationen für Anlagenersatz und Instandhaltungsmaßnahmen wurzeln eher in individueller Erfahrung einzelner Asset Manager als in  Asset-Klassen übergreifenden vergleichenden Analysen. Und dass, obwohl Best Practices zu diesen analytischen Vorgehensweisen dokumentiert sind. Auch die Anreizregulierung hat diese Intransparenz nicht beseitigt, da sie ja nicht den Einsatz moderner betriebswirtschaftlicher Methoden vorschreibt, sondern Output-bezogen Produktivitätsverbesserungsziele vorgibt.

Konkrete Modernisierungsanforderungen

Während das häufig zitierte „Internet der Energie“, in dem „das Anbieten von Least-Cost oder Pre-paid-Strombezug, (…) oder eine weitgehend automatisierte Stromsparsteuerung von Hausgeräten unter Nutzung der bidirektionalen IKT-Gateways“ (Formulierung aus einer E-Energy Broschüre des BMWi) als mittel- bis langfristige Visionen aufgefasst werden kann, sind die sich aus der Energiewende ergebenden Anforderungen an die Netze sehr real und zeitlich auf dem kritischen Pfad. Durch sie wird eine Modernisierung von Netztechnologie- und Betrieb quasi erzwungen. Das „weiter-wie-bisher“ ist immer weniger haltbar. Die Netzbetreiber sind aufgefordert unter hohem Kostendruck ihre Netze für die Einspeisung erneuerbarer Energien zu befähigen. Hieraus resultierende Anforderungen sind insbesondere:

  • Netzstabilität bei fluktuierender Einspeisung: Je höher der Stromerzeugungsanteil der erneuerbaren Energien, desto stärker hängen Spannung, Stromstärke und Frequenz des Verteilnetzes vom Wetter ab. Wird auf die Wetterlage nicht oder zu spät reagiert, kann es zu versorgungsgefährdenen Spannungschwankungen und Überfrequenzen im Verteilnetz kommen. Detaillierte Wetterprognosen werden also wichtiger für einen reibungslosen Netzbetrieb. Allerdings sind diese Prognosen selten hinreichend zuverlässig. Spannungs- und Frequenzschwankungen müssen daher im Netz instantan gemessen werden,  um Abweichungen vom prognostizierten Zustand zu erfassen. Diese Informationen werden über eine Hierarchie von Netzleitstellen verarbeitet, angefangen von der Ortsnetz- bis hin zur Smart-Grid-Leitstelle, die über Spannungshierarchien hinweg das gesamte regionale Verteilnetz steuert. Dabei greift eine Art Subsidiaritätsprinzip: Was lokal identifiziert wird, soll auch lokal gelöst werden, bevor übergeordnete Leitstellen zum Zuge kommen. Ein Beispiel sind lokal auftretende Spannungsspitzen aufgrund hoher örtlicher Sonneneinstrahlung. Über Ortsnetzleitstellen kann dann entsprechend reagiert werden. Regelbare MS/NS-Ortsnetztransformatoren, Energiespeicher sowie Blindleistungskompensatoren können dann den notwendigen Spannungsausgleich herbeiführen. Außerdem soll bei Bedarf der Spannungseinspeiser von Netzleitstelle abgeschaltet werden können – idealerweise automatisiert auf Basis vorgegebener Parameter. Allerdings bergen Abschaltungen auch ein Problem, wie das Beispiel der Überfrequenzen (das sogenannte 50,2 Hertz-Problem) infolge vermehrter Einspeisungen zeigt: Würden nämlich bei Überschreitung des Frequenz- Schwellenwertes die einspeisenden Kleinanlagen schlagartig abgeschaltet, wäre die Netzstabilität ebenfalls gefährdet. Lösungsansätze für dieses Problem werden derzeit erarbeitet. Mit welchen komplexen Netzsteuerungsszenarien zu rechnen ist, illustriert sehr schön die kürzlich veröffentlichte Studie der VNB RMN und Hochschule Darmstadt. Dabei kann es z.B. zu simultanen Überlastsituationen auf verschiedenen Netzebenen kommen, was eine besonders hohe Anforderung für die Smart Grid-Steuerung bedeutet.
  • Verbesserte Nutzung der bestehenden Netzkapazitäten: Um Netzkapazitäten besser zu nutzen und somit den Aufwand für einen Netzumbau  bzw. -ausbau möglichst gering zu halten, ist es zwingend erforderlich, die Asset-Auslastung und -Belastung zu erfassen: Bei Transformatoren z.B. über die kontinuierliche Lastmessungen, um insbesondere Überlastzeiten zu identifizieren,  bei Kabeln z.B. mittels Temperatur-Monitoring. Ein vergleichsweiser radikaler Weg zur verbesserten Kapazitätsauslastung setzt an der Nachfrageseite an und wird daher „Demand Side Management“ genannt. Gemeint ist die Steuerung der Stromnachfrage durch Lastabwurf oder –verschiebung. Das geht natürlich nur unter wohl definierten Bedingungen und dürfte bis auf weiteres vor allem eine Option für Industriekunden sein, insbesondere wenn sie hierdurch signifikante Einsparungspotentiale realisieren können.
  • Kostenoptimiertes Asset Management bei gleichzeitig akzeptabler Versorgungszuverlässigkeit: Die bei den kontinuierlichen Netzmonitoring gewonnenen Informationen dienen zwar primär der unmittelbaren Netzsteuerung, sind aber auch extrem wertvoll für ein zustandsbasiertes Asset Management, weil hierdurch Leistungsabfälle oder Überbeanspruchungen zeitnah und Asset-spezifisch erkannt und dokumentiert werden. Die Effektivität von Instandhaltungsmaßnahmen dürfte sich hierdurch signifikant verbessern. Auch eine kontrollierte Ausdehnung des „normalen“ Lebenszyklus eines Assets wird hierdurch möglich.  Neben dem kontinuierlichen Monitoring können diese Nutzeneffekte auch durch punktuelle Untersuchungen befördert werden, wie z.B. die Überprüfung der Isolierflüssigkeiten von Transformatoren (beispielsweise via Gasanalyse) oder anderen Inspektionsmaßnahmen.

Auf einen Nenner gebracht, geht es bei den genannten Anforderungen darum, Lasttransparenz herzustellen und somit eine aktive Lastverteilung und die Kontrolle der Lastgenerierung zu ermöglichen. Dem ZVEI (Zentralverband Elektrotechnik und Elektronikindustrie) und BDEW (Bundesverband der Energie- und Wasserwirtschaft) zufolge können durch erhöhte Lastfluss- und Infrastrukturtransparenz und die dadurch ermöglichte aktive Lastverteilung die Auslastung des Verteilnetzes um 20 bis 25% erhöht werden.

Idealerweise könnten durch technologische Modernisierung Ausbaumaßnahmen vermieden werden. Aus betriebswirtschaftlicher Sicht handelt es sich hierbei um einen klassischen „Trade-off“ zwischen Investitionen in konventionellen Netzausbau inklusive Betriebskosten versus Investitionen in ein intelligenteres Netz mit umfangreichem Monitoring und einer IT-basierten, weitgehend automatisierten Steuerung. Diese Abwägungsentscheidungen müssen für jedes Netz spezifisch und im Detail vorgenommen werden. Wie viel Monitoring ein Netz tatsächlich benötigt, hängt unmittelbar vom Ausmaß der Einspeisebelastungen ab und der Frage, wie eng das Netz an der Kapazitätsgrenze gefahren werden soll.

Die Wirtschaftlichkeit dieser Investitionen ergibt sich aus der Differenz zwischen dem „Weiter-wie-Bisher“- und dem Modernisierungsszenario.. In der Realität scheitern derartige Vergleiche aber häufig bereits daran, dass nur eine eingeschränkte Transparenz der zukünftigen Ersatzinvestitionen und Instandhaltungskosten auf Basis des Status Quo besteht. Vielen Assetmanagern fehlt schlichtweg das Planungsinstrumentarium sowie das betriebswirtschaftliche Verständnis, um zukünftige Instandhaltungs- und Ersatzbedarfe abzuschätzen und monetär zu bewerten. Aber genau darauf kommt es angesichts des wachsenden Handlungsdrucks an. Auch die für die Auswertung von Massendaten (in der aktuellen IT-Debatte auch „Big Data“ genannt) befindet sich in einer vergleichsweisen frühen Entwicklungsphase. Das gleiche gilt für die Steuerungslogiken selbst.

Sieht man sich die aktuellen Fachbeiträge zu Smart Grids an, so gewinnt man den Eindruck, dass sich viele technischen Lösungen zur Zeit in einer recht frühen Phase ihrer Entwicklung befinden. Das zeigt sich z.B. auch am Automatisierungsgrad der Smart Grid-Leitstellen – hier reichen die Vorschläge von fast vollständig automatisiert auf Basis vorher festgelegter Regeln bis hin zu Assistenzsystemen, die einem hochspezialisierten Leitsystempersonal lediglich Handlungsvorschläge unterbreiten. Im Lichte dieser relativen Unbestimmtheit ist die Initiative der EU Kommission und einiger großer Energiekozerne zu begrüßen, im Rahmen des grid4Eu-Projektes „Showcases“ zu schaffen, in denen unterschiedliche Technologien unter realen Bedingungen implementiert werden. Die Erfahrungen hieraus dürften die oben aufgezeigten Unsicherheiten zumindest verringern.

In der öffentlichen Smart-Grid-Debatte wird freilich selten Tacheles über die Betreiber-internen Umsetzungsbedingungen für die Netzmodernisierung geredet. Statt dessen echauffiert sich die Branche lieber über die modernisierungshemmenden Effekte des bestehenden Anreizregulierungsregimes.  In der Tat hebt die Regulierung stärker auf Kosteneinsparungen als auf Innovationen ab, obwohl auch dieser Befund relativiert werden muss, weil über die Eigenkapitalverzinsung ein gegenläufiger Mechanismus implementiert ist. Allerdings müssen Investitionen auch erst einmal finanziert werden, was parallel zu Kostensenkungen sowie einem hohen Anteil kurzfristig nicht zu beeinflussender, prädeterminierter OPEX (gemeint sind hier v.a. Abschreibungen) problematisch ist. Hinzu kommen Mechanismen wie Fotojahre bzw. Blindspots, die eine zeitliche Konzentration der Investitionen fördern, unabhängig von den tatsächlichen Erfordernissen.

Die Finanzierung durch private Investoren gewinnt daher als Option an Bedeutung. Ein besonders kritischer Punkt bei der anstehenden Netzmodernisierung ist der Bau von Speichern, um fluktuierende Stromgenerierung via erneuerbarer Energien zu kompensieren. Auch der Bau privat finanzierter Kraftwerke ist ein Thema, da spätestens ab 2018 vielerorts mit Kapazitätsengpässen gerechnet wird.  Angesichts der diffusen Planungssituation verwundert es allerdings nicht, dass sich die Privatwirtschaft hier zur Zeit noch abwartend verhält.

Fazit

Angesichts der dargestellten Herausforderungen ergibt sich ein akuter Handlungsbedarf für Verteilnetzbetreiber:

  • Betreiber von Verteilnetzen müssen mit Blick auf die politisch gewollte dezentrale Energieeinspeisung ihre Netze mit automatisierter Intelligenz aufrüsten. Das bedeutet konkret die Einführung eines umfangreichen Echtzeit-Netzmonitorings in Verbindung mit Daten-getriebenen Steuerungstechniken.
  • Der erste Schritt auf diesem Weg ist die Ermittlung des netzspezifischen Modernisierungsbedarfs.  Die Netzbetreiber müssen daher zunächst die regionale Last- und Einspeiseentwicklung prognostizieren. Aufgrund der Planungsunwägbarkeiten bietet sich bereits hier ein Szenarioansatz an. Für die wahrscheinlichsten Lastszenarien sind dann technische Lösungs- und Investitionsoptionen zu ermitteln und im Lichte der Budgetrestriktionen via Simulation zu bewerten. Ein Teil der Netzbetreiber – vor allem die Größeren -, haben diese Übung bereits erledigt oder planen dies in Kürze zu tun. Aber auch kleine und mittelgroße Stadtwerke kommen um diesen ersten Planungsschritt nicht herum.
  • Voraussetzung für diesen Prozess ist das Vorhandensein technisch-betriebswirtschaftlicher Planungskompetenz sowie entsprechender Software-Werkzeuge. Komplexe Szenarien und Simulationen lassen sich nun mal nicht mit Bordmitteln wie Excel sinnvoll bewältigen.  Darüber hinaus bedarf es einer unternehmerischen Einstellung (Stichworte: Entscheidungen unter Unsicherheit, Offenheit für Innovationen) nicht nur beim Management der Netzbetreiber, sondern auch bei den ausführenden Ingenieuren und Asset Managern. Anstatt tausend Gründe dafür zu finden, warum etwas nicht funktionieren kann, sollten die Mitarbeiter konstruktiv an der Lösungsfindung mitwirken.
  • Die Beseitigung dieser mentalen Barrieren ist umso wichtiger, als die Smart-Grid-Technologie sich als solche noch mitten in der Entwicklung befindet. Es handelt sich also nicht um das Ausrollen einer hundertfach erprobten Technologie, sondern um Systeme, die noch in den Kinderschuhen stecken und deren erfolgreiche Einführung auch vom „guten Willen“ der Projektbeteiligten innerhalb der Netzbetreibergesellschaften abhängen.

Angesichts dieser Ausgangssituation könnte es sehr wohl sein, dass die Netzmodernisierung länger dauern wird als bisher angenommen. Das wiederum bedeutet, dass die eingangs erwähnten 2020-Ziele zum Stromanteil erneuerbarer Energien noch einmal auf Machbarkeit überprüft werden sollten bzw. die Umsetzungshürden aggressiver angegangen werden müssen.

Das Thema Ressourceneffizienz hat zur Zeit auf der politischen Bühne Konjunktur. Am 29. Februar 2012 verabschiedete der Bundestag gegen die Stimmen der Opposition das von der Bundesregierung vorgeschlagene Ressourceneffizienzprogramm (kurz „ProgRess“).  Das Programm fokussiert auf nicht-fossile abiotische Rohstoffe (Erze, Bau- und Industriemineralien) sowie auf die stoffliche Nutzung biotischer Rohstoffe. Es strebt eine „weitgehende Entkopplung des Wirtschaftswachstums vom Ressourceneinsatz sowie die Senkung der damit verbundenen Umweltbelastungen, die Stärkung der Zukunfts- und Wettbewerbsfähigkeit der deutschen Wirtschaft und dadurch die Förderung von stabiler Beschäftigung und sozialem Zusammenhalt an“ (S. 24 der Beschlussvorlage). „Globale Verantwortung“ und reduzierte „Inanspruchnahme von Ressourcen“ sind weitere Elemente der allgemeinen Zielsetzung.

Der mit der Historie dieses Entwurfs nicht Vertraute mag fragen, ob Ressourceneffizienz nicht ein primär betriebswirtschaftliches Thema, zumindest in einer marktwirtschaftlichen Ordnung: Ist es nicht Kernaufgabe der Unternehmen, ihren Ressourceneinsatz zu optimieren? Regeln nicht Märkte die Ressourcennutzung? Werden Ressourcen knapp, steigt der Preis und Unternehmen setzen weniger teure Substitute ein. Welche Legitimation hat der Staat hier einzugreifen?

Der Gesetzentwurf beantwortet diese Legitimationsfrage nicht direkt. Standardargumente der Umweltpolitik wie  „Marktineffizienzen“ infolge Nicht-Einpreisens öffentlicher Güter und Umweltschäden oder primär kurzfristig ausgerichteten unternehmerischen Handelns sucht man vergeblich.

Statt dessen werden fünf  übergeordnete Handlungsansätze benannt:

  1. Nachhaltige Rohstoffversorgung sichern
  2. Ressourceneffizienz in der Produktion steigern
  3. Konsum ressourceneffizienter gestalten
  4. Ressourceneffiziente Kreislaufwirtschaft ausbauen
  5. Übergreifende Instrumente nutzen (z.B. Ressourcenverbrauch fördernde Subventionen, Verbesserung der Wissensbasis, Beratung etc.)

Die unmittelbar wirtschaftlich relevanten Themen werden als erste genannt. Diese Reihenfolge ist wohl kaum zufällig gewählt. Drohende Ressourcenengpässe (z.B. bei Seltenen Erden) sind in der Tat für Teile der Industrie eine reale Bedrohung. Aus industrieller Sicht ist hier staatliche Unterstützung durchaus willkommen, solange die Teilnahme der Unternehmen auf Freiwilligkeit beruht. Das gilt auch für Ressourcen-Effizienz-bezogene Förderprogramme im Bereich der betriebswirtschaftlichen Beratung und Prozessoptimierung.

Es ist natürlich nicht allzu schwer, diese Art von Politikgestaltung als „zahnlosen Tiger“ und „Politiksimulation“ zu desavouieren, wie in der Gesetzesdebatte im Bundestag geschehen. Die Kritiker fordern konkretere Maßnahmen und ein stärker steuerndes Eingreifen jenseits des Freiwilligkeitsprinzips.  Die Instrumente sind ja prinzipiell bekannt und häufig auch erfolgreich erprobt (Stichwort Ökosteuern, Technologie- und Nutzungsbezogene Subventionen, Normierung etc.). Die Befürworter stärkerer regulatorisches Eingriffe müssen sich allerdings die kritische Frage gefallen lassen, ob die aktuelle Wissensbasis über die komplexen Zielkonflikte und Wechselwirkungen im Bereich der Ressourcennutzung für detaillierte Steuerungsmaßnahmen überhaupt ausreichen.

Kritik an ProgRess lässt sich auch aus dem Lager der Industrie vernehmen. Man mag dem BDI dabei interessenpolitische Voreingenommenheit und ökologische Lippenbekenntnisse vorwerfen. Zum Teil leistet er dieser Lesart selbst Vorschub mit grotesken Verallgemeinerungen wie z.B. der Behauptung, dass Ressourcenabbaustätten häufig Hot Spots der Biodiversität seien („der Uhu z.B. nistet vorzugsweise in Steinbrüchen“). Gleichwohl muss man dem  BDI zugestehen, in seiner Replik auf den ProgRess-Entwurf im Mai 2011 auf einen wesentlichen Problemzusammenhang hingewiesen zu haben:

Grundsätzliche Zielkonflikte in der Umwelt- Ressourcen- und Klimapolitik werden in ProgRess ausgeblendet. So machen zum Beispiel die ehrgeizigen Ziele der Bundesregierung im Klimaschutz den vermehrten Einsatz von Baumaterialien bei der dafür unverzichtbaren energetischen Sanierung von Gebäuden notwendig. Auch am Beispiel E-Mobilität wird der Zielkonflikt zwischen energetischer und stofflicher Ressourcenschonung sehr deutlich: Die klimapolitische Priorität der Reduzierung der Nutzung fossiler Energien wird erreicht durch eine veränderte Nutzung stofflicher Ressourcen (je nach spezifischer Ressource stärkere oder schwächere Nutzung). Daraus folgt, dass eine isolierte Betrachtung den Zusammenhängen nicht gerecht wird und die Beschränkung des Ressourcenbegriffs auf abiotische und nichtenergetische Rohstoffe die Definition und Erarbeitung von übergeordneten widerspruchsfreien Zielen und Lösungen erschwert. (Punkt 4, S. 2).

Für den Konflikt zwischen Klima- und Ressourcenzielen führt der BDI als Beispiel an, Zellstoff würde als Biomasse zunehmend direkt der thermischen Nutzung zugeführt, obwohl doch eine vorherige stoffliche Nutzung sinnvoller wäre (Punkt 25, Kommentar zu Handlungsansatz 11, S. 9)

Nun ist es natürlich nicht so, dass BMU, UBU und Wuppertal Institut als wesentliche Treiber des Ressourceneffizienzansatzes diese Zielkonflikte nicht kennten oder ignoriert hätten. Zum  Zusammenhang zwischen stofflicher und energetischer Ressourcennutzung – z.B. sequenziell in Form der Kaskadennutzung – hat das Wuppertal Institut selbst Forschungen angestoßen und veröffentlicht.

Allerdings beruht die Herausforderung in der Tat darin, unterschiedliche Bewertungsperspektiven in einer ganzheitlichen Sicht zusammenzufügen, insbesondere die Rohstoffverfügbarkeit mit der ökologischen Schadensverursachung, wobei bei letztere möglichst viele Schadensaspekten (Treibhausgase, Ozon, Toxische Wirkungen etc.) zu berücksichtigen sind.

Die Berechnung der Ressourceneffizienz im engeren Sinne beruht auf der übergreifenden MIPS-Methode (Material-Input pro Serviceeinheit).  Die Ressourceneffizienz eines Gebäudes z.B. wird danach nicht nur am Energieverbrauch während der Nutzung errechnet, sondern schließt den Bau, einschließlich dem Abbau der hierfür erforderlichen Rohstoffe, sowie den Rückbau am Lebenszyklusende mit ein. Der Fokus dieser Methode liegt somit auf der Minimierung der eingesetzten Stoffmenge. Es soll möglichst wenig Natur verbraucht werden.

Betrachtet man zusätzlich auch die Emissionswirkungen bei der Stoffgewinnung, verarbeitung und –entsorgung so komplettiert sich das Bild. Wichtig ist dabei, dass die Mengenbetrachtung nicht per se die ökologische Wirkung impliziert. So kann es z.B. vorkommen, dass ein Verfahren mehr Material verbraucht, aber dafür weniger schädlich für Klima und Umwelt ist.

Eine derartige umfassende Perspektive ist zur Zeit aber noch die Ausnahme. Weit verbreitet sind dagegen Stoffvergleiche auf Basis des CO2 Ausstoßes („Carbon Footprint“) entlang des Lebenszylus der Anwendung. In Fahrzeugen genutztes Aluminium beispielsweise generiert während der Herstellung einen um Faktor vier bis fünf höheren CO2 Ausstoß als für die gleiche Masse Stahl. Da aber Aluminium deutlich leichter ist, kann bei mehr als 150.000 gefahrenen KM der anfängliche CO2 Nachteil kompensiert und in einen Minderverbrauch verwandelt werden (das Beispiel ist aus dem Vortrag von Dr. Marko Gernuks, Ressourceneffizienz – was wollen wir damit eigentlich erreichen? 3. November 2010).

Für viele Produkte greift allerdings eine nur Emissions-bezogene LCA (Life Cycle Analysis)-Betrachtung zu kurz. Dies lässt sich z.B. an der aktuellen Diskussion über die ökologische Verträglichkeit des iPads illustrieren: Die hierzu veröffentlichten Vergleiche fokussieren auf den „Carbon Footprint“, ohne dabei die aus dem Abbau des Ressourcenbestandes folgenden ökologischen und ökonomischen Probleme zu thematisieren.

Es geht eben nicht nur darum, wie CO2-verträglich die Herstellung von Papier ist, sondern wie sich die Papiererzeugung auf das Abholzen von Wäldern auswirkt und ob diese „Entnahme“ aus der Natur über Aufforstung schnell genug kompensiert werden kann, insbesondere in einem Kontext, wo sich zur Verwertung von Biomasse die Waldrodung beschleunigt.

Das gleiche gilt natürlich für die im iPAD genutzten seltenen Erden und Metalle, die ebenfalls zur Engpassbildung bei diesen Rohstoffgruppen beitragen.  Mit anderen Worten: Die zukünftige Rohstoffverfügbarkeit und die ökologisch- und ökonomischen Folgen der Nicht-Verfügbarkeit sind grob abzuschätzen und damit in die Vergleiche miteinzubeziehen.

Derartig ganzheitliche, diverse Wechselwirkungen betrachtende Wirkungsanalysen sind allerdings aus drei Gründen komplex:

  • Erstens benötigt man empirische Daten über den gesamten Lebenszyklus, idealerweise aus einer spezifischen Produktperspektive, da diese ja wirtschaftliche Entscheidungen in der Regel bestimmt
  • Zweitens bedarf es einer vergleichenden Perspektive, d.h. auch die Alternativen des jeweiligen Stoffeinsatzes in einem Produkt sind bezüglich ihrer Ressourceneffizienz und ökologischen Wirkungen zu untersuchen.
  • Drittens sind vielfältige wirtschaftliche und ökologische Rückkoppelungseffekte zu berücksichtigen

Für die Berechnung komplexer ökologischer Rückkoppelungs- bzw. Wirkungsketten bedarf es leistungsfähiger Software-Werkzeuge. Das hat z.B. auch das VW Forschungsteam erkannt, das im Rahmen seiner  im Herbst 2011 erschienenen, vom BMU geförderten Potenzialanalyse für Lithium und Kobalt ein System Dynamics-Tool eingesetzt hat. Die Autoren der Studie führen drei wesentliche Vorteile der Systems Dynamics-Methodik gegenüber herkömmlichen Stoffstrommodellierungen an:

  • Zukünftige Systemzustände, insbesondere „Verzögerungseffekte“ können gut simuliert werden
  • Die Einflussgrößen des System werden nicht unabhängig voneinander betrachtet, sondern in ihrer kausalen Wechselwirkung, so dass auch „verstärkende Rückkoppelungseffekte in die Analyse miteinbezogen werden“ (ebd, S. 6)
  • Die Auswirkungen von Einzelentscheidungen werden über mehrere Stufen hinweg sichtbar

Natürlich lässt sich auch mit einer solchen Methodik die Zukunft nicht sicher vorhersagen. Allerdings wird der Einfluss spezifischer Annahmen auf die Auswirkungen und Verfügbarkeiten von Primär und Sekundärrohstoffen (Recycling) deutlicher, so dass das systemische Gesamtverständnis wächst. Und das wiederum ist eine wichtige Voraussetzung, um die Qualität von Entscheidungen zu verbessern, die unter Unsicherheit in der Gegenwart getroffen werden (wobei Nicht-Eingreifen übrigens auch eine implizite Entscheidung ist, für die sich die politisch Verantwortlichen gegenüber nachfolgenden Generationen zu rechtfertigen haben).

Auch die Auswirkungen staatlicher Regulationen lassen sich in Form von alternativen Szenarien simulieren. Damit schafft man das Risiko nicht-intendierter Konsequenzen staatlicher Eingriffe nicht ab, kann es aber idealerweise besser abschätzen.

Dass das Thema „Nicht-intendierte Konsequenzen“ wichtiger wird, zeigen auch jüngere Veröffentlichungen zum „Rebound-Effekt“. Darunter versteht man, dass Effizienzgewinne häufig dazu führen, Produkte erschwinglicher bzw. attraktiver zu machen, was wiederum nachfragesteigernd und im Ergebnis zu einem Ressourcenmehrverbrauch führt. Ein klassisches Beispiel hierfür liefert die Automobilindustrie: Der steigende Wirkungsgrad der Motoren führt zu einem Anstieg der Leistung und im Zusammenspiel mit weiteren Innovationen und Rahmenbedingungen zu Preissenkungen. Im Ergebnis führt dies zu einer wachsenden Gesamtnachfrage  und nicht zu sparsameren Verbrauch. Noch komplexer wird es bei übergreifenden Effekten, d.h. Einsparungen aufgrund von Effizienzverbesserungen bei einem Produkt können zu Mehrausgaben und damit zu erhöhten Ressourcenverbrauch bei anderen Produkten führen. Im Ergebnis ist daher davon auszugehen, dass sich Ressourceneffizienz systemisch nur mit einem signifikanten Abschlag positiv auswirken. Damit soll nicht den Kritikern das Wort geredet, sondern verdeutlicht werden, dass auch solche zunächst kontraintuitiven Rückkoppelungen bei Wirkungsschätzungen grob zu berücksichtigen sind.

Fazit:

Angesichts der dargestellten methodisch-analytischen Herausforderungen ist es erfreulich, dass ProgRess in seinem Punkt 5 ausdrücklich die „Erweiterung der Wissensbasis“ einfordert. Die Frage, wie sich dieses Wissen sinnvoll generieren lässt, liegt auf dem kritischen Pfad einer erfolgreichen Implementierung des beschlossenen Ressourceneffizienzprogramms.

Sicher, über die Zielpriorisierung werden sich ökonomische und ökologische Interessenvertreter auch bei einer stark verbesserten Wissensbasis nicht ohne weiteres einigen können. Das heißt aber nicht, dass Zielkonflikte unter den Teppich gekehrt werden sollten, um sich dann auf den kleinsten gemeinsamen inhaltlichen Nenner zu einigen. Dieser Nenner könnte in der Tat zu klein sein, um Weichenstellungen bei der Ressourceneffizienz herbeizuführen. Vielmehr sollten die ökologisch-ökonomischen sowie Ökologie-internen Zielkonflikte explizit gemacht werden. Nur so lassen sie sich analysieren und die Ergebnisse anschließend produktiv diskutieren.

Das gilt ebenso für Regulierungsvorschläge. Werden deren Auswirkungen systematisch abgeschätzt bzw. über problemadäquate Szenarien-Simulation besser verstanden, so besteht begründete Hoffnung, dass sich die Debatte zwischen privatwirtschaftlichen und ökologischen Interessenvertretern zunehmend versachlicht und an inhaltlicher Tiefe gewinnt.