Wer dieser Tage „Big Data“ als Suchwort bei  amazon.de eingibt, wird an erster Stelle auf das im Titel genannte Werk von Viktor Mayer-Schonberger und Kenneth Cukier verwiesen. Für gewöhnlich stehe ich Management-Literatur skeptisch gegenüber, aber als ich den „Pressestimmen“ zum Buch entnahm, dass auch Clay Shirky, ein geistvoller Social-Media-Theoretiker, sich in höchsten Tönen über dieses Buch geäußert hat, gab ich der one-Click-Buy-Versuchung nach.

Um es vorwegzunehmen. Das Buch wird den Lobeshymnen nur teilweise gerecht. Allerdings sind gerade seine Schwachpunkte sehr lehrreich.

Fangen wir mit den positiven Aspekten an: Mayer-Schonberger/Cukier  schlagen einen weiten Bogen – von der  Sozialhistorie des Messen und Quantifizierens und kausaler Denkmodelle bis hin zu neueren Erkenntnisse führender Behavorial Economists bzw. empirischen Psychologen (wie z.B. Kahnemann). Diese intellektuellen Ausflüge sind nicht Selbstzweck, sondern verorten das Thema in einem breiteren, die reine BWL-Perspektive erfreulicherweise überschreitenden Kontext.

Erfreulich ist zudem, dass sich die Autoren um eine grundlegende Beschreibung des Big Data- Phänomens bemühen. Danach zeichnet sich Big Data durch folgende Merkmale bzw. Eigenschaften aus (ich zitiere hier einige Kernsätze aus dem englischen Original):

  • „Big data refers to things one can do ta large scale that cannot be done a a smaller one, to extract new insights or create new forms of value, in ways that change markets, organizations, the relationship between citizens and governments, and more.“ (S. 6)
  • „Big data gives us an expecially clear view of the granular: subcategories and submarkets that samples can’t access.“(S. 13)
  • „Processing big data entails an inevitable loss of information“ (S. 45)
  • What we lose in accuracy at the micro level we gain in insight at the macro level.“ (S. 13)
  • „Big data is about what, not why“ (S. 14)
  • „Causality won’t be discarded, but it is being knocked off its pedestal as the primary fountain of meaning (S. 68)
  • „In place of the hypothesis-driven approach, we can use a data driven one“ (55)
  • „At its core, big data is about predictions“ (S. 11)

Bis auf den letzten Punkt, zu dem ich eine abweichende Auffassung vertrete (dazu später mehr), beschreiben diese pointierten Sätze wesentliche Kennzeichen des Big Data-Ansatzes. In der Tat geht die Verarbeitung operativer Massendaten in Echtzeit mit einer Reduzierung von Genauigkeit und Kontrolle einher. Anders als bei relationalen Datenbanken werden die Daten nicht auf die x-te Ebene normalisiert, um dann auf unterschiedlichste Weise miteinander in Beziehung  gesetzt werden zu können. Vielmehr werden Daten unterschiedlichster Provenienz in verteilten Dateisystemen (z.B. Hadoop-Cluster) geladen, um umfassendes Monitoring und Analysen zugänglich gemacht zu werden. Mit Hilfe von Key Value-Stores, die einfache korrelative Beziehungen abbilden, gelingt es, die erforderliche Geschwindigkeit bei der Analyse zu gewährleisten. Dabei geht – wie die Autoren richtigerweise betonen – nicht um Kausalanalyse, sondern um das Erfassen korrelativer Beziehungen und deren Veränderungen im Zeitverlauf.

Die Aussage der Autoren, dass Big Data ein Hypothesen-freier Ansatz sei, ist insofern korrekt, als die Integration unterschiedlichster Datenquellen weitgehend unabhängig von konkreten Annahmen zu Wirkungs-zusammenhängen erfolgt.  Leider versäumen es die Autoren darauf hinzuweisen, dass hypothesenfreie Mustererkennung keine Big Data-Innovation ist,  sondern bereits seit mehr als 20 Jahren unter der Bezeichnung „Data Mining“ praktiziert wird.  Die eigentliche Innovation von Big Data besteht darin, Analysen nicht mehr auf Stichproben, sondern auf der Grundgesamtheit durchzuführen („n=all“). Das macht vor allem dann einen qualitativen Unterschied, wenn es sich um selten auftretende Muster, Nischenregeln bzw. „Outlier“ handelt, wie es Mayer-Schonberger/Cukier  nennen. Die Autoren versäumen es allerdings darauf hinzuweisen, dass es in allen anderen Fällen hinreichend ist, Muster auf Sample-Ebene zu detektieren und die ihnen zugrunde liegenden Regeln auf die Grundgesamtheit automatisiert anzuwenden.

Aber auch letzteres  ist nur ein Anwendungsfall von Big Data. Es lassich auch jenseits von automatisierter Regelerkennung Vorgänge explorieren. Bei komplexem Cybecrime z.B. bewegen sich die Täter oft jenseits bekannter Muster und so sehr an den Rändern der Datenbeobachtung, dass klassisches Data Mining zu kurz greift. Wie sich derartige Probleme bewältigen lassen, zeigt das US-Unternehmen Palantir mit seiner mächtigen Datenintegrationsplattfrom, auf der indivuell auffällige Vorgänge entlang unterschiedlichster Datenspuren individuell zurückverfolgt werden – eine gleichsam detektivische Vorgehensweise, um die Nadel im Heuhaufen zu finden. Dabei werden nicht selten eigens für die individuelle Exploration neue Datenquellen angeschlossen werden, um den „Drill-Down“ fortsetzen zu können.

Der mit Abstand wichtigste Use Case ist meines Erachtens das umfassende Monitoring von Abweichungen von Normwerten. Dazu geben Mayer-Schonberger/Cukier selbst eine Vielzahl von Beispielen. So lassen sich Werte aus operativen Anlangen zeitnah auswerten, so dass Irregularitäten und Verschleißerscheinungen früh sichtbar werden. In der Medizin gibt es analoge Beispiele, wo kontinuierliche Messungen und automatisierte Auswertungen zu effektiverer Behandlung führen.

Gerade weil kontinuierlich gemessen und analysiert werden kann, werden Prognosen tendenziell durch Wissen über Zustandsveränderungen ersetzt. Es ist daher zumindest irreführend, wenn Mayer-Schonberger/Cukier davon sprechen, dass es bei „Big Data“ im Kern um Predictions gehe. Es ist klar, was sie meinen: Je mehr ich beobachte und auswerte, desto besser kann ich Trends erkennen und Zustandsveränderungen vorhersagen. Aber sie unterschlagen dabei einen zentralen Strukturwandel: Vor dem Big Data-Zeitalter musste man von relativ kleinen Samples Schlüsse auf die Grundgesamtheit ziehen. Die Unsicherheit dieser „Old-School“-Predictions entfällt dank Big Data. Die Big Data-Vorhersagen sind viel weniger Risiko-behaftet und methodisch „sauberer“, weil das Problem der Repräsentativität von Strichproben nicht mehr besteht. Big Data räumt mit dem dem Problem der schiefen Verteilungen auf.

Möglicherweise haben die Autoren angenommen, derartige Differenzierungen würden eine breitere Leserschaft überfordern. M.E. ist dieser Aspekt zu wesentlich, um ihn unter den Tisch fallen zu lassen. Aber hier zeigt sich wieder einmal, wie schwer es ist, einen Beststeller zu schreiben UND das Fachpublikum zufrieden zu stellen.

 

Wie immer, wenn man strukturelle Herausforderungen und Hürden beschreibt – wie im letzten Beitrage dieser kleinen Serie geschehen – ist es nur eine Frage der Zeit, bis die Frage „So What“ laut wird. Und die ist ja meistens auch berechtigt, weil sie zu konkreten Schlussfolgerungen zwingt. Im Folgenden seien einige genannt.

  • Generelle Maxime: Weniger Wining & Dining, mehr Analytik: Die Zeiten, als Deals in der Medienwelt bei einer Flasche Wein und einer guten Zigarre in einem Szenelokal zustande kamen, sind noch gar nicht so lange vorbei. Und warum auch nicht, Dining & Wining ist doch eine schöne Sache. Sie darf nur nicht zu Lasten der analytischen Schärfe gehen. Der eine oder andere mag an dieser Stelle einwenden, dass ich in diesem Artikel selbst auf die großen methodischen Unsicherheiten im Marketing hingewiesen habe. Ist denn angesichts dieser Unschärfe analytisches und quantifizierendes Denken tatsächlich so wichtig? Gilt nicht Nassim Talebs provokative Maxime, derzufolge es besser ist, keinen Stadtplan zu benutzen als einen falschen? So sehr ich Talebs Sicht der Dinge im allgemeinen schätze, lautet meine Antwort hier „nein“, weil es davon abhängt, wie falsch ein Plan ist. Ein Plan mit – sagen wir – einer Unschärfe von 20% bringt mich im Einzelfall vielleicht nicht ganz zum Ziel, aber zumindest weiss ich in der Mehrzahl der Fälle, in welche Richtung ich mich bewegen muss.
  • Bestandsaufnahme Marke: Große B2C-Markenunternehmen wissen um die Bedeutung des Themas Marke für ihren Unternehmenserfolg. Im B2B-Sektor ist das schon weit weniger der Fall und bei Mittelständlern ist das Thema Marke selten adäquat positioniert. In diesen Fällen ist Basisarbeit zu leisten, d.h. zunächst ist nachzuweisen, welche Relevanz die Marke für den Unternehmenserfolg hat in dem jeweiligen Marktsegment hat. Darauf aufbauend lässt sich dann der Anteil der Marke am Unternehmenswert bestimmen (je nach Branche und Ausrichtung bewegen sich hier die Werte zwischen 20% und 50%). Wenn also geklärt ist, wie wichtig Marke für das jeweilige Unternehmen ist, steht die Ist-Analyse an: Markenbekanntheit und -image je Kundensegment sind zu ermitteln und dem Markenkern sowie der Markenpersönlichkeit, falls diese denn definiert ist, gegenüberzustellen. Die sich anschließende Gap-Analyse bildet dann zusammen mit einer Wettbewerbsanalyse den Ausgangspunkt für eine Markenstrategie. Bei der operativen Umsetzung dieser Vorgehensweise gibt es eine Reihe von Erfolgfaktoren: Obwohl sich nahezu jede Werbeagentur auf die Fahne schreibt, dass sie auch „Marke kann“, ist dem in der Realität leider häufig nicht so. Es empfiehlt sich, spezialisierte Markenagenturen hinzuziehen, die dann gemeinsam mit Top-Management und Strategieabteilung sich an die Arbeit machen und eine neue Markenstrategie entwickeln. Dies hat weniger mit Kreativität als mit Handwerk zu tun, obwohl es natürlich auch hier durchaus eine kreative Komponente gibt.
  • Bestandsaufnahme Kundendaten: In den letzten Jahren hat sich bezüglich der Markenkommunikation die Dreiteilung „owned“, „earned“ und „paid Media“ konzeptionell durchgesetzt. „Earned“ bezieht sich dabei auf Virale Effekte in Social Media, „Paid“ primär auf Search Engine Marketing und „owned“ meint die vom Unternehmen selbst betriebenen Customer Touch Points. Um letztere geht es vor allem beim Thema Kundendaten. Wie bei der Problemdarstellung bereits erläutert, schöpfen viele Unternehmen den Kundendatenschatz ihres eigenen Unternehmens nicht hinreichend aus. Es bietet sich daher an, in einem Kundendatenaudit alle relevanten Datenquellen zu erfassen, auf ihre Relevanz hin zu untersuchen und die Implementierungsaufwendungen für eine Datenintegration zu bestimmen.
  • Bestandsaufnahme Customer Journey: Eine Analyse des Kaufentscheidungs-trichters ist ein sinnvoller Startpunkt zur Vermessung des Ist-Zustandes. Allerdings gestaltet sich dieser Schritt schon nicht ganz so einfach wie im McKinsey-Buch „Mega-Macht Marke“ noch vor einigen Jahren beschrieben. Bekanntheit – Erwägung – Kauf – Wiederholungskauf reichen bei weitem nicht mehr aus. Es sind zunächst die wesentlichen Customer Touch Points zu erfassen und dann die Hauptkonsumenten-/kundenpfade zu identifizieren (die US-McKinsey-Truppe um David Edelman scheint hier konzeptionell weiter zu sein als ihre deutschen Kollegen). Es gibt in Deutschland mittlerweile eine Reihe von Dienstleistern, die sich dieser Aufgabe verschrieben haben, wie z.B. IntelliAd oder AdClear. Auch Tracking-Anbieter wie Webtrekk, Econda oder Webtracker beschäftigen sich mit diesem Thema. Noch liegt das Hauptaugenmerk auf die Online-Journey, aber bereits heute gibt es erste cross-channel-Analysen aus statistischer Heuristiken (Zeitliche Abfolge Offline-Online-Werbung) und Identifizierungscodes bzw. Telefonnummern. Die Szene ist noch längst nicht so weit, das „Last-Cookie-Wins“-Prinzip aus den Angeln zu heben, etwa durch einen allgemein anerkannten Attributionsstandard für frühere Werbekontakte im Funnel. Aus Sicht des Hersteller- und/oder Retail-Unternehmen ist es aber erst einmal wichtig überhaupt zu verstehen, auf welchen Pfaden, d.h. über welche Touchpoint-Abfolge ihre Kunden den Weg zu ihnen finden. Wenn sich herausstellt, dass gewisse Content-Touchpoints zentral für Zielkundensegmente sind, lassen sich hieraus relevante Marketingmaßnahmen ableiten. Die Frage nach der Sinnhaftigkeit der aktuellen Budgetallokation schließt sich hieran unmittelbar an: Wird vielleicht zu viel in TV und zu wenig in spezifische Retail-Partner investiert? Oder sollte man doch noch mehr für Bekanntheit tun, aber dann lieber via online-Display, und zwar besser an dieser als auf jener Webseite? Damit wären wir beim Thema Marketingspend.
  • Bestandsaufnahme Marketing Spend: Was zunächst trivial klingt, ist es nicht. Die meisten Großunternehmen haben eine Vielzahl von Budget-Töpfen mit unterschiedlichen Verantwortlichkeiten und Schnittstellen zu IT-Systemen. Verkaufsfördernde Werbung wird häufig aus dem Vertriebsbudget finanziert, während Marken- bzw. Imagewerbung sich aus dem Marketing-Budget speist. Hinzu kommen Budgets für PR und Events, die ggf. von einer weiten Organisationseinheit verwaltet werden. Das Einsammeln und Konsolidieren dieser Daten ist soweit es geht zu automatisieren und in einem übergreifenden Reporting zusammenzufassen. Es sollte dabei transparent werden, an welcher Stelle der Customer Journey wie viele Mittel investiert werden und wie dies mit den separat ermittelten tatsächlichen Customer Journey-Muster übereinstimmen. Die Gap-Analyse bringt dann Aufschluss, über Handlungsbedarfe und ihre Dringlichkeit.
  • Dynamische Marketing-Budgetplanung: Die Bestandsaufnahme des Marketingspends ist die Voraussetzung für eine systematische Budgetplanung. Mehr-Marken-Unternehmen stehen vor der Herausforderung, begrenzte Mittel möglichst effektiv auf einzelne Produktmarken zu verteilen – es handelt sich um ein Portfolio-Optimierungsproblem. Dabei sind fünf Faktoren zu berücksichtigen:
    • Die einzelnen Produkte befinden sich in unterschiedlichen Phasen ihres Lebenszyklus. Junge Produktmarken müssen erst bekannt gemacht werden, was mit einem höheren Marketing-Invest einhergeht.
    • Auch Märkte haben einen Lebenszyklus. In jungen Märkten ist es häufig einfacher Marktanteile zu gewinnen, während der Return on Investment zeitversetzt erfolgt.
    • Werbeinvestitionen wirken über längere Zeiträume, d.h. eine etablierte Marke profitiert von Investitionen aus vergangenen Perioden. Methodisch geht es also um eine dynamische Optimierung, d.h. der Markenbewusstseinsschwund („Wear-out“) muss durch neue Werbeinvestitionen kompensiert werden.
    • Das Verhältnis zwischen Markenbewusstsein, häufig operationalisiert als Bekanntheit, und Werbeerfolg im Sinne von Abverkäufen ist von Produkt zu Produkt unterschiedlich. Das hängt zum Teil mit dem Werbedruck in dem jeweiligen Segment zusammen, zum Teil aber auch mit dem Stellenwert des Produktsegmentes in der Wahrnehmung der Zielgruppe.
    • Produktsegmente unterscheiden sich hinsichtlich ihrer Profitabilität. Auch das ist bei den Werbeausgaben zu berücksichtigen. Es geht also nicht nur um die Marketing-Absatz-Relation, sondern vor allem um die Marketing-Gewinn-Relation, was wiederum voraussetzt, dass man ein gutes strategisches Verständnis aktueller und zukünftiger Kostenstrukturen hat.

Die Methode der Wahl für derartige Problemstellungen ist Multiple Regression, in diesem Fall erweitert um eine dynamische Komponente aufgrund des Wear-Out-Effektes. Derartige Modelle beruhen auf vielen Annahmen, so dass ein Szenario-Simulationsansatz sinnvoll ist. Es empfiehlt sich hier anspruchsvolle Analysetools zu nutzen. Mit Excel geht es zwar auch, aber das ist dann in etwas so, als würde man von Berlin nach München mit dem Fahrrad anstatt dem Zug fahren. Entscheidend ist, dass durch derartige Methoden Marketing-Budgetierung erstmals transparent, nachvollziehbar und optimierbar wird, d.h. man kann die Prognosegenauigkeit über die Jahre verbessern, indem man die oben genannten Annahmen auf Grundlage der tatsächlichen Ergebnisse fortlaufend kalibriert. Für derartige Betrachtungen dürfte sich neben CMOs und CEOs vor allem auch CFOs interessieren, denen bisher allenfalls Daumenregeln (Marketing-Spend in % vom Umsatz) und entsprechende Benchmarks als Budgetierungsherleitung offeriert wurden.

  • Internet als Testlabor: Das Testen von neuen Produkten und Werbung wird in Best-Practice-Unternehmen seit vielen Jahren praktiziert. Befragungen repräsentativer Nutzer gehören zum Alltag des Produktmanagements. Dennoch wird das Potenzial des Internets als Testkanal für Zielgruppen- und Werbewirkungshypothesen nur unzureichend genutzt. Viele Marktforscher werden jetzt mit der Stirn runzeln und sich in ihrem ureigensten Territorium attackiert fühlen. Dabei bezieht sich meine Aussage gar nicht auf die online-Mafo im engeren Sinne, sondern auf die abertausenden von Experimenten die täglich bei der Aussteuerung von online Werbemitteln veranstaltet werden. Derartige Werbemittel bestehen im Kern aus zwei Elementen: Design und Message. Ob und wie stark auf diese Komponenten reagiert wird, hängt zudem von Zeitpunkt und Umfeld der Auslieferung ab sowie von den soziodemographischen und psychografischen Profilen der Empfänger sowie deren Befindlichkeit zum Zeitpunkt des Werbemittelkontaktes. Durch vergleichende Werbewirkungsanalysen könnte man diese Zusammenhänge untersuchen. Das geschieht in der Praxis jedoch recht selten. Statt dessen überlässt man es Algorithmen während der Werbemittelauslieferung A/B- bzw. multivariates Testing durchzuführen, so dass die Aussteuerung „on the fly“ optimiert werden kann. Das ist in der Tat ein großer Fortschritt. Noch besser wäre es allerdings, wenn die klassische Werbung von den Ergebnissen der Online-Werbung lernen würde. Eine solche Lernschleife ist jedoch kaum institutionalisiert. Oder anders formuliert, hier ist noch ungenutztes Potenzial, das zu erforschen sich sicherlich lohnen würde. Mafo-Puristen stehen derartigen Verfahren eher kritisch gegenüber, da die Testbedingungen weitgehend unkontrolliert und nicht-repräsentativ sind, mal ganz abgesehen von der Validität der Nutzerprofile. Meine Haltung hierzu ist dieselbe wie zur der Frage, ob man einen nicht ganz korrekten Stadplan nutzen solle (siehe oben). Ich denke schon, dass bei einer systematischen Vorgehensweise interessante Hinweise auf Werbeerfolgs-faktoren generiert werden können, analog zur Analyse von Social Media-Kommunikation, auch wenn die Frage der Repräsentativität ebenfalls weitgehend offen ist.

Zum Abschluss dieser Artikelserie lässt sich mit Blick auf die andauernde Transformation des Marketing-Managements Folgendes festhalten: Der Trend zu Quantifizierung und Verwissenschaftlichung ist nicht zurückzudrehen. Allerdings: Intuition, Erfahrung und Bauchgefühl werden nicht obsolet, sondern empirisch geerdet und angereichert. Sicherlich, das Marketing ist noch weit davon entfernt menschliches Verhalten nach Belieben gezielt zu beeinflussen. Ursache und Wirkung in einen kausalen Zusammenhang zu stellen – so wie es die Neurobiologie verheißt -, fällt nach wie vor schwer. Die digitale Revolution hat es aber ermöglicht, Verhaltensreaktionen zu messen und in Beziehung zu Marketingmaßnahmen zu setzen. Durch systematisches Testen, Messen und Analysieren lässt sich heute schneller und genauer feststellen, ob Marke oder Werbung funktionieren. Diese Erkenntnisse führen dann zur Optimierung von Produkten und Kommunikation. Salopp formuliert gilt: Je mehr man ausprobiert, desto größer ist die Wahrscheinlichkeit, dass durch die vorgenommenen Änderungen der gewünschte Erfolg eintritt. Diese analytische Methodik – früher nannte man das „Closed Loop“ –wird mittlerweile von Agenturen, aber auch von großen Brands zurecht vorangetrieben. Oder etwas pathetischer formuliert: Kreativität und Data Science gehen mehr und mehr eine symbiotische Beziehung ein.

Tagged with:
 

Wie im ersten Teil dieser Beitragsserie aufgezeigt, kommen viele Marketing-Manager mit der zunehmenden Komplexität der digitalen Welt bisher mehr schlecht als recht zurecht. Hierfür sind drei Ursachen verantwortlich, die ich im folgenden näher erläutern werde:
• ungelöste methodischen Probleme im Bereich von Marktforschung und Marke
• unternehmensinterne Versäumnisse
• die Struktur des Marketing-Ökosystems

Strukturelle methodische Herausforderungen:

  • Die Marktforschung befindet sich im Umbruch. Es wird immer klarer, dass Kunden häufig nach anderen Kriterien entscheiden als ihnen selbst bewusst ist und sich diese Kriterien nur schwer mit gängigen Mafo-Methoden ermitteln lassen. Die allermeisten der 3.000 bis 10.000 Werbebotschaften, die täglich auf einen Durchschnittsbürger einprasseln (die Schätzungen variieren hier erheblich), werden primär unbewusst verarbeitet. Mit dem klassischen Funnel-Indikator „gestützte Bekanntheit“ erfasst man das Unbewusste nur partiell. Die Neuro-Marketing-Forschung ist noch zu unreif, um praktikable Lösungen zu präsentieren. Implizite und auf Beobachtung tatsächlichen Verhaltens beruhende Messverfahren, mit denen erfreulicherweise vermehrt gearbeitet wird, sind ein Schritt in die richtige Richtung. Allerdings stellt sich hier das klassische Problem der mangelnden Implementierbarkeit vieler Mafo-Ergebnisse: Auf Sample-Basis durchgeführte Analysen zu expliziten und impliziten Präferenzen in Verbindung mit Profilmerkmalen sind zwar aufschlussreich fürs Produktmanagement, aber nur bedingt wertvoll, wenn sich die Kundengruppen mit den gewünschten Zielmerkmalen nicht kostengünstig identifizieren und ansprechen lassen. Daran ist in den vergangenen zwanzig Jahren eine Vielzahl von sophistizierten Segmentierungsansätzen in der Praxis gescheitert und daran scheitern noch heute Targeting-Anbieter im Online-Bereich.
  • Wie lange Werbeeffekte anhalten, ist trotz zahlreicher Wear-Out-Studien in der Praxis meist unklar. Gemessen wird vor allem der marginale Effekt einzelner Kampagnen auf gestützte und ungestützte Bekanntheit der jeweiligen Marke. Der kumulative Effekt der Marketingmaßnahmen und ihre Wirkung (Marketing-Response-Funktion) auf das Kaufverhalten ist dagegen empirisch schwer zu greifen, da das Kundenbewusstsein einschließlich seiner unbewussten Bestandteile im Zeitverlauf nicht durchgehend erfasst wird und wohl auch in absehbarer Zeit nicht erfasst werden kann, zumindest nicht für eine hinreichend große Zahl an Verbrauchern. An dieser Stelle bedürfte es modellhafter Annahmen, an denen sich Marketingbudgetierung zu orientieren hätte (dazu später mehr im Zusammenhang mit dem Thema Marketingbudgetierung).
  • Im Kern ungeklärt ist auch die Stärke des Zusammenhangs zwischen Produktnutzen und Markenimage. Traditionell nimmt man bei einer intakten Marke eine weitgehende Identität von Markenimage und dem Produkt als konkreter Manifestation der Markenbotschaft an. Die Marke verliert vor allem dann an Kraft, wenn sie ihr Nutzenversprechen in ihrer konkreten Ausgestaltung als Produkt nicht erfüllt. Diese Theorie basiert auf der Annahme eines rationalen Verbrauchers, der den Unterschied zwischen Markenversprechen und Produktrealität objektiv vermisst. Es fragt sich jedoch, wie realistisch eine derartige Annahme ist – insbesondere bei sehr ähnlichen (Commodities) und bei komplexen, schwer zu beurteilenden Produkten. Es spricht einiges dafür, dass Markenkommunikation hier als eigenständige Kraft wirkt, die die Realitätswahrnehmung der Konsumenten beeinflusst. Damit wird die Marke sozusagen selbstreferenziell. Ein gutes Beispiel hierfür ist eine Untersuchung des Human Neuroimaging Labs (Houston) aus dem Jahre 2003, in dem Testpersonen einem Blindtest zwischen Cola und Pepsi unterzogen wurden. Mithilfe des MRI konnte nachgewiesen werden, dass das Pepsi-Produkt den meisten Probanden besser schmeckte. Erst als die Marke Cola explizit genannt wurde, kehrt sich das Ergebnis um. Die Assoziation mit der Marke löste Mehraktivität im Befriedigungszentrum des Hirns sowie in Bereichen aus, die für komplexe Beurteilungsprozesse zuständig sind. Die Marke beeinflusste bzw. überlagerte somit das Geschmacksempfinden.
  • Eine weitere Implikation dieser und ähnlicher Untersuchungen ist, dass die traditionelle Trennung von Ratio und Emotion nicht zutrifft. Marketing-Lehrbücher (siehe z.B. Meffert/Burmann, Marketing, 11. Aufl. 2012, S. 744,) unterscheiden noch heute zwischen informativer und emotionaler Werbung. Diese Kategorisierung führt in die Irre. Es werden immer Emotionen angesprochen, nur das „wie“ unterscheidet sich (siehe hierzu auch das Limbic System). Das heißt natürlich nicht, dass Werbetreibende nach Belieben derartige emotionale Beeinflussungen vornehmen können. Bei Coca Cola ist es das Resultat eines mehrere Verbrauchergenerationen umfassenden Markenaufbaus. Die systematische Erforschung dieser Phänomene und ihrer konkreten neurophysischen Ursachen steht jedoch noch am Anfang.
  • Große Fragezeichen gibt es bezüglich des Einflusses des Kontextes auf die Markenwirkung. Zwei zentrale, immer wieder diskutierte Kontextdimensionen, sind die Qualität des Mediums, in dem die Werbung erscheint, und die emotionale Befindlichkeit des Konsumenten im Moment des Werbemittelkontaktes. Letzteres scheint zentral zu sein. Ob man Werbung z.B. alleine oder zusammen mit Freunden wahrnimmt, im aufmerksamen Zustand oder müde, dürfte in der Tat Folgen für die Werbewirkung haben. Ob Werbung dagegen im Premium-Content-Bereich auch tatsächlich wesentlich nachhaltiger wirkt, wie die Premium Publisher behaupten, ist dagegen weit weniger ersichtlich. Dieses Argument dient übrigens bis heute dazu, das Thema Targeting, also Kontext-unabhängige Ansprache von Zielgruppen zu diskreditieren. Mit Blick auf das Ökosystem Markenkommunikation lohnt sich daher die Frage „cui bono“ (siehe dazu den Punkt Ökosystem).
  • Ca. 15 Jahre nachdem das Internet den Mainstream erreicht hat, existiert für Werbetreibende noch immer keine gemeinsame Währung für online- und offline-Werbemaßnahmen. Reichweite und Kontaktfrequenz werden für über Gross/Target Rating Points (GRPs) bestimmt, während online-Display Werbung über Visits und Unique Visitors gemessen wird. Beide Messverfahren erfolgen unabhängig voneinander. Nielsen und Comscore haben vergangenes Jahr eine neue Initiative gestartet, um Effekte aus Werbekampagnen plattform-übergreifend einheitlich zu messen. Dabei bilden Consumer Panels die Grundlage. Auf dieser Basis lässt sich feststellen, wie viele Konsumenten wie oft medienübergreifend mit einer Kampagne in Kontakt kommen. Also immerhin gibt es an dieser elementaren Stelle kurz- bis mittelfristig Aussicht auf Besserung.

Unternehmensinterne organisatorische Versäumnisse:

  • Datenerhebung an Kundenkontaktpunkten: Das Kundenwissen ein zentrales Erfolgskriterium fürs Marketing ist, dürfte heutzutage kaum jemand bezweifeln. In fortschrittlichen Unternehmen werden Daten zu Bestandskunden in ERP- und CRM-Systemen zwar erfasst, und idealerweise für gezieltes Cross- und Upselling sowie für Churn-Prävention genutzt. Allerdings wird in der Regel nur ein Teil aller relevanten Touchpoints als Datenquellen abgedeckt. Eine 360 Grad-Sicht der – von der Akquise bis zum Call-Center-Kundendienst, vom Online-Shop bis zum Offline Event – ist daher die absolute Ausnahme. Fragen sie mal, welche Daten es unternehmensweit wirklich ins zentrale Data Warehouse schaffen. Die Antwort dürfte ernüchternd sein. Bereits die Frage, welche Touchpoints es denn für die Kunden tatsächlich gibt und welche Bedeutung sie in der Customer Journey haben, können viele Marketingverantwortliche heute nicht seriös beantworten. Eine besondere Herausforderung stellt derzeit immer noch die Integration von Web- und ERP/CRM-Daten dar. Zumeist sind die Webdaten nicht im Data Warehouse integriert.
  • Datenerhebungsqualität und –tiefe: Kundendaten sind häufig unvollständig und veraltet. Semantische Informationen, z.B. aus Call-Center-Interaktionen liegen zwar vor, werden aber selten als Profilinformationen verwertet, obwohl dies mittels semantischer Technologien bereits möglich ist (siehe „Voice of Customer“-Lösungen). Die Analyse von Massendaten über das Produktnutzungsverhalten (soweit verfügbar) befindet sich ebenfalls in den Kinderschuhen und wird unter dem Label Big Data zur Zeit noch stärker diskutiert als praktiziert. Besonders schwer ist die Kundendatenkonsolidierung, wenn Unternehmen via Akquisitionen wachsen. Die Systemintegrationsaufwendungen sind hier zum Teil erheblich. Big Data-Technologien sind hier eine interessante Alternative.
  • Organisatorische Verankerung der Analytik: Schon seit den 90er Jahren investieren Großunternehmen in Datenanalyse bzw. analytisches CRM. Häufig wurden zu diesem Zweck zentrale Analytik-Abteilungen als Shared Service eingerichtet. Die Analytik wurde damit de facto „weggesperrt“ und residierten abseits der Business-relevanten Entscheidungsprozesse. In manchen Fällen wurde die Datenanalyse auch an die IT delegiert in Verkennung der Tatsache, dass es hier primär um methodische und nicht technische Kompetenz geht. Heraus kamen dabei unflexible Standardreports, die festgelegte KPIs in vordefinierten Formaten Entscheidern zugänglich machen. Mit Datenexploration im Sinne einer interaktiven Befragung der Daten hat dies sehr wenig zu tun. Angesichts dieser Situation haben viele Abteilungen in den letzten anderthalb Jahrzehnten eigene Analyseinfrastrukturen und –kompetenzen aufgebaut (Trend zur „Pervasive Business Intelligence“). Eigentlich eine gute Sache, aber im Ergebnis entstanden so Abteilungs-fokussierte, für Dritte einschließlich der Unternehmensführung und anderer interner Stakeholder unzugängliche Datensilos (häufig in Excel).
  • Cross-funktionaler Analyseprozess: Kundenprofilierung, Kundendatenanalyse und geschäftliche Nutzung der Analyseergebnisse ist ein in sich geschlossener Zusammenhang, der nach dem bekannten „Garbage-In/Garbarge-Out“-Prinzip funktioniert. Es bedarf daher cross-funktionaler Prozesse, das bedeutet die Einbindung von Analytik-Experten, Mafo-Fachleuten, Business-Entscheidern in MarCom, Produktmanagement, Sales etc und IT (insbesondere bei der Integration der Analytik-Infrastruktur in die führenden operativen Systeme). Der Aufbau derartiger unternehmensweiter Datenerhebungs- und analyseprozesse ist komplex, wie jede Form der Zusammenarbeit über Abteilungs – bzw. Funktionsgrenzen hinweg. Außerdem zeitigt sie üblicherweise erst mittel- und langfristig spürbare Ergebnisse. Das entspricht nicht der kurzfristigen Denkweise vieler Bonus-getriebener Manager und trägt zur Erklärung bei, worum es in diesem Themengebiet bisher nicht schneller voranging.
  • Demokratisierung der Marktforschung: Das Internet im allgemeinen und Social Media im besonderen haben die Mafo ein Stück weit demokratisiert. Produkt- und Marcommanager können heute auf viel direkterem Wege als früher Kundenfeedback einholen. Systematische Mafo wird dadurch nicht obsolet, aber ergänzt durch Verfahren, die prinzipiell allen online-Nutzern zur Verfügng stehen. Mit speziellen Monitoring Tools lassen sich Social Media-Aktivitäten gründlicher und schneller erfassen. Dennoch tuen sich viele Produktmanager schwer, die Möglichkeiten des Social Media Monitorings professionell zu nutzen. Sicher, es gibt hier noch Unsicherheiten mit Blick auf Authentizität, Repräsentativität und Reichweite der Social Media-Kommunikation, dennoch dürfen diese Punkte nicht als Ausrede für die relative Inaktivität in diesem Bereich herhalten, was aber immer noch recht häufig geschieht.
  • Modell-Platonismus: Die Realität modellhaft zu vereinfachen ist eine richtige Vorgehensweise, insbesondere in einem so komplexen Themenfeld wie Marketing. Allerdings gilt auch Einsteins Bonmot: http://www.gutzitiert.de/zitat_autor_albert_einstein_thema_einfach_zitat_23857.html: „Man muss die Dinge so einfach wie möglich machen, aber nicht einfacher“. Produktmanager und Mediaagenturen denken da häufig anders. Eine klare Zielgruppenbeschreibung und los geht’s. Moderne online Werbung und e-Commerce bieten die Möglichkeit, nicht auf Sample-Basis, sondern mit realen Daten Zielgruppenhypothesen zu untersuchen: Wer hat wirklich geklickt und gekauft? Bei der Beantwortung dieser Fragen lassen sich immer wieder signifikante Abweichungen von den Annahmen des Produktmanagements feststellen.
  • Mangelnde Kampagnen-übergreifende Perspektive: Kampagnen sind das A und O des operativen Marketings. Leider beschränkt sich die gestalterische Perspektive vieler Marketingverantwortlicher auf diese Ebene. Die Frage, wie einzelne Kampagnen in Beziehung zueinander und – noch wichtiger – zur Marke an sich stehen, bleibt häufig offen. Das liegt unter anderem daran, dass – von großen Markenunternehmen abgesehen – eine saubere Herleitung von Markenkern und –persönlichkeit nicht oder nur oberflächlich erfolgt. Außerdem wird der kumulative Effekt der Werbemaßnahmen, also der Beeinflussungserfolg der Kampagnen-übergreifende Effekt der Kommunikation über einen längeren Zeitraum in der Regel nur durch allgemeine Indikatoren gemessen (Bekanntheit der Marke zum Zeitpunkt x). Die Wirkung einzelner Kampagnen bleibt im Dunklen. In Mehrmarken-Unternehmen verschärft sich das Problem, da ja hier Budgetallokation betrieben werden muss. Sollte dieses Jahr mehr in die Marke x oder y investiert werden und warum.
  • Eingeschränktes Produktverständnis der Kommunikationsverantwortlichen: Die meisten Unternehmen trennen klar zwischen Produktmanagement und Kommunikation. Das Produktmanagement liegt dabei an der Schnittstelle zwischen Markt und interner Produkterstellung und ist insofern gegenüber der Kommunikation in der Führungsposition. Diese Aufgabenteilung ist grundsätzlich sinnvoll. Allerdings führt sie vielerorts dazu, dass die Kommunikationsverantwortlichen im Marketing ihre eigenen Produkte zu wenig verstehen. Ein schönes Beispiel hierfür sind die Marketingbroschüren technisch ausgerichteter B2B-Unternehmen. Dort werden wesentliche Produktinformationen häufig floskelhaft verbrämt oder gar nicht erst thematisiert. Das wird dann damit begründet, dass auch im B2B-Bereich Emotionen zentral seien und man den Empfänger der Werbebotschaft nicht überfordern wolle. Der Hinweis auf die Emotionalität stimmt zwar grundsätzlich, sollte aber nicht gegen den Aufbau von Produktkompetenz im Marketing sprechen. Da Kommunikationsmanager als organisatorische Schnittstelle gegenüber Werbe- und Mediaagenturen agieren, sind sie ohne diese Kompetenz auch nur unzureichend in der Lage, ihre Dienstleister zu steuern oder gar sinnvoll auszuwählen.
  • Customer Experience zwischen allen Stühlen: In vielen Unternehmen sind sich Marketing und Vertrieb Spinnefeind. Das hat gute Gründe: Während der Vertrieb auf kurzfristigen Absatz incentiviert ist, beziehen sich Marketing-KPIs primär auf den frühen Teil des Funnels, also z.B. Markenbekanntheit und Markenimage. Bei B2C-Unternehmen bestehen häufig sogar getrennte Budget-Töpfe, so dass eine Abstimmung dieser verschiedenen Zielsetzungen kaum erfolgt. Wichtige Kundenkontaktpunkte wie Customer Service sind häufig gar nicht involviert in Entscheidungen, wie der Kunde auf seiner Customer Journey anzusprechen ist. Dieser organisatorische Split liegt quer zur Customer Experience, die eben nicht aufgeteilt werden kann, sondern ganzheitlich funktioniert.
  • Der überforderte Chef: „Marketing ist Chef-Sache“! Dieser Ausspruch ist Legion, vor allem in den Publikationsorganen der Werbewirtschaft. So sehr man ihm zustimmen muss, so verdeckt er auch wesentliche Problemzusammenhänge. Marketing – verstanden als systematisches Markenmanagement – leidet nicht primär darunter, dass der Vorstand oder der CEO unzureichend involviert ist, sondern dass die Entscheidungsbasis unzureichend ist. Marketing-Verantwortliche müssen erst mal ihre Hausaufgaben machen bevor das Top-Management sinnvoll entscheiden kann. Und Chefs müssen dies einfordern. Daran hapert es leider.
  • Strategie und Marke – zwei ungleiche Brüder: Ginge es nach den Marketing-Professoren so würden Unternehmensstrategen viel stärker in Markenkategorien denken. Sieht man von großen FMCG Brands ab, so sitzen in den unternehmensinternen Consulting- und Strategieabteilungen selten Markenexperten. Hier herrscht mehr die Denkweise von Porter/Hamel/Kim als die von Aaker/Meffert etc. Kein Wunder, denn die meisten Akteure kommen nun mal von großen Beratungsfirmen, die – sieht man von Spezialisten ab (z.B. Perrey bei McKinsey und SimonKucher & Partner) – im allgemeinen keinen dezidierten Marketinghintergrund haben. Erwähnenswert ist in diesem Kontext zudem, dass Top-Management-Karrierewege selten über die Marketingabteilung laufen (bei FMCG ist das anders).
  • Fühlen und Denken in Schieflage: Ein guter Marketier sollte zwei zentrale Fähigkeiten besitzen: Emphatie und Analytik. Das dürfte relativ unstrittig sein. Die Fähigkeit, Wirkungszusammenhänge intuitiv und aus Sicht der Kunden zu verstehen, ist umso wichtiger, als die tatsächlichen Beeinflussungen bis heute unzureichend erforscht sind (siehe hierzu meine Ausführungen oben). Erfahrungsbasiertes Bauchgefühl und das Einfühlen in den Kunden als Medium der Werbung sind somit unverzichtbare Eigenschaften für erfolgreiches Marketing. Spätestens seit dem Siegeszug von ERP und CRM-System sowie des Internets, in dem so vieles messbar ist, eröffnen sich für Analytik jedoch neue Möglichkeiten, die von den Unternehmen jedoch nicht hinreichend genutzt werden. Zum einen hat das interessenpolitische Gründe, die wir weiter unten im Kontext des Ökosystems besprechen werden. Ein weiterer Grund sind Mentalität und Ausbildungsstand der handelnden Akteure. Böse Zungen zufolge rekrutiert sich das Marketingpersonal immer noch überwiegend aus Personen, die ihre BWL-Statistikscheine nur mit Mühe bestanden haben. Es wäre sicherlich interessant, diese Aussage einmal auf ihren Wahrheitsgehalt zu überprüfen. Fakt ist jedenfalls, dass Leiter von Marketingabteilungen häufig aus dem Werbeagenturumfeld stammen, das sich bisher nicht durch einen Drang zur Analytik ausgezeichnet hat. Hinzu kommt, dass Analytik einhergeht mit einem mehr an Transparenz gegenüber anderen C-Level-Entscheidern. Nicht alle Marketing-Entscheider wünschen dies. Nicht wenige fühlen sich mit der aktuellen Black-Box-Situation wohl. Diese Gruppe von Entscheidern sollte dann aber auch nicht darüber stöhnen, wenn in wirtschaftlichen Krisenzeiten die Marketingbudgets als erstes gekürzt werden, da ja der Wertbeitrag nicht offenkundig ist.

Marketing-Ökosystem:

  • Die Marketing-Wertschöpfungskette ist durch eine Ausdifferenzierung von werbe-treibenden Unternehmen und Werbung erstellenden und platzierenden Agenturen gekennzeichnet. Insbesondere die Mediaagenturen sind traditionell die „Fat Cats“ in diesem Ökosystem, kontrollieren sie doch die Aussteuerung und durch vermehrte Akquisitionen von Werbeagentur-Networks auch die Konzeption und Produktion von Werbung. Beides gehört nach dem traditionellen Verständnis nicht zu den Kernkompetenzen der werbetreibenden Unternehmen. In der Praxis formuliert das Produktmanagement der großen Marken Briefings, die dann von großen Agenturen umgesetzt werden. Dabei wird insbesondere bei internationalen Konsumentenmarken in zunehmenden Maße Single Sourcing praktiziert, so dass ein großer Webeagentur-Partner international die Betreuung übernimmt und damit einen konsistenten Außenauftritt sicherstellt.
  • Es mehren sich jedoch die Anzeichen, dass das starke Partner-getriebene Outsourcing von Werbekonzeption und -durchführung aus Sicht der Advertiser einer Korrektur bedarf. Diese Schlussfolgerung resultiert dem Mega-Trend der Digitalisierung, im Unternehmen (ERP/CRM Systeme) der Unternehmen und im Internet. Die neuen Internet-Giganten, allen voran Google und Facebook, setzen das etablierte Ökosystem unter Druck. Sie konkurrieren im digitalen Bereich unmittelbar mit den Mediaagenturen, indem sie an diesen vorbei direkte Kundenbeziehungen mit Großunternehmen aufbauen. Google dominiert mit seinem Search Angebot einen zentralen Teil der Customer Journey und weitet diese Dominanz in Richtung Display Advertising (zu Deutsch: Banner-Werbung) aus, womit sie sowohl den Beginn des Funnels abdecken als auch im Bereich Perfomance Display mehr und mehr mitspielen. Darüber hinaus hat Google Unmengen von Nutzerinformationen aus ihrem Content Network und ihren sonstigen Services. Die großen Mediaagenturen haben auf diese Entwicklung reagiert und investieren selbst massiv in online-Kompetenz. Die Vision der großen Mediaagenturen ist, über Werbeaussteuerung Kundenwissen zu generieren und selbst in großem Stil zu verwalten. Das „Big Game“ um die Kundendatenhoheit ist in vollem Gange.
  • Insbesondere Großunternehmen müssen sich entscheiden, ob sie den Mediaagenturen und Internet-Giganten dieses Feld überlassen oder lieber selbst die Kontrolle über externe Markt- und Kundendaten gewinnen wollen, soweit dies ökonomisch sinnvoll und möglich ist. Letzteres impliziert, dass CRM und Customer Experience nicht nur als „nice-to-have“ Stabstellen organisiert werden, sondern als Steuerungsintanzen mit exekutiven Funktionen. Customer Touch Points sollten als strategische Kontrollpunkte betrachtet und entsprechend bearbeitet werden. Aus den Erkenntnissen lassen sich dann Rückschlüsse auf potenzielle Kunden ziehen. Konkret kann das für große Herstellerbrands bedeuten, dass sie mit wichtigen Content- und Retail-Touchpoints Partnerschaften eingehen, die auch die Kundenprofilierung umfassen. Das Ziel muss in jedem Fall sein, dieses weite und komplexe Feld aktiver als bisher zu bearbeiten und sicherzustellen, dass große Intermediäre hier nicht schleichend die Oberhand gewinnen.

Im Lichte der dargestellten strukturellen Voraussetzungen sowie der Mentalitätsbarrieren und Know-how-Lücken vieler Akteure stellt sich die Frage, was den kurz- bis mittelfristig zu tun ist, um die eigene Marketingperformance mit Hilfe der neuen technologischen Möglichkeiten zu optimieren. Damit beschäftigt sich der dritte und abschließende Teil dieser Beitragsserie.

Tagged with:
 

Forschung und Lehre treiben die Verwissenschaftlichung des Marketing-Managements seit Jahrzehnten voran, doch die Realität in den Unternehmen sieht häufig anders aus: Marketing wird auf Marktkommunikation reduziert, systematisches Kampagnen-übergreifendes Marken-Management findet trotz formelhafter Bekenntnisse kaum statt. Quantifizierende Methoden werden kritisch beäugt, integriertes Multi-Channel-Management befindet sich trotz Medienkonvergenz in den Anfängen, und Marketing-Budgets werden überwiegend nach Daumenregeln dimensioniert und allokiert. Dieser Befund trifft natürlich nicht auf alle Branchen und Unternehmen in gleichem Maße zu – aber als gedachter Durchschnitt beschreibt er den Status Quo.

“I know half my advertising isn’t working, I just don’t know which half.”  Dieser sowohl Henry Ford als auch Lord Lever (einer der Gründervater von Unilever) zugeschriebene Satz stammt aus dem frühen 20. Jahrhundert. Ist diese Einschätzung tatsächlich noch gültig? Fakt ist: Langfristig ist der Werbedruck, d.h. die Anzahl von Werbebotschaften je Kunden, gestiegen, während die Werbeeffizienz nachgelassen hat. Da ist insofern plausibel, als es sich bei der Kundenaufmerksamkeit um ein knappes, nur bedingt elastisches Gut handelt. Umso wichtiger wird es, Kaufentscheider gezielter anzusprechen. Aber genau hier liegt die Crux. Es gelingt bisher nur unzureichend, die  Flut von internen und externen Daten zu Kunden und Märkten in effektiveres Marketing zu übersetzen. Neue Medien und Technologien haben zwar massenhaft Daten produziert, aber die Werbewirksamkeit nicht grundlegend erhöht. Im Gegenteil,  das ohnehin schon von massiven Unsicherheiten geprägte Themenfeld Marke, Kommunikation und Innovation ist in den vergangenen Jahren noch komplexer und unübersichtlicher geworden. Das Marketing befindet sich in einer schwierigen Transformationsphase, dessen Ende noch nicht greifbar ist und deren Hintergründe von vielen Entscheidern nur unzureichend begriffen werden. Diese Beitragsserie versteht sich als Versuch, zumindest letzteres zu ändern und Lösungsansätze für ein rationaleres Marketing-Management aufzuzeigen.

Fangen wir mit der Frage an, was sich in der letzten Dekade faktisch an den Marketing-Voraussetzungen verändert hat. Dabei ist  zunächst auf den technologischen Wandel  und damit die Digitalisierung weiter Teile unserer Lebenswelt zu verweisen. Für das Marketing bedeutet das vor allem:

  • Der Kaufentscheidungstrichter („Funnel“) ist im B2C-, aber auch im B2B-Sektor durch den Siegeszug des Internets wesentlich komplexer geworden. Komplexität meint hier zweierlei: die steigende Zahl von „Customer Touch Points“ – 30 bis 50 Funnel-Kontaktpunkte sind mittlerweile keine Seltenheit – sowie die Vielzahl unterschiedlicher Konsumentenpfade entlang dieser Kontaktpunkte. Darauf verweist auch der in Mode gekommene Begriff „Customer/Consumer Decision Journey“. Heutzutage sind Kaufentscheidungsprozesse nicht  mehr so linear wie in den Konzepten der 70er bis 90er Jahre (AIDA, DAGMAR etc.). Der Weg vom Werbemittelkontakt bis zum Kauf und schließlich Wiederholungskauf ist aufgrund der neuen digitalen Kontaktpunkte (digitale Werbemittel, leicht zugänglicher digitaler Content) und Informationsmöglichkeiten (Preisvergleichsseiten sowie Produktinfos mit Social Media-Kommentare auf e-Commerce-Seiten und Foren) deutlich vielfältiger und schleifenförmiger als früher. So kommt es z.B. vor, dass auch in der Evaluierungsphase vor dem Kauf noch neue Produkte/Marken in den „Relevant Set“ aufgenommen werden, so dass sich der Kauftrichter nicht kontinuierlich verengt, sondern zwischendurch erweitert.
  • Die Customer Journey verläuft außerdem cross-medial. In den meisten (nicht in allen!) Branchen ist  ROPO (Research Online, Purchase Offline) der wichtigste Multichannel-Use-Case und kommt häufiger vor als der reine Online-Use-Case, bei dem alle Kontaktpunkte einschließlich der Transaktion online liegen. In der Praxis sind die online-offline-Effekte zwar prinzipiell via Panels nachweisbar, aber schon aus Kostengründen nicht für jede Kampagne zu messen.
  • Der klassische Funnel gerät auch durch Social Media unter der Druck. Das Push-Prinzip der Werbung, nämlich über Massenmedien Produkte in den Markt zu „drücken“, stößt nun auf die immer häufiger genutzte Möglichkeit des Konsumenten, unmittelbar und öffentlichkeitswirksam Feedback zu den Produkten und gelegentlich zur Werbung selbst zu geben.  Unglaubwürdige Werbung hat es somit schwerer als früher.  Wenn Werbeversprechen nicht eingehalten werden, kann es zwischen Bestands- und Neukunden zu stark negativen Rückkoppelungseffekten kommen. Vor diesem Hintergrund gewinnen auch Customer Service-Touchpoints an Bedeutung. Es hat sich daher in den letzten Jahren „Customer Experience“ als übergeordneter Begriff für die Kundenerfahrungen diesseits und jenseits des Kaufaktes herausgebildet.
  • Trotz dieser neuen Entwicklungen ist der Abgesang auf den klassischen Funnel („der Funnel ist tot“) und die traditionellen Massenmedien verfrüht. Die Dauer des durchschnittlichen Fernseh-Konsums ist in den letzten Jahren stabil geblieben und nicht etwas zugunsten des Internets zurückgegangen.  Auch bei jüngeren Zielgruppen gab es keinen signifikanten Einbruch des Fernsehkonsums, sondern einen relativen Bedeutungszuwachs der online-Medien. Ein neuerer cross-medialer Reichweitenvergleich ergibt 60 bis 85% Reichweite für TV bei ca 20% Reichweite für online (Gfk/ebiquity-Studie). Fazit: TV ist weiterhin unverzichtbar für große Konsumentenkampagnen. Dass die TV-Reichweite signifikant teurer ist als die online-Reichweite, ändert hieran nichts. Online ist zwar effizienter weil kostengünstiger (niedrigere TKPs), erreicht aber nicht annähernd so viele Menschen wie TV im Rahmen einer Kampagne. Auch Print spielt in der Evaluierungsphase immer noch eine wichtige Rolle, auch wenn hier der Online-Kanal weiter auf dem Vormarsch ist.
  • Sieht man einmal von Facebook ab, das als Mega-Touchpoint eine extreme Reichweite im Netzwerk erzielt, so hat Social Media bisher nicht wirklich zu einer Marketing-Revolution geführt, sondern wirkt eher  als Korrektiv im Sinne des Verbraucherschutzes und als Ergänzung des bisherigen Media Mixes. Natürlich gibt es Social Media- „Tsunami“-Phänomene, also z.B.  Proteststürme mit hoher Reichweite oder die massenhafte virale Verbreitung von Inhalten (z.B. Videos, Popsongs).  Allerdings: Die negativen Wirkungen für Unternehmen halten sich in Grenzen. Den meisten Konsumenten ist es eben letztlich nicht so wichtig, wie Foxconn seine Mitarbeiter behandelt, zumal ihnen implizit klar ist, dass die Konkurrenzprodukte unter ähnlichen Bedingungen gefertigt werden. Die Frage, wie viel Zucker ein Fruchtgetränk enthält, ist dagegen schon relevanter, bewegt aber ebenfalls nicht die Masse der Konsumenten.
  • Strukturell leiden die meisten Sozialen Medien unter ihrer begrenzten Reichweite. In sozialen Netzwerken und Foren findet überwiegend fragmentierte Kommunikation statt. Reichweiteneffekte im massenmedialen Maßstab werden in der Regel erst dann erzielt, wenn die traditionellen Medien diese so hoch gespülten Themen aufgreifen. „Immerhin“ könnte man meinen. Derartige Hebeleffekte unterliegen jedoch traditionellen medialen Logiken, also dem Massenkompatibitätsfilter und sind daher nichts qualitativ Neues.
  • Fragmentierung ist übrigens nicht gleich bedeutend mit Personalisierung. Das Internet hat sein „Segment-of-one“-Versprechen, also die Möglichkeit Verbraucher maßgeschneidert auf ihre individuellen Bedürfnisse anzusprechen bzw. diese zu aktivieren, bisher nur bedingt eingelöst und zwar im wesentlichen aus technisch-methodischen (siehe dazu auch meine früheren Blog-Beiträge) UND kommerziellen („zu teuer“) Gründen. Im Ergebnis haben wir nach wie vor eine vergleichsweise undifferenzierte kommerzielle Kommunikation, die allerdings über viel mehr Kundenkontaktpunkte als früher stattfindet. Empfehlungssysteme a la Amazon relativieren diesen Befund zwar, korrigieren ihn aber nicht grundlegend.
  • Datenschutz spielt als Restriktion weiter reichender Personalisierungsansätze ebenfalls eine gewisse Rolle. Im großen und ganzen empfinden sich Verbraucher jedoch überwiegend nicht als Opfer kommerzieller Kommunikation, sondern  verhalten sich eher wie  „Komplizen“: Immerhin ist es offenbar der Masse der Konsumenten lieber, über werbefinanziertes Free-TV/Radio bezüglich Ihrer Konsumvorlieben unbewusst beeinflusst zu werden, als mehr für diese Services zu zahlen und somit Werbung zu vermeiden.

Der dargestellte technologische Wandel erklärt, warum sich die Entscheidungskomplexität für Marketingverantwortliche erhöht hat. Offen bleibt, warum es bisher nicht gelungen ist, das Marketing stärker zu professionalisieren, d.h. stärker rational-quantifizierend auszurichten. Dazu mehr im nächsten Beitrag dieser Serie.

Tagged with:
 

Die Forderung, das Stromnetz für die klimapolitischen Anforderungen der nächsten 40 Jahre fit zu machen, ist zum Mantra der Energiepolitik geworden. Bei genauerem Hinsehen zeigt sich jedoch, wie heterogen die hiermit verbundene Zielstruktur ist und wie steinig ihr Implementierungsweg. Der folgende Beitrag versteht sich als Erläuterung dieses Sachverhalts. Der Fokus liegt dabei auf Verteilnetzen (also nicht auf Übertragungsnetzen), da ein wesentlicher Teil der erneuerbaren Energiequellen an diese angeschlossen ist und somit Verteilnetze zu einem wichtigen operativen Baustein der Energiewende werden.

Haupttreiber und -ziele der Modernisierung

In Deutschland gibt es über 800 Stromnetzbetreiber mit insgesamt mehr als 500.000 Transformatoren und 1,7 Mio. km Leitungen. Beim weit überwiegenden Teil handelt es sich um Verteilnetze im Mittel- und Niederspannungsbereich. Von einigen regionalen Versorgern abgesehen, gehören die meisten dieser Verteilnetze den Stadtwerken und werden von deren Netzgesellschaften gemanagt. Seit der Liberalisierung des Energiesektors hat es auch in den Stadtwerken einen deutlichen Rationalisierungsschub gegeben. Dennoch stellen die heraufziehenden Anforderungen alle bisherigen in den Schatten. Es gibt fünf Haupttreiber für diese Entwicklung:

  • Demographischer und sozioökonomischer Wandel: Bevölkerungsrückgang und Arbeitsmarkt bedingte Migrationsbewegungen sowie Verlagerung oder Untergang von Industriekunden führen in einigen Regionen zu einer Bedarfsreduktion von mehr als 20% (siehe hierzu den Bericht von RWE zur Rhein-Ruhr-Region: Smart Grid Projekte, 25.02.2011)).
  • Altersstruktur der Geräte und Anlagen (Assets): In den 60er und 70er Jahren wurden die deutschen Stromnetze massiv ausgeweitet, d.h. der Assetbestand ist mit einem angenommen Durchschnittswert von 30 Jahren so alt, dass den meisten Verteilnetzbetreibern in den  nächsten 10 bis 15 Jahren massive Ersatzinvestitionen ins Haus stehen.
  • Einspeisung erneuerbarer Energien: Laut klimapolitischen Vorgaben soll sich der Anteil der Erneuerbaren Energien am Stromverbrauch bis 2020 auf mindestens 35% steigern, was gegenüber heute nahezu einer Verdoppelung entspricht.
  • Smart-Grid-Visionen: „Smart Grid“ ist ein schillernder Begriff, der unterschiedlichste Tatbestände umfassen kann. Allgemein formuliert zielt der Smart Grid-Ansatz darauf ab, Stromerzeugung und -Bedarf unter den Bedingungen fluktuierender, dezentraler Energieeinspeisung quantitativ und qualitativ besser aufeinander abzustimmen, als dies im bisherigen unidirektionalen Lastfolgebetrieb möglich ist.  Das Netz muss “smart” werden, weil nun Strom nicht mehr bloß von „oben“ nach „unten“ verteilt wird sondern aufgrund der lokalen Produktion auch in die Gegenrichtung, d.h. vom Niederspannungs- ins Mittel und Hochspannungsnetz fließen kann, wenn dort Nachfrage besteht. Außerdem soll die Last, d.h. die Stromnutzung, zu Zeitpunkten stattfinden, an denen die Stromverfügbarkeit besonders hoch ist. Automatisierter Lastabwurf und tarifliche Anreize, transparent gemacht durch Smart Meters, sind zwei Umsetzungsoptionen für diese Lastverschiebestrategie. Alle dieser Konzepte setzten die Implementierung eines geschlossenen Informationskreislaufes, eines “Closed Loop”, mit den beiden Endpunkten Erzeugung und Verbrauch voraus. Aus Produktsicht läßt sich das Smart Grid-Thema in die die Bereiche „Smart Metering“ und „Intelligente Verteilnetze“ segmentieren (siehe hierzu die kürzlich erschienene exzellente Studie von acatech, Future Energy Grid).  Außerdem gibt es auch noch Marktplatzkonzepte für die dynamische Bepreisung des von Haushalten erzeugten Stroms (siehe hierzu z.B. das E-Energy-Projekt des BMWi www.e-energy.de). Die anfängliche Euphorie um das Thema Intelligente Zähler (Smart Meter) ist in den letzten Jahren allerdings deutlich abgekühlt, weil empirische Tests gezeigt haben, dass der Stromverbrauch der Konsumenten in nur begrenztem Umfang in netzauslastungsarme Phasen verschoben werden kann, selbst wenn die Tarifstrukturen entsprechend angepasst würden (siehe hierzu auch den kürzlich veröffentlichten Zwischenbericht  des MoMa – Modellstadt-Mannheim-Projektes. Ein größerer Hebel bestände natürlich, wenn über gezielte Endgerätesteuerung aus dem Netz heraus, Lasten verschoben werden könnten. Aber dies setzt bereits ein intelligentes Verteilnetz voraus, was wieder zeigt, dass Smart Meter erst an späterer Stelle der Netzevolution voll zur Entfaltung kommen werden. Infolgedessen verschiebt sich derzeit die Aufmerksamkeit von den Endpunkten (Smart Meter) auf den infrastrukturellen Kern der Verteilnetze, aber dazu später mehr.
  • Wettbewerbsregulierung: Die seit 2009 wirksame Anreizregulierung (ARegV) ist ein weiterer wichtiger Treiber der Netzentwicklung. Allerdings liegt der Fokus hier auf dem Heben von Effizienzpotenzialen und weniger auf einer Grunderneuerung der Netztechnik.

Die Elektromobilität wurde bewusst nicht als Haupttreiber aufgelistet, weil in Deutschland bis 2020 der Effekt eher gering sein wird. Die von der Bundesregierung für 2020 geplanten 1 Mio Elektrofahrzeuge würden weder eine signifikante Belastung des Netzes darstellen noch als Elektrospeicher zu einer nennenswerten Entlastung führen. Das würde sich natürlich ändern, wenn bis 2030 die Elektroautos tatsächlich den Sprung zum Massenvehikel schafften.

Um zu verstehen, wie sich die genannten Entwicklungstreiber voraussichtlich auswirken werden, skizziere ich zunächst die Ist-Situation der Verteilnetze auf Basis eigener Erfahrungen aus dem Asset Management-Segment sowie vielen Hintergrundgesprächen mit anderen Marktteilnehmern. Aus der Gegenüberstellung von Soll und Ist wird ersichtlich, wie groß die Kluft zwischen Modernisierungsanforderungen und der aktuellen Ausgangssituation ist.

Netzstrukturen und Assets stammen aus einer Zeit, wo der Netzbetrieb unidirektional erfolgte und die Versorgungssicherheit das Hauptziel der Netzbetreiber war. Der Gesichtspunkt der Kostenoptimierung und intelligenten Netzsteuerung war demgegenüber eher tertiär als sekundär. Der Netzbetrieb wurde und wird vielerorts von den Verantwortlichen als primär technische Aufgabe verstanden. Betriebswirtschaftliches Denken im Allgemeinen sowie Kosteneffizienz im Netz- und Asset-Management im Besonderen erscheint in dieser Lesart als schlecht vereinbar mit der angestrebten Versorgungssicherheit und –zuverlässigkeit.

Die Optimierung der Netzauslastung und die Minimierung von Asset-Redundanzen sind vergleichsweise neue Anforderungen. Parallel zur Liberalisierung der Energiemärkte verschärfte sich der staatliche Druck auf Stromerzeuger und Netzbetreiber, kostenbewusster zu wirtschaften. So wurde z.B. der Ruf nach Zustands- und Risiko-basiertem Asset Management (Anlageninvestitionen und -instandhaltung) laut, noch bevor die Diskussion um die Energiewende einsetzte.

Allerdings sind bisher die meisten Netzbetreiber diesem Ruf eher zögerlich gefolgt, in vielen Fällen haben sie ihn auch so gut es ging ignoriert. Bis heute sind daher in den meisten Verteilnetzen Anlagenhistorie- und zustand sowie relevante Umgebungsparameter nur unzureichend dokumentiert. Budgetallokationen für Anlagenersatz und Instandhaltungsmaßnahmen wurzeln eher in individueller Erfahrung einzelner Asset Manager als in  Asset-Klassen übergreifenden vergleichenden Analysen. Und dass, obwohl Best Practices zu diesen analytischen Vorgehensweisen dokumentiert sind. Auch die Anreizregulierung hat diese Intransparenz nicht beseitigt, da sie ja nicht den Einsatz moderner betriebswirtschaftlicher Methoden vorschreibt, sondern Output-bezogen Produktivitätsverbesserungsziele vorgibt.

Konkrete Modernisierungsanforderungen

Während das häufig zitierte „Internet der Energie“, in dem „das Anbieten von Least-Cost oder Pre-paid-Strombezug, (…) oder eine weitgehend automatisierte Stromsparsteuerung von Hausgeräten unter Nutzung der bidirektionalen IKT-Gateways“ (Formulierung aus einer E-Energy Broschüre des BMWi) als mittel- bis langfristige Visionen aufgefasst werden kann, sind die sich aus der Energiewende ergebenden Anforderungen an die Netze sehr real und zeitlich auf dem kritischen Pfad. Durch sie wird eine Modernisierung von Netztechnologie- und Betrieb quasi erzwungen. Das „weiter-wie-bisher“ ist immer weniger haltbar. Die Netzbetreiber sind aufgefordert unter hohem Kostendruck ihre Netze für die Einspeisung erneuerbarer Energien zu befähigen. Hieraus resultierende Anforderungen sind insbesondere:

  • Netzstabilität bei fluktuierender Einspeisung: Je höher der Stromerzeugungsanteil der erneuerbaren Energien, desto stärker hängen Spannung, Stromstärke und Frequenz des Verteilnetzes vom Wetter ab. Wird auf die Wetterlage nicht oder zu spät reagiert, kann es zu versorgungsgefährdenen Spannungschwankungen und Überfrequenzen im Verteilnetz kommen. Detaillierte Wetterprognosen werden also wichtiger für einen reibungslosen Netzbetrieb. Allerdings sind diese Prognosen selten hinreichend zuverlässig. Spannungs- und Frequenzschwankungen müssen daher im Netz instantan gemessen werden,  um Abweichungen vom prognostizierten Zustand zu erfassen. Diese Informationen werden über eine Hierarchie von Netzleitstellen verarbeitet, angefangen von der Ortsnetz- bis hin zur Smart-Grid-Leitstelle, die über Spannungshierarchien hinweg das gesamte regionale Verteilnetz steuert. Dabei greift eine Art Subsidiaritätsprinzip: Was lokal identifiziert wird, soll auch lokal gelöst werden, bevor übergeordnete Leitstellen zum Zuge kommen. Ein Beispiel sind lokal auftretende Spannungsspitzen aufgrund hoher örtlicher Sonneneinstrahlung. Über Ortsnetzleitstellen kann dann entsprechend reagiert werden. Regelbare MS/NS-Ortsnetztransformatoren, Energiespeicher sowie Blindleistungskompensatoren können dann den notwendigen Spannungsausgleich herbeiführen. Außerdem soll bei Bedarf der Spannungseinspeiser von Netzleitstelle abgeschaltet werden können – idealerweise automatisiert auf Basis vorgegebener Parameter. Allerdings bergen Abschaltungen auch ein Problem, wie das Beispiel der Überfrequenzen (das sogenannte 50,2 Hertz-Problem) infolge vermehrter Einspeisungen zeigt: Würden nämlich bei Überschreitung des Frequenz- Schwellenwertes die einspeisenden Kleinanlagen schlagartig abgeschaltet, wäre die Netzstabilität ebenfalls gefährdet. Lösungsansätze für dieses Problem werden derzeit erarbeitet. Mit welchen komplexen Netzsteuerungsszenarien zu rechnen ist, illustriert sehr schön die kürzlich veröffentlichte Studie der VNB RMN und Hochschule Darmstadt. Dabei kann es z.B. zu simultanen Überlastsituationen auf verschiedenen Netzebenen kommen, was eine besonders hohe Anforderung für die Smart Grid-Steuerung bedeutet.
  • Verbesserte Nutzung der bestehenden Netzkapazitäten: Um Netzkapazitäten besser zu nutzen und somit den Aufwand für einen Netzumbau  bzw. -ausbau möglichst gering zu halten, ist es zwingend erforderlich, die Asset-Auslastung und -Belastung zu erfassen: Bei Transformatoren z.B. über die kontinuierliche Lastmessungen, um insbesondere Überlastzeiten zu identifizieren,  bei Kabeln z.B. mittels Temperatur-Monitoring. Ein vergleichsweiser radikaler Weg zur verbesserten Kapazitätsauslastung setzt an der Nachfrageseite an und wird daher „Demand Side Management“ genannt. Gemeint ist die Steuerung der Stromnachfrage durch Lastabwurf oder –verschiebung. Das geht natürlich nur unter wohl definierten Bedingungen und dürfte bis auf weiteres vor allem eine Option für Industriekunden sein, insbesondere wenn sie hierdurch signifikante Einsparungspotentiale realisieren können.
  • Kostenoptimiertes Asset Management bei gleichzeitig akzeptabler Versorgungszuverlässigkeit: Die bei den kontinuierlichen Netzmonitoring gewonnenen Informationen dienen zwar primär der unmittelbaren Netzsteuerung, sind aber auch extrem wertvoll für ein zustandsbasiertes Asset Management, weil hierdurch Leistungsabfälle oder Überbeanspruchungen zeitnah und Asset-spezifisch erkannt und dokumentiert werden. Die Effektivität von Instandhaltungsmaßnahmen dürfte sich hierdurch signifikant verbessern. Auch eine kontrollierte Ausdehnung des „normalen“ Lebenszyklus eines Assets wird hierdurch möglich.  Neben dem kontinuierlichen Monitoring können diese Nutzeneffekte auch durch punktuelle Untersuchungen befördert werden, wie z.B. die Überprüfung der Isolierflüssigkeiten von Transformatoren (beispielsweise via Gasanalyse) oder anderen Inspektionsmaßnahmen.

Auf einen Nenner gebracht, geht es bei den genannten Anforderungen darum, Lasttransparenz herzustellen und somit eine aktive Lastverteilung und die Kontrolle der Lastgenerierung zu ermöglichen. Dem ZVEI (Zentralverband Elektrotechnik und Elektronikindustrie) und BDEW (Bundesverband der Energie- und Wasserwirtschaft) zufolge können durch erhöhte Lastfluss- und Infrastrukturtransparenz und die dadurch ermöglichte aktive Lastverteilung die Auslastung des Verteilnetzes um 20 bis 25% erhöht werden.

Idealerweise könnten durch technologische Modernisierung Ausbaumaßnahmen vermieden werden. Aus betriebswirtschaftlicher Sicht handelt es sich hierbei um einen klassischen „Trade-off“ zwischen Investitionen in konventionellen Netzausbau inklusive Betriebskosten versus Investitionen in ein intelligenteres Netz mit umfangreichem Monitoring und einer IT-basierten, weitgehend automatisierten Steuerung. Diese Abwägungsentscheidungen müssen für jedes Netz spezifisch und im Detail vorgenommen werden. Wie viel Monitoring ein Netz tatsächlich benötigt, hängt unmittelbar vom Ausmaß der Einspeisebelastungen ab und der Frage, wie eng das Netz an der Kapazitätsgrenze gefahren werden soll.

Die Wirtschaftlichkeit dieser Investitionen ergibt sich aus der Differenz zwischen dem „Weiter-wie-Bisher“- und dem Modernisierungsszenario.. In der Realität scheitern derartige Vergleiche aber häufig bereits daran, dass nur eine eingeschränkte Transparenz der zukünftigen Ersatzinvestitionen und Instandhaltungskosten auf Basis des Status Quo besteht. Vielen Assetmanagern fehlt schlichtweg das Planungsinstrumentarium sowie das betriebswirtschaftliche Verständnis, um zukünftige Instandhaltungs- und Ersatzbedarfe abzuschätzen und monetär zu bewerten. Aber genau darauf kommt es angesichts des wachsenden Handlungsdrucks an. Auch die für die Auswertung von Massendaten (in der aktuellen IT-Debatte auch „Big Data“ genannt) befindet sich in einer vergleichsweisen frühen Entwicklungsphase. Das gleiche gilt für die Steuerungslogiken selbst.

Sieht man sich die aktuellen Fachbeiträge zu Smart Grids an, so gewinnt man den Eindruck, dass sich viele technischen Lösungen zur Zeit in einer recht frühen Phase ihrer Entwicklung befinden. Das zeigt sich z.B. auch am Automatisierungsgrad der Smart Grid-Leitstellen – hier reichen die Vorschläge von fast vollständig automatisiert auf Basis vorher festgelegter Regeln bis hin zu Assistenzsystemen, die einem hochspezialisierten Leitsystempersonal lediglich Handlungsvorschläge unterbreiten. Im Lichte dieser relativen Unbestimmtheit ist die Initiative der EU Kommission und einiger großer Energiekozerne zu begrüßen, im Rahmen des grid4Eu-Projektes „Showcases“ zu schaffen, in denen unterschiedliche Technologien unter realen Bedingungen implementiert werden. Die Erfahrungen hieraus dürften die oben aufgezeigten Unsicherheiten zumindest verringern.

In der öffentlichen Smart-Grid-Debatte wird freilich selten Tacheles über die Betreiber-internen Umsetzungsbedingungen für die Netzmodernisierung geredet. Statt dessen echauffiert sich die Branche lieber über die modernisierungshemmenden Effekte des bestehenden Anreizregulierungsregimes.  In der Tat hebt die Regulierung stärker auf Kosteneinsparungen als auf Innovationen ab, obwohl auch dieser Befund relativiert werden muss, weil über die Eigenkapitalverzinsung ein gegenläufiger Mechanismus implementiert ist. Allerdings müssen Investitionen auch erst einmal finanziert werden, was parallel zu Kostensenkungen sowie einem hohen Anteil kurzfristig nicht zu beeinflussender, prädeterminierter OPEX (gemeint sind hier v.a. Abschreibungen) problematisch ist. Hinzu kommen Mechanismen wie Fotojahre bzw. Blindspots, die eine zeitliche Konzentration der Investitionen fördern, unabhängig von den tatsächlichen Erfordernissen.

Die Finanzierung durch private Investoren gewinnt daher als Option an Bedeutung. Ein besonders kritischer Punkt bei der anstehenden Netzmodernisierung ist der Bau von Speichern, um fluktuierende Stromgenerierung via erneuerbarer Energien zu kompensieren. Auch der Bau privat finanzierter Kraftwerke ist ein Thema, da spätestens ab 2018 vielerorts mit Kapazitätsengpässen gerechnet wird.  Angesichts der diffusen Planungssituation verwundert es allerdings nicht, dass sich die Privatwirtschaft hier zur Zeit noch abwartend verhält.

Fazit

Angesichts der dargestellten Herausforderungen ergibt sich ein akuter Handlungsbedarf für Verteilnetzbetreiber:

  • Betreiber von Verteilnetzen müssen mit Blick auf die politisch gewollte dezentrale Energieeinspeisung ihre Netze mit automatisierter Intelligenz aufrüsten. Das bedeutet konkret die Einführung eines umfangreichen Echtzeit-Netzmonitorings in Verbindung mit Daten-getriebenen Steuerungstechniken.
  • Der erste Schritt auf diesem Weg ist die Ermittlung des netzspezifischen Modernisierungsbedarfs.  Die Netzbetreiber müssen daher zunächst die regionale Last- und Einspeiseentwicklung prognostizieren. Aufgrund der Planungsunwägbarkeiten bietet sich bereits hier ein Szenarioansatz an. Für die wahrscheinlichsten Lastszenarien sind dann technische Lösungs- und Investitionsoptionen zu ermitteln und im Lichte der Budgetrestriktionen via Simulation zu bewerten. Ein Teil der Netzbetreiber – vor allem die Größeren -, haben diese Übung bereits erledigt oder planen dies in Kürze zu tun. Aber auch kleine und mittelgroße Stadtwerke kommen um diesen ersten Planungsschritt nicht herum.
  • Voraussetzung für diesen Prozess ist das Vorhandensein technisch-betriebswirtschaftlicher Planungskompetenz sowie entsprechender Software-Werkzeuge. Komplexe Szenarien und Simulationen lassen sich nun mal nicht mit Bordmitteln wie Excel sinnvoll bewältigen.  Darüber hinaus bedarf es einer unternehmerischen Einstellung (Stichworte: Entscheidungen unter Unsicherheit, Offenheit für Innovationen) nicht nur beim Management der Netzbetreiber, sondern auch bei den ausführenden Ingenieuren und Asset Managern. Anstatt tausend Gründe dafür zu finden, warum etwas nicht funktionieren kann, sollten die Mitarbeiter konstruktiv an der Lösungsfindung mitwirken.
  • Die Beseitigung dieser mentalen Barrieren ist umso wichtiger, als die Smart-Grid-Technologie sich als solche noch mitten in der Entwicklung befindet. Es handelt sich also nicht um das Ausrollen einer hundertfach erprobten Technologie, sondern um Systeme, die noch in den Kinderschuhen stecken und deren erfolgreiche Einführung auch vom „guten Willen“ der Projektbeteiligten innerhalb der Netzbetreibergesellschaften abhängen.

Angesichts dieser Ausgangssituation könnte es sehr wohl sein, dass die Netzmodernisierung länger dauern wird als bisher angenommen. Das wiederum bedeutet, dass die eingangs erwähnten 2020-Ziele zum Stromanteil erneuerbarer Energien noch einmal auf Machbarkeit überprüft werden sollten bzw. die Umsetzungshürden aggressiver angegangen werden müssen.

Um es vorwegzunehmen: Sinns Buch aus dem Jahre 2008, das seit März diesen Jahres in aktualisierter Fassung vorliegt, sei sowohl umweltpolitischen Novizen als auch Profis dringend zur Lektüre empfohlen. Für Einsteiger ins Thema bietet es eine gut nachvollziehbare Einführung in die naturwissenschaftlich-technischen Hintergründe des Klimawandels sowie eine gute Übersicht zu den zentralen klimapolitischen Maßnahmen im nationalen und internationalen Maßstab. Für Umweltexperten dürften Sinns volkswirtschaftliche Analysen und provokanten Hypothesen zu den nicht-intendierten Rückkoppelungseffekten der Umweltpolitik zumindest wichtige Denkanstöße geben. Das heißt nicht, dass man Sinn pauschal zustimmen müsste. Im Gegenteil. Wie ich in diesem Beitrag zu zeigen versuche, kann man in zentralen Fragen auch zu anderen Schlussfolgerungen kommen.

Aber beginnen wir zunächst mit der – zugegebenermaßen recht groben -Zusammenfassung der Kernthesen von Sinns mehr als 500 Seiten starkem Buch:

  • Der Klimawandel ist real und wird ab Mitte dieses Jahrhunderts zu einer ernsten globalen Bedrohung, falls die Extraktion und Verbrennung von Kohlenstoff ungebremst fortschreitet. Gelingt es nicht, die durch Treibhausgase verursachte Erwärmung auf zwei Grad Celsius einzudämmen, treten selbstverstärkende Effekte auf, durch die sich die Aufheizung der Atmosphäre beschleunigt.
  • Um die Klimakatastrophe in der zweiten Hälfte des 21. Jahrhunderts zu verhindern, sollten fossile Brennstoffe langsamer verbraucht werden, so dass die Natur mehr Zeit hat, die Emissionen zu absorbieren bzw. auf natürliche Weise abzubauen.
  • Die von der Politik geförderte Erschließung neuer Energiequellen führt jedoch dazu, dass sich die Ressourcenbesitzer (insbesondere von Öl und Gas) genötigt sehen, ihre Bestände möglichst schnell auf den Markt zu werfen, bevor sie substituiert bzw. durch Fortschritte im Bereich der erneuerbaren Energien entwertet werden. Wenn also die Nachfrageseite über Subventionen grüne Technologien voranbringt, veranlasst dies die Besitzer der Öl- und Gasquellen nur zu einer schnelleren Extraktion der Kohlenstoffe, auch wenn dies zu Preissenkungen führt. Die Klimapolitik bewirkt nach dieser Logik das Gegenteil von dem, was sie anstrebt. Das nennt Sinn das „Grüne Paradoxon“. In seinen eigenen Worten liest sich das so:

“Bedrohen wir die Ressourcenbesitzer mit einer immer grüner werdenden Politik, die ihnen das zukünftige Geschäft kaput macht […], kommen sie der Bedrohung zuvor und fördern ihre Bodenschätze nur noch schneller. Statt den Klimawandel zu bremsen, beschleunigen wir ihn. Das ist das grüne Paradoxon, das diesem Buch seinen Titel gab.” (Prolog, S. 19)

  • Die Substitution von fossilen Brennstoffen durch erneuerbare Energien führt in dieser Logik außerdem zu sinkenden Weltmarktpreisen für fossile Brennstoffe, was wiederum den Verbrauch in den nicht grün gesinnten Volkswirtschaften in die Höhe schnellen lässt. Im Ergebnis, so Sinn, ist der Nettoeffekt für das Klima Null oder möglicherweise sogar negativ.
  • Ein weiteres von Sinn „aufgedecktes“ Paradoxon betrifft den Zusammenhang zwischen dem CO2-Zertifikatehandel in der EU und den Subventionen für erneuerbare Energiequellen in Deutschland in Gestalt des EEG (Erneuerbare-Energien-Gesetz zur Regelung der Einspeisetarife). Auch hier ist laut Sinn der Nettoeffekt bezogen auf CO2-Emissionsvermeidung bestenfalls Null, weil deutsche Unternehmen infolge des Bezugs von Ökostrom ihre dann weniger benötigten Verschmutzungsrechte auf den Zertifikate-Markt würfen, was wiederum zu einer Verbilligung der Zertifikate führen würde – mit dem Ergebnis, dass dann eben anderswo in Europa die Verschmutzung stattfände. Das Weltklima hätte also nichts davon, aber der deutsche Verbraucher müsste einen höheren Strompreis zahlen. Dass der Zertifikate-Handel nur einen Teil der verschmutzungsverursachenden Industrien abdeckt – vornehmlich Kraftwerke, aber z.B. nicht den Chemie und Autosektor – ist ein weiteres Problem.
  • Neben dem Zertifikate-Handel hält Sinn auch Ökosteuern für ein grundsätzlich sinnvolles Instrument, sofern es einen einheitlichen Preis je emittierter CO2-Menge gäbe. Diese Bedingung sei aber in Deutschland verletzt, weil hier z.B. die Tonne CO2 bei Benzin mit €273 besteuert werde, die Tonne Steinkohle für Heizungszwecke dagegen nur mit €4. Der Staat maße sich an, Technologien besser einschätzen zu können als der Markt. Daraus folge eine Fehlallokation von Fördermitteln.Zum Potential der erneuerbaren Energien hat Sinn eine überwiegend skeptische Sicht:
    • Windenergie kann aus Sicht von Sinn die Atomstromlücke vor allem aufgrund des enormen Flächenbedarfs von Windrädern nicht schließen.
    • Solarzellen spricht Sinn auf absehbare Zeit die Perspektive ab, kostenseitig auch nur annähernd mit den Preisen fossiler Brennstoffe konkurrieren zu können. Dies sei  nur mit massiven, nicht-marktgerechten Subventionen möglich
    • „Clean Coal“, also die Verflüssigung von CO2 aus Kohlekraftwerken und die Sequestrierung im Boden (z.B. in Bergwerkschächten) hält Sinn nur im kleinen Maßstab für sicher durchführbar.
    • Die Produktion von Biotreibstoffen hält Sinn für hochriskant, da hierdurch die Nahrungsmittelpreise steigen, was Hungerkatastrophen und unkalkulierbare soziale Unruhen zur Folge haben könne.

Sinn sieht vier Lösungsansätze, um den Klimawandel doch noch zu verlangsamen:

  • Ein weltweit ratifiziertes Super-Kioto zur Bildung eines weltweiten Nachfragekartells, das die Ressourcenanbieter zwingt, die Kohlenstoffextraktion zu reduzieren.
  • Eine weltweite Quellensteuer, die Anlage von Geld aus dem Ressourcengeschäft unattraktiver macht und die Ressourcenbesitzer dazu veranlasst, ihre Förderung kurzfristig zu drosseln, um langfristig bei steigenden Preisen mehr zu profitieren
  • Verstärkte Investitionen in die Weiterentwicklung (insbesondere in Hinblick auf Sicherheitstechnik und Entsorgung) und Expansion der Atomenergie, da sie unter den Kriterien Kosten und CO2-Vermeidung alternativlos sei
  • Eine radikale Aufforstung des weltweiten Baumbestandes bei gleichzeitigem Stopp der Brandrohdung, um den natürlichen CO2-Abbau zu forcieren

Sinn fährt hier am Ende seines Buches in mehrerlei Hinsicht schwere Geschütze auf. Würde man diese Lösungsansätze ohne ihre Herleitung lesen, könnte man meinen, Sinn sei unter die Utopisten gegangen. Mit Kenntnis ihrer Herleitung muten sie wie Achsel-zuckende Resignation an nach dem Motto: Der Patient ist kaum noch zu retten, weil die hierfür notwendigen Maßnahmen politisch kaum zu realisieren sein werden. Diese Schlussfolgerung formuliert Sinn allerdings nicht selbst, sondern überlässt sie dem geneigten Leser.

Nun kann Resignation ja durchaus rational sein, wenn die Herausforderungen realistischer Weise nicht zu bewältigen sind. Aber wie zwingend ist Sinns Argumentation wirklich?

Ob Sinns skeptische Einschätzung der Effizienzpotenziale erneuerbarer Energien zutrifft, ist eine von technischen Experten zu beantwortende Frage. Auffällig ist indes, dass Sinn wiederholt die geringe aktuelle Relevanz von „grünen“ Technologien hervorhebt, z.B. bezogen auf Photovoltaik, anstatt klarere Aussagen zu den Lernkurven und zukünftigen Kostensenkungspotenzialen dieser Technologien zu machen.

Erwähnt sei an dieser Stelle, dass die von der European Climate Foundation beauftragte und in wesentlichen Teilen von McKinsey erarbeitete Studie „Roadmap 2050“ eine 80 prozentige CO2-Reduzierung in der EU innerhalb der nächsten 40 Jahre technisch für möglich hält, wenn das gesamte Portfolio der zur Verfügung stehenden Instrumente – von Wasserkraft über Solar- und Windenergie bis hin zur Geothermie – zum Einsatz komme und sich gleichzeitig die Elektromobilität massiv durchsetzt. Atomstrom und CO2-Lagerung im Boden spielen in diesen Szenarien ebenfalls eine wichtige Rolle.

Aber ungeachtet der technischen Bewertung, lohnt es sich, Sinns argumentative Konsistenz kritisch zu prüfen.

Zu den Paradoxien des „Grünen Paradoxon“

Beginnen wir mit dem Kernargument, dass die Angebotsseite nur in geringem Maße preissensitiv sei, d.h. die Ressourcenbesitzer verringern nach dieser Lesart ihr Angebot nicht, wenn der Preis infolge sinkender Nachfrage zurückgeht. Die Furcht vor einer langfristigen Substitution führt vor dem Hintergrund dieser Annahme zu einer kurzfristigen Vermehrung des Angebots, weil die Ressourcenbesitzer lieber „auscashen“ wollen, bevor ihre Ressourcen entwertet werden. Diese Logik erscheint plausibel, aber ist ihr Eintreten auch wahrscheinlich?

Sinn argumentiert, dass Solarzellen nicht einmal annähernd die Kosteneffizienz von Öl und Gas erreichen werden (bezogen auf kinetische Energie), der Windenergie aufgrund der Flächenrestriktionen enge Grenzen gesetzt sind und auch CO2-Endlagerung im Boden nicht die Lösung ist. Wenn diese recht allgemeinen Einschätzungen stimmen, dann besteht doch gar kein Grund für die Ressourcenbesitzer, ihre fossilen Brennstoffe schneller zu extrahieren und in die Atmosphäre zu blasen, es sei denn es gäbe einen künstlichen Substitutionsdruck via Subventionen. Mit anderen Worten: Die Annahme einer Koinzidenz beider Szenarien, die begrenzte Substitutionseffizienz grüner Energieerzeugung bzw CO2-Endlagerung und die Entwertungsfurcht der Ressourcenbesitzer, wäre nur dann plausibel, wenn die Besitzer fossiler Brennstoffe die massive Subventionierung erneuerbarer Energien weltweit befürchten müssten, d.h. wenn sozusagen der deutsche Fall die Regel wird. Aber genau das stellt Sinn ja in Abrede, weil er davon ausgeht, dass Länder wie die USA und China eben eher ihren individuellen Vorteil suchen und weiterhin billiges Öl/Gas verbrauchen würden, als an der Subventionsschraube zu drehen oder andere Maßnahmen zu ergreifen, die fossile Brennstoffe in großem Umfang ersetzen.

Ein weiteres Beispiel für mangelnde argumentative Konsistenz stellt das Kapitel über die Atomenergie dar. Würde Deutschland, dem Beispiel Frankreichs folgend, Kohlekraftwerke durch Atomkraftwerke substituieren, dann hätte das auf den Zertifikate-Markt den gleichen Effekt wie die vermehrte Produktion von Wind- oder Sonnenenergie: Die Zertifikate würden sich verbilligen, so dass anderswo die Verschmutzung fortschreiten kann. Es ist erstaunlich, dass Sinn seine eigene Logik nicht auf die Atomenergie anwendet.

Nach der Logik des „Grünen Paradoxons“ müsste im übrigen auch der Ausbau der Atomenergie die Substitutionsängste der erdölfördernden Staaten schüren und damit die Extraktionsgeschwindigkeit beschleunigen. Auf diese Implikation geht Sinn nicht näher ein. Unscharf bleiben auch die Implikationen aus der Internalisierung der Versicherungskosten für Atomenergieunfälle. Sinn erwähnt zwar, dass diese Kosten eingepreist und idealerweise über externe Anleger finanziert werden sollten, die Kostenvergleiche mit fossilen und erneuerbaren Energieträgern finden aber auf der Ebene der Ist-Kosten statt. Gerne hätte man hier zumindest preisliche Szenarien gesehen.

Wünschenswert wären außerdem klarere Aussagen und Szenarien, wie schnell man im Zertifikate-System die zulässigen EU-Emissionsvolumina senken sollte, insbesondere im Hinblick auf den industriellen Kostenwettbewerb mit Ländern außerhalb der EU. Das Ergebnis dieser Betrachtung würde sich auf Sinns Kernargument unmittelbar auswirken: Werden die Emissionsreduktionsziele aggressiver gesetzt, kann der Verbilligung durch grüne Technologien entgegengewirkt werden. Dieser Aspekt wird von Sinn zwar erwähnt, aber keiner detaillierteren Analyse unterzogen, was insofern seltsam anmutet, als es sein Kernargument zentral betrifft.

Zusammenfassend lässt sich also folgern: Die im „Grünen Paradoxon“ enthaltene Annahme, dass die grüne Klimapolitik Deutschlands und der EU die Ressourcenbesitzer zu einer schnelleren Extraktion ihrer Bodenschätze veranlasst, ist unlogisch: Wenn USA und China sich  in der Frage der CO2-Reduktion gegenüber Europa unkooperativ verhalten, verkaufen die Ressourcenbesitzer ihr Brennstoffe eben nicht mehr an Europa, sondern an den Rest der Welt. In diesem Fall hätte die grüne EU-Politik den Ressourcenabbau zwar nicht aufgehalten, aber auch nicht beschleunigt, weil ja gar keine globale Substitution der Kohlenstoff-Ressourcen droht. Wenn nun aber die außereuropäischen Supermächte sich für den grünen Weg entscheiden, dann ist ja der Weg frei für ein “Super-Kioto”, so dass das Grüne Paradoxon ebenfalls nicht eintritt.  Das Sinnsche Szenario droht eigentlich nur, wenn zwischen der Absichtserklärung, ein Super-Kioto, d.h. also ein globales grünes Nachfragekartell, zu bilden und der Umsetzung zu viel Zeit verstreicht. Das wäre dann in der Tat das Signal für einen Ressourcenausverkauf, aber das ist eben auch kein sehr wahrscheinliches Szenario. Viel bedrohlicher als das Grüne Paradoxon ist m.E.  eine unvollständige oder zu langsame Umsetzung der „Roadmap 2050“  (die Gründe hierfür, die viel mit politischen Stukturen zu tun haben, sprengen den Rahmen dieses Beitrags), so dass nicht einmal die Chance auf signifikante Substitutionsprozesse fossiler Energieträger besteht.

Gesinnungsethik als Voraussetzung für Fortschritt?

Nachdem nun die Implikationen von Sinns zentraler Argumentation kritisch betrachtet wurden, soll im Folgenden über das dem „Grünen Paradoxon“ zugrunde liegende Zielsystem nachgedacht werden.

Das primäre politische Ziel ist die Vermeidung von Treibhausgas-Emissionen. Ein zweites, auch von Sinn erwähntes Ziel ist die Energie-bezogene Versorgungssicherheit angesichts zunehmender Verknappung preisgünstiger fossiler Brennstoffe. Drittens schließlich soll auch der soziale Frieden erhalten werden, was durch die preissteigernde Wirkung von Biosprit auf Lebensmittel gefährdet erscheint.

Es gibt noch ein viertes Ziel, oder ökonomisch ausgedrückt, eine vierte Nutzenfunktion: Man kann den Wunsch der Verbraucher, Sonnen- oder Windenergie zu nutzen, als eine Art Markenpräferenz verstehen, die einen emotionalen Nutzen stiftet. Der demokratisch legitimierte Staat transformiert diese Präferenz in entsprechende Förderprogramme unabhängig von ihren kurzfristigen globalen Effekten. Deutschland wird sozusagen zum Öko-Missionar, weil es den emotionalen Nutzen bei vielen Bürgern erhöht, oder anders gesagt, weil es die Werte dieser Bürger wiederspiegelt. Wenn früher das Zweitauto Glücksgefühle hervorrief, so ist es morgen eben der Beitrag zur Naturerhaltung. Siehe Ausstieg aus der Atomenergie. Auch Preiserhöhungen werden hier offenbar von großen Teilen der Bevölkerung in Kauf genommen.

Schuldig macht sich die Politik gegenüber den Bürgern allerding dann, wenn die emotionale Nutzenmaximierung auf irreführenden oder gar falschen Versprechungen beruht. Das ist übrigens auch bei Marken so, um auf die Analogie zurückzukommen: Wenn das Markenversprechen nicht mit der tatsächlichen Produktleistung übereinstimmt, erodiert die Markentreue und der damit verbundene emotionale Nutzen.

Aber was ist das Versprechen der Klimapolitik? Es dürfte den meisten Bürgern klar sein, dass die nationale oder selbst die EU-Gesetzgebung das Weltklima per se nicht retten kann (in diesem Punkt hält Sinn m.E. die Bürger für dümmer als sie tatsächlich sind). Das Versprechen scheint mir eher darin zu bestehen, nationaler „Vorreiter“ einer fortschrittlichen Klimapolitik zu sein, wohl wissend, dass diese nur im globalen Rahmen wirkt, und hoffend, dass über ein Erfolgsbeispiel andere Staaten zum Mitmachen motiviert werden.

Das besondere dabei ist: Klimapolitik wird gewissermaßen zur individuellen und kollektiven moralischen Pflicht, auch wenn der Erfolg nicht nur von einem selbst abhängt und sich möglicherweise auch gar nicht einstellt. Simpel ausgedrückt: Selbst wenn der nationale Alleingang für sich genommen nichts bringt, muss man es dennoch tun, um ein Zeichen zu setzen. Diese Unbedingtheit könnte man als „gesinnungsethisch“ betrachten, aber nicht wie bei Max Weber mit einem abwertenden Beigeschmack, sondern positiv als Ausdruck eines starken motivationalen Antriebs.

Ob eine derartige moralische Vorreiterrolle tatsächlich „naiv“ ist, wie Sinn meint, bleibt abzuwarten. Moralisierung hat schon in anderen Zusammenhängen gewirkt. So sind beispielsweise menschheitsgeschichtliche Errungenschaften wie die Ächtung von Sklaven- und Kinderarbeit nicht allein ökonomisch zu erklären. Auch wenn beispielsweise China die Menschenrechte nach wie vor mit Füßen tritt, geht auch an den dortigen Machthabern die Mobilisierung der Weltöffentlichkeit nicht spurlos vorbei. Beim Thema Klima dürfte der interkulturelle gemeinsame Nenner eher größer als kleiner sein, geht es immerhin um die Bewahrung der eigenen Lebenswelt.

Angesichts des steinigen Weges, den die globale Klimapolitik vor sich hat, ist jedenfalls unklar, wie sich Sinn politisch die Genese eines Super-Kioto ohne Massenmobilisierung qua Moralisierung vorstellt. Vernunftgründe alleine werden kaum ausreichen, um die massiven interessenpolitischen Widerstände auf Seiten der negativ betroffenen Industrien in den „grünen“ Ländern zu überwinden. Der Vorwurf der Naivität lässt sich an dieser Stelle leicht an den Absender zurück senden.

Fazit

Es ist eigentlich erstaunlich, warum Sinns Buch, das zum produktiven Widerspruch und erhellender Diskussion einlädt, in der deutschen Blogosphäre sowie auch in anderen öffentlichen Foren nicht stärkere inhaltliche Resonanz jenseits oberflächlicher Verurteilungen und Beifallsbekundungen findet. Die Auseinandersetzung lohnt sich! „Paradox“ ist allerdings, das gerade das Ernstnehmen und „Zu Ende Denken“ der von Sinn aufgezeigten Wirkungszusammenhänge zu Schlussfolgerungen führt, die eher für als gegen die aktuelle deutsche Klimapolitik sprechen und somit teilweise deutlich von Sinns Interpretation abweichen.

Kommentar zu Heinemann-Vortrag auf der d3con

Florian Heinemann, der ex-Rocket Internet CEO und neue Managing Director von Project A, hat als Key Note Speaker auf der 3Dcon-Konferenz Ende März in Hamburg der versammelten Online Advertising-Szene die Leviten gelesen – und das durchaus auf ebenso unterhaltsame wie informative Weise.

Heinemann beklagt, dass Display-Advertising bis heute sein technologisch-wirtschaftliches Potenzial nicht entfaltet habe. Die ganze Szene leide unter einem Innovationsstau, was für alle Marktteilnehmer, aber insbesondere für Advertiser ein äußerst unbefriedigender Zustand sei.

Heinemanns Hauptkritikpunkte sind:

  • Retargeting gehört zu den wenigen Display-Innovationen, die den Mainstream erreicht haben. Allerdings adressiert diese Technologie nur einen kleinen Teil dessen, was Display prinzipiell zu leisten vermag. Der Retargeting-Use-Case beschränkt sich auf die zielgenaue Ansprache von Verbrauchern, die durch den Besuch einer entsprechenden online Angebotsseite bereits Interesse an einem Produkt gezeigt haben. Das eigentliche Potenzial von Display besteht jedoch darin, neue Nutzer anzusprechen und sie in den transaktionsnahen Bereich zu führen.
  • Die Transaktionskosten für „intelligentes“ Display-Advertising sind zu hoch:   Von einem Euro TKP gehen bis zu 60 Cent in die Taschen der AdExchanges, Real-Time-Bidding (RTB)-Technologieanbieter und der Datenanreicherer.  Angesichts dieser Kostenstruktur ist nachvollziehbar, dass viele Advertiser lieber mit der Schrotflinte arbeiten und ihre Werbung weiterhin „ungetargeted“ streuen (implizit sagt Heinemann hiermit, dass die Verringerung der Streuverluste wirtschaftlich nicht signifikant höher ausfällt als die hierdurch verursachten Kosten).
  • Von wenigen Ausnahmen abgesehen (hier erwähnt Heinemann explizit United Internet) qualifizieren die Publisher ihr AdImpression-Angebot nicht hinreichend. Die Aufwände hierfür werden auf den Advertiser abgewälzt.
  • Publisher verkaufen Display-Space nach wie vor primär über View-Cookie-Metriken.  Advertiser denken dagegen Conversion-bezogen und können daher wenig mit den View-Cookie-Infos anfangen.
  • Der Advertiser leidet außerdem unter der hohen Fragmentierung des Publisher-Angebots und der daraus eingeschränkten Wiedererkennung des Nutzers.
  • Während die deutsche Publisher- und Media-Agentur-Szene auf der Stelle tritt, gewinnt Google mit seinem Content-Network und dem SEM-Wissen über die Nutzer weiter an Marktmacht. Die Folgen reichen über das Display-Geschäft hinaus. Auch Affiliate Marketing ist betroffen, konkurrieren doch Spieler wie z.B. Zanox um den gleichen Ad Space wie Google.

Diese Bestandsaufnahme ist so ernüchternd wie richtig. Sie ist allerdings nicht neu. Kenner der Szene stoßen seit Jahren ins selbe Horn, wenn auch häufig hinter vorgehaltener Hand, um sich geschäftlich nicht zu schaden.

Allerdings ist es  – wie immer – viel leichter einen unbefriedigenden Zustand zu kritisieren als überzeugende Lösungen zu präsentieren. Das zeigt sich teilweise auch bei Heinemanns Vorschlägen:

  • Publisher sollten in Vorleistung gehen und Umfang und Tiefe der Cookie-bezogenen Information (z.B. durch Integration der CRM-Daten) erweitern und idealerweise ohne Aufpreis den Advertisern zur Verfügung stellen.

Dieses Postulat von Heinemann impliziert, dass Publisher sich bisher gegen technische Innovationen im Display-Advertising gesperrt hätten. Das ist nur halb richtig. Es stimmt, dass die meisten großen Contentanbieter bis zum heutigen Zeitpunkt eine geringe Affinität zum Medium Internet und technischen Innovationen haben. Zum Teil herrscht auch eine intellektuelle Verweigerungshaltung vor, wenn es um ein tieferes Verständnis von Targeting-Lösungen geht. Dennoch muss gesagt werden, dass große Publisher Jahrelang mit Targeting-Ansätzen experimentiert haben. In vielen Fällen waren die Resultate einfach nicht überzeugend. Ich habe an anderer Stelle die Gründe hierfür erläutert.

  • Publisher sollte sich zusammenschließen und ihr Inventar „poolen“, so dass  Kontaktfrequenz und damit auch die Qualität von Cookie-Profilierung und  Targeting steigen.

Eine Publisher-übergreifende Plattform zu bauen, scheitert bisher nicht nur an der Mentalitätsbarriere der Akteure bezüglich verlagsübergreifenden Kooperationen. Mindestens ebenso wichtig dürfte die fehlende Überzeugung sein, dass die Qualität des Targetings durch eine gemeinsame Plattform tatsächlich steigt. Außerdem müsste in einer solchen Konstellation auch eine Lösung für die Trennung von Premium- von Remnant-Inventar gefunden werden, was an sich schon ein komplexes Thema darstellt. Dass Premium Publisher an Demand Side-Plattformen wenig Interesse haben, kann man ihnen sicher am wenigsten verübeln, da ja dann dort die Arbitrage-Gewinne durch Cookie-Veredelung weitgehend an ihnen vorbeigehen würden.

  • Technologie-Startups sollen intelligente Algorithmen bereitstellen, die relevante Targeting-Informationen aus den Cookie-Daten extrahieren.

Hier trifft Heinemann den Nagel auf dem Kopf. Die Fähigkeit aus dem via Cookie erfassten Surfverhalten der Verbraucher effektive Werbeempfehlungen abzuleiten liegt in der Tat auf dem kritischen Pfad des Display Advertising-Evolution. Mehrere Generationen von Personalisierungs- bzw. Targetinganbietern haben sich hieran ihre Zähne ausgebissen.

Allerdings ist es mit Algorithmen alleine nicht getan. Die Vorstellung, es gäbe eine magische Formel, die beobachtetes Verhalten in relevante Interessenaffinität übersetzt,  ist ohnehin abwegig. Vielmehr geht es darum eine Methodik zu entwickeln, die aussagekräftiger als bisher Verhalten profiliert, bevor mit dann mithilfe moderner Data Mining-Methoden Konvertierungsprofile ermittelt werden können. Dieser erste Profilierungsschritt lag lange Zeit im toten Winkel der Targeting-Debatte. Kritische Themen wie Profilierungstiefe je Cookie und Anteil der Cookie-Profilierung am gesamten Surfverhalten sind Stiefkinder der Targeting-Debatte, obwohl sie zentral sind für den Erfolg von Targeting-Kampagnen.

Wenn das Problem der Profilierung und der damit einhergehenden Analytik deutlich überzeugender als bisher gelöst wird, besteht eine echte Chance für RTB-Marktplätze, die in Sekundenbruchteilen die Ad Impression mit den höchsten erwarteten Konvertierungsrendite ermitteln. Wie sehr dann noch das Premium Inventory der großen Publisher benötigt wird, ist eine interessant Frage. Eine Frage, die Premium-Publisher zurecht mit Sorge erfüllt. Heinemanns Apell an die Publisher, sie sollten sich doch an die Spitze der Innovationsbewegung setzten, verkennt die Gefahr, dass die Publisher zu den Verlierern in diesem Innovationsprozeß zählen werden.  Aber auch die andere Alternative ist für die Premium-Publisher nicht besonders reizvoll: Angesichts der voranschreitenden Google-Expansion im Display-Advertising ähneln sie einem Frosch im Wasserglas, der auf den Temperaturanstieg des Wassers erst dann reagiert, wenn es zu spät ist. Und möglicherweise ist dieser Zeitpunkt bereits überschritten…

Mit Blick auf diese beiden Bedrohungen, die Targeting-Innovation im allgemeinen und die Google Expansion im besonderen, ist das krampfhafte Festhalten am Status Quo aus Sicht der Premium Publisher am Ende vielleicht sogar rational: Wenn man die Zukunft nicht gewinnen kann, dann ist es sinnvoll, den Wandel solange wie möglich aufzuhalten, um in der Zwischenzeit weiter zu profitieren. Der Dumme ist dabei letztlich wieder der Endverbraucher, weil diese Verlangsamung des Wandels einer besseren Monetarisierung von Internetangeboten jenseits des Premium Contents entgegenwirkt, was sich wiederum auch qualitativ negativ auf das Angebot auswirkt.

Wie dem auch sei, man darf gespannt sein, in welcher Form Project A, die neue berufliche Heimat von Herrn Heinemann, in diesem Themenfeld agieren wird…

Tagged with:
 

Das Thema Ressourceneffizienz hat zur Zeit auf der politischen Bühne Konjunktur. Am 29. Februar 2012 verabschiedete der Bundestag gegen die Stimmen der Opposition das von der Bundesregierung vorgeschlagene Ressourceneffizienzprogramm (kurz „ProgRess“).  Das Programm fokussiert auf nicht-fossile abiotische Rohstoffe (Erze, Bau- und Industriemineralien) sowie auf die stoffliche Nutzung biotischer Rohstoffe. Es strebt eine „weitgehende Entkopplung des Wirtschaftswachstums vom Ressourceneinsatz sowie die Senkung der damit verbundenen Umweltbelastungen, die Stärkung der Zukunfts- und Wettbewerbsfähigkeit der deutschen Wirtschaft und dadurch die Förderung von stabiler Beschäftigung und sozialem Zusammenhalt an“ (S. 24 der Beschlussvorlage). „Globale Verantwortung“ und reduzierte „Inanspruchnahme von Ressourcen“ sind weitere Elemente der allgemeinen Zielsetzung.

Der mit der Historie dieses Entwurfs nicht Vertraute mag fragen, ob Ressourceneffizienz nicht ein primär betriebswirtschaftliches Thema, zumindest in einer marktwirtschaftlichen Ordnung: Ist es nicht Kernaufgabe der Unternehmen, ihren Ressourceneinsatz zu optimieren? Regeln nicht Märkte die Ressourcennutzung? Werden Ressourcen knapp, steigt der Preis und Unternehmen setzen weniger teure Substitute ein. Welche Legitimation hat der Staat hier einzugreifen?

Der Gesetzentwurf beantwortet diese Legitimationsfrage nicht direkt. Standardargumente der Umweltpolitik wie  „Marktineffizienzen“ infolge Nicht-Einpreisens öffentlicher Güter und Umweltschäden oder primär kurzfristig ausgerichteten unternehmerischen Handelns sucht man vergeblich.

Statt dessen werden fünf  übergeordnete Handlungsansätze benannt:

  1. Nachhaltige Rohstoffversorgung sichern
  2. Ressourceneffizienz in der Produktion steigern
  3. Konsum ressourceneffizienter gestalten
  4. Ressourceneffiziente Kreislaufwirtschaft ausbauen
  5. Übergreifende Instrumente nutzen (z.B. Ressourcenverbrauch fördernde Subventionen, Verbesserung der Wissensbasis, Beratung etc.)

Die unmittelbar wirtschaftlich relevanten Themen werden als erste genannt. Diese Reihenfolge ist wohl kaum zufällig gewählt. Drohende Ressourcenengpässe (z.B. bei Seltenen Erden) sind in der Tat für Teile der Industrie eine reale Bedrohung. Aus industrieller Sicht ist hier staatliche Unterstützung durchaus willkommen, solange die Teilnahme der Unternehmen auf Freiwilligkeit beruht. Das gilt auch für Ressourcen-Effizienz-bezogene Förderprogramme im Bereich der betriebswirtschaftlichen Beratung und Prozessoptimierung.

Es ist natürlich nicht allzu schwer, diese Art von Politikgestaltung als „zahnlosen Tiger“ und „Politiksimulation“ zu desavouieren, wie in der Gesetzesdebatte im Bundestag geschehen. Die Kritiker fordern konkretere Maßnahmen und ein stärker steuerndes Eingreifen jenseits des Freiwilligkeitsprinzips.  Die Instrumente sind ja prinzipiell bekannt und häufig auch erfolgreich erprobt (Stichwort Ökosteuern, Technologie- und Nutzungsbezogene Subventionen, Normierung etc.). Die Befürworter stärkerer regulatorisches Eingriffe müssen sich allerdings die kritische Frage gefallen lassen, ob die aktuelle Wissensbasis über die komplexen Zielkonflikte und Wechselwirkungen im Bereich der Ressourcennutzung für detaillierte Steuerungsmaßnahmen überhaupt ausreichen.

Kritik an ProgRess lässt sich auch aus dem Lager der Industrie vernehmen. Man mag dem BDI dabei interessenpolitische Voreingenommenheit und ökologische Lippenbekenntnisse vorwerfen. Zum Teil leistet er dieser Lesart selbst Vorschub mit grotesken Verallgemeinerungen wie z.B. der Behauptung, dass Ressourcenabbaustätten häufig Hot Spots der Biodiversität seien („der Uhu z.B. nistet vorzugsweise in Steinbrüchen“). Gleichwohl muss man dem  BDI zugestehen, in seiner Replik auf den ProgRess-Entwurf im Mai 2011 auf einen wesentlichen Problemzusammenhang hingewiesen zu haben:

Grundsätzliche Zielkonflikte in der Umwelt- Ressourcen- und Klimapolitik werden in ProgRess ausgeblendet. So machen zum Beispiel die ehrgeizigen Ziele der Bundesregierung im Klimaschutz den vermehrten Einsatz von Baumaterialien bei der dafür unverzichtbaren energetischen Sanierung von Gebäuden notwendig. Auch am Beispiel E-Mobilität wird der Zielkonflikt zwischen energetischer und stofflicher Ressourcenschonung sehr deutlich: Die klimapolitische Priorität der Reduzierung der Nutzung fossiler Energien wird erreicht durch eine veränderte Nutzung stofflicher Ressourcen (je nach spezifischer Ressource stärkere oder schwächere Nutzung). Daraus folgt, dass eine isolierte Betrachtung den Zusammenhängen nicht gerecht wird und die Beschränkung des Ressourcenbegriffs auf abiotische und nichtenergetische Rohstoffe die Definition und Erarbeitung von übergeordneten widerspruchsfreien Zielen und Lösungen erschwert. (Punkt 4, S. 2).

Für den Konflikt zwischen Klima- und Ressourcenzielen führt der BDI als Beispiel an, Zellstoff würde als Biomasse zunehmend direkt der thermischen Nutzung zugeführt, obwohl doch eine vorherige stoffliche Nutzung sinnvoller wäre (Punkt 25, Kommentar zu Handlungsansatz 11, S. 9)

Nun ist es natürlich nicht so, dass BMU, UBU und Wuppertal Institut als wesentliche Treiber des Ressourceneffizienzansatzes diese Zielkonflikte nicht kennten oder ignoriert hätten. Zum  Zusammenhang zwischen stofflicher und energetischer Ressourcennutzung – z.B. sequenziell in Form der Kaskadennutzung – hat das Wuppertal Institut selbst Forschungen angestoßen und veröffentlicht.

Allerdings beruht die Herausforderung in der Tat darin, unterschiedliche Bewertungsperspektiven in einer ganzheitlichen Sicht zusammenzufügen, insbesondere die Rohstoffverfügbarkeit mit der ökologischen Schadensverursachung, wobei bei letztere möglichst viele Schadensaspekten (Treibhausgase, Ozon, Toxische Wirkungen etc.) zu berücksichtigen sind.

Die Berechnung der Ressourceneffizienz im engeren Sinne beruht auf der übergreifenden MIPS-Methode (Material-Input pro Serviceeinheit).  Die Ressourceneffizienz eines Gebäudes z.B. wird danach nicht nur am Energieverbrauch während der Nutzung errechnet, sondern schließt den Bau, einschließlich dem Abbau der hierfür erforderlichen Rohstoffe, sowie den Rückbau am Lebenszyklusende mit ein. Der Fokus dieser Methode liegt somit auf der Minimierung der eingesetzten Stoffmenge. Es soll möglichst wenig Natur verbraucht werden.

Betrachtet man zusätzlich auch die Emissionswirkungen bei der Stoffgewinnung, verarbeitung und –entsorgung so komplettiert sich das Bild. Wichtig ist dabei, dass die Mengenbetrachtung nicht per se die ökologische Wirkung impliziert. So kann es z.B. vorkommen, dass ein Verfahren mehr Material verbraucht, aber dafür weniger schädlich für Klima und Umwelt ist.

Eine derartige umfassende Perspektive ist zur Zeit aber noch die Ausnahme. Weit verbreitet sind dagegen Stoffvergleiche auf Basis des CO2 Ausstoßes („Carbon Footprint“) entlang des Lebenszylus der Anwendung. In Fahrzeugen genutztes Aluminium beispielsweise generiert während der Herstellung einen um Faktor vier bis fünf höheren CO2 Ausstoß als für die gleiche Masse Stahl. Da aber Aluminium deutlich leichter ist, kann bei mehr als 150.000 gefahrenen KM der anfängliche CO2 Nachteil kompensiert und in einen Minderverbrauch verwandelt werden (das Beispiel ist aus dem Vortrag von Dr. Marko Gernuks, Ressourceneffizienz – was wollen wir damit eigentlich erreichen? 3. November 2010).

Für viele Produkte greift allerdings eine nur Emissions-bezogene LCA (Life Cycle Analysis)-Betrachtung zu kurz. Dies lässt sich z.B. an der aktuellen Diskussion über die ökologische Verträglichkeit des iPads illustrieren: Die hierzu veröffentlichten Vergleiche fokussieren auf den „Carbon Footprint“, ohne dabei die aus dem Abbau des Ressourcenbestandes folgenden ökologischen und ökonomischen Probleme zu thematisieren.

Es geht eben nicht nur darum, wie CO2-verträglich die Herstellung von Papier ist, sondern wie sich die Papiererzeugung auf das Abholzen von Wäldern auswirkt und ob diese „Entnahme“ aus der Natur über Aufforstung schnell genug kompensiert werden kann, insbesondere in einem Kontext, wo sich zur Verwertung von Biomasse die Waldrodung beschleunigt.

Das gleiche gilt natürlich für die im iPAD genutzten seltenen Erden und Metalle, die ebenfalls zur Engpassbildung bei diesen Rohstoffgruppen beitragen.  Mit anderen Worten: Die zukünftige Rohstoffverfügbarkeit und die ökologisch- und ökonomischen Folgen der Nicht-Verfügbarkeit sind grob abzuschätzen und damit in die Vergleiche miteinzubeziehen.

Derartig ganzheitliche, diverse Wechselwirkungen betrachtende Wirkungsanalysen sind allerdings aus drei Gründen komplex:

  • Erstens benötigt man empirische Daten über den gesamten Lebenszyklus, idealerweise aus einer spezifischen Produktperspektive, da diese ja wirtschaftliche Entscheidungen in der Regel bestimmt
  • Zweitens bedarf es einer vergleichenden Perspektive, d.h. auch die Alternativen des jeweiligen Stoffeinsatzes in einem Produkt sind bezüglich ihrer Ressourceneffizienz und ökologischen Wirkungen zu untersuchen.
  • Drittens sind vielfältige wirtschaftliche und ökologische Rückkoppelungseffekte zu berücksichtigen

Für die Berechnung komplexer ökologischer Rückkoppelungs- bzw. Wirkungsketten bedarf es leistungsfähiger Software-Werkzeuge. Das hat z.B. auch das VW Forschungsteam erkannt, das im Rahmen seiner  im Herbst 2011 erschienenen, vom BMU geförderten Potenzialanalyse für Lithium und Kobalt ein System Dynamics-Tool eingesetzt hat. Die Autoren der Studie führen drei wesentliche Vorteile der Systems Dynamics-Methodik gegenüber herkömmlichen Stoffstrommodellierungen an:

  • Zukünftige Systemzustände, insbesondere „Verzögerungseffekte“ können gut simuliert werden
  • Die Einflussgrößen des System werden nicht unabhängig voneinander betrachtet, sondern in ihrer kausalen Wechselwirkung, so dass auch „verstärkende Rückkoppelungseffekte in die Analyse miteinbezogen werden“ (ebd, S. 6)
  • Die Auswirkungen von Einzelentscheidungen werden über mehrere Stufen hinweg sichtbar

Natürlich lässt sich auch mit einer solchen Methodik die Zukunft nicht sicher vorhersagen. Allerdings wird der Einfluss spezifischer Annahmen auf die Auswirkungen und Verfügbarkeiten von Primär und Sekundärrohstoffen (Recycling) deutlicher, so dass das systemische Gesamtverständnis wächst. Und das wiederum ist eine wichtige Voraussetzung, um die Qualität von Entscheidungen zu verbessern, die unter Unsicherheit in der Gegenwart getroffen werden (wobei Nicht-Eingreifen übrigens auch eine implizite Entscheidung ist, für die sich die politisch Verantwortlichen gegenüber nachfolgenden Generationen zu rechtfertigen haben).

Auch die Auswirkungen staatlicher Regulationen lassen sich in Form von alternativen Szenarien simulieren. Damit schafft man das Risiko nicht-intendierter Konsequenzen staatlicher Eingriffe nicht ab, kann es aber idealerweise besser abschätzen.

Dass das Thema „Nicht-intendierte Konsequenzen“ wichtiger wird, zeigen auch jüngere Veröffentlichungen zum „Rebound-Effekt“. Darunter versteht man, dass Effizienzgewinne häufig dazu führen, Produkte erschwinglicher bzw. attraktiver zu machen, was wiederum nachfragesteigernd und im Ergebnis zu einem Ressourcenmehrverbrauch führt. Ein klassisches Beispiel hierfür liefert die Automobilindustrie: Der steigende Wirkungsgrad der Motoren führt zu einem Anstieg der Leistung und im Zusammenspiel mit weiteren Innovationen und Rahmenbedingungen zu Preissenkungen. Im Ergebnis führt dies zu einer wachsenden Gesamtnachfrage  und nicht zu sparsameren Verbrauch. Noch komplexer wird es bei übergreifenden Effekten, d.h. Einsparungen aufgrund von Effizienzverbesserungen bei einem Produkt können zu Mehrausgaben und damit zu erhöhten Ressourcenverbrauch bei anderen Produkten führen. Im Ergebnis ist daher davon auszugehen, dass sich Ressourceneffizienz systemisch nur mit einem signifikanten Abschlag positiv auswirken. Damit soll nicht den Kritikern das Wort geredet, sondern verdeutlicht werden, dass auch solche zunächst kontraintuitiven Rückkoppelungen bei Wirkungsschätzungen grob zu berücksichtigen sind.

Fazit:

Angesichts der dargestellten methodisch-analytischen Herausforderungen ist es erfreulich, dass ProgRess in seinem Punkt 5 ausdrücklich die „Erweiterung der Wissensbasis“ einfordert. Die Frage, wie sich dieses Wissen sinnvoll generieren lässt, liegt auf dem kritischen Pfad einer erfolgreichen Implementierung des beschlossenen Ressourceneffizienzprogramms.

Sicher, über die Zielpriorisierung werden sich ökonomische und ökologische Interessenvertreter auch bei einer stark verbesserten Wissensbasis nicht ohne weiteres einigen können. Das heißt aber nicht, dass Zielkonflikte unter den Teppich gekehrt werden sollten, um sich dann auf den kleinsten gemeinsamen inhaltlichen Nenner zu einigen. Dieser Nenner könnte in der Tat zu klein sein, um Weichenstellungen bei der Ressourceneffizienz herbeizuführen. Vielmehr sollten die ökologisch-ökonomischen sowie Ökologie-internen Zielkonflikte explizit gemacht werden. Nur so lassen sie sich analysieren und die Ergebnisse anschließend produktiv diskutieren.

Das gilt ebenso für Regulierungsvorschläge. Werden deren Auswirkungen systematisch abgeschätzt bzw. über problemadäquate Szenarien-Simulation besser verstanden, so besteht begründete Hoffnung, dass sich die Debatte zwischen privatwirtschaftlichen und ökologischen Interessenvertretern zunehmend versachlicht und an inhaltlicher Tiefe gewinnt.

As explained in my previous post, the case for Big Data and related enabling analytical and processing technologies is not entirely self-evident for enterprises in the short term, although there is little doubt about the long-term value. So far I have argued that:

  • Big Data should not only be referred to social media and machine-to-machine communication, but understood as evolutionary phenomenon driven by computerization and digitization of our entire social and economic system over the past 25 years – data explosion had been a trend before the internet produced unprecedented volumes of structured and unstructured data.
  • by introducing this historical perspective, the relevance and the challenges of reconciling old and new big data worlds can be fathomed in a more comprehensive way – the interrelation between Big Data technologies (in the narrow sense of the word), next generation Enterprise Data Warehouses (EWHs) and in-memory analytics platforms becomes clearer.
  • the lessons learned from high volume data analytics since the mid 90s is also relevant for the new Big Data challenges. A key insight is: Extracting business value from operational data is not trivial and requires much more than analytics, e.g. supporting business processes and trained knowledge workers
  • the go-to-market approach of the new EWH (like SAP HANA) and Big Data technologies (like Hadoop) is not a no-brainer. Solid business cases are required for introducing these innovations to the market.

Let us see what renowned market research companies have to say about this business case aspect: IDC claims that the Big Data analysis “impact is potentially enormous” It provides a whole list of Big Data business use cases, positioning them along the two axes “data velocity” (from batch to real time) and “data variety” (structured, semi structured, unstructured). Looking at the latter axis, it is noticeable that:

  • the majority of use cases are being listed under the “structured data” column. Among those you find many of the usual suspects, which have been subject to advanced analytics for almost two decades now (e.g. fraud detection, risk assessment, event based marketing)
  • under “semi-structured data” you just find social media sentiment and disease analysis
  • under “unstructured data” only video surveillance analysis is listed
  • supply chain use cases are almost not mentioned or look very specific (e.g. demand forecasting in manufacturing)

So far, the new Big Data world appears less disruptive than announced. Let’s have a look at the “data velocity axis”: Here only a few real time business use cases are listed, again mostly in the structured segment (risk/fraud assessment, event based marketing). These analytics use cases are quite familiar. New Big Data sources might enrich their data foundation, but they are not creating entirely new use cases according to IDC.

Greenplum, a leading Big Data analytics platform provider combining a MPP relational database with enterprise-class Apache Hadoop, provides a slightly different perspective when presenting a selection of key Big Data use cases on its website:

  • Social Networking: The example here is LinkedIn, the leading professional networking tool with over 100 million members
  • Energy: Analyzing and processing smart grid data
  • Health Care: Mapping geography of crime incidences with local health care financing reveals deficiencies of the health care system; using data analysis for forecasting pandemic threats
  • Artificial Intelligence: Designing human-robot interaction technologies; for instance IBM Watson, a machine built to compete with human intelligence

The most mature and relevant of these use cases seem to be Smart Grid and Social Networking. The remaining use cases, although very promising, are apparently still at research stage.

Social Networking can be segmented in B2C platform providers such as facebook, LinkedIn, xing etc and third party platform providers such as Lithium or Jive, who are enabling other businesses to offer user-to-user interaction. But how many big players do exist in these the-winner-takes-it-all platform markets? These markets are huge in terms of users but limited in terms of potential customers for software vendors. And quite frequently these players are building their own tools.

So, if Social Networking is a specific segment, what are the processing and analytical requirements for ordinary companies with regard to Social Media then? The answer is: Theoretically a lot, e.g companies can monitor forum discussions in order to detect negative viral effects early on or to proactively address customer service issues in public, thereby reducing the call center call volume. Some companies in the high tech sector are even instigating social media discussions on their own platforms as an attempt to partly “outsource” customers service and product development to their own users (the famous dell storm example). In conclusion, the in-house Social Media use cases are not so compelling yet that they will drive Big Data analysis for enterprises in the mid term.

Let us return to the second high potential case of the Greenplum list. The smart grid case stands for a general trend: Basic infrastructure (energy, buildings, traffic systems etc.) becomes more intelligent, driven by the need to create an increasingly resource efficient economy. Smart energy networks will enable more efficient energy production and distribution through equipping consumers and network assets with meters and sensors, which constantly exchange data with network management. Smart buildings will save energy through distributed sensors for differentiated on-demand heating. Automated visual traffic monitoring at gateway roads of large cities will bring about toll systems with beneficial fiscal and environmental effect. All these cases are likely to have a huge impact on the economy and they all depend on massive data processing and analysis. But, will these cases drive adoption of high volume analytics in the next two to three years?

The other open question is where the intelligence will reside – in central databases or rather in decentral self-regulating processes and assets. If the latter is the case, technology wise complex event processing (CEP) might be more required than super fast processing of massive amounts of data in EWH-like environments.

If the assumption is correct that most of these Big Data use cases will still need some time to “cross the chasm” and hit mainstream markets, what will happen to the “traditional” Big Data use cases from the IDC list? Will they drive the adoption of innovative high volume data analytics?  The term “innovative” comprises all recent advancements from MPP data warehouse technology over in-memory analytics up to Hadoop-like distributed computing frameworks in combination with key value stores (see part 1 of this blog).

How do the big software “gorillas” Oracle and SAP answer this question? Which business cases do they promote in order to market their enhanced analytics capabilities?

Oracle has launched in 2008 the Exadata Server (software/hardware packaged) for OLTP and data warehouse workloads, addressing explicitly high performance needs. In addition – as already mentioned in part 1 of this post – Oracle has introduced a “Big Data Appliance” in which you find – among other things – an enterprise version of Hadoop, Oracle’s own key value store and the open source analytics suite R. This bundle is presented as an extension to Oracle 11g. The explicit use case focus is on unstructured web data. Oracle mentions as main business value generating features the ease of installation and enterprise-class reliability. Overall this looks a bit like a me-too approach to occupy timely a growing niche. Briefly before the start of its Big Data initiative Oracle launched Exalytics as new in-memory flagship, thereby obviously trying to reduce the gap towards SAP in this segment.

IBM has also made its move with the acquisition of Netezza, a high performance MPP database for high volume of data, while beefing up DB2 with the smart accelerator, an in-memory database for small to medium sized datasets which initially had been introduced as stand-alone product in 2010.

As already mentioned in part 1 of this post series on Big Data SAP has made its new database and analytics product HANA a core strategic initiative for their entire product portfolio. The current SAP HANA marketing focuses on speed of analysis. SAP claims that

  • HANA is up to 10k times (in some cases even more than 100k) faster than current analytical infrastructure
  • reducing waiting time between queries from hours to seconds changes the quality and scope of data exploration and enables extremely fast reporting.
  • faster iterations will enable in-depth exploration and thus yield better results. Analysis becomes a sort-of real time dialogue, so the promise.

A second message refers to prospects of lower TCO thanks to the consolidation of heterogeneous databases, especially of data redundancies between the transaction and data warehouse layer. The third benefit which SAP marketers mention, is enhanced data reliability. Time savings can be used for data quality checks.

The 13 customer testimonials published on the SAP website repeat these arguments. Sure, one should not overestimate this kind of “marketing propaganda”, which often reflects more the software provider’s intentions than authentic experiences of customers, especially when it comes to such a young product. The fact for instance that the two SAP customers Colgate-Palmolive and Infosys report exactly the same time savings (analysis running time has been reduced from 77 minutes to 13 seconds) is a little bit awkward, given that these companies probably do not share a common database.  Regardless the authenticity level of these testimonies, it is still interesting to see which use cases are being mentioned there and how business benefits are being derived.

Some of the more substantial testimonials mention product and customer profitability analysis as a use case with immediate business impact. As the CIO of BASF reports the response times of this type of analysis can be reduced from 620 seconds (a little bit over 10 minutes) to 5 seconds for a single product category. If a business owner demands such an in-depth analysis for only one product you could argue that the delta between 5 seconds and 10 minutes is not really relevant. A strategic controller, however, wants to have an overview on product related EBIT performance throughout his entire product portfolio. What does this mean for a company like BASF with 250k customers? One might argue that such an analysis does not need to be performed on the most granular product level and that the product group level is sufficient. If one assumes that ten product articles belong to a product group, we are left with 25.000 articles. If we further assume that this in-depth EBIT calculation is only required for the top 20% in terms of EBIT generation, we end up with 5.000 categories for analysis. This translates into 37 days of calculation without HANA vs 7 hours with HANA. This in fact makes a real difference from a business point of view.

However, one needs to be aware that in many corporations the data inputs for calculating EBIT on product level are not readily available. This discussion goes way back to the roots of Activity Based Costing (ABC), which was invented by Kaplan in the late 80s. The original concept did not really work in practice due to the lengthy data generation processes (employees have to continually report the time spent on business relevant activities). Data processing was also an issue of course. In 2004 Kaplan introduced with “Time- Driven Activity-Based Costing” (published in HBR, 2004) a more practicable version of his original concept, working with all kinds of proxies based on data inputs from IT systems since in the meantime ERP systems and other application had started to record the duration of business processes and related human activities.

I do not know how far BASF progressed in assigning direct and indirect labor costs to specific products and what share labor costs have in their overall cost structure.  But I do know that many other companies have huge deficiencies here. My hypothesis is that most companies need to introduce new data generation processes and change data structures before HANA or a comparable super fast engine can add real value. This is not a counter argument to the in-memory trend, quite the opposite, the message to the strategic controllers and business consultants of the world is that finally ABC cost analysis and thus detailed product and customer related profitability analysis has become a realistic option. But it is more required than a software migration to exploit the real value from accelerated analytics. In many cases data generation and business processes need to be adapted as well.

Having said that, there are of course also use cases where processes do not need to be changed in order realize the benefits from faster analytical processing. The example of Nong Fu Spring, a Chinese distributor of bottled water and fruit drinks, points out that using HANA ETL processes could be shortened and business logic calculation reduced from one day to 37 seconds without changing the query script. Executives receive now account reconciliation reports 24 hours earlier, which the Nong Fu Spring testimonial evaluates as huge progress. Unfortunately, the interviewed executive does not explain the concrete business advantages deriving from this time saving. You could think of more precise forecasting, leading to decreased freight costs, or higher retailer satisfaction thanks to lower local inventory levels. It might well be that in this case like in many other supply chain operations gaining one full day is a real game changer. In other industries, however, this does not need to be the case.

As far as I can see, these two case studies are representative for the way software providers are currently marketing the value of the in-memory database revolution: The messages are still too much technology driven – as if speed alone would bring business value. This is understandable for those use cases where no empirical evidence exists yet, but not for the cases where relevant experience is already available. The speed focused argumentation might be sufficient to convince CIOs. Business owners are usually more demanding. They have learned over the past 20 years that software as such is rarely a panacea for their business problems. And they would like to understand the whole solution including the business requirements. According to a recent TDWI survey “lack of business sponsorships” for Big Data technology is one of the top-three adoption barriers for this technology besides costs and lack of big data skills (TDWI research, Big Data Analytics, Q 4th 2011, p. 12; author: Philip Russom).

The marketing argumentation around Big Data technology is also suffering from another weakness, the tendency to see real-term analytics as generally applicable business requirement. This can be illustrated by a SAP sponsored IDC whitepaper about Smart Meters.

Smart meters do produce massive amounts of data. So, processing and storing requirements are enormous. IDC suggests rightfully using energy consumption data to segment the customer base into separate cluster of consumption profiles, in order to improve forecasting quality and to improve network efficiency. But is this a real-time case? And if yes, in which respect? Energy consumption patterns on household level are usually quite stable; it is very unlikely that they shift hourly, weekly or even monthly (apart from the seasonal variations of course which need to be normalized). In order to find discriminating segmentation criteria you do not need the data of the entire population, a representative sample is good enough. Applying the segmentation algorithm to the entire database of user does require some computing power, but would this  take weeks with a conventional database technology as it is the case in our product profitability example? It might well be, although I doubt it. The issue is that the whitepaper does not provide this differentiated view. The actual real-time processing requirement follows from another, more operational use case, the immediate response of the network in case of consumption pattern shifts. The role HANA plays in such a CEP (Complex Event Processing) is worth to be explored.

The lack of a clear distinction between real-time analytical exploration and real-time analytical processing requirements can easily lead to wrong conclusions.  Analytical exploration aims at identifying relevant business patterns in data streams, analytical processing transforms these insights into business rules and applies them to the entire dataset. While analytical processing may or may not require real-time processing throughout the entire dataset, exploration mostly neither requires real-time nor a comprehensive dataset basis.

Amazon’s recommendation engine is an example for an application where real time business rule execution and a comprehensive data set are required, but not real-time exploration: The transaction and view based product associations (people who looked at/bought item A also looked at/bought item xyz) can be calculated well before the user visits the website. When a user’s HTTP request hits the server, a pre-calculated business rule has to be executed only a few milliseconds later.

A typical example for a use case where both analytical exploration and processing do not require real-time, is anti-churn analytics. Profiles of churners can be assessed based on historical data and the identified profile patterns projected to the entire dataset so that churner can be identified within a certain probability range. Since profiles are not changing within hours or even days and customers can be easily identified and addressed any time, real-time pressure is almost not existent.

The anti-churn analytics case illustrates another widespread misconception about the amount of data needed to build real time executable business rules. In environments where the long tail of events does not dominate the business, valid business rules can be derived from small to medium sized samples. Big Data analysis is just not required in these cases. Once identified in the sample, business rules can be applied to all relevant operational data.

A contrary example is A/B testing for contextual online advertising. In order to determine the ad space with the highest conversion, many controlled conversion experiments need to be conducted simultaneously. The ad space with the best performing conversion-price ratio will then become the ad delivery focus. Given the limited campaign run-time, exploration and execution should be time wise closely together. The real-time application of the test insights is a must.

To cut a long story short: In order to evaluate the relevance of in-memory analytics, companies should segment their processes according to these different real time requirements.  A good mental tool for evaluating the relevance of real time analytical processing is to ask what the business consequences are if the deadline is missed.

If real-time requirements are not urgent, there might still be other reasons why investing in analytic performance makes sense, e.g. in order to conduct a more granular analysis or to lower TCO. One should do the right things for the right reasons instead of  motivating everything with alleged real time requirements.

Summing up the lessons learned from this post, I like to highlight four messages:

  • Many of the Big Data use cases are still early stage and will take off only in the medium term
  • However, impressive short term analytics use cases for high volume data sets seem to exist (e.g. SAP HANA’s product profitability case), although the marketing of these cases is overly technology focused
  • There is a lot of confusion in the market place around the business value of real time analytics.  In most cases the real advantage of high performance analytics lies in time efficiency (the ability to process huge volume of data in short time period) and not in real time availability of results
  • There is currently a huge opportunity for business consultants to explore together with their clients the business value of the new tools.

In my next post I will look into the relevance of Semantic technology for Big Data analytics.

Tagged with:
 

In the last couple of years “Big Data” has become the buzz word in the worldwide Business Intelligence scene. And not only there: Top management consultancies have joined the IT crowd in praising the relevance of Big Data, pointing out the untapped strategic potential of Big Data processing and analysis.

Having spent more than half of my professional career with business intelligence topics, many times even evangelizing them, I am somehow enthused about these positive headlines on Big Data and analytics.  But looking at them from a more sober perspective, I strongly feel that this new hype needs to be put into perspective.

Yes, it is true that we are facing an unprecedented data deluge caused by the democratization of computing within and outside businesses and the resulting digitization of information and communication in the upcoming “All-IP-World”.  The worldwide data volume is predicted to increase by factor nine in the next five years – mainly due to the continued expansion of Social Media, Rich Media (esp. video streams) as well as geospatial and real time sensatory data feeds as the “Internet of things” evolves.

As I will argue in this post, however, most of these seemingly infinite data streams can be safely ignored from an analytic point of view. “Sometimes a cigar is just a cigar”  Siegmund Freud once said.  With regard to our topic we might continue “and data just manifestations of operational functions without further business value”. From a processing or storage perspective of course the picture looks different. New types of data management infrastructures are in fact needed to deal with Big Data. But these technical requirements need to be evaluated in light of their potential business impact. The real challenge is to identify those Big Data use cases, which significantly improve business propositions and processes. In other words: We need to move from a technical to a business driven view on the Big Data challenge.

Before explaining this conclusion in more detail, I would like to take a step back and have a look at the definition and the history of Big Data.

The McKinsey Global Institute suggests referring the expression Big Data to “datasets whose size is beyond the ability of typical database software tools to capture, store, manage and analyze.” One might find it surprising that the research institute of a business consulting firm uses such a technical explanation. According to this definition Big Data disappears once databases can handle larger datasets.

Gartner offers a more fruitful definition. For them the term Big Data “used to acknowledge the exponential growth, availability and use of information in the data-rich landscape of tomorrow”. According to Gartner the key dimensions of this trend are increasing data volume, variety (data from different sources) and velocity (data describing movements in time). These three dimensional axes are in fact very useful when it comes to determining Big Data related business requirements.

IDC’s introduces data quality as additional characteristics of Big Data: Besides the rise of new types of structured data (geospatial information, datafeeds from sensors) unstructured (e.g. Video streams) and semi-structured data (such as texts in blog posts or on Social Media platforms) will drive the data explosion in the coming years.
In order to fully understand the Big Data phenomenon I suggest adding the “data generation context” as explanatory dimension .  Most of what we call Big Data is an operational byproduct of digitization. This kind of data might be turned into information through analysis, but their primary raison d’etre is operational.  E.g. most of digital communication (person-to-machine, machine-to-machine) is being stored without clear intention to analyze it – if we leave players like Google aside for a moment. Together with “intentionally” created data points, e.g. in context of customer profiling (e.g. through registration) and KPI measuring, they become the object of analysis. The same is true for digital traits of business processes and applications like e.g. in CRM or sales support systems. These data mostly reside in various operational databases and applications. Making them accessible for analytical purposes is a challenge on its own (we will come back to this aspect later).

Another implication of my proposed definition is that Big Data should not be seen merely as phenomenon of the presence and future. Digitization, which is almost ubiquitous today, did not happen overnight. Leading retailers for instance reached a data volume of petabytes before the “Big Data” label had been coined. The increase of enterprise data volumes certainly accelerated at the beginning of the millennium through the take-off of the Internet in general and Social Media specifically. But the Internet is not the only Big Data driver. Since the 90s IT systems started to produce unprecedented amounts of digital data. Consequently, many large brick & mortar corporates commenced experiments with high volume processing and analysis in this period.

In these early days many of these initiatives have been labeled as “data mining”. They usually started as proof of concept projects where the theoretical business case had to be confirmed with real world data. Early adopters had been large mail order, telecommunications and finance companies. This first generation of projects centered pretty much on basic transactional and contractual customer data. Early business case successes had been:

  • churn analysis, identifying customer profiles with high affinity towards contract termination
  • One-to-one marketing and microsegmentation in the context of customer acquisition and retention (incl. cross- & upselling) based on customer profile and preference analysis,
  • Fraud detection based on typical fraud profiles

This first generation of Big Data analysis led to multiple learnings:

  • Not every analytical insight is actionable, e.g. identifying individuals with a high churn propensity does not necessarily mean that contract termination can be prevented and that it is economical to do so
  • Big data based customer profiles do not always add value to existing market research based segmentations
  • Data analysis requires inputs from heterogeneous data sources, a minimum data quality and a logically consistent data model. As a consequence, usually a lot of manual effort went into data preprocessing (building data models, determining missing values, data cleansing, consistency check etc.) and modeling
  • The integration of analytics with existing IT environment is often complex and costly
  • The application of data mining methods goes beyond the capability of ordinary business users, even if they are analytically minded – thus, expensive analytics experts are needed to perform sophisticated analyses with high-end tools (e.g. SPSS data mining, SAS etc.)
  • Setting up analytics processes is a cross-functional endeavor – besides analytics experts stakeholders from IT and business lines need to be involved

In view of these challenges “Big Data” analysis remained by and large an “ivory tower” discipline with limited organizational footprint. This first Big Data analytics wave was big business focused. Small and medium sized enterprises shied away from investments in analytic infrastructure and overhead.

While analysts made their first experience with digital enterprise data, corporate IT departments started to replace project related ad hoc data extraction from operational system by a systematic approach to store and analyze data.  The goal was to create an integrated enterprise data view. Data warehouses (EDW) with structured ETL (extract, transfer load) routines for further analytical processing should do the job.

The key characteristic of the EDW concept is the separation of operational (also called transactional or OLTP layer) from informational environments. When this concept had been specified in the mid 80s two main reasons motivated this approach: The existing productive systems did not have the capacity to be enriched by further data sources, and conducting analyses on productive data was regarded as potentially cumbersome for data quality. In addition, EDWs had the function to enable historical trend analysis and structured business reporting along relevant dimensions. At that time this simply could not be realized on the OLTP layer (for the historical EDW emergence see Barry Devlin)

EDWs have been a major step forward in dealing with the increasing amount of enterprise data, but the downsides of this approach became obvious very soon:

  • EDWs duplicate data, thereby driving data volumes. The productive data are copied and then normalized in the EDW environment. From there they are copied into datamarts so that departmental analysts can satisfy their specific information needs.
  • Extracting data from the productive system has been a challenge in itself and a real capacity burner for IT departments and system integrators.
  • Since ETL (Extract, Transfer, Load) happens usually in batch processing mode the EDW and data mart view is rarely real time
  • EDW queries require SQL statements and a good understanding of the underlying data model. Thus, specialized professional expertise is mandatory to operate a EDW or even a datamart. As a result database personnel has become more and more an operational bottleneck, often discouraging business users to instigate data queries and analysis

These downsides explain why EDW projects last rather years than months and inflate IT budgets significantly, while business users are complaining about the unsatisfactory EDW performance.

As it turned out, there is also another, quite fundamental issue hampering the EDW approach: EDWs do not control the quality of the data inputs. If the various productive systems are built on different concepts of a user or a customer, the resulting confusion gets mirrored in the EDW. This is why Master Data Management Systems (MDMs) have evolved over the past few years. They address the root causes of data quality issues already on the OLTP level where so called Master Data repositories are being created with clear definitions, standards and data quality rules for key business objects such as customers, accounts, suppliers, products, locations etc.  The resulting master data hub displays authoritative data, or – to put in colloquial terms – only one version of the truth. The master data are then synchronized via a SOA layer with underlying productive systems, potentially correcting and augmenting these, as well as with EDWs and BI systems. On top of these technical MDM features business processes and data governance need to be defined, otherwise MDM will not work.

This does not only sound complicated, it is complicated. Top management needs a lot of strategic intent to make MDM happen. In view of the EDW and MDM challenge it becomes clearer why Big Data analysis have not been progressing faster on the corporate level of many enterprises.

On departmental level an entirely different trend took place during the past decade. More and more employees learned to operate with simple spreadsheet tools, especially excel, in order to build low to medium complex models such as business cases, reports, calculations etc. At the same time the “democratization” of business intelligence tools took place: Formerly expensive database server for data marts as well as stand-alone OLAP and reporting services have been integrated and offered to unprecedented low prices. Microsoft with its omnipotent SQL Server had been a major driver behind this trend. Microsoft incorporated even advanced data mining services into the SQL server, thereby competing head-to-head with expensive premium tools (although data mining as a methodology is to complicated to become a massively used application in the foreseeable future).

What does this mean for Big Data? Two opposite effects can be identified: The increased access to BI tools on departmental level certainly increased the ability to independently analyze data. The results of these analyses, however, can be viewed as bottom-up contribution to the data deluge. Unfortunately, most of these data do not make it to the central EDWs. They reside on departmental servers or – even more common – on the computers of the middle managers who generated these data. The term “excel silos” expresses the downsides of this approach: A lot of knowledge is not accessible for the entire corporation although it might be highly valuable.

BI firms address these effects by embedding spreadsheet functionalities into comprehensive analytics platforms. The currently most popular labeling for these platforms is Corporate Performance Management (CPM). The adoption rate (understood as actual usage) of these BI suites is limited. This does not come as a surprise since the upside for the individual user is limited (this will be the topic of a separate blog post).

An entirely different Big Data use case is the automation of business processes. The idea is to replace human decision-making through permanent measuring of process conditions in combination with business rules. Human intelligence is not entirely removed of course, since the business rules need to be defined beforehand. In this use case Big Data event streams function as inputs for the rules engine, which then trigger the start of processes and thus the generation of new data points for further decisions. In combination with the now more affordable distributed BI tools this type of embedded, actionable analytics, also called Complex Event Processing (CEP), can be tremendously useful in stable business environments. As long as processes are subject to frequent changes, however, the setup costs for intelligent process automation are simply too high.

The most recent and most important driver for Big Data volumes has not been specifically described yet: The rise of the Internet. The Internet is a huge digital touch point where individuals and companies leave all kinds of traces. A whole industry has emerged with the goal to turn these data into valuable business information. Web monitoring and analytics systems help to optimize the user experience on web sites. Cookie based tracking systems have lead to detailed customer profiling, giving advertisers the opportunity for personalized product offerings and advertising (see my older, but still relevant blog posts on this topic).  Apart from Google it was especially amazon with its personalization system that proved the value of Big Data. Many smaller players have adopted these best practices in recent years. The methodology of amazon is not unheard of though. The key item-to-item collaborative filtering algorithms of its patented recommendation engine for instance are in fact quite simple. What makes amazon really innovative is its ability to handle this massive amount of data under real time requirements. The same is true for Facebook, which also developed innovative methods to handle massive real time data analysis.

It is in this context that the so called NoSQL (mostly translated as “Not only SQL”) movement came into existence as alternative to Relational Databases Management Systems (RDBMS) as they are used in EDWs. Traditional EDW environment with their batch ETL processes, data quality checks and normalization procedures have simply not been fast enough to satisfy the specific needs of these huge online platforms.

NoSQL databases do use neither table schemas nor join operations. Consequently, they do not require SQL for queries. This deliberately less sophisticated approach relaxes the strict data quality and normalization requirements of RDBMS for the sake of better performance. Werner Vogel, the CTO of amazon, even avoids the term database for its NoSQL Dynamo system and instead speaks about a“highly available key value storage system”.

Key value stores like that of amazon or Facebook’s Cassandra system carry per key only the value of interest. Unlike in RDBMS all the other attributes of this key are neglected so that reading and calculating is much faster. In addition most of these key value stores are column based, which has also a positive effect on performance.

Facebook databases are also graph based, which is another form of NoSQL. Business objects are displayed as nodes to which attributes can be flexibly assigned. Transferred to social network, nodes are persons and they are linked with each other. Thus, graph databases are an highly efficient way to store

social graphs. If for instance the relationship path between two persons on Facebook shall be determined, the systems just needs to follow the connected nodes. In a relational database the identification of the connecting path would afford significant computer power and time, because it had to go through the friend relationships of the entire user IDs between these two nodes in order to determine the connecting path. Thanks to graph databases such Neo4J, FlockDB, AllegroGraph, Graph DB or Infinite Graph this effort can be minimized.  The principle of graph databases can be applied to all kinds of network like or hierarchical structures. In small to medium size datasets, however, the advantage over relational databases is less relevant.

Real-time analysis of Big Data requires massive processing power. Google was one of the first Internet giants facing this problem. Its answer was MapReduce, a software framework for processing large datasets on distributed clusters of computers. A similar approach had been taken by the open source project Hadoop which big online players like Yahoo! and Facebook deployed successfully. A specific strength of Hadoop is the efficient processing of unstructured data as it is common in Social Media.

The fact that Big Data online players are quite successful with NoSQL databases together with distributed application frameworks does not mean the end of EDWs. Firstly, real-time performance is not always required. Secondly the processing of unstructured data becomes more important, especially in light of the Social Media and semantic technology revolution, but is still not a key requirement in many industry sectors. Thirdly depending on the type of request, EDW databases cannot easily be substituted in case of complex queries on structured data.

Thus, Big Data technologies like Hadoop are for the time being rather supplements than substitutes of corporate Big Data storing and processing environments. Companies like Cloudera are actively pushing the commercialization of Hadoop. Oracle and IBM have already launched Big Data suites with Hadoop as one key component.

These developments can be interpreted as first steps of a major paradigm shift in enterprise data management. According to Barry Devlin, a seasoned database expert, the EDW of the future will integrate operational and informational environments, thereby avoiding the duplication of data.  The idea is to have just one layer for all conceivable data types: from structured data such as transactions, measurements, spreadsheet analysis over semi-structured data such email or call center protocols to unstructured data such as video data feeds. All of these data would be accessible real time via metadata, which are also part of this unique data layer. These metadata qualify the data logically so that they can be accessed in an action oriented (case-by-case) way or integrated into workflows. A separate interface layer would reflect the different use case need from an actor perspective, spanning from an real time view of data entries to an in-depth, tool supported analysis of historical data records.

Technology wise Devlin’s visionary BI architecture has started to materialize. SAP’s HANA (High-Performance Analytical Appliance) platform is currently the most ambitious initiative in this respect. HANA is in its core an in-memory column and raw based database, which will eventually become the one and only data layer for SAP applications. The first step on this strategic architectural roadmap lets HANA function as an additional layer on top the existing OLTP and business warehouse layer for agile modeling and reporting. The promise here is to speed up data analysis by a three to four digit factor. The second step is to integrate the data management function of the EDW so that the EDW layer just manages the HANA metadata. At this stage HANA will already have a built-in application engine so that applications can send data intensive operations to HANA. The first two steps are already underway. In the medium term HANA will replace the OLTP layers. All applications will run on data residing in-memory. The whole solution will also be moved to the could where it will be the basis for multitenant Java and ABAB applications (see Gartner, SAP Throws Down the Next-Generation Architecture Gauntlet With HANA, Oct 13, 2011)

No doubt, the bandwagon is rolling, but its speed and extension largely depends on concrete business cases. Alternatively you can of course become a true believer right away as a former SAP employee and current consultant for SAP seems to suggest: “Once HANA is in place as the database under SAP BW, customers will find many more ways to use HANA to transform their enterprises to much higher levels of performance, much as word processors, e-mail, and browsers are transforming business and society.” How can you respond to this one? May be with a slightly modified proverb: “In god we trust, all others bring business cases”.

The current business case argumentations for the new data management revolution can be clustered into six types:

  • “Analytical land grabbing”: Greater analytical power enables the calculation of previously not analyzable data volumes
  • “Deeper actionable insights”: Faster analysis leads to more scenario iterations and thus to better planning quality on a granular level
  • “Higher data reliability”: Time savings from accelerated analytical processing can be used for more detailed data quality check and on the fly corrections
  • “Bigger bang for the buck”: Higher analytical power translates into a better price-performance ratio with regard to direct software costs
  • “Platform consolidation gains”: Lower software infrastructure CAPEX and OPEX thanks to consolidation of data management layers
  • “Data mashup”: Enriching enterprise information landscape through merging Enterprise data with unstructured data, e.g. from Social Media

How convincing are these benefits in the short and medium term? Which are the most affected use cases? Which industry and lines of business could be first movers? These question will be discussed in my next post.

Tagged with: