Wer dieser Tage „Big Data“ als Suchwort bei  amazon.de eingibt, wird an erster Stelle auf das im Titel genannte Werk von Viktor Mayer-Schonberger und Kenneth Cukier verwiesen. Für gewöhnlich stehe ich Management-Literatur skeptisch gegenüber, aber als ich den „Pressestimmen“ zum Buch entnahm, dass auch Clay Shirky, ein geistvoller Social-Media-Theoretiker, sich in höchsten Tönen über dieses Buch geäußert hat, gab ich der one-Click-Buy-Versuchung nach.

Um es vorwegzunehmen. Das Buch wird den Lobeshymnen nur teilweise gerecht. Allerdings sind gerade seine Schwachpunkte sehr lehrreich.

Fangen wir mit den positiven Aspekten an: Mayer-Schonberger/Cukier  schlagen einen weiten Bogen – von der  Sozialhistorie des Messen und Quantifizierens und kausaler Denkmodelle bis hin zu neueren Erkenntnisse führender Behavorial Economists bzw. empirischen Psychologen (wie z.B. Kahnemann). Diese intellektuellen Ausflüge sind nicht Selbstzweck, sondern verorten das Thema in einem breiteren, die reine BWL-Perspektive erfreulicherweise überschreitenden Kontext.

Erfreulich ist zudem, dass sich die Autoren um eine grundlegende Beschreibung des Big Data- Phänomens bemühen. Danach zeichnet sich Big Data durch folgende Merkmale bzw. Eigenschaften aus (ich zitiere hier einige Kernsätze aus dem englischen Original):

  • „Big data refers to things one can do ta large scale that cannot be done a a smaller one, to extract new insights or create new forms of value, in ways that change markets, organizations, the relationship between citizens and governments, and more.“ (S. 6)
  • „Big data gives us an expecially clear view of the granular: subcategories and submarkets that samples can’t access.“(S. 13)
  • „Processing big data entails an inevitable loss of information“ (S. 45)
  • What we lose in accuracy at the micro level we gain in insight at the macro level.“ (S. 13)
  • „Big data is about what, not why“ (S. 14)
  • „Causality won’t be discarded, but it is being knocked off its pedestal as the primary fountain of meaning (S. 68)
  • „In place of the hypothesis-driven approach, we can use a data driven one“ (55)
  • „At its core, big data is about predictions“ (S. 11)

Bis auf den letzten Punkt, zu dem ich eine abweichende Auffassung vertrete (dazu später mehr), beschreiben diese pointierten Sätze wesentliche Kennzeichen des Big Data-Ansatzes. In der Tat geht die Verarbeitung operativer Massendaten in Echtzeit mit einer Reduzierung von Genauigkeit und Kontrolle einher. Anders als bei relationalen Datenbanken werden die Daten nicht auf die x-te Ebene normalisiert, um dann auf unterschiedlichste Weise miteinander in Beziehung  gesetzt werden zu können. Vielmehr werden Daten unterschiedlichster Provenienz in verteilten Dateisystemen (z.B. Hadoop-Cluster) geladen, um umfassendes Monitoring und Analysen zugänglich gemacht zu werden. Mit Hilfe von Key Value-Stores, die einfache korrelative Beziehungen abbilden, gelingt es, die erforderliche Geschwindigkeit bei der Analyse zu gewährleisten. Dabei geht – wie die Autoren richtigerweise betonen – nicht um Kausalanalyse, sondern um das Erfassen korrelativer Beziehungen und deren Veränderungen im Zeitverlauf.

Die Aussage der Autoren, dass Big Data ein Hypothesen-freier Ansatz sei, ist insofern korrekt, als die Integration unterschiedlichster Datenquellen weitgehend unabhängig von konkreten Annahmen zu Wirkungs-zusammenhängen erfolgt.  Leider versäumen es die Autoren darauf hinzuweisen, dass hypothesenfreie Mustererkennung keine Big Data-Innovation ist,  sondern bereits seit mehr als 20 Jahren unter der Bezeichnung „Data Mining“ praktiziert wird.  Die eigentliche Innovation von Big Data besteht darin, Analysen nicht mehr auf Stichproben, sondern auf der Grundgesamtheit durchzuführen („n=all“). Das macht vor allem dann einen qualitativen Unterschied, wenn es sich um selten auftretende Muster, Nischenregeln bzw. „Outlier“ handelt, wie es Mayer-Schonberger/Cukier  nennen. Die Autoren versäumen es allerdings darauf hinzuweisen, dass es in allen anderen Fällen hinreichend ist, Muster auf Sample-Ebene zu detektieren und die ihnen zugrunde liegenden Regeln auf die Grundgesamtheit automatisiert anzuwenden.

Aber auch letzteres  ist nur ein Anwendungsfall von Big Data. Es lassich auch jenseits von automatisierter Regelerkennung Vorgänge explorieren. Bei komplexem Cybecrime z.B. bewegen sich die Täter oft jenseits bekannter Muster und so sehr an den Rändern der Datenbeobachtung, dass klassisches Data Mining zu kurz greift. Wie sich derartige Probleme bewältigen lassen, zeigt das US-Unternehmen Palantir mit seiner mächtigen Datenintegrationsplattfrom, auf der indivuell auffällige Vorgänge entlang unterschiedlichster Datenspuren individuell zurückverfolgt werden – eine gleichsam detektivische Vorgehensweise, um die Nadel im Heuhaufen zu finden. Dabei werden nicht selten eigens für die individuelle Exploration neue Datenquellen angeschlossen werden, um den „Drill-Down“ fortsetzen zu können.

Der mit Abstand wichtigste Use Case ist meines Erachtens das umfassende Monitoring von Abweichungen von Normwerten. Dazu geben Mayer-Schonberger/Cukier selbst eine Vielzahl von Beispielen. So lassen sich Werte aus operativen Anlangen zeitnah auswerten, so dass Irregularitäten und Verschleißerscheinungen früh sichtbar werden. In der Medizin gibt es analoge Beispiele, wo kontinuierliche Messungen und automatisierte Auswertungen zu effektiverer Behandlung führen.

Gerade weil kontinuierlich gemessen und analysiert werden kann, werden Prognosen tendenziell durch Wissen über Zustandsveränderungen ersetzt. Es ist daher zumindest irreführend, wenn Mayer-Schonberger/Cukier davon sprechen, dass es bei „Big Data“ im Kern um Predictions gehe. Es ist klar, was sie meinen: Je mehr ich beobachte und auswerte, desto besser kann ich Trends erkennen und Zustandsveränderungen vorhersagen. Aber sie unterschlagen dabei einen zentralen Strukturwandel: Vor dem Big Data-Zeitalter musste man von relativ kleinen Samples Schlüsse auf die Grundgesamtheit ziehen. Die Unsicherheit dieser „Old-School“-Predictions entfällt dank Big Data. Die Big Data-Vorhersagen sind viel weniger Risiko-behaftet und methodisch „sauberer“, weil das Problem der Repräsentativität von Strichproben nicht mehr besteht. Big Data räumt mit dem dem Problem der schiefen Verteilungen auf.

Möglicherweise haben die Autoren angenommen, derartige Differenzierungen würden eine breitere Leserschaft überfordern. M.E. ist dieser Aspekt zu wesentlich, um ihn unter den Tisch fallen zu lassen. Aber hier zeigt sich wieder einmal, wie schwer es ist, einen Beststeller zu schreiben UND das Fachpublikum zufrieden zu stellen.

 

Als ich neulich mit dem Inhaber einer renommierten online Performance-Marketingagentur zusammensaß, kam – wie so häufig in derartigen Runden – die Sprache auf Behavioral Targeting. Mein Gegenüber hatte dazu eine klare Meinung: „Bringt nichts“. Er habe unterschiedliche Targeting-Systeme ausprobiert, keines wäre so gut gewesen wie Werbeplatz-bezogene Optimierung. Damit meinte er konkret Belegeinheit-bezogene multivariate Testverfahren: Zu Beginn einer Kampagnenaussteuerung wird ermittelt, welche Belegeinheit die meisten Klicks generiert (welcher Kontext also am besten funktioniert) und die Kampagne dort entsprechend ausgesteuert. Es spricht in der Tat vieles dafür, dass diese Form der Optimierung sehr effektiv sein kann, sie trägt aber nur bedingt zu Veredelung des Restinventars, des „remnant Inventories“, bei und das ist – neben kurzfristiger Kampangenoptimierung – das zentrale strategische Ziel des Unique Client Targeting-Ansatzes (siehe Teil 1 der Artikelserie).

Aber unabhängig von dieser wirtschaftlichen Betrachtung, stellt sich methodisch schon die Frage, wie sehr das Paradigma des Kontext-unabhängigen Unique Client-Targetings trägt. Die „Silent Assumption“ der Targeting-Szene ist, dass Interessen eines Menschen weitgehend Kontext-unabhängig über Werbung angesprochen und aktiviert werden können.

Das provoziert kritische Fragen: Wenn ich häufiger meine Aktienwerte online checke, bin ich dann auch für Geldanlagewerbung empfänglich, wenn mir diese auf Sportseiten gezeigt wird? Oder dominiert mein aktuelles Nutzungsinteresse, also Sportnachrichten zu lesen, mein generelles Interesse an Finanzanlagen? Ein anschauliches Beispiel für die These, dass situative Nutzungsinteressen die Werbewirkung massiv bestimmen, ist das schwache Responseverhalten auf Gaming-Seiten. Hier liegt Aufmerksamkeit des Nutzers so sehr auf dem Spiel, dass die „Bandenwerbung“ kaum wahrgenommen wird, jedenfalls nicht derart, dass die Nutzer auf Banner klicken. Ob der Brand Impact (z.B. operationalisiert als aided/ unaided recall) auch deutlich geringer ist, lässt sich nur vermuten.

Die kürzlich von P&G, Pilot und einigen renommierten Vermarktern veröffentliche Online-Vision-Studie 2010 kommt zu dem Schluss, dass die Werbewirkung primär von Stimmungen des Nutzers abhängig sei, kaum jedoch von Nutzungsmotiven. Letztere werden in der Studie sehr allgemein gefasst: Information, Kommunikation und Entertainment bilden hier die Motivkategorien. Gut möglich, dass diese Kategorisierung zu abstrakt ist. Ein Blick auf die Untersuchungsmethodik lässt zudem den Verdacht aufkommen, dass die ex-Post-Befragung der Panel-Teilnehmer eher eine grundsätzliche Haltung als eine situative Reaktion zum Ausdruck bringt.

Relevanter sind da schon die Erfahrungen mit Re-Targeting-Kampagnen, bei der ein Nutzerinteresse auf Seit A erfasst und der Nutzer zeitnah eine entsprechende Werbeeinblendung auf Seite B, also in einem anderen Webseitenkontext, erhält. Teilweise erfolgt die Ansprache sogar auf anderen Webseiten. Besonders erfolgreich ist Re-targeting, wenn ein Nutzer explizit Interesse bekundet hat, z.B. weil er vorher auf einem Reiseportal die Destination New York eingegeben hat und dann wenig später auf einer anderen Website tatsächlich New York-Werbung eingeblendet bekommt. In diesem Fall geht der Werbeaussteuerung eine vergleichsweise direkte Interessenbekundung voraus.

Derartige Befunde deuten darauf hin, dass es von der Aktualität und der Stärke eines latenten Interesses abhängt, wie sehr es sich in thematisch fremden Kontexten und damit gegen situative Interessen durchsetzt. Umgekehrt gilt: Je stärker das situative Interesse (z.B. Spielen eines Online-Games) desto schwieriger die Ansprache des latenten Interesses.

Wesentliche Indikatoren für die Stärke latenter Interessen sind:

• Such-Key Words, da sie eine explizite Interessenbekundung darstellen
• Besuchsfrequenz auf thematische klar zugeordneten Seiten, d.h. wie häufig jemand in den letzten Sessions z.B. auf Finanzen oder Autoseiten gewesen ist.
• Transaktionsnähe des Profilierungsortes: Der Besuch eines Nutzers auf einem Automarktplatz deutet auf ein stärkeres Kaufinteresse als der Besuche des Auto-Channels eines General-Interest-Portals, wo der Nutzer nur die Bilder des letzten Autosalons betrachten möchte.

Dieser letzte Aspekt hat zu Geschäftsmodellen wie dem von Blue Kai und eXelate geführt: Beides Handelsplattformen, auf denen werthaltige e-Commerce-Profile angeboten werden.

Betreiber von Content-Webseiten haben diesen „Profilierungsvorteil“ nicht. Sie können Kaufverhalten nur mittelbar, d.h. aus transaktionsfernen Themeninteressen ableiten. Zuvor wird dieses Content-Interesse konzeptionell erfasst. Im Allgemeinen geschieht dies via Interessenkategorien bzw. –taxonomien, d.h. einzelne Webseiten werden Interessengebieten zugeordnet (zunächst manuell und dann automatisiert über lernende semantische Verfahren). Der Besuch einer solchen Webseite gilt als Indiz für das Vorhandensein des entsprechenden Interesses. Wie stark kauforientiert dieses Interesse ist (Stichwort Autofan vs Autokäufer), bleibt weitgehend offen. Auch die Frage, was der Nutzer wirklich auf der Seite gesucht hat, wird in der Regel nicht differenziert erfasst (Infos zu bestimmten Kreditkonditionen, oder generelle Infos oder…).

Es fragt sich somit, ob Interessen-Taxonomien nicht schon von vornherein eine unzulässige Abstraktion bzw. willkürliche Interpretation des Nutzerinteresses darstellen. Genau an dieser Stelle schließt sich der Kreis zwischen Kontext-bezogener Kampagnenoptimierung und Verhaltensklassifikation der Nutzer. Würde es nicht ausreichen, festzustellen welche URLs konvertierende Nutzer aufgesucht haben und auf dieser Basis die Konversions-relevanten diskriminierenden URLs analytisch zu ermitteln?
Bei einer solchen Vorgehensweise wäre aufgrund der Granularität der Information

• das Profilierungsvolumen deutlich höher, aber dies ist primär eine infrastrukturelle Herausforderung.
• die Regelbildung erschwert, weil keine allgemeinen Regeln ableitbar wären (Long Tail-URL-Besuche würden systematisch untergehen)

Möglicherweise liegt der Weisheit übernächster Schluss auch in einer Kombination „geschlossener“ (Taxonomie) und „offener“ (URL-basierter) Profilierungskonzepte. Möglicherweise könnten auch semantische Technologie helfen, Ähnlichkeiten zwischen Webseiten automatisiert zu bestimmen, also ohne menschlichen „Verzerrungsfilter“, wobei die Überlegenheit des algorithmischen Ansatzes natürlich erst zu beweisen wäre. Relativ sicher erscheint jedoch, dass die Erfassung des Ortes und damit des Kontextes einer Interessenbekundung künftig bei der Unique Client Profilierung stärker zu berücksichtigen ist. Wie dies konkret zu bewerkstelligen ist – das ist die Nuss, die es zu knacken gilt. Oder sagen wir eine der Nüsse…

Tagged with:
 

Welcome! Es geht los!

Willkommen zum BTS-Blog! Der Blog beginnt mit einer Serie von Beiträgen zu aktuellen Internet-Themen. „Targeting“ im Kontext von Online Advertising macht dabei den Anfang – ein faszinierendes, unglaublich komplexes Thema, das den Kernnutzen des Internets berührt und das strategisch nur dann adaequat begriffen werden kann, wenn man sich in die operativen Niederungen des Themas begibt. Im Anschluss daran – hoffentlich noch im April – wird es eine Reihe von Beiträgen zum Thema Social Media geben.

By the way, I/ we  will switch to English whenever I/we feel that the discussed insights are also relevant for an international audience. It might well be (depending on my time and eventually that of future co-authors) that I/we will sum up key insights of  essential posts  in English. Our blog will start with online advertising and targeting as introductory topic. Given that online advertising is still a main reveneue source for most web offerings other than e-commerce, it is high time that all stakeholders  of the Internet ecosystem enhance their understanding of the latest online advertising trends. Of course, we are also interested in getting feedback to what we think is the proper understanding.

Abdi Scheybani

Tagged with: