Kommentar zu Heinemann-Vortrag auf der d3con

Florian Heinemann, der ex-Rocket Internet CEO und neue Managing Director von Project A, hat als Key Note Speaker auf der 3Dcon-Konferenz Ende März in Hamburg der versammelten Online Advertising-Szene die Leviten gelesen – und das durchaus auf ebenso unterhaltsame wie informative Weise.

Heinemann beklagt, dass Display-Advertising bis heute sein technologisch-wirtschaftliches Potenzial nicht entfaltet habe. Die ganze Szene leide unter einem Innovationsstau, was für alle Marktteilnehmer, aber insbesondere für Advertiser ein äußerst unbefriedigender Zustand sei.

Heinemanns Hauptkritikpunkte sind:

  • Retargeting gehört zu den wenigen Display-Innovationen, die den Mainstream erreicht haben. Allerdings adressiert diese Technologie nur einen kleinen Teil dessen, was Display prinzipiell zu leisten vermag. Der Retargeting-Use-Case beschränkt sich auf die zielgenaue Ansprache von Verbrauchern, die durch den Besuch einer entsprechenden online Angebotsseite bereits Interesse an einem Produkt gezeigt haben. Das eigentliche Potenzial von Display besteht jedoch darin, neue Nutzer anzusprechen und sie in den transaktionsnahen Bereich zu führen.
  • Die Transaktionskosten für „intelligentes“ Display-Advertising sind zu hoch:   Von einem Euro TKP gehen bis zu 60 Cent in die Taschen der AdExchanges, Real-Time-Bidding (RTB)-Technologieanbieter und der Datenanreicherer.  Angesichts dieser Kostenstruktur ist nachvollziehbar, dass viele Advertiser lieber mit der Schrotflinte arbeiten und ihre Werbung weiterhin „ungetargeted“ streuen (implizit sagt Heinemann hiermit, dass die Verringerung der Streuverluste wirtschaftlich nicht signifikant höher ausfällt als die hierdurch verursachten Kosten).
  • Von wenigen Ausnahmen abgesehen (hier erwähnt Heinemann explizit United Internet) qualifizieren die Publisher ihr AdImpression-Angebot nicht hinreichend. Die Aufwände hierfür werden auf den Advertiser abgewälzt.
  • Publisher verkaufen Display-Space nach wie vor primär über View-Cookie-Metriken.  Advertiser denken dagegen Conversion-bezogen und können daher wenig mit den View-Cookie-Infos anfangen.
  • Der Advertiser leidet außerdem unter der hohen Fragmentierung des Publisher-Angebots und der daraus eingeschränkten Wiedererkennung des Nutzers.
  • Während die deutsche Publisher- und Media-Agentur-Szene auf der Stelle tritt, gewinnt Google mit seinem Content-Network und dem SEM-Wissen über die Nutzer weiter an Marktmacht. Die Folgen reichen über das Display-Geschäft hinaus. Auch Affiliate Marketing ist betroffen, konkurrieren doch Spieler wie z.B. Zanox um den gleichen Ad Space wie Google.

Diese Bestandsaufnahme ist so ernüchternd wie richtig. Sie ist allerdings nicht neu. Kenner der Szene stoßen seit Jahren ins selbe Horn, wenn auch häufig hinter vorgehaltener Hand, um sich geschäftlich nicht zu schaden.

Allerdings ist es  – wie immer – viel leichter einen unbefriedigenden Zustand zu kritisieren als überzeugende Lösungen zu präsentieren. Das zeigt sich teilweise auch bei Heinemanns Vorschlägen:

  • Publisher sollten in Vorleistung gehen und Umfang und Tiefe der Cookie-bezogenen Information (z.B. durch Integration der CRM-Daten) erweitern und idealerweise ohne Aufpreis den Advertisern zur Verfügung stellen.

Dieses Postulat von Heinemann impliziert, dass Publisher sich bisher gegen technische Innovationen im Display-Advertising gesperrt hätten. Das ist nur halb richtig. Es stimmt, dass die meisten großen Contentanbieter bis zum heutigen Zeitpunkt eine geringe Affinität zum Medium Internet und technischen Innovationen haben. Zum Teil herrscht auch eine intellektuelle Verweigerungshaltung vor, wenn es um ein tieferes Verständnis von Targeting-Lösungen geht. Dennoch muss gesagt werden, dass große Publisher Jahrelang mit Targeting-Ansätzen experimentiert haben. In vielen Fällen waren die Resultate einfach nicht überzeugend. Ich habe an anderer Stelle die Gründe hierfür erläutert.

  • Publisher sollte sich zusammenschließen und ihr Inventar „poolen“, so dass  Kontaktfrequenz und damit auch die Qualität von Cookie-Profilierung und  Targeting steigen.

Eine Publisher-übergreifende Plattform zu bauen, scheitert bisher nicht nur an der Mentalitätsbarriere der Akteure bezüglich verlagsübergreifenden Kooperationen. Mindestens ebenso wichtig dürfte die fehlende Überzeugung sein, dass die Qualität des Targetings durch eine gemeinsame Plattform tatsächlich steigt. Außerdem müsste in einer solchen Konstellation auch eine Lösung für die Trennung von Premium- von Remnant-Inventar gefunden werden, was an sich schon ein komplexes Thema darstellt. Dass Premium Publisher an Demand Side-Plattformen wenig Interesse haben, kann man ihnen sicher am wenigsten verübeln, da ja dann dort die Arbitrage-Gewinne durch Cookie-Veredelung weitgehend an ihnen vorbeigehen würden.

  • Technologie-Startups sollen intelligente Algorithmen bereitstellen, die relevante Targeting-Informationen aus den Cookie-Daten extrahieren.

Hier trifft Heinemann den Nagel auf dem Kopf. Die Fähigkeit aus dem via Cookie erfassten Surfverhalten der Verbraucher effektive Werbeempfehlungen abzuleiten liegt in der Tat auf dem kritischen Pfad des Display Advertising-Evolution. Mehrere Generationen von Personalisierungs- bzw. Targetinganbietern haben sich hieran ihre Zähne ausgebissen.

Allerdings ist es mit Algorithmen alleine nicht getan. Die Vorstellung, es gäbe eine magische Formel, die beobachtetes Verhalten in relevante Interessenaffinität übersetzt,  ist ohnehin abwegig. Vielmehr geht es darum eine Methodik zu entwickeln, die aussagekräftiger als bisher Verhalten profiliert, bevor mit dann mithilfe moderner Data Mining-Methoden Konvertierungsprofile ermittelt werden können. Dieser erste Profilierungsschritt lag lange Zeit im toten Winkel der Targeting-Debatte. Kritische Themen wie Profilierungstiefe je Cookie und Anteil der Cookie-Profilierung am gesamten Surfverhalten sind Stiefkinder der Targeting-Debatte, obwohl sie zentral sind für den Erfolg von Targeting-Kampagnen.

Wenn das Problem der Profilierung und der damit einhergehenden Analytik deutlich überzeugender als bisher gelöst wird, besteht eine echte Chance für RTB-Marktplätze, die in Sekundenbruchteilen die Ad Impression mit den höchsten erwarteten Konvertierungsrendite ermitteln. Wie sehr dann noch das Premium Inventory der großen Publisher benötigt wird, ist eine interessant Frage. Eine Frage, die Premium-Publisher zurecht mit Sorge erfüllt. Heinemanns Apell an die Publisher, sie sollten sich doch an die Spitze der Innovationsbewegung setzten, verkennt die Gefahr, dass die Publisher zu den Verlierern in diesem Innovationsprozeß zählen werden.  Aber auch die andere Alternative ist für die Premium-Publisher nicht besonders reizvoll: Angesichts der voranschreitenden Google-Expansion im Display-Advertising ähneln sie einem Frosch im Wasserglas, der auf den Temperaturanstieg des Wassers erst dann reagiert, wenn es zu spät ist. Und möglicherweise ist dieser Zeitpunkt bereits überschritten…

Mit Blick auf diese beiden Bedrohungen, die Targeting-Innovation im allgemeinen und die Google Expansion im besonderen, ist das krampfhafte Festhalten am Status Quo aus Sicht der Premium Publisher am Ende vielleicht sogar rational: Wenn man die Zukunft nicht gewinnen kann, dann ist es sinnvoll, den Wandel solange wie möglich aufzuhalten, um in der Zwischenzeit weiter zu profitieren. Der Dumme ist dabei letztlich wieder der Endverbraucher, weil diese Verlangsamung des Wandels einer besseren Monetarisierung von Internetangeboten jenseits des Premium Contents entgegenwirkt, was sich wiederum auch qualitativ negativ auf das Angebot auswirkt.

Wie dem auch sei, man darf gespannt sein, in welcher Form Project A, die neue berufliche Heimat von Herrn Heinemann, in diesem Themenfeld agieren wird…

Tagged with:
 

Over the past few weeks I have published a series of posts on targeting related innovations and their impact on the German online display advertising industry. My intention was to bridge the gap between a business view and a more technical understanding of this key area of the internet evolution. For an international audience the German ecosystem might be less interesting, therefore I focus my summary primarily on methodological considerations and insights. As I will argue the latest innovation wave looks promising with regard to the infrastructural side of the targeting conundrum, but leaves some key methodological aspects in the dark – aspects which need to be solved in order to make display advertising more effective.

Since last year Real-Time-Bidding (RTB) as well as Demand Side (DSP) and Supply Side Platforms (SSP) have dominated the technology debate about the future of the online display ad space. The RTB proposition to value and buy each ad impression separately in real time is in fact a huge step forward towards a more efficient market place. However, the RTB discussion is full of silent assumptions regarding the quality of the bidding input. Most expert blogs convey the impression that getting the valuation of an ad impression right for a specific campaign is just a matter of algorithms – a mathematical problem so to speak. Unfortunately it is a little more complex. Let me be clear: RTB is worthless when the information on which the valuation of the ad impression is based is either incorrect or irrelevant for a proper prediction of ad related human perception and behavior.

The key question is: What indicates ad relevant interest and receptivity? Most targeting solutions base their profiling on interest taxonomies which mirror more or less product categories such as automotive, finance, health etc. These top-level items are then broken down into sub-categories (usually in a hierarchical, mutually exclusive ways). Websites are then tagged accordingly – usually page by page. To cut a long story short: This kind of categorization is pretty imprecise with regard to users’ motivations. It is difficult to determine why someone visits a content site; a visitor of a car content site could be just generally interested in luxury cars (although he/she would never be able to afford one) or actually be in a buying decision mode. Sure, data mining methodologies like RFM (recence, frequency, monetary value) help to detect when someone intensifies his or her interest, or enters in a product search phase. However, these methods require sufficient observation data per user, ideally across websites which is a real hurdle for most of the profiling systems still.

Another issue is that content categorization usually ignores the context of the content – a finance channel within a portal might reflect a different type of interest and attract a different type of visitor than a stand-alone finance destination. Nevertheless both carry the very same interest label. Thus, my hypothesis is that URLs often carry contextual information which goes beyond content categorization. Good examples for this are “intent” indicating environments such as e-commerce sites. A visitor of such a site has most likely a more vibrant interest than a visitor of an analogue content channel within a portal for example. Companies like eXelate and Bluekai have built their business on this profiling advantage. Using e-Commerce sites for profiling seems effective for performance campaigns, but does not help in higher regions of the consumer decision funnels. A branding or product awareness campaign can’t be based entirely on e-commerce-profiles which are close to transactions. Thus, an improved profiling approach for non-transaction content sites is required.

But how should a profiling approach look like which eliminates or diminishes at least human bias and lack of precision? How can the context of a site’s content be captured? The most granular approach would be a direct use of URLs as input parameters. On this basis, however, pattern recognition would be quite difficult since a URL as such cannot be generalized. Only high traffic URLs would be part of discovered rules.

Human categorizations of contexts carry the same risk of inducing a bias as the described taxonomy approach. Nevertheless – I think – it could be worthwhile annotating content with meta-information such as “OEM website”, “e-commerce environment”, “information portal”, “stand-alone interest site addressing xyz”. Of course this meta-categorization system needs to be thought through and then tested in order to see whether this additional information on the nature of the site really helps to capture the visitor’s motivation more appropriately.

Another approach could be a machine driven bottom up classification of URLs. Methods like “latent semantic indexing” or – as an enhancement – “latent Dirichlet allocation” could be used to shift the classification decision from humans to machines – this time on an entirely semantic basis. Whether such an approach really reflects the contextual aspect effectively is entirely unclear, but should be clarified.

All these ideas and considerations have one hypothesis in common: There is still space for improvement with regard to profiling methodologies. Whoever makes significant progress on this front, will be able to estimate the value of any given ad impression more accurately then the seller and – ideally – any other competing buyer, thereby realizing arbitrage profits. This brings us back to the ecosystem level. The outcome of the display advertising battle depends heavily on customer knowledge which in turn is the result of customer intelligence. Media agencies and premium publishers are working on these systems while large brands are still waiting at the side lines. It is an interesting question to what extent brands and OEMs could build customer intelligence systems themselves. An important prerequisite would be a broad profiling base. The key question is: Which brands have sufficient digital touch points for profiling their existing and potential customers? But even if they lack these touch points, can big consumer brands afford to let agencies build these customer intelligence systems on their own, thereby occupying the strategic pole position in the online advertising and sales market? May be not…

Tagged with: