Kommentar zu Heinemann-Vortrag auf der d3con

Florian Heinemann, der ex-Rocket Internet CEO und neue Managing Director von Project A, hat als Key Note Speaker auf der 3Dcon-Konferenz Ende März in Hamburg der versammelten Online Advertising-Szene die Leviten gelesen – und das durchaus auf ebenso unterhaltsame wie informative Weise.

Heinemann beklagt, dass Display-Advertising bis heute sein technologisch-wirtschaftliches Potenzial nicht entfaltet habe. Die ganze Szene leide unter einem Innovationsstau, was für alle Marktteilnehmer, aber insbesondere für Advertiser ein äußerst unbefriedigender Zustand sei.

Heinemanns Hauptkritikpunkte sind:

  • Retargeting gehört zu den wenigen Display-Innovationen, die den Mainstream erreicht haben. Allerdings adressiert diese Technologie nur einen kleinen Teil dessen, was Display prinzipiell zu leisten vermag. Der Retargeting-Use-Case beschränkt sich auf die zielgenaue Ansprache von Verbrauchern, die durch den Besuch einer entsprechenden online Angebotsseite bereits Interesse an einem Produkt gezeigt haben. Das eigentliche Potenzial von Display besteht jedoch darin, neue Nutzer anzusprechen und sie in den transaktionsnahen Bereich zu führen.
  • Die Transaktionskosten für „intelligentes“ Display-Advertising sind zu hoch:   Von einem Euro TKP gehen bis zu 60 Cent in die Taschen der AdExchanges, Real-Time-Bidding (RTB)-Technologieanbieter und der Datenanreicherer.  Angesichts dieser Kostenstruktur ist nachvollziehbar, dass viele Advertiser lieber mit der Schrotflinte arbeiten und ihre Werbung weiterhin „ungetargeted“ streuen (implizit sagt Heinemann hiermit, dass die Verringerung der Streuverluste wirtschaftlich nicht signifikant höher ausfällt als die hierdurch verursachten Kosten).
  • Von wenigen Ausnahmen abgesehen (hier erwähnt Heinemann explizit United Internet) qualifizieren die Publisher ihr AdImpression-Angebot nicht hinreichend. Die Aufwände hierfür werden auf den Advertiser abgewälzt.
  • Publisher verkaufen Display-Space nach wie vor primär über View-Cookie-Metriken.  Advertiser denken dagegen Conversion-bezogen und können daher wenig mit den View-Cookie-Infos anfangen.
  • Der Advertiser leidet außerdem unter der hohen Fragmentierung des Publisher-Angebots und der daraus eingeschränkten Wiedererkennung des Nutzers.
  • Während die deutsche Publisher- und Media-Agentur-Szene auf der Stelle tritt, gewinnt Google mit seinem Content-Network und dem SEM-Wissen über die Nutzer weiter an Marktmacht. Die Folgen reichen über das Display-Geschäft hinaus. Auch Affiliate Marketing ist betroffen, konkurrieren doch Spieler wie z.B. Zanox um den gleichen Ad Space wie Google.

Diese Bestandsaufnahme ist so ernüchternd wie richtig. Sie ist allerdings nicht neu. Kenner der Szene stoßen seit Jahren ins selbe Horn, wenn auch häufig hinter vorgehaltener Hand, um sich geschäftlich nicht zu schaden.

Allerdings ist es  – wie immer – viel leichter einen unbefriedigenden Zustand zu kritisieren als überzeugende Lösungen zu präsentieren. Das zeigt sich teilweise auch bei Heinemanns Vorschlägen:

  • Publisher sollten in Vorleistung gehen und Umfang und Tiefe der Cookie-bezogenen Information (z.B. durch Integration der CRM-Daten) erweitern und idealerweise ohne Aufpreis den Advertisern zur Verfügung stellen.

Dieses Postulat von Heinemann impliziert, dass Publisher sich bisher gegen technische Innovationen im Display-Advertising gesperrt hätten. Das ist nur halb richtig. Es stimmt, dass die meisten großen Contentanbieter bis zum heutigen Zeitpunkt eine geringe Affinität zum Medium Internet und technischen Innovationen haben. Zum Teil herrscht auch eine intellektuelle Verweigerungshaltung vor, wenn es um ein tieferes Verständnis von Targeting-Lösungen geht. Dennoch muss gesagt werden, dass große Publisher Jahrelang mit Targeting-Ansätzen experimentiert haben. In vielen Fällen waren die Resultate einfach nicht überzeugend. Ich habe an anderer Stelle die Gründe hierfür erläutert.

  • Publisher sollte sich zusammenschließen und ihr Inventar „poolen“, so dass  Kontaktfrequenz und damit auch die Qualität von Cookie-Profilierung und  Targeting steigen.

Eine Publisher-übergreifende Plattform zu bauen, scheitert bisher nicht nur an der Mentalitätsbarriere der Akteure bezüglich verlagsübergreifenden Kooperationen. Mindestens ebenso wichtig dürfte die fehlende Überzeugung sein, dass die Qualität des Targetings durch eine gemeinsame Plattform tatsächlich steigt. Außerdem müsste in einer solchen Konstellation auch eine Lösung für die Trennung von Premium- von Remnant-Inventar gefunden werden, was an sich schon ein komplexes Thema darstellt. Dass Premium Publisher an Demand Side-Plattformen wenig Interesse haben, kann man ihnen sicher am wenigsten verübeln, da ja dann dort die Arbitrage-Gewinne durch Cookie-Veredelung weitgehend an ihnen vorbeigehen würden.

  • Technologie-Startups sollen intelligente Algorithmen bereitstellen, die relevante Targeting-Informationen aus den Cookie-Daten extrahieren.

Hier trifft Heinemann den Nagel auf dem Kopf. Die Fähigkeit aus dem via Cookie erfassten Surfverhalten der Verbraucher effektive Werbeempfehlungen abzuleiten liegt in der Tat auf dem kritischen Pfad des Display Advertising-Evolution. Mehrere Generationen von Personalisierungs- bzw. Targetinganbietern haben sich hieran ihre Zähne ausgebissen.

Allerdings ist es mit Algorithmen alleine nicht getan. Die Vorstellung, es gäbe eine magische Formel, die beobachtetes Verhalten in relevante Interessenaffinität übersetzt,  ist ohnehin abwegig. Vielmehr geht es darum eine Methodik zu entwickeln, die aussagekräftiger als bisher Verhalten profiliert, bevor mit dann mithilfe moderner Data Mining-Methoden Konvertierungsprofile ermittelt werden können. Dieser erste Profilierungsschritt lag lange Zeit im toten Winkel der Targeting-Debatte. Kritische Themen wie Profilierungstiefe je Cookie und Anteil der Cookie-Profilierung am gesamten Surfverhalten sind Stiefkinder der Targeting-Debatte, obwohl sie zentral sind für den Erfolg von Targeting-Kampagnen.

Wenn das Problem der Profilierung und der damit einhergehenden Analytik deutlich überzeugender als bisher gelöst wird, besteht eine echte Chance für RTB-Marktplätze, die in Sekundenbruchteilen die Ad Impression mit den höchsten erwarteten Konvertierungsrendite ermitteln. Wie sehr dann noch das Premium Inventory der großen Publisher benötigt wird, ist eine interessant Frage. Eine Frage, die Premium-Publisher zurecht mit Sorge erfüllt. Heinemanns Apell an die Publisher, sie sollten sich doch an die Spitze der Innovationsbewegung setzten, verkennt die Gefahr, dass die Publisher zu den Verlierern in diesem Innovationsprozeß zählen werden.  Aber auch die andere Alternative ist für die Premium-Publisher nicht besonders reizvoll: Angesichts der voranschreitenden Google-Expansion im Display-Advertising ähneln sie einem Frosch im Wasserglas, der auf den Temperaturanstieg des Wassers erst dann reagiert, wenn es zu spät ist. Und möglicherweise ist dieser Zeitpunkt bereits überschritten…

Mit Blick auf diese beiden Bedrohungen, die Targeting-Innovation im allgemeinen und die Google Expansion im besonderen, ist das krampfhafte Festhalten am Status Quo aus Sicht der Premium Publisher am Ende vielleicht sogar rational: Wenn man die Zukunft nicht gewinnen kann, dann ist es sinnvoll, den Wandel solange wie möglich aufzuhalten, um in der Zwischenzeit weiter zu profitieren. Der Dumme ist dabei letztlich wieder der Endverbraucher, weil diese Verlangsamung des Wandels einer besseren Monetarisierung von Internetangeboten jenseits des Premium Contents entgegenwirkt, was sich wiederum auch qualitativ negativ auf das Angebot auswirkt.

Wie dem auch sei, man darf gespannt sein, in welcher Form Project A, die neue berufliche Heimat von Herrn Heinemann, in diesem Themenfeld agieren wird…

Tagged with:
 

Over the past few weeks I have published a series of posts on targeting related innovations and their impact on the German online display advertising industry. My intention was to bridge the gap between a business view and a more technical understanding of this key area of the internet evolution. For an international audience the German ecosystem might be less interesting, therefore I focus my summary primarily on methodological considerations and insights. As I will argue the latest innovation wave looks promising with regard to the infrastructural side of the targeting conundrum, but leaves some key methodological aspects in the dark – aspects which need to be solved in order to make display advertising more effective.

Since last year Real-Time-Bidding (RTB) as well as Demand Side (DSP) and Supply Side Platforms (SSP) have dominated the technology debate about the future of the online display ad space. The RTB proposition to value and buy each ad impression separately in real time is in fact a huge step forward towards a more efficient market place. However, the RTB discussion is full of silent assumptions regarding the quality of the bidding input. Most expert blogs convey the impression that getting the valuation of an ad impression right for a specific campaign is just a matter of algorithms – a mathematical problem so to speak. Unfortunately it is a little more complex. Let me be clear: RTB is worthless when the information on which the valuation of the ad impression is based is either incorrect or irrelevant for a proper prediction of ad related human perception and behavior.

The key question is: What indicates ad relevant interest and receptivity? Most targeting solutions base their profiling on interest taxonomies which mirror more or less product categories such as automotive, finance, health etc. These top-level items are then broken down into sub-categories (usually in a hierarchical, mutually exclusive ways). Websites are then tagged accordingly – usually page by page. To cut a long story short: This kind of categorization is pretty imprecise with regard to users’ motivations. It is difficult to determine why someone visits a content site; a visitor of a car content site could be just generally interested in luxury cars (although he/she would never be able to afford one) or actually be in a buying decision mode. Sure, data mining methodologies like RFM (recence, frequency, monetary value) help to detect when someone intensifies his or her interest, or enters in a product search phase. However, these methods require sufficient observation data per user, ideally across websites which is a real hurdle for most of the profiling systems still.

Another issue is that content categorization usually ignores the context of the content – a finance channel within a portal might reflect a different type of interest and attract a different type of visitor than a stand-alone finance destination. Nevertheless both carry the very same interest label. Thus, my hypothesis is that URLs often carry contextual information which goes beyond content categorization. Good examples for this are “intent” indicating environments such as e-commerce sites. A visitor of such a site has most likely a more vibrant interest than a visitor of an analogue content channel within a portal for example. Companies like eXelate and Bluekai have built their business on this profiling advantage. Using e-Commerce sites for profiling seems effective for performance campaigns, but does not help in higher regions of the consumer decision funnels. A branding or product awareness campaign can’t be based entirely on e-commerce-profiles which are close to transactions. Thus, an improved profiling approach for non-transaction content sites is required.

But how should a profiling approach look like which eliminates or diminishes at least human bias and lack of precision? How can the context of a site’s content be captured? The most granular approach would be a direct use of URLs as input parameters. On this basis, however, pattern recognition would be quite difficult since a URL as such cannot be generalized. Only high traffic URLs would be part of discovered rules.

Human categorizations of contexts carry the same risk of inducing a bias as the described taxonomy approach. Nevertheless – I think – it could be worthwhile annotating content with meta-information such as “OEM website”, “e-commerce environment”, “information portal”, “stand-alone interest site addressing xyz”. Of course this meta-categorization system needs to be thought through and then tested in order to see whether this additional information on the nature of the site really helps to capture the visitor’s motivation more appropriately.

Another approach could be a machine driven bottom up classification of URLs. Methods like “latent semantic indexing” or – as an enhancement – “latent Dirichlet allocation” could be used to shift the classification decision from humans to machines – this time on an entirely semantic basis. Whether such an approach really reflects the contextual aspect effectively is entirely unclear, but should be clarified.

All these ideas and considerations have one hypothesis in common: There is still space for improvement with regard to profiling methodologies. Whoever makes significant progress on this front, will be able to estimate the value of any given ad impression more accurately then the seller and – ideally – any other competing buyer, thereby realizing arbitrage profits. This brings us back to the ecosystem level. The outcome of the display advertising battle depends heavily on customer knowledge which in turn is the result of customer intelligence. Media agencies and premium publishers are working on these systems while large brands are still waiting at the side lines. It is an interesting question to what extent brands and OEMs could build customer intelligence systems themselves. An important prerequisite would be a broad profiling base. The key question is: Which brands have sufficient digital touch points for profiling their existing and potential customers? But even if they lack these touch points, can big consumer brands afford to let agencies build these customer intelligence systems on their own, thereby occupying the strategic pole position in the online advertising and sales market? May be not…

Tagged with:
 

Nach knapp vier Jahren intensiver Behavioral Targeting-PR proklamieren deutsche Targeting-Technologieanbieter, dass Targeting nun bald aus der Nische heraustreten werde und in naher Zukunft vielleicht 20 bis 30% aller Kampagnen mit entsprechender Mechanik ausgesteuert würden. US amerikanische Marktbeobachter und –teilnehmer sprechen sogar mit Blick auf Real Time Bidding (siehe den letzten Beitrag in dieser Reihe) von einer Revolution, die unmittelbar bevorstünde.

Der Einwand liegt nahe, dass derartige Ansagen schon vor einigen Jahren die Runde machten und alljährlich gebetsmühlenartig wiederholt würden. Selbst im Vorreiterland USA lag der Marktanteil von DSP Ende 2009 lediglich in der Dimension von 3 bis 5%. Und dennoch: Es gibt handfeste Indizien, dass sich in den kommenden Jahren zunächst Unique Client-Targeting und dann mit hoher Wahrscheinlichkeit auch Real-Time-Bidding (RTB) durchsetzen werden
- Fast alle großen internationalen Media-Agenturen (Group , MHavas, Isobar etc.) bauen Customer Intelligence-Systeme inklusive Demand Side Platform mit RTB-Funktionalität sowie eigener Kundenprofilierung und Analytik auf.
- Auch Ad Networks und Ad Exchanges haben das Thema für sich entdeckt, allen voran Google mit ihrem im vergangenen Jahr eingeführten „Interest based Advertising“ und dem kürzlich gelaunchten Retargeting.
- Der Reifegrade der Targeting-Systemlandschaft (Profilierung, AdServer, RTB) nimmt nach langen Lehrjahren immer mehr zu
Haupttreiber dieses Trends sind – in dieser Reihenfolge – die Verlagerung von Werbegeldern von Print und TV in den Online-Kanal sowie der insbesondere von Google und den VC finanzierten kleineren US-Technologieanbietern ausgehende Innovationsschub.
Zunächst zur wachsenden Bedeutung des Internets als Werbekanal: Das Werbegeld folgt ihrer Audience und die hält sich nun mal zunehmend im Web auf (siehe dazu den ersten Beitrag aus unserer Targeting-Reihe). Dadurch erhält Online-Werbung auch hierzulande für B2C-Marken strategische Relevanz und wird zur Chef-Sache. Das Thema ist mittlerweile einfach zu wichtig, als das man es „blind“ Online-Media-Agenturen überlassen könnte. Zumindest schaut man jetzt genauer hin und fordert mehr. Dies zwingt Agenturen und Ad Networks dazu, transparenter und technisch versierter zu agieren als dies bis vor wenigen Jahren der Fall war (z.B. bezüglich Plattform-übergreifenden Kontaktmanagement). Die gesteigerte Aufmerksamkeit der Brands gegenüber dem Online-Werbekanal und seinen Möglichkeiten eröffnet Mediaagenturen allerdings auch neue Einnahmemöglichkeiten, weil große Brands künftig das Internet verstärkt für Branding-/Awareness-Kampagnen nutzen (wollen).

„Google ante Portas“ ist der zweite Faktor, der die bestehenden Strukturen des Online-Werbemarkts ins Wanken bringt. Google schickt sich an, mit seiner „Interest-based Double Click AdExchange“ den Status Quo des Ökosystems Online-Werbung nunmehr auch im Display Ad-Bereich in Frage zu stellen. Was sich da unter einem Dach zusammenbraut, ist in seiner Struktur einmalig: Google hat nunmehr die Möglichkeit einen Nutzer durch den gesamten Kaufentscheidungstrichter zu begleiten – von der Image- über die Produktkampagne bis zu Search. Bei der Reichweite seines Content Networks und des immensen Marktanteils im Bereich Search bringt dies Google in den Driver Seat für Online-Advertising insgesamt. Das Google gewillt ist diese Position weiter auszubauen, zeigte sich – nach der Akquisition von Doubleclick in 2007 – zuletzt an dem Kauf des Creative-Optimierers Teracent vor wenigen Monaten. Hier wird systematisch gedacht und konsequent gehandelt. Beobachter der Szene spekulieren, dass auf dem Akquisitionszettel von Google sehr wohl einige DSP-Anbieter stehen könnten. Wie dem auch sei – klar ist, dass Google die Advertising-Szene vor sich hertreibt. Der Google-Vorteil ist dabei nicht mehr seine Innovationskraft per se, sondern sein großes, für die Nutzerprofilierung immens wichtiges Content-Network in Verbindung mit State-of-the-Art-Technik. Was Google aus einer High-Level-Ökosystem-Perspektive besonders und aus Sicht von Premium Publishern und Media Agenturen brandgefährlich macht, ist Googles direkter Zugang zu den großen Brands, mit denen sie bereist über Search spricht und in Zukunft eben auch verstäkrt über Display.

Aussagen wie „Agenturen am Drücker“ (so der Titel eines kürzlich erschienen Kommentars auf Adzine) treffen daher nur partiell zu. Damit lässt sich das Verhältnis zwischen Agenturen und Publishern charakterisieren, nicht aber das Verhältnis zwischen Google und Mediaagenturen. Letztere müsse erst noch beweisen, wie „techy“ sie wirklich werden können. Strategische Kooperationen wie z.B. zwischen Havas und dem Realtime Bidding (RTB)-Spezialisten DataXu müssen erst noch umgesetzt werden.

Und was wird mit den Publishern und Vermarktern? Deren Markposition hat sich in den vergangen zusehends abgeschwächt, parallel zu der voran schreitenden Preiserosion beim Premium-Inventar. Daran haben nicht zuletzt die Deals mit Adnetworks beigetragen, bei denen es primär um die Vermarktung des sogenannten Remnant Inventories ging – mit der Folge, dass sich ein Teil der Nachfrage vom höherpreisigen auf das niederpreisige Inventar verlagerte und die Premium-TKPs sich nach unten bewegten. Die Bezeichnung „Eigentor“ erscheint hier nicht völlig unangebracht. Kurzfristige Einnahmenerhöhungen sind im Zweifelsfall eben wichtiger als strategisch konsequentes Handeln, aber das ist ein anderes, grundsätzlicheres Thema („Agency costs“ of management als Innovationsproblem – das ist zweifellos einen eigenen Beitrag wert).

Das strukturelle Problem speziell der deutsche Publisher-Szene ist bis zum heutigen Tage ihre relative Fragmentierung bezüglich der Reichweite je Vermarkter. Die diesbezüglich stärker konzentrierte Mediaagentur-Szene befand sich am längeren Hebel (Stichwort Kickbacks). Durch Google hat sich das Problem verschärft, weil plötzlich technische Fähigkeiten gefragt sind. Eine aufziehende Online-Werbe-Welt, in der Targeting anstatt Kontext-Vermarktung sowie Real-Time-Bidding anstatt Dining & Wining-Deals angesagt sind, stellt eine echte Herausforderung für traditionelle Medienunternehmen dar. Die BT-Anbieter, die in den letzten Jahren versuchten, Targeting-Technologie und –Prozesse in Publisher-Organisationen einzuführen, haben sich hierüber ein Bild machen können. Der Fairneß halber sei angemerkt, dass die methodisch-technischen Herausforderungen von allen Beteiligten unterschätzt wurden. Die tatsächlichen Anforderungen an Profilierungsbreite und –tiefe des Inventars sowie an erzielbare Reichweite je Target traten häufig erst während der Implementierungsphase zutage.

Nach längerem Zögern haben die Premium Publisher und ihre Vermarktungsorganisationen nun erkannt, dass sie den Tech-Trend wohl nicht werden aussitzen können und daher beschlossen, mit AdAudience, einer gemeinsamen Plattform von IP, Sevenone, EMS und Tomorrow Focus zur Vermarktung von Premium-Inventar, selbst in die Offensive zu gehen. Für diesen Schritt sprechen sowohl strategische als auch methodisch-technische Argumente:
• Die Allianz führt zur größerer Reichweite und damit mehr Marktmacht gegenüber der Nachfrageseite, also v.a. gegenüber Mediaagenturen
• Auch spitzere Targeting-, d.h. Zielgruppen werden größer und damit für Kampagnen relevanter
• Die Fokussierung auf Premium-Content verhindert, dass Remnant-Inventar unmittebar mit Premium Inventar konkurriert und damit den Preisdruck auf Premium TKPs weiter erhöht
• Internetnutzer werden Vermarkter-übergreifend profiliert, das bedeuet vollständigere Profilierung je Nutzer-Cookie – eine wichtige Voraussetzung für effektives Targeting (siehe Teil 1 und 2 dieser Beitragsserie)
• Durch die Zusammenarbeit mit einem spezialisierten Targeting-Anbieter (in diesem Fall wunderloop) entfällt der mühselige Aufbau einer eigenen Technologieplattform

Offenbar ist zunächst geplant, nur einen Teil des Inventars der oben genannten Gründungsmitglieder über AdAudience zu vermarkten. Es wird sich zeigen wie gut hier die Zusammenarbeit zwischen den Partnern klappt. Aber grundsätzlich ist der Versuch einer Supply Side-Konsolidierung sicher sinnvoll. Wie in unserem letzen Post beschrieben, versuchen Technologiefirmen wie Rubicon Project und Pubmatic die Publisher mittel RTB-Anbieter-Plattformen stark zu machen. Neben dem Auktionsmechanismus ist hier vor allem der Konsolidierungsaspekt wichtig, weil er Macht konzentriert, vorausgesetzt die Publisher sind sich einig und geben nicht ihren Partikularinteressen nach.

Interessant ist auch Yahoos nur wenige Monate zurückliegende Repositionierung von Right Media als Marktplatz für Premium-Inventar. Hierin reflektiert sich nämlich die Weigerung vieler Premium Publisher, Ihr werthaltiges Inventar auf einen Marktplatz zu stellen, auf dem nur einen Klick entfernt Billiginventar verramscht wird. Yahoo erkennt damit existenzielle Interessen der Publisher an und bildet damit gleichzeitig ein Gegengewicht zu Google, die noch keinen weitgehenden Zugriff auf Premium-Inventar haben.

Aber warum ist Premium-Inventar überhaupt wichtig? Bei der Diskussion der Publisher-Marktposition kommt die Funktion, die das Premium- Inventar für die Nutzerprofilierung spielt, häufig zu kurz. Wie in Teil 1 und 2 dieser Artikelserie erläutert, lebt Targeting nämlich von werthaltiger Cookie-Profilierung. Beim Premium-Inventar gibt es häufig eine reichhaltige und damit für Interessen-Profilierung aussagekräftige Channel-Welt (Autochannel, Finanzchannel, Sportchannel etc.) sowie eine gewisse „Kohärenz“ der Profilierung im Sinne von zusammenhängender Beobachtung von Nutzerpräferenzen. Hinzu kommt natürlich noch das traditionelle Argument, dass Premium-Inventar auch eine gewisse Wertigkeit wegen des kontrollierten Kontextes hat (also kein Thema Brand-Kampagnen, aber insbesondere für Perfomancekampagnen. Man darf also darauf gespannt sein, wie sehr sich e-Commerce-Anbieter auch hierzulande als Profillieferanten betätigen billige oder gar abschreckende Kontextanmutung). Aber das ist tatsächlich nur ein zusätzliches Argument.

Abgeschwächt wird die Bedeutung des Premiuminventars als Profilierungsbasis durch e-Commerce-Anbieter, die immer mehr realisieren, wie werthaltig sie als Profilierungsbasis sind: Ein Nutzer, der eine e-Commerce-Seite aufsucht, hat in der Regel ein überdurchschnittlich hohes Interesse an den dort angebotenen Produkte und Dienstleistungen sowie in vielen Fällen sogar eine konkrete Kaufabsicht. Das sind überaus wertvolle Profilierungsinformationen. In der Regel hat natürlich der e-Commerce-Betreiber selbst ein Interesse an der Auswertung der Informationen. Inwieweit er über Retargeting hinaus bereit ist, diese Informationen Dritten zur Verfügung zu stellen, gehört zu den Fragen, die derzeit den Markt beschäftigen.

In dem ganzen Gerede über SSP/DSP-/RTB-Entwicklungen kommt aus meiner Sicht eine wesentliche Frage zu kurz: Wie lassen sich Nutzerinteressen besser erkennen und Werbeaffinitäten valider vorhersagen? Hier wird – gerade in der US-Diskussion – pauschal von Algorithmen gesprochen, als ginge es primär um eine mathematische Fragestellung. Die Algorithmen benötigen Input in Form von relevanten Profilinformationen. Die methodische Frage, wie am besten profiliert werden sollte, ist noch nicht gelöst (siehe hierzu meine Ausführungen in Teil 2). Ein weiteres Delayering des Ökosystem, bei der spezialisierte Profilierungsplattformen entstehen, könnte daher eine spannende Alternative zur bisherigen Struktur sein.

Die Bestandsaufnahme wäre unvollständig, wenn nicht die Sozialen Netzwerke und Foren erwähnt würden. Immerhin haben sie das Erscheinungsbild des Internet in den letzten Jahren sowie die Traffic-Ströme entscheidend verändert. Bisher schienen Social Media aufgrund des eingeschränkten Contentangebotes weniger als Profilierungs- denn als Retargeting-Plattformen relevant. Aber auch hier macht der technische Fortschritt nicht halt: Derzeit versuchen einige der größeren Netzwerke Nutzer über öffentlich zugängliche Kommunikation werberelevant zu profilieren. Wenn dies funktioniert, könnte wahr werden, was viele Auguren schon mit Blick auf Facebook prognostizieren: Soziale Netzwerke als neue Megaplattformen für Display-Advertising. Wir dürfen gespannt sein.
Damit ist auch schon das Thema für die nächste Beitragsserie formuliert: Social Media und was sich damit anfangen lässt…

Tagged with:
 

Das neue Zauberwort der Targeting-Experten heißt Real-Time Bidding , RTB abgekürzt. Insbesondere die Fachdiskussionen in den USA kreisen seit ca. einem Jahr um dieses Thema. Was verbirgt sich dahinter? Hier der Versuch einer vereinfachten Erklärung: Während bisher Ad Impression-Preise auf CPM- oder CPC-Basis, also für Einheiten von 1.000 Ad Impressions („Run-off-site“ oder für ein bestimmtes Target) vorverhandelt werden, ermöglicht RTB die Verhandlung in Echtzeit für jede einzelne Ad Impression. Das hat man sich konkret wie folgt vorzustellen: Ein Nutzer löst ein Ad Request aus, der jeweilige RTB-Plattform-Anbieter identifiziert den Cookie und das damit verknüpfte Targeting-Profil und ermöglicht den Interessenten (Ad Networks, Mediaagenturen etc.) für diese Ad Impression zu bieten. Der Höchstbietende erhält die Ad Impression zugesprochen und darf sein Werbemittel ausliefern. Das alles geschieht in weniger als 75 Millisekunden. Willkommen im Cyber-Targeting-Zeitalter!

Und es sind nicht nur kleinere innovative Firmen wie Pubmatic, Media Math, Invite Media, AppNexus, Data Xu, Rubicon Project, AdMeld, Triggit usw. die diese Technologie (oder Teile davon) vorantreiben bzw. anwenden. Google bietet Real-Time-Bidding auf seiner DoubleClick Ad Exchange bereits an. Yahoo testet RTB auf seinem Right Media-Marktplatz und Microsoft auf seiner AdECN exchange.

Unterschieden wird zwischen DSPs (Demand Side Plattform), die dem Buchenden RTB-Funktionalität sowie häufig auch Targeting-Intelligenz bereit stellen sowie Supply Side-Plattformen, die das Inventar der Publisher RTB-kompatibel machen und den Bidding-Prozess unter deren Kontrolle ablaufen lassen. DSPs stellen sich vor allem als Frontend für Mediaagenturen auf. Der Trend geht dahin, Zugriff auf möglichst viel Inventar zu ermöglichen.

Was bewirkt RTB aus ökonomischer Sicht? Zunächst einmal steigert sich hierdurch die Markteffizienz wegen der „Third Degree Price Discrimination“-Mechanik, die zu einer wesentlich differenzierteren Bepreisung des Inventars und damit zu einer vollständigeren Markträumung führt. RTB-Anbieter wie Pubmatic argumentieren darüber hinaus, dass insbesondere Publisher von RTB profitieren würden. Dahinter steckt die „silent assumption“, dass jede Form von Paketierung z.B. die Bepreisung eines Automotive-Segment-TKPs, nur einen Teil der Informationen berücksichtigt, die in dem Nutzerprofil enthalten sind. Bietet man aber für die einzelne AdImpression, so bildete die gesamte Information die Basis für das Pricing. Mehr Information übersetzt sich also in mehr Wert. M.E. ist diese Argumentation nicht logisch zwingend. „Wert“ kann auch über Informations-Asymmetrien entstehen, also wenn es einem Publisher gelingt, dem Markt bei unvollständiger Information einen höheren Wert zu suggerieren als es bei näherer Kenntnis zu rechtfertigen wäre. Intransparenz kann für das Premium-Inventar der Publisher vorteilhaft sein. Das erklärt m.E. die exorbitant hohen TKPs auf einigen Landing Pages von renommierten Publikumszeitschriften sowie die lange Zeit zurückhaltende Haltung dieser Premium Publisher gegenüber Targeting, das dem Prinzip des Brandkontextes ja grundsätzlich entgegenwirkt bzw. es deutlich abschwächt.

Informations-Asymmetrien wird es aber auch in der aufkommenden RTB-Welt geben. Derjenige mit den meisten Profilinformationen über die Ad Impression und die beste Targetinganalytik wird versuchen, mittels dieses exklusive Wissens den Bietprozeß in seinem Sinne zu gestalten und damit Arbitrage-Gewinne zu realisieren. Wie sich das auf das Online-Ad-Ökosystem auswirken könnte, werde ich in meinem nächsten Blog-Beitrag diskutieren.

Zurück zur Methodik: Der sinnvolle Einsatz von RTB ist an wesentliche, aber nicht hinreichend diskutierte Voraussetzungen geknüpft:
- die Existenz relevanter Profilierungsinformationen und die wertindizierende Verarbeitung . Schließlich setzt der Bidding-Prozess auf genau diesen Daten auf. Nur wenn klar ist, welche Profilmerkmale für eine gegebene Kampagne erfolgssteigernd wirken, kann die Bepreisung effizient durchgeführt werden. Wird aber falsch oder unvollständig profiliert, funktioniert nach dem Prinzip „Garbage-in-Garbage-out“ das gesamte System und damit auch das RTB nicht.
- RTB verlangt den Buchenden auch deutliche Änderungen des Kampagnenbuchungsprozesses ab: Im Display-Geschäft herrschte bisher das Paradigma der garantierten Buchung bzw. Auslieferung. Forecasting für, also die Bestimmung der Adimpression-Reichweite, ist wegen den Unwägbarkeiten des Bidding-Prozesses in der herkömmlichen Form nicht möglich. An dieser Stelle ensteht also für das Kampagnenmanagement zunächst mehr Arbeit (manuelles Nachsteuern).

Zwei Thesen zum Abschluss:
- RTB ohne „richtige“ Profilierung und Analytik zur Targetermittlung ist wie ein Gebiss ohne Zähne.
- Nicht die Angebotsseite wird RTB in Zukunft treiben, sondern die Nachfragenden, allen voran große Brands, Mediaagenturen und Ad Networks, die – bildlich gesprochen- nicht mehr die Katze im Sack kaufen, sondern Conversion-steigerndes Cherry Picking von Ad Impressions sowie optimiertes „Yield Management“ betreiben wollen. Erst wenn dieser „Business Case“ geschaffen und der Druck groß genug geworden ist, werden RTB und andere Prozess-ändernde Verfahren sich durchsetzen. Ob das schon in 2010 der Fall sein wird? Mich würde es nicht wundern, wenn es hierzulande länger dauern würde…

Damit enden zunächst einmal meine technisch-methodischen Betrachtungen: Einige wichtige Aspekte sind noch offen, z.b. die Entwicklungen im Ad Server-Bereich oder die Bedeutung soziodemographischer Nutzerdaten fürs Targeting. Dazu vielleicht später einmal mehr.

Im nächsten und damit vorläufig letzten Teil dieser Targeting-Serie werde ich wieder stärker die ökonomisch-strategische Brille aufsetzen, um die Triebkräfte der Online-Advertising-Evolution zu beschreiben, die „Cui-Bono“-Frage zu stellen und Machtverschiebungen im Ökosystem zu prognostizieren.

Tagged with:
 

Die Erzielung einer relevanten Reichweite ist eine Basisanforderung bei der Kampagnen- und Mediaplanung, insbesondere bei Brand- und Awarenesskampagnen. Mit Targeting verlagert sich diese Anforderung auf eine bestimmte Zielgruppe, d.h. die Kampagne soll möglichst viele potenzielle Konsumenten erreichen.

In der Targeting-Praxis gibt es dabei einen Trade-off zwischen Zielgenauigkeit und Reichweite, d.h. mit zunehmender Reichweite nimmt die Passgenauigkeit der Zielgruppe ab und damit der Streuverlust zu. Hier die richtige Balance zu finden, ist eine Herausforderung.

Bei Abverkaufskampagnen stellt sich die Reichweitenanforderung insofern härter, als der Business Case sich leicht bereichnen lässt, wie am folgenden leicht abgewandelten Praxisbeispiel deutlich wird: Ein Travel-Website profiliert Destinations-bezogene Interessen der Nutzer und schlägt ihnen genau dieselben Reisewünsche über ein entsprechend gestaltetes Banner auf, sobald sie eine andere in Reichweite des Adservers befindliche Webseite aufrufen. Es handelt sich hierbei also um klassisches Re-Targeting – in diesem Fall sogar noch mit einer Smart-Ad-Komponente. Im Ergebnis bringt diese Kampagne etwa eine Verzehnfachung der Klickrate. Eigentlich toll. Allerdings wurden nur wenige Tausend Nutzer auf anderen Webseiten via Cookie wieder gefunden.

Dieses Beispiel illustriert einige wichtige Sachverhalte:
- Hohe Reaktionsraten und damit erfolgreiches Targeting ist nur dann wertvoll, wenn die Reichweite stimmt
- Erfolgreiches Re-Targeting – und darüber wird häufig geschwiegen – setzt voraus, dass man erhebliche Teile der vorher profilierten User zeitnah wiedertrifft und das können eigentlich nur große AdExchanges oder sehr große AdNetworks sicherstellen.
Aber zurück zur grundlegenden Betrachtung von Reichweite und Reaktionsrate bzw. Wirkungsgrad: Bei Performance-Kampagnen, die zu direkten Käufen führen, lässt sich der Break-Even relativ leicht berechnen, bei Branding-Kampagnen viel schwieriger wegen der stark hypothetischen Monetarisierungszusammenhänge. In der Praxis der Mediaplaner kommt noch eine weitere Restriktion hinzu: Eine Kampagnenbuchung darf nur wenige Minuten dauern, deswegen soll sich die Zielgruppenbeschreibung der Werbetreibenden möglichst leicht übersetzen lassen in das Buchungsangebot der Publisher, so dass sich dann in kurzer Zeit möglichst viele Adimpressions „unterbringen“ lassen, am besten noch mit validem Forecasting abgesichert, so dass kein Nachsteuerungsaufwand für die Mediaagentur entsteht.

An dieser Stelle sei eine Prognose gewagt: Mit der steigenden Bedeutung des Online-Werbekanals werden in Zukunft die Werbetreibenden mehr über die Kampagnenrezeption wissen wollen:
- Wie gut wurde die Zielgruppe getroffen? Haben tatsächlich diejenigen Nutzer reagiert, die die Zielgruppenmerkmale (Interessen, Soziodemographie) auswiesen oder Nutzer mit ganz anderen Merkmalen?
- War die Zielgruppenbeschreibung des Produktmanagement überhaupt korrekt?
- War das Creative irreführend, so dass „falsche Zielgruppen“ sich angesprochen fühlten (z.B. Männer bei Damenoberbekleidungswerbung)
Mit anderen Worten, die Kampagnenresponseanalyse wird wichtiger werden. Infolgedessen werden sich analytischen Anforderungen an Kampagnenplaner und –durchführende deutlich erhöhen.

Im nächsten Artikel schwenken wir von der in den letzten Posts doch recht methodischen und Business-bezogenen Betrachtungsweise zu einer technisch-infrastrukturellen: Es wird um RTB, also Real-Time-Bidding gehen. Und wie immer stellt sich auch hier wieder die Frage: Hype oder substanzieller Trend?

Seit ca zwei Jahren geistert ein Gespenst durch die Online-Advertising-Szene: die „Natural Born Clickers“. Comscore hatte Anfang 2008 eine Studie veröffentlich, derzufolge 50% aller Display Ad-Klicks auf nur 6% der US-Online-Nutzer entfallen und dass diese Gruppe der „Heavy Clicker“ soziodemographisch weniger repräsentativ für die Online Nutzer insgesamt sei (tendenziell jünger und weniger wohlhabend). Außerdem war laut dieser Erhebung ein Zusammenhang zwischen Banner-Klickrate und Marken-bezogener Werbewirkung nicht nachweisbar. Im May 2009 führte Comscore eine Folgestudie durch, die diese Ergebnisse im wesentlichen bestätigte und darüber hinaus noch, ein Rückgang der monatlich auf Display-Werbung klickenden Nutzern von 32% auf 16% konstatierte.

Der Abwärtstrend der Klickraten manifestiert sich zudem in dessen niedrigem Niveau, das in Deutschland mittlerweile bei 0,13% und in UK bei 0,08% liegt.

Gespenstisch daran sind nicht die Erkenntnisse an sich, sondern die Tatsache, dass die Online-Advertising-Szene (und damit meine ich Werbetreibende, Mediaagenturen und Publisher) nur zögerlich auf diesen Befund reagiert und Click-Through Raten (CTR) vielerorts nach wie vor die entscheidende Währung für den Erfolg von Bannerkampagnen darstellen. Ausgenommen sind natürlich Performance-Kampagnen, deren Erfolg an „Conversions“, also Käufe, Registrierungen etc., gemessen wird.

Ein Grund für die immer noch starke Verbreitung der CTR als Metrik ist sicher ihre leichte Messbarkeit (was natürlich die Sache inhaltlich nicht besser macht) sowie der Mangel an pragmatischen und methodisch überlegenen Alternativen. Sicher, es gibt die Möglichkeit, „Brand Impact“-Studien durchzuführen, bei denen Nutzer im Wege des Online Panels systematisch vor und nach Auslieferung der Werbemittel hinsichtlich dessen Wirkung befragt werden. Allerdings: Wie repräsentativ sind diese Studien wirklich? Schließlich beruhen sie auf einer Selbstauswahl der Teilnehmer und die Bereitschaft von Internetnutzern sich befragen zu lassen, nimmt tendenziell ab. Ungeachtet dieser Problematik bietet sich dieses Verfahren insbesondere bei größeren Branding-Kampagnen an.

Eine weitere Alternative sind Post-View- bzw. View-Through-Metriken. Das Grundprinzip ist simple: Nicht der Klick auf das Werbemittel wird getracked, sondern das Auftauchen eines „cookifizierten“ (mit Cookie belegten) Nutzers auf der Webseite des Werbetreibenden innerhalb eines definierten Zeitrahmens. Über die Cookie-Auslieferung beim Werbemittel-Kontakt wird sichergestellt, dass der Nutzer vor dem Besuch Sichtkontakt mit dem Werbemittel hatte. Und Post-View ist eine interessante Alternative für Social Media-Seiten mit niedrigem CTR. Kein Wunder also, dass Facebook seit kurzem dieses Verfahren unter der Bezeichnung „Conversion Tracking“ anbietet. Im November 2009 hat auch Google die „View Through -Metric“ für sein Content Network eingeführt. Die Metrik wird also von zwei Zentralen Playern im Markt gepusht, jetzt bleibt abzuwarten, wie sie sich im Markt durchsetzt. Das hat natürlich nicht nur mit der Qualität der Metrik, sondern mit den wirtschaftlichen Interessen der Publisher zu tun. Die Premium Publisher, die heute zumindest auf den Traffic-starken Seiten noch hohe TKPs abrechnen, können nicht unbedingt daran interessiert sein, dass Social Media mit dieser Metrik relativ mehr gewinnt als sie selbst…

Natürlich gibt es auch methodische Bedenken gegen den Post-View-Ansatz. Potenziell problematisch an diesem Verfahren sind z.B. Doppelzählungen, die insbesondere dann auftauchen, wenn der Werbetreibende mit mehreren AdNetworks zusammenarbeitet. Affiliate-Vertreter rügen teilweise das Prinzip, dass nur der Publisher mit dem letzten Sichtkontakt bezahlt wird, obwohl möglicherweise bereits frühere Werbemittelkontakte den Nutzer dazu veranlasst haben, die Webseite des Werbetreibenden aufzusuchen. Des Weiteren ist bei Cross-Media-Kampagnen nicht auszuschließen, dass der Besuch auf der Advertiser-Webseite nicht durch die Online-Werbung, sondern z.B. durch die TV-Werbung ausgelöst wurde. Außerdem gibt es viele Werbetreibende, die die Zahl der Tracking-Cookies auf ihren Seiten möglichst klein halten wollen, was zunächst gegen Post Impression-Verfahren spricht.

In der Tat lässt das Last-Cookie-Prinzip alle vorangehenden Werbemittelkontakte des Nutzers unter den Tisch fallen, was der realen Wirkung dieser Kontakte nicht entspricht. Ein sehr unbefriedigender Zustand. Google könnte – wenn sie im Display-Bereich ihren Marktanteil weiter steigern – der erste Anbieter sein, der Metriken wie Display-Search Konvertierung anbietet und damit einen wichtigen Teil der Wirkungskette abbilden. Aber das ist noch Zukunftsmusik.

Zurück zur Gegenwart Meines Erachtens lassen sich diese oben beschriebenen „Kröten“ allesamt leichter schlucken als die Nachteile der CTR-basierten Erfolgsmetriken. Und mit der zunehmenden Bedeutung der Online-Werbung werden sich zumindest große Marken solchen Metriken in Zukunft stärker öffnen, vor allem wenn es um Brand-/Awareness-Kampagnen geht.

Darüber hinaus gibt es noch eine rege Debatte, um die Verweildauer als zentrales Erfolgsmaß von Werbung. Hierzu werde ich in im Kontext eines künftigen Beitrags über Werbewirkung und Metriken im Social Media-Kontext näher zu sprechen kommen.

Am Schluss dieses Beitrags über Metriken noch ein Anmerkung zum Thema Frequency Capping und Contact Management. Solange das Abrechnungsmodell primär auf Anzahl ausgelieferte Ad Impressions abstellt, legen Werbetreibenden natürlich Wert darauf, dass der einzelne Nutzer nicht mit Werbung überschwemmt wird, also nicht 20 mal das gleiche Banner sieht. Darüber hinaus gibt es immer wieder Versuche, die optimale Kontaktfrequenz zu bestimmen. Die kürzlich veröffentliche „Online-Visions Studie 2010“ kommt z.B. zu dem Schluss, dass die getesteten Branding-Kampagnen die beste Werbewirkung bei vier bis sechs Kontakten erzielen. Schaut man genauer hin, erkennt man allerdings, dass der Wirkungsunterschied gegenüber ein bis zwei Kontakten gar nicht so groß ist: 30 vs 36 Indexpunkte für unaided recall und 40 vs 44 für aided recall. Das entspricht einem Delta von 10 bis 20%. Was man also eigentlich braucht, ist eine ROI-Betrachtung aus der hervorgeht, ob das Invest in zusätzliche Adimpressions pro Nutzer tatsächlich den gewünschten Mehrwert erzielt. Die Online Vision-Ergebnisse lassen jedenfalls vermuten, dass 1 bis 2 Kontakte sich möglicherweise am besten rechnen, es sei denn das sich die zusätzlichen 10 bis 20% Brand Impact tatsächlich signifikant monetarisieren lassen.

Das interessante an der Online-Visions-Studie ist die Kooperation zwischen Media Agenturen, Werbetreibenden und Publishern, was interessenpolitisch ein vergleichsweises neutrales Setup darstellt (wenn man davon absieht, dass Google nicht dabei war). Sonst stammen Werbewirkungsanalysen ja häufig von Vermarktern (z.B. von TOFO) oder Technologieanbietern selbst und haben daher leider in vielen Fällen eher die Anmutung von Marketingbroschüren als von neutralen Studienergebnissen (leider auch oder gerade auf den zweiten Blick). Hier erfährt man nur einen Teil der Wahrheit. Ein neutrales Media-Auditing mit tiefer technischer Kompetenz im Bereich Online-Advertising tut daher aus Sicht der großen Hersteller und Marken bitter not. Die Media Agenturen werden diese Rolle aufgrund ihrer starken Eigeninteressen im Online Advertising Ecosystem nur partiell spielen können – aber dazu mehr am Ende dieser Artikelserie. Voher werde ich noch meine Sicht auf das Reichweitenthema und neueren technischen Trends (RTB) erläutern.

Tagged with:
 

Der Kampagnenerfolg hängt zu einem wesentlichen Teil von der Zielgruppen-gerechten Gestaltung des Werbemittels ab. Je spezifischer also der Zielgruppenfokus, desto angepasster sollte auch das Werbemittel sein. Das klingt logisch. In der Realität hat sich dieser Gedanke bei Targeting-Kampagnen bisher allerdings nicht in der Breite durchsetzen können. Selbst ein großer Player wie Yahoo hatte in den vergangenen zwei Jahren mit seinen „Smart Ads“, das sind variabel anpassbare Banner, keinen durchschlagenden Erfolg am Markt. Und selbst bei Targeting-Kampagnen ist zur Zeit der Einsatz von Zielgruppenspezifischen Creatives eher die Ausnahme als die Regel.

Für diesen kontraintuitiven Befund gibt es eine Reihe von Gründen:
- Es gibt heute überwiegend keinen durchgängigen, eng abgestimmten Rückkopplungsprozess von Kampagnenbriefing, Creative-Design, operative Zielgruppenbuchung und Kampagnenergebnissen. Wenn eine Kampagne nicht gut „funktioniert“, dann weiß man im Allgemeinen nicht so recht, woran es lag und welchen Anteil das Creative daran hatte.
- Das ist insofern nicht verwunderlich, als in den meisten Fällen noch nicht einmal klar ist, welche Nuterzprofile eigentlich primär reagiert haben und ob diese auch nur im Entferntesten dem Kampagnenbriefing entsprachen.

Unter Targeting-Praktikern ist allerdings bekannt, dass Creatives extrem verzerrende Wirkungen entfalten können, man denke an die Frauenunterwäsche-Werbung, die bei zuviel erotischer Ausstrahlung eben auch von Männern angeklickt wird – mit der Folge massiver Streuverluste.

US-Firmen wie Tumri oder Teracent, die kürzlich von Google gekauft wurden, haben den Braten gerochen und bieten automatisierte Optimierung von Creatives an. Das funktioniert grob wie folgt: Auf Basis von Creative-Templates, die ein Banner oder was immer als Display-Werbung gezeigt werden soll, in einzelne Bestandteile zerlegt und dann in unterschiedlichen Konfigurationen so lange aussteuert, bis klar ist welche Kombination die höchste Klickrate erzielt. Eigentlich ein nahe liegender Gedanke, auch wenn manchem Ad-Designer die Haare zu Berge stehen mögen angesichts solch kreativer Blasphemie…

Aber wie vertragen sich nun solche Ansätze mit den verschiedenen Targeting-Methoden (siehe den letzten Post zu diesem Thema):
Der Standard-Target-Ansatz erscheint vereinbar: Hier gibt es eine Kampagnen-übergreifende Zielgruppenregel, auf die verschiedene Creative-Varianten getestet werden können. Schwieriger wird es bei der Kampagnen-bezogenen Zielgruppenexploration, weil das Creative hier der Teil der Testkonfiguration ist. Die Ermittlung der optimalen Zielgruppe und des optimalen Creatives verschmelzen somit untrennbar. Aber warum eigentlich nicht. Werbemittel- und Zielgruppenoptimierung verfolgen das gleiche Optimierungsziel, die Erzielung einer möglichst hohen Reaktionsrate. Außerdem ist ex-Post anhand der Reagiererprofile immer noch erkennbar, wer geklickt bzw. konvertiert hat.

Fazit: So und so, automatisierte Creative-Optimierung erscheint extrem sinnvoll und wird eigentlich nur noch sinnvoller durch die Kombination mit Targeting-Verfahren – wenn man davon ausgeht, dass die Erstellungskosten für das Creative nicht deutlich steigen und über die Zielgruppenfokussierung nicht zu unerwünschten Rechweitenverlusten führt.

In Insiderkreisen immer wieder diskutiert wird die Frage, wie denn eigentlich Targets, d.h. Zielgruppen, gebildet werden sollten. Dabei kreist die Debatte um zwei Ansätze: Feste Zielgruppendefinitionen, idealerweise angelehnt an gelernte Werbetaxonomien, vs über das Reaktionsverhalten empirisch ermittelte „Erfolgsgruppen“, die eine individuelle Kampagnen-optimierung ermöglichen.
Letzteres Verfahren, das ich im folgenden als Zielgruppen-Explorationsansatz bezeichne, sieht in der Praxis wie folgt aus: Ein Kampagne wird in einer kurzen Testphase „run-off-site“, also ohne Targeting, ausgesteuert, die Reagiererprofile werden auf typische Ausprägungen hin analysiert und die Kampagne dann auf Nutzer mit entsprechenden Zielgruppenmerkmalen ausgeliefert. Dieser analytisch getriebene Ansatz kann durchaus zu kontra-intuitiven Zielgruppen führen, z.B. erweisen sich plötzlich überdurchschnittlich Mobilfunkinteressierte nicht als diejenigen, die auf Mobilfunkangebote reagieren oder überdurchschnittlich Mode-interessierte nicht auf Kleidungswerbung.
Solche Befunde sind nicht zwangsläufig, aber auch nicht selten. So ganz unplausibel sind sie jedenfalls nicht: So geht es insbesondere bei Branding-Kampagnen ja häufig gar nicht darum, nur die sehr interessierten Nutzer zu erreichen. Vielmehr ist bei Massenprodukten, wie sie z.B. im FMCG-Sektor, eine gewisse Streuung über die „Heavy-User“ hinaus durchaus erwünscht (die Betonung liegt hier auf „gewisse“).

Der alternative Vorschlag gelernte Taxonomien zu nutzen (in Deutschland z.B. die AGOF-Taxonomie), ist natürlich sehr sinnvoll, insbesondere mit Blick auf die Anforderungen der Media Planer, die ihre Prozesse nur sehr ungern umstellen und im Übrigen sehr wenig Zeit für Kampagnenbuchungen haben. Das war in der Vergangenheit vielleicht die größte Hürde für die erfolgsbasierte Zielgruppenermittlung.
Weil aber – wie soeben argumentiert – werberelevante Taxonomie-Klassen für den gelernten Taxonomie-Ansatz häufig suboptimal sind, ist ein dritter Weg in Erwägung zu ziehen: Kampagnen werden zunächst Werbeklassen zugeordnet und dann die Reagiererprofile systematisch auf Muster untersucht. Im Ergebnis hält man eine Regel, die die Zielgruppe beschreibt.
Problematisch an diesem Ansatz ist natürlich die mehr oder weniger willkürliche Zuordnung einer Kampagne zu einer Taxonomieklasse – diese Henne-und-Ei-Problem löst sich somit nicht auf. Die Taxonomie entwickelt sich in diesem Prozess von einer Zielgruppen- zu einer Kampagnenklassifikation. Der Vorteil dieses Verfahrens ist, dass dem Markt „Standard-Targets“ angeboten werden können.
Meine Einschätzung wäre, dass die Kampagnen-bezogene Zielgruppenexploration der erfolgreichste Ansatz ist, weil am wenigsten „voreingenommen“ ist: Die Zielgruppen denkt man sich nicht aus, sondern bestimmt sie empirsch qua Test. Fragt sich nur, wie lange es dauert bis sich dieser Ansatz auch prozessual bei den buchenden Parteien durchsetzt. Und wie er sich mit anderen Optimierungsverfahren (z.B. Creativ-bezogenen) verträgt, aber dazu mehr im nächsten Post.

Targeting – Quo Vadis? Teil 1: Einführung

„Targeting“ wird als Terminus Technicus vor allem im Kontext von Online-Werbung gebraucht. Im weiteren Sinne hat Targeting indes unterschiedliche Anwendungsfelder: Überall, wo Nutzer-bezogene Inhalte, Produkte oder Services angeboten werden, können hierdurch der Theorie nach Streuverluste gesenkt und Relevanz für die „getargeten“ Empfänger erhöht werden. Für die Fokussierung auf den Anwendungsbereich Online-Werbung gibt es allerdings auch gute ökonomische Gründe: Immerhin ist Werbung immer noch eine der Haupteinnahmequelle vieler Webseitenbetreiber und verdient daher besondere Aufmerksamkeit.

Für diejenigen Leser, die in ihrer beruflichen Laufbahn auch mal außerhalb der Internet- und Medienwelt zu tun hatten und daher gern vergleichend unterwegs sind, sei angemerkt, dass der Online-Werbemarkt mit einem Volumen von insgesamt rund € 4,1 Mrd in 2009 (Display Advertising, Search, Affiliate) in seiner Gesamtheit (!) etwa so groß ist wie der Jahresumsatz eines mittelgroßen Konzerns. Es handelt sich also – noch – über ein relativ überschaubares Marktvolumen. Aber: Die Bedeutung von Online-Werbung nimmt weiterhin massiv zu. Der Anteil am gesamten Werbekuchen betrug 2009 bereits 17% (gegenüber 4% in 2005). Trotz Wirtschaftskrise lag die Wachstumsrate für Online-Werbung in Deutschland im Jahre 2009 noch im zweistelligen Prozentbereich (brutto). Und das gilt sowohl für die Suchwortvermarktung als auch für klassische Display-Werbung, bei der modern dynamische Rich-Media-Format auf dem Vormarsch sind.

Große Marken verlagern hierzulande insbesondere ihre Print-Budgets zunehmend in den Online-Kanal. Die Erosion der TV-Budgets hat sich laut dem aktuellen OVK-Report in 2008/09 nicht fortgesetzt, muss aber weiterhin als struktureller Trend angesehen werden – vor allem mit Blick auf große internationaler FMCG-Brands wie z.B. P&G oder PEPSI, die massiv Budgets von TV nach Online verlagern oder verlagern wollen. Spannend dabei ist vor allem, dass das Internet zunehmend als Branding-Medium verstanden wird, das insbesondere den Produktnutzen besser kommuniziert, während TV immer noch für schnelle Markendurchdringung unverzichtbar ist.

Die Markenkonzerne, die bisher das Management des Internets als Werbekanal Media- sowie SEM/SE0-genturen überlassen hatten, kümmern sich nun zunehmend selbst um die Steuerung dieses strategischer werdenden Themas. Gleichzeitig sehen sich große Mediaagenturen angesichts der Bedrohung durch Internet-Tech-Player, allen voran Google, gezwungen, technisch „aufzurüsten“. Schlagworte wie Targeting, Real Time Bidding, Ad Exchanges, Contact Management etc. bestimmen die Diskussion Auch Webseitenbetreiber (im folgenden“Publisher“ genannt) werden zunehmend „techy“, um ihre Position gegenüber Mediaagenturen, Ad Networks und Internet-Tech Playern zu verteidigen. Dazu gibt es auch allen Anlass, schließlich sind die CPM/TKP-Preise des sogenannten Premium-Inventars in den letzten Jahren gefallen und infolge dessen viele Premium-Publisher in die Defensive geraten.

Diese Ökosystem-Verschiebungen finden vor dem Hintergrund technisch-methodischer Innovationen statt, deren Vorgeschichte so alt ist wie das Internet selbst: „Targeting“ oder „Personalisierung“ – um diesen weniger martialischen, aber abgenutzten Begriff zu verwenden – gehört zu den Grundversprechen des Internets. Schon früh hatten die Evangelisten des Mediums erkannt, dass es dank des Rückkanals und damit der Interaktivität des Internets möglich sein muss, Nutzer zu profilieren, um diesen dann individuell relevante Inhalte auszuliefern – ganz gleich, ob es sich dabei um Kommunikationspartner, Werbung oder redaktionellen Content handelt. Heute – also ca 15 Jahre nach Beginn der Internet-Revolution – sind wir diesem Ziel in einigen Anwendungsbereichen (z.B. bei on-site Recommender-Systemen) ein deutliches Stück näher gerückt, in anderen hingegen wie z.B. der online Werbung oder Content Syndication ist ein ausgereifter Zustand noch nicht erreicht (die Herleitung dieser Aussage findet sich weiter unten, offenbar wird sie auch von einem Teil der Targeting-Anbieter selbst geteilt). Targeting befindet sich dort noch in einer – wenn auch wachsenden – Nische.

Dieser Befund kontrastiert seltsam mit der Omnipräsenz des Themas. Wer die Internet-Branchen-messe DMEXCO 2009 besucht hat, wird dies bestätigen können: Kaum ein Publisher, Ad Network oder Technologie-Anbieter, der sich nicht „Targeting“ auf die Fahnen geschrieben und nicht vorgegeben hätte, des Pudels Kern gefunden zu haben. Auch Google hat mit seiner Interest Based Advertising-Initiative vom vergangenen Jahr Öl in das Feuer der Targeting-Apologeten gegossen.
Aber wie ist es tatsächlich um die Qualität von Targeting-Sytemen bestellt? Wo liegen die Herausforderungen? Und wohin geht die Reise?

Eine definitorische Klarstellung vorweg: Wenn im Folgenden von Targeting die Rede ist, dann ist immer „Unique Client Targeting“ gemeint, d.h. die Werbung wird gezielt auf einen Nutzer ausgesteuert und nicht auf den Ort, an dem er sich gerade befindet. Das widerspricht dem bisher vorherrschenden Kontext-Ansatz, der auf zwei „Werttreibern“ beruht:
- dem soziodemografischen und ggf. psychografischen Profil der Besucher der jeweiligen Seiten (aggregierte Information)
- dem Argument, dass Werbung in sogenannten Premium-Umfeldern (Brand, relevanter Content) besser wirkt als auf No-Name-Seiten. Eine Annahme übrigens, die zunehmend unter Druck gerät: Eine kürzlich abgeschlossene Studie von P&G und der Mediaagentur Pilot kommt zum Schluss, dass „Umfelder […] nicht den erwarteten Einfluss auf die Verankerung und Bewertung der Werbung“ haben.

Es liegt in der Logik des Kontext-basierten Ansatzes, dass nur ein kleiner Teil des Inventars zu Premium-TKPS vermarktet wird, während der kontextuell weniger relevante Rest („Remnant Inventory“) verramscht, d.h. zu deutlich geringeren Preisen angeboten wird. Unique Client Targeting ermöglicht es, diese Page Requests zu einem besseren Preis zu vermarkten, weil Werbung hier ja auf den Nutzer bzw. seinen Cookie zielt und nicht auf den Kontext. Implikation: Der Nutzer kann auf auf Seiten angesprochen werden, die nach der konventionellen Denke zur Resterampe zählen.

Der Unique Client-Targeting-Ansatz lässt sich methodisch als Dreiklang von „Nutzerprofilierung“, „Matching“ von Nutzerprofil und Angebot sowie „Auslieferung“ der auf das Profil passenden Inhalte (Produktempfehlungen, redaktionelle Inhalte, Werbung etc.) beschreiben.

Eine wichtige Unterscheidung der Personalisierungssysteme ergibt sich aus dem Ort der Profilierung sowie dem Profilierungsmechanismus. Das allseits bekannte Empfehlungssystem von amazon profiliert Nutzer grundsätzlich innerhalb der eigenen Domain (also „on-site“), Informationen über das sonstige Surfverhalten gehen hier nicht ein. Das Interesse eines Nutzers manifestiert sich im Anklicken spezifischer Produkte sowie im Kauf. Empfehlungen leiten sich daraus ab, wie oft Produkte gemeinsam in einer Session angesehen wurden bzw. wie oft sie den Weg in denselben Warenkorb fanden (Item-to-Item Collaborative-Filtering Mechanismus). Das System besticht durch seine Einfachheit – das Patent ist auch für Laien gut nachvollziehbar, der Kernalgorithmus lässt sich als einfache Assoziationsanalyse beschreiben und funktioniert in den traditionellen amazon-Produktwelten mit ihren hohen Transaktionsvolumina und Interessen differenzierenden Produktcharakter recht gut.

Wenn man sich den Kaufentscheidungstrichter vorstellt, wo ganz oben Awareness für eine Marke oder ein Produkt erzeugt wird und es ganz unten zu Transaktion kommt, haben e-Commerce-Portale a la amazon den Vorteil, sehr nah am Kaufakt zu liegen, d.h. ein Klick auf ein Produkt drückt häufig bereits Kaufinteresse aus. Fast genauso aussagekräftig sind Suchbegriffe, die von Nutzern in Suchmaschinen eingegeben werden – oftmals führt die Suche dann ja auch zu e-Commerce-Angeboten. Nicht umsonst fließt mehr als die Hälfte des Online-Werbebudgets in Deutschland in Suchmaschinenmarketing. Spätestens seit Googles Akquisition von Doublecklick war klar, dass Bannerwerbung das nächste Schlachtfeld der Online-Werbung werden würde. Durch Bannerwerbung sollen die latenten Interessen geweckt und die manifesten angesprochen werden, um den Nutzer in den transaktionsnahen Bereich zu „treiben“. Und dass möglichst zielgenau, um Streuverluste zu verringern. Daher das Interesse an Targeting.

Aber wie erkennt man Interessen-affine Nutzer? Nehmen wir z.B. ein Informationsportal mit redaktionellen Inhalten zu unterschiedlichsten Themen wie z.B. Sport, Finanzen und Autos. Hier wird das Interesse gemeinhin Cookie-basiert ermittelt, in dem der Besuch einer Website erfasst wird. Wenn diese Website vorher kategorisiert wurde (z.B. als Auto, Finanz, Sportseite), wird diese Information Bestandteil des Cookie-bezogenen Interessenprofils. Nun kann es unterschiedlichste Gründe für den Besuch einer Webseite geben. Der Nutzer kann beispielsweise Autofan sein und liest daher entsprechende Artikel, obwohl er sein nächstes Auto vielleicht erst in drei bis vier Jahren kauft und das ist dann möglicherweise auch nicht der BMW 5er, den er sich im Internet anschaut, sondern ein Kleinwagen. Natürlich kann aber der Besuch der Autoseite auch Teil eines echten Suchvorgangs im Vorfeld eines Autokaufs sein, d.h. der Nutzer kauft tatsächlich den 5er. Aber wie soll man das eine vom anderen unterscheiden?
Aus den Data Mining-Analysen aus dem Bereich des Handels (vor allem des Versandhandels) wissen wir, wie sich echtes Verkaufsinteresse detektieren lässt. Modelle wie „Recency, Frequency, Monetary Value“ lenken den Blick insbesondere auf Änderungen des Nutzerverhaltens im Zeitverlauf kurz vor einem Kauf (üblicherweise höhere Besuchsfrequenz). Neben der Erfassung des inhaltlichen Interesses ist somit die zeitliche Erfassung des Besuchs (also der Time Stamp) über einen möglichst langen Zeitraum absolut zentral. Bei Versandhandels- oder e-Commerce-Kunden, bei denen sich Kaufhistorien über längere Zeiträume verfolgen lassen sind, sind derartige Methoden durchaus erfolgreich.

Bei der Cookie-basierten Profilierung treten in der Praxis leider vielfach Umstände auf, die eine längerfristige, aussagekräftige Erfassung des Nutzerverhaltens erschweren:
- Cookie-Löschungen sowie der Gebrauch von Pop-up- und Ad-Blockern nehmen zu. Glaubt man den Webtrakks Zahlen zu Deutschland, dann akzeptieren allerdings immer noch 91% der deutschen Internet User 3rd Party-Cookies, die ein Verhaltenstracking grundsätzlich ermöglichen. Cookie-Lösungen sind fürs Targeting deswegen abträglich, weil zu geringer Profilierungsdauer und –tiefe führen. Deswegen sind auch Mechaniken vonnöten, die die Lebensdauer des Cookies verlängern und damit die Profilierungstiefe erhöhen (aber das ist ein Thema für sich, ebenso wie die gezielter Anreicherung von Cookie-Profilen mit soziodemographischen Informationen basierend auf Cookie-Daten).
- Nutzerprofile bleiben unvollständig – Erfasst wird nur ein sehr kleiner Teil des gesamten Surfverhaltens eines Nutzers, so dass Schlussfolgerungen wie eine Erhöhung der Suchfrequenz für das Thema Auto nicht wirklich erkannt werden kann. Das gilt insbesondere für Targetingsysteme, die sich nur auf eine Webseite oder ein Portal beziehen und deren Nutzer sich überwiegend außerhalb dieser Seiten tummeln
- Nicht alle Webseiten verfügen über differenzierenden Content, der sich für Ineressenprofilierung eignet. Ein Online-Telefonbuch mag viel Traffic haben, aber sagt sehr wenig über die Interessen des Nutzers aus (gemeint ist nicht das Branchenverzeichnis, aus dessen Kategorien durchaus Schlussfolgerungen zu ziehen wären).
- Ein Nutzer kann verschiedene Rollen annehmen. Das klassische Beispiel ist die Ehefrau, die Kleidung für Ihren Ehemann und Eventtickets für ihren 14 jährigen Sohn online kauft. Man kann hier zwar argumentieren, dass dies eben die Rolle Mutter und Ehefrau charakterisiere, eine kohärente analytische Deutung erleichtert dies jedoch nicht.
Allein schon aus diesen fundamentalen Widrigkeiten ergeben sich zwei Lektionen, die viele Targeting-Kunden, aber auch Investoren in Targeting-Technologien in den letzten Jahren erst durch Ausprobieren, also auf die harte Tour, gelernt haben:
- Die Targeting-Technologie alleine ist noch kein Erfolgsgarant, es kommt auf die Anwendungsbedingungen an, insbesondere auf die Ausdehnung und Reichhaltigkeit der Profilierungsoberfläche und damit der Profilierungsvollständigkeit des Nutzercookies sowie auf das Surfverhalten der eigenen Klienten. Nutzer, die z.B. ein Konsumentenportal nicht verlassen, können dort unter Umständen ganzheitlich sehr gut profiliert werden. Das sind vor allem für Publisher folgenschwere Einsichten: Große AdNetworks, AdExchanges und natürlich auch Google haben in Punkto Profilierungsoberfläche einen großen Vorteil gegenüber einzelnen Webseitenbetreibern
- Targeting ist nicht nur Technik, sonder auch Methodik und – um es zuzuspitzen – angewandte Verhaltensforschung. Das Tracking von Verhaltensdaten bleibt wertlos, wenn nicht klar ist, wie dieses Verhalten zu interpretieren ist. Analytische Methoden sind daher vonnöten, da durch sie Muster und Nutzerintentionen mit signifikanter Wahrscheinlichkeit erkannt werden können. Aber auch sie sind kein Selbstläufer, ihre Anwendung beruht auf Annahmen und Erfahrungen mit menschlichem Verhalten.