Im März war ich beim zwölften MeasureCamp in London. Neben interessanten Vorträgen und Diskussionen ist dieses Event auch immer eine großartige Möglichkeit sich mit anderen Webanalysten aus den verschiedensten Bereichen und teilweise auch aus den verschiedensten Orten der Welt auszutauschen.
Wie immer konnte jeder, der eine Session halten wollte, diese am Sessionboard ausschreiben. Und ebenfalls wie immer gab es eine riesige Auswahl an spannenden Themen, die es einem schwer machte sich zu entscheiden. Was ich vom MeasureCamp mitgenommen und auch schon (teilweise) ausprobiert habe, zeige ich Euch in diesem Blogartikel.
Is user intent messing up your attribution models (Dilyan Damyanov)
Die zweite Session, die ich besucht habe, war von Dilyan Damyanov. Seine Session stand unter dem Thema „Is user intent messing up your attribution models?“. An einem Beispiel erklärte er, dass man häufig nur nach Conversions schaut und auf Conversions hin optimiert, sich am Beispiel E-Commerce aber oftmals nicht anschaut, welches Produkt am Ende gekauft wurde, bzw. ob dieses mit dem eigentlich beworbenen Produkt übereinstimmt. Dilyan machte dies an einem Customer-Journey-Beispiel deutlich, bei dem der Nutzer als ersten Touchpoint auf eine Anzeige für eine Spielekonsole klickt, dann über mehrere Wege nochmals angesprochen und auf die Website geleitet wird. Am Ende kauft der Nutzer aber nur ein weitaus günstigeres Spiel und eben nicht die teurere Konsole. Je nach Attributionsmodell würde dennoch die Spielekonsolen-Anzeige den Kauf zugeordnet bekommen.
Dieser Aspekt sollte besonders bei Produkten, Produktgruppen oder Komplementärprodukten, die preislich weiter auseinander liegen, beachtet werden.
Gerade im Bereich AdWords interessiert manche Werbetreibende nur die Anzahl an Conversions und dass überhaupt konvertiert wird. Natürlich wird hier teilweise auch auf den Conversionwert geschaut, wenn einer vorhanden ist. Aber ich glaube die Wenigsten schauen sich auch an, ob über die Tischkampagne tatsächlich Tische gekauft werden oder vielleicht doch eher Stühle. Und wenn wir ehrlich sind, ist es am Ende ja auch egal was gekauft wird, so lange der Gewinn dabei stimmt ☺.
Attributionsmodelle sind schon an sich ein komplexeres Thema, da eben die verschiedenen Berührungspunkte des Nutzers miteinbezogen werden müssen. Ich habe mir im ersten Schritt einfach nur meine AdWords-Kampagnen angeschaut und geprüft, ob über die Kampagnen auch die beworbenen Produkte gekauft werden.
In den grünen Zeilen passen die Kampagnen auch jeweils zu den gekauften Produkten. Hier muss natürlich beachtet werden, dass auch zusätzliche andere Produkte gekauft werden können, nachdem ein Nutzer auf eine Anzeige geklickt hat. Eine Lösung, wie man hier richtig attribuiert, hatte auch Dilyan nicht.
An sich war die Ausgangsfrage von Dilyan keine große neue Offenbarung, stieß aber eine rege Diskussion in der Runde an und war für mich in jedem Fall eine gute Erinnerung bzw. ein guter Gedankenpunkt, an dem man anknüpfen kann.
Data Experience Mining (Craig Sullivan)
Eine coole und unterhaltsame Session gab es auch von Craig Sullivan, der unter dem Thema „Device Experience Mining“ mit viel Humor vorstellte, wie man sowohl Fehlerquellen und auch Potenziale der eigenen Website auf verschiedenen Geräten, Betriebssystemen und Browsern aufdecken kann. Er hat die Erfahrung gemacht, dass viele Webseitenbetreiber oft gar nicht wissen, wie ihre Website auf einem anderen als einem Desktop-Gerät aussieht. In einer Anekdote erzählte er, dass bei einem Webseitenbetreiber der Checkout-Prozess auf dem Smartphone gar nicht möglich war.
Er empfiehlt sich jeweils ein Exemplar der gängigsten Android Smartphones sowie iPhone Modelle zu holen, die Website dort einmal zu testen sowie die Customer Journey durchzuspielen, um so etwas zu vermeiden.
Um eben solche Schwachstellen herauszufinden, nutzt er einen benutzerdefinierten Google Analytics-Bericht sowie eine Excel-Tabelle. Welche Schritte man genau durchführen muss, erklärt er ganz ausführlich in seinem Blogartikel. Hier teilt er auch den Bericht sowie die Tabelle als Vorlage. Nachdem man alles ausgefüllt hat, gibt einem die Tabelle dann Aufschluss darüber, welche Geräte oder Browser wie viele Conversions zu welchem Wert generieren, wie der Umsatz pro Nutzer ist sowie die Conversionrate pro Nutzer. Der Wert „What if?“ gibt an, welches Ergebnis ein schlechter konvertierendes Gerät haben könnte, hätte es die Conversionrate des besser performenden Gerätes in der Kategorie.
Das Ganze habe ich natürlich auch mal ausprobiert und auf einen meiner Kunden angewandt:
Der Kunde ist im B2B-Bereich tätig und der Wert „Sales“ entspricht hier Leads, also Kontaktanfragen. Wie man sieht, sind der Sales-Wert und der Revenue-Wert gleich groß, da wir mit dem Kunden noch keine Werte für die Leads festgelegt haben. Daher ist der Wert „RPU“, also Umsatz pro Nutzer eher weniger aussagekräftig, leider ebenso der eigentlich interessanteste Wert „What if?“. Was man aber auch so schon deutlich sieht, ist, wie unterschiedlich die verschiedenen Geräte funktionieren. Interessant ist, dass die Conversionrate auf allen Geräten doch recht ähnlich ist. Auf mobilen Geräten sticht heraus, dass Android Geräte um 1% besser konvertieren als iPhones, obwohl Nutzer- und Sitzungsanzahl leicht geringer sind. Auch im Tablet-Bereich gibt es Conversionrate-Unterschiede. Hier müsste ich mir aber noch mal einen größeren Zeitraum mit mehr Conversion-Daten ansehen. Schaut man sich die Browser über alle Desktop-Geräte an, sieht man, dass Chrome deutlich am besten funktioniert. Hier fällt auf, dass beim Internet Explorer eventuell das größte verschenkte Pozential liegt, wenn man sich den What if?-Wert anschaut.
Für mich habe ich hier mitgenommen, dass ich mit dem Kunden in jedem Fall einen Wert für die einzelnen Leads definieren muss, um auch die Werte RPU und What if? nutzen zu können. Ebenso werde ich mir beim nächsten Mal einen noch größeren Zeitraum auswählen.
Data Whispering and how to measure the universe with one Graph (John Woods)
In dieser Session von John Woods zeigte er, welche Aussagen man mithilfe eines Datensets treffen kann. An einem E-Commerce-Beispiel listete er alle Warenkorbwerte auf, schaute sich das Minimum, Maximum und den Durchschnitt an und verglich diese miteinander. Oft haben diese Werte aber geringe Aussagekraft, bzw. sind nicht wirklich miteinander vergleichbar (z.B. wenn man einen super hohen und einen sehr niedrigen Wert hat, woraus sich dann ein nicht realistisches Mittel ergibt). Daher hat er sich auch die Anzahl der Transaktionen im Zusammenhang mit dem Warenkorbwert angeschaut und gesehen, dass viele Transaktionen einen Warenwert haben, der gerade die „kostenloser Versand“-Schwelle übersteigt. Auch gab es einige Warenkorbwerte, die gerade unter dieser Schwelle waren und bei denen nicht mehr viel gefehlt hätte, um die Schwelle zu erreichen. Diese Nutzer kann man gezielt ansprechen und ihnen Angebote zeigen, wie sie den kostenlosen Versand erreichen können, z.B. mit kleineren günstigeren Komplementärprodukten, die man ihnen zeigt, mit „kaufe zwei für kostenlosen Versand“-Angeboten oder mit Rabatt ab einem bestimmten Einkaufswert.
Auch ich habe mir mal die Arbeit gemacht und mir die Warenkorbwerte eines Kunden angeschaut.
Dargestellt sind hier 1147 Bestellungen. Die rote Linie zeigt die „kostenloser Versand“-Schwelle. Die meisten Transaktionen haben einen Warenkorbwert um diese Schwelle herum. Hier fällt auf, dass es doch einige Transaktionen gibt, die minimal unter dieser Schwelle liegen (in Gelb). Hier liegt das Potential, die Nutzer vor Abschluss ihrer Bestellung darauf aufmerksam zu machen, dass sie durch einen geringen Mehrbetrag von kostenlosem Versand profitieren könnten, z.B. durch einen Produktvorschlag. Bei den Transaktionen, die weit drunter liegen, wird es den Nutzern vermutlich nichts ausmachen den Versand zu zahlen, bzw. werden diese wahrscheinlich schwer von einem extra Produkt oder ähnlichem überzeugt werden können.
Berücksichtigt habe ich jetzt auch nur einen kleinen Teil aus Johns Vortrag, hier werde ich mich nochmal tiefer einarbeiten.
Fazit
Auch bei der Frühjahrsedition des MeasureCamps London waren wieder super Sessions dabei und ich konnte einiges mitnehmen und auch schon anwenden. An viele Punkte werde ich noch weiter anknüpfen. Man muss nicht immer etwas Brandneues präsentieren, oft geben auch schon simple Ideen neue Denkanstöße und Impulse etwas zu hinterfragen oder selbst auszuprobieren. Wer jetzt neugierig geworden ist und noch nicht genug hat kann hier nachlesen, wie es beim letzten MeasureCamp war.