Im letzten Jahr wurden ca. 6,6 Milliarden Euro für Online-Marketing-Maßnahmen ausgegeben (Quelle: Statista), dabei lag das Wachstum bei 7% (Quelle: Bundesverband Digitale Wirtschaft e.V). Bis 2020 wird Online-Werbung schätzungsweise 39,8% des gesamten Werbevolumens in Deutschland ausmachen (Quelle: Zenith).
Alle Online-Werbemaßnahmen haben eine Sache gemeinsam: Sie enden auf einer Landing Page. Die Aufmerksamkeit wird zwar durch Banner, Suchnetzwerk-Anzeigen usw. generiert und die Zielgruppe gewissermaßen durch das Targeting vorselektiert, aber die eigentliche Akquisition erfolgt auf der Landing Page selbst.
Nichtsdestotrotz investieren die meisten Unternehmen den Großteil ihres Werbebudgets ausschließlich in die Maßnahmen, die Traffic generieren. Dies hat zur Folge, dass jede Menge Potential liegen bleibt und deutlich mehr Geld ausgegeben wird als eigentlich notwendig wäre.
Darum lohnt sich A/B-Testing
Hier ein simples Rechenbeispiel, das den finanziellen Vorteil der Conversion-Rate-Optimierung im Allgemeinen und das Konzept des A/B-Testing im Speziellen deutlich macht:
- Ein Werbetreibender investiert monatlich 10.000€ Klickbudget in seine Google Ads-Leadgenerierungskampagnen.
- Der Cost per Click liegt bei durchschnittlich 80 Cent.
- Seine derzeitige Conversion Rate beträgt 16,2%.
→ Er generiert monatlich 2025 Conversions zu einem Cost per Acquisition von 4,94€.
Gelingt es uns nun die Conversion Rate auch nur geringfügig anzuheben, bspw. auf 17,6% – was unserer Erfahrung nach ein durchaus realistisches Testergebnis darstellt – ergibt dies ein monatliches Ersparnis von fast 800€. Alternativ könnten für das gleiche Budget 175 Conversions zusätzlich im Monat generiert werden.
Es lässt sich festhalten: Wir brauchen bessere Landing Pages! Da wir aber häufig gar nicht wissen was „besser“ konkret bedeutet, gibt es zahlreiche Methoden, um die User Experience einer Seite zu optimieren. Eine häufig genutzte davon ist das A/B-Testing. Im Folgenden erkläre ich die Grundregeln des A/B-Testings und gebe wichtige Hinweise zur effektiven und effizienten Nutzung dieses Instruments.
So testet Ihr richtig
Häufig werden die einzelnen Tests isoliert voneinander betrachtet und es werden willkürlich Vermutungen bzgl. einer Website, deren Usability und User Experience angestellt, die dann in einem, mal mehr mal weniger erfolgreichen A/B-Test enden. Zwar können auf diese Weise durchaus kurzfristige CR-Steigerungen erzielt werden, aber um eine nachhaltige, solide und kontinuierliche Performance-Steigerung zu erzielen, ist es unerlässlich A/B-Testing als langfristigen Prozess zu betrachten.
Um eben diesen Prozess zu gewährleisten, orientieren wir uns gern an diesen 6 Testingphasen:
Analyse
Wie schon W. Edwards Deming sagte: „without data you’re just another person with an opinion“. Durch wildes Drauf-los-testen werdet Ihr wenig erreichen. Zielgerichteter arbeitet Ihr, wenn Ihr Eure Theorien anhand von Daten belegen könnt. Deshalb: Sammelt und sichtet alle vorhandenen Datenquellen. An welchen Stellen deuten sich Probleme im Nutzerfluss an? Wo gibt es überdurchschnittlich viele Abbrüche? Welche Erkenntnisse könnt Ihr durch Euer CRM über Eure Kunden gewinnen? Besonders wertvoll sind auch qualitative Daten: Gab es z.B. in der Vergangenheit Kundenbefragungen, die Optimierungspotentiale offenlegen?
Auch externe Tools können hier weiterhelfen. In Bezug auf den Blickverlauf des Nutzers bieten sich Daten aus Eye-Tracking-Tools an – z.B. Eyequant. Dadurch findet Ihr beispielsweise Hinweise darauf, ob bestimmte (wichtige) Bereiche der Website gar nicht wahrgenommen werden.
Hypothese
Ist die Vorarbeit gemacht, solltet Ihr aus den gewonnen Daten klare Testhypothesen bilden. Jede dieser Hypothesen sollte so spezifisch formuliert sein, dass sie nach einem Test klar validiert oder aber verworfen werden kann. Dadurch haben auch Eure Stakeholder (Kollegen, Kunden etc.) ein Bild davon, welcher Test warum durchgeführt und wie konkret gestaltet wurde.
Ein klassisches Beispiel für eine Hypothese wäre: „Durch die Färbung des Buttons im Komplementärkontrast zur restlichen Seite wird dieser stärker wahrgenommen, was zum Klicken anregt“.
Priorisierung
Natürlich können nicht alle Tests auf einmal durchgeführt werden. Es gibt immer größere und kleinere Baustellen in der Conversion Rate und nicht zuletzt Abhängigkeiten zwischen den einzelnen Elementen einer Website oder Landing Page. Stellt also einen sinnvoll strukturierten Testplan auf. Dieser bietet Euch eine gute Übersicht über alle durchgeführten Tests, Hypothesen und deren Ergebnisse.
Wenn Ihr hier Timings festhaltet, bedenkt, dass Ihr – in Abhängigkeit des Traffics – genug Zeit einplant, um valide Ergebnisse zu bekommen.
Testing
Ist ein Test implementiert, dann solltet Ihr versuchen äußere Einflussfaktoren möglichst konstant zu halten. Lasst Euren Test möglichst mindestens zwei Wochen laufen, um Verzerrungen durch Ausnahmesituationen (wie z.B. Sonderaktionen oder Traffic-Unterschiede an verschiedenen Wochentagen) zu verhindern.
Auswertung
Wertet Euren Test erst final aus, wenn Ihr genügend Daten habt. In Anlehnung an die Sozialforschung geht man hier von einem Signifikanzniveau von 5% aus. Sprich, Eure zuvor aufgestellte Testhypothese kann zu mindestens 95% bestätigt oder eben verworfen werden.
Keine Angst, für diese Rechnung gibt es Tools – z.B. dieses hier.
Weist ein Testergebnis keine Signifikanz auf, solltet Ihr den Test weiter laufen lassen bis diese gewährleistet ist oder – falls dies langfristig nicht der Fall ist – ebenfalls verwerfen. Auf keinen Fall solltet Ihr eindeutige Tests implementieren.
Implementation
Fällt ein Test positiv aus, sollte er natürlich umgehend implementiert werden. Erst auf der so entstandenen neuen Grundlage wird weiter getestet. Andernfalls wisst Ihr nie wirklich, welche Faktoren nun für einen Uplift in der Conversion Rate verantwortlich waren. Denn wenn zwei Tests der gleichen Seite jeweils besser als das Original funktionieren, heißt das noch lange nicht, dass eine Kombination dieser beiden ebenfalls funktioniert.
Ihr könnt natürlich auch multivariate Tests fahren. Voraussetzung dafür ist ein noch höheres Traffic- und Conversion-Volumen, als bei einem einfachen A/B-Test.
Fazit
A/B-Testing ist ein wertvolles Instrument zur Conversion-Rate-Optimierung – sofern es korrekt durchgeführt wird. Von rein funktionalen Usability Tests bis hin zur zielgruppenspezifischen Ansprache durch ein bestimmtes Wording oder eine besondere Bildsprache eignet sich theoretisch alles als A/B-Test. Inspiration für mögliche Tests bezogen auf die emotionale Zielgruppenansprache geben wir Euch in diesem Artikel.
Eure Daten zeigen Euch die größten Baustellen, an denen Ihr ansetzen solltet. Also lasst kein Potential mehr liegen und testet los!