A/B Tests

Als u uw site gaat verbeteren kunt u dat op een aantal manieren doen.

  • Gezond verstand
  • Ervaring
  • Gebruikersonderzoek
  • Bewijsgebaseerd

A/B tests en multivariate tests zijn gebaseerd op gedrag en bewijs. 

Hoe werkt een A/B test?

U serveert de ene helft van het publiek de ene versie van uw website, en de andere helft van het publiek de andere versie. De versie die het best gescoord heeft, is de winnaar, en dat maakt u voortaan de nieuwe variant van de website. 


U doet daarbij waardevolle psychologische kennis op, die nogal eens tegen de verwachtingen vooraf en het gezond verstand ingaat. En het is bovendien bewezen kennis: het zijn harde cijfers van uw gebruikers achter hun eigen computer.

Lees meer hierover bij meten-testen-targeten.


Hoe simpel een A/B test ook lijkt, het vergt de eerste keer wel wat opzetwerk.

Om een A/B test op te zetten, heeft u een aantal dingen nodig:

Planningsfase

  • Verschillende varianten bedenken
  • Bedenken wat 'best gescoord' voor u betekent
  • Inschatten hoe lang de test moet lopen en wanneer

Uitvoeringsfase

  • Een A/B test aanmaken in Behavioural Targeting
  • De te testen varianten invoeren
  • LeadTemperatuur invoeren bij de juiste onderdelen


Varianten bedenken

We beginnen met de simpelste variant: Op 1 plek in de site proberen we twee verschillende weblets:


Variant A: 



Variant B:



Er zijn een aantal redenen waarom dit een goede test is:


Het gewenste gedrag is meetbaar

Dit is een onderdeel dat goed zichtbaar is in de site en de bezoeker met een button oproept om iets te gaan doen. De verwachte respons is: proefritten aanvragen. U zou verschil in proefritten moeten zien.


U varieert maar 1 ding

De meetresultaten vertellen welke tekst de meeste mensen aanspreekt. Want dat is het enige wat hier verandert. 


Als u twee totaal verschillende banners serveert waarbij zowel de kleuren, foto's, teksten, buttons verschillen, dan zult u veel grotere verschillen in de meting zien. Maar wat nou het verschil maakte zult u nooit weten.


Toch kan het zinvol zijn, om twee totaal verschillende banners te testen; bijvoorbeeld als u een nieuw campagnebeeld heeft laten ontwerpen, en wilt weten of dat beter aanslaat dan het oude. Maar dan variëert u maar 1 ding: het campagnebeeld. 

De kwaliteit is even goed

Beide varianten zien er netjes uit; van beide kunt u verwachten dat ze het publiek aanspreken. Als één variant veel ingewikkelder zinnen, en mindere kwaliteit foto's gebruikt, dan meet u, heel voorspelbaar, het verschil in contentverzorging. 


Toch kan de kwaliteit variëren zinvol zijn: U kunt twee designs testen, de een wat meer chic en en de ander wat schreeuweriger, om te testen hoe u in de markt ligt. Veel retailers lanceren hiervoor verschillende merken met elk een eigen site. Dat is nogal een dure aangelegenheid; met A/B tests kunt u varianten maken die dichter bij elkaar liggen.


Bedenken wat Best Gescoord voor u betekent

Het gaat niet om click-through

De hoeveelheid kliks op de button meten is de moeite waard, maar niet het belangrijkste. Het gaat om de invloed op het gedrag van de bezoeker. Lang niet iedereen zal op die button klikken. De meeste mensen zullen hem alleen zien, en op het idee gebracht worden en later die proefrit gaan aanvragen, soms via een hele andere weg.


Uit metingen is bekend dat 4 op de 5 gebruikers een reclamebanner ergens gezien heeft, en zelf naar de site gaat, en slechts 1 op de 5 op de banner klikt om naar de site te gaan. 


Hoeveel mensen het proefritformulier invullen, dat is wat telt.

Lees hier hoe u met het LeadTemperatuur systeem de succes-bepalende pagina's van uw site kunt instellen, zodat ze straks bij de A/B test goed gemeten worden.

Meer over Leadtemperatuur


Best gescoord is voor iedereen anders

Stel uzelf een doel dat u wilt bereiken. Voor een webwinkel is het de omzet die telt, of misschien een bepaald product; voor een business-to-business site het bereiken van de contactpagina, het downloaden van een whitepaper of zo lang mogelijk verblijf. Voor een non-profit site inschrijven op de nieuwsbrief. Voor een overheidssite juist om zo snel mogelijk bij de gewenste informatie uit te komen. Alles maar meten levert alleen maar cijferbrij op. 


Meet gericht op wat voor u belangrijk is, en stem daar uw A/B varianten op af.


Uw bezoekers zijn verschillend

Neem nog even het voorbeeld met de auto's. "Voel het design" of "Wanna play?". Die twee zinnen spreken verschillende doelgroepen aan. Kijk daarom niet alleen naar de aantallen. Als u uw pagina's van persona's hebt voorzien, zult u bij de score op de A- en B-tests verschillende persona-profielen zien. Dat betekent dat de A variant en B variant allebei goed zijn, maar voor verschillende doelgroepen. U kunt overwegen om die doelgroepen elk hun eigen versie te laten zien.

Meer over Behavioural Targeting


Inschatten hoe lang de test moet lopen en wanneer

Hoe lang is nodig?

Dit kunt u het beste doen aan de hand van uw bestaande statistieksoftware zoals Google Analytics of de statistieken in Behavioural Targeting. U heeft minstens 50 a 100 serieuze bezoekers aan een pagina nodig om verschil te zien. Meer is natuurlijk beter, dan wordt uw test betrouwbaarder, vooral als het verschil maar klein is.


Als het gaat om een formulier dat drie keer per dag ingevuld wordt, kan het dus twee, drie weken duren. Als het gaat om een homepage waar 20.000 bezoekers per dag komen, dan kunt u elke dag iets veranderen. U zult meer en sneller kennis op kunnen doen op veelbezochte pagina's.

Risico's verminderen

U hoeft niet per se 50% van het verkeer de A-variant en 50% van het verkeer de B-variant te geven. Soms zijn de belangen te groot. U kunt bijvoorbeeld beginnen met 90% het vertrouwde en 10% de variant. En zodra blijkt dat de nieuwe variant beduidend minder scoort kunt u de test meteen uitzetten. Maar als de nieuwe variant beter scoort kunt u het omdraaien, 90% de B-variant en nog maar 10% de A-variant ter controle.

A/B tests vergelijken

U kunt telkens een nieuwe A/B test maken. Het voordeel is dat u bij elke test kunt noteren wat de varianten inhielden. Achteraf kunt u van elke test zien wat het was. Dit is vooral handig om tests met elkaar te vergelijken, en te zien wat in absolute aantallen nou het verschil maakt.

Inroosteren

U kunt met Waxtrapp de A/B tests inroosteren. Dit kan handig zijn om de A/B test gelijk te laten lopen met een geplande reclame-campagne, of juist tijdens een campagne periode uit te schakelen. 


Multivariate testing

Waxtrapp Targeting kan ook meer dan twee varianten testen. U kunt zo veel varianten maken als u wilt, 3, 4, meer dan 100 als het moet. 


Zo kunt u bijvoorbeeld drie aspecten van uw homepage tegelijkertijd testen, bijvoorbeeld:

  • Bewegende banner of stilstaande banner
  • Tekst over lage prijzen of tekst over hoge kwaliteit
  • Doorklikken met grote buttons met pijlen en tekst erin, of kleine buttons met een tekstlink

U heeft dan 8 varianten nodig; meer wordt in de praktijk erg onoverzichtelijk. 


Hoe meer varianten u tegelijk test, hoe meer verkeer nodig heeft om verschillen te gaan zien.  En hoe langer het duurt. 


Grenzen aan multivariate testing

Als u 10 aspecten van een homepage varieert, heeft u 1024 varianten en heeft tussen de 500.000 en 1.000.000 bezoekers nodig om te weten wat werkt. Bovendien zullen veel van de combinaties er raar en lelijk uitzien (gaat u ze alle 1024 bekijken van tevoren?) dus u doet uw publiek er geen plezier mee. 


Blijf altijd gericht op snel resultaat zien, dan zult u merken dat u met een paar A/B of A/B/C/D tests al heel snel leert welke dingen nou verschil maken.


Aan de slag met A/B testen

U heeft nu alle informatie die nodig heeft om uw eerste A/B test op te zetten.


Verder met instellen van uw eerste A/B test


Geavanceerde instellingen (inclusief Multivariate Tests)