Il modo migliore per capire se un’intuizione potrà avere successo è testarla. Gli A/B test o spit test servono proprio per provare scientificamente un’ipotesi. I numeri non mentono e il risultato sarà inconfutabile.
Gli A/B test sono all’ordine del giorno, oggi vengono impiegati per migliorare le prestazioni di homepage, landing page, newsletter e in generale ogni volta che due elementi, A e B, possano essere messi in competizione.
In pratica, di uno stesso elemento, nel caso di una newsletter può trattarsi di un’immagine, dell’oggetto della mail o di altro, si realizzano due diverse versioni. All’interno di un arco temporale definito queste variabili verranno mostrate a un gruppo di persone, rappresentativo del tuo pubblico. Al termine del periodo di test, l’elemento che avrà ottenuto più clic, aperture, visualizzazioni, conversioni e altro (devi prima stabilire la metrica più rappresentativa rispetto al tuo obiettivo), sarà quello vincente.
Solitamente, esistono dei sistemi integrati ai software per programmare gli A/B test, persino il noto pannello di Google, Google Analytics, consente di eseguire degli A/B test entrando dalla sezione Comportamento e cliccando sulla voce Esperimenti.
Per quanto riguarda la newsletter, quasi tutte le piattaforme di email marketing presentano questa opzione che, a mio avviso, rientra tra i requisiti base che ogni software per spedire le newsletter dovrebbe avere.
A/B test nell’email marketing
Avevo già mostrato come un A/B test può incrementare anche notevolmente il tasso di apertura di una newsletter. Infatti, ho utilizzato il test sull’oggetto di una campagna re-mailing migliorando di quasi 7 punti percentuali il primo risultato.
Per quanto riguarda le newsletter, i test dovrebbero riguardare due aree in particolare:
1. i tuoi contenuti come: oggetto, corpo del messaggio, immagini, call-to-action;
2. i tuoi invii, cioè: frequenza, giorno della settimana, orario.
L’ideale sarebbe programmare un A/B test per ciascun elemento e in campagne sempre separate perché è difficile attribuire con certezza il merito del risultato ottenuto con più varianti presenti nello stesso test. Inoltre, ogni elemento necessita di essere testato più volte anche se con tempistiche diverse.
Ad esempio, l’oggetto di una newsletter dovrebbe essere testato ogni volta mentre il nome che compare nel campo mittente non ha bisogno di essere testato così di frequente. Una volta trovata la combinazione più opportuna, tra il nome di persona e quello del marchio, è consigliabile non variarla troppo spesso per non generare confusione.
Per procedere con un A/B test devi innanzitutto stabilire l’elemento da testare e la durata del test.
Poniamo che l’esperimento venga fatto sull’oggetto di una newsletter. L’arco temporale dovrebbe essere di 4 o 6 ore; in questo caso, si tende a eseguire il test nello stesso giorno per più ragioni.
Innanzitutto perché il numero di iscritti al database potrebbe variare con il trascorrere del tempo, poi perché il contenuto di una newsletter tende a diventare “vecchio” dopo qualche giorno, soprattutto se contiene una notizia di settore o un’offerta promozionale. Inoltre, la campagna dovrebbe essere sempre spedita nelle fasce orarie più frequentate dal nostro pubblico.
Come secondo passaggio dovrai stabilire la metrica che determinerà la variabile vincente. Trattandosi dell’oggetto della newsletter dovrebbe essere il tasso di apertura. Qualora le due varianti raggiungessero open rate simili potresti fare le tue valutazioni dal tasso di clic.
Infine, dovrai inserire l’oggetto per la variante A e quello per la variante B. Puoi cambiare il testo leggermente, inserendo elementi che lo personalizzino o lo rendano più accattivante, oppure proporre due testi completamente diversi. In ogni caso, ti suggerisco di seguire le buone norme per realizzare un oggetto che induca a cliccare.
3 errori negli A/B test
Il primo errore consiste nello di sbagliare la percentuale di pubblico su cui effettuare l’A/B test. Scegliendo un’audience troppo ristretta l’elemento testato non sarà sottoposto a una massa critica sufficiente e il risultato sarà falsato. Una buona percentuale potrebbe essere intorno al 40%, in modo che un gruppo costituito dal 20% del totale database riceverà la variabile A mentre l’altro 20% la variabile B.
Un altro errore comune è quello di non ripetere ciclicamente i test, dando per scontato che quella soluzione possa essere sempre valida. Le persone sono imprevedibili e i loro comportamenti subiscono continui cambiamenti, dunque anche elementi che hanno dato esito positivo, dopo sei mesi potrebbero non mantenere lo stesso risultato. Mi riferisco ad esempio al layout del template o della call-to-action.
Un terzo errore è prendere subito per buono il risultato ottenuto. Prima di apportare modifiche sostanziali alla tua comunicazione via email, dovresti ripetere il test almeno un paio di volte per avere la certezza assoluta di raggiungere l’obiettivo prefissato.
Qual è la tua esperienza in tema di A/B test nell’email marketing? Hai testato qualche soluzione che ha migliorato sostanzialmente le prestazioni della tua newsletter? Fammelo sapere con un commento!
Vuoi migliorare il tuo email marketing? Contattami per una consulenza!