8 tests A/B essentiels pour des campagnes d’email marketing réussies

Les tests A/B (ou split testing) constituent une méthode puissante pour optimiser ses campagnes emailing.

Une seule variable est testée, le test est effectué sur 2 possibilités.

Le résultat d’un test varie, rien n’est immuable. C’est pourquoi, il est important d’effectuer des tests A/B récurrents et de mettre en place une stratégie sur une année au moins.

Vous êtes ainsi en mesure d’identifier ce qui fonctionne le mieux auprès de votre audience.

Suivre ses statistiques en email marketing est loin d’être une option. Ce suivi permet d’améliorer ses campagnes et d’anticiper les blocages.  

Voici 8 éléments clés à tester pour améliorer vos taux d’ouverture, de clics et de conversion.

I. Deux conseils pour une efficacité optimale

L’un concerne la validité des tests et l’autre s’interroge sur son environnement.

I.1 La volumétrie minimale pour réaliser un test A/B

Rien ne sert de vous lancer dans les tests A/B lorsque le nombre de contacts de la base est trop faible.

Pour travailler sur les ouvertures, un seuil minimal de 4000 emails est nécessaire. Quant aux clics, 10 000 contacts est le minimum. Lorsque les tests sont effectués sur des seuils plus bas, il existe un risque de prendre des décisions sur des éléments erronés.

I.2 L’environnement de réalisation

Le second écueil concerne l’environnement du test. Pour une validité optimale des tests, ils sont à réaliser dans des conditions similaires. Or, cette condition est parfois difficile à réaliser.

La météo

Par exemple, l’impact de la météo est réel à la fois sur les campagnes B2C et B2B.

Vous souhaitez tester un jour d’envoi, le test est plus pertinent lorsque les conditions météo sont similaires.

Autrement, tester une journée pluvieuse par rapport à un temps radieux donne déjà un avantage à la pluie, un moment durant lequel les messages sont plus consultés.

Le serveur d’expédition

Un autre cas concerne le serveur d’envoi ou l’IP. En B2B, l’IP est souvent mutualisée, vous n’avez pas votre propre adresse.
Or, les prestataires d’envoi travaillent sur des grappes d’adresses d’expédition. Il est tout à fait possible que vous n’ayez pas la même serveur d’envoi si le test est réalisé à des heures ou des jours différents. 


Idée clé :
un test dont l’envoi est à des heures ou des jours différents est plus complexe à réaliser.   

II Les 8 tests A/B les plus répandus

Il existe de nombreux tests A/B à mettre en place, je vous propose de voir ensemble les 8 plus communs.
Les tests d’objets sont susceptibles d’être conduits plusieurs fois dans l’année tandis qu’un changement de jour ou d’heure, se fera plutôt une fois tous les ans.

II.1 L’objet : susciter l’attention

Pourquoi le tester ?  
L’objet est le premier contact avec le destinataire. Un objet efficace attire l’attention et incite à l’ouverture de l’email. C’est le premier objectif de tout message électronique

2 idées de tests

Test n°1 : des objets courts versus des longs
Le seuil se situe vers 40 caractères, 5 à 7 mots contre plus de mots.
Dans tous les cas, l’information essentielle est au début dans les 4 premiers mots, la suite apporte un complément.
 
Test n°2 : des questions versus des déclarations
Les questions engendrent souvent de la curiosité qui sont très favorables aux ouvertures.
Il est aussi possible d’amener de la curiosité dans les déclarations.
Par exemple : 7 erreurs fréquentes en emailing
Le destinataire ouvre pour voir s’il connaît bien les 7 erreurs ou s’il en connaît d’autres.  

II.2  Preheader : l’incitation à l’ouverture

Le preheader complète l’objet et donne plus de contexte, un aperçu du contenu de l’email.
Privilégiez un nombre de caractères entre 40 à 60.

2 idées de test

Test n°1 : une phrase descriptive versus un teasing mystérieux
La phrase descriptive explique l’objet.

Test n°2 : des nombres versus leur absence
L’utilisation de chiffres peut renforcer l’impact.
Exemple :
Version A : Un audit gratuit de votre message
Version B : Un dialogue de 30 minutes avec un expert  

II.3 Design et mise en page

Le design influence directement la lisibilité. Le destinataire regarde et lit en diagonale.Il vaut donc mieux lui faciliter la tâche au maximum.
Certains visuels peuvent capter davantage l’attention ou mieux transmettre votre message.
Les images influent aussi sur le temps de téléchargement de la composition. Dans tous les cas, les designs ont été testés pour éviter une attente qui se solde avec un abandon de lecture.

2 idées de test

Objectif : trouver le gagnant entre un design épuré ou riche.

Test n° 1 : une version minimaliste versus une version visuellement chargée.
Exemple de test :
Cas A : un email avec une image produit principale.
Cas B : un email sans image, misant sur le texte.

Test n°2 : le placement du CTA
Dans la structure de l’email, il est aussi possible de jouer avec les sections (cas d’une newsletter) ou avec le placement du CTA.
Cas A : 2 CTAs, en haut et en bas du message.  
Cas B : Un CTA placé en bas après le contenu principal.

II.4 Image contre du texte pur : l’importance du visuel

Certaines audiences préfèrent des emails riches en images, d’autres des messages textuels simples.
Depuis l’arrivée de l’IA grand public en 2022, un autre élément rentre en ligne de compte. Les envois de message, essentiellement avec du texte, sont plus difficiles à faire passer. Les messages de prospection (message en texte) écrits à partir de prompts se sont beaucoup développés, d’où la difficulté à passer les filtres.    

2 idées de tests

Test n°1 : un email avec une bannière visuelle versus un email purement textuel
Test n°2 : un email avec une image dans le contenu versus un email purement textuel

II.5 Longueur du contenu : court ou détaillé 

La longueur, le ton, ou le style d’écriture peuvent impacter la perception et l’engagement.
L’attention des lecteurs varie selon le sujet et leur profil.
Certaines cibles, comme les sécuritaires (les avocats, les notaires…) ont besoin d’explications.
Il est bien sûr possible de travailler sur des séquences.
La personne avec un problème ou un besoin urgent, le passionné est prêt à lire des emails plus longs.

2 idées de test 

Test n°1 : court versus détaillé
Cas A : Texte court et direct.
Cas B : Texte plus descriptif et narratif.

Test n°2  : l’histoire versus la description de l’offre
Cas A : Une histoire sur un utilisateur de l’offre
Cas B : les 3 à 5 caractéristiques et bénéfices principaux de l’offre.

II.6 Le call-to-action (CTA)

La formulation, la couleur ou l’emplacement d’un bouton d’action influence le clic. Le CTA doit être clair et incitatif.

2 idées de test

Test n° 1 : texte directif versus incitatif.

Cas A : Je découvre l’offre
Cas B : Je souscris

Test n°2 : couleur neutre du fond versus couleur éclatante
Un fond blanc contre un fond orange  

Test A/B

II.7  Personnalisation pour un message unique

Les emails personnalisés (information sur la société, poste occupé…) augmentent souvent l’engagement.

Mention du secteur de l’entreprise versus aucun secteur

Exemple du secteur d’activité
Cas A : Les éditeurs de logiciels utilisent la fonctionnalité de signature électronique pour un gain de temps…
Cas B : Avec la signature électronique, gagnez 1 heure sur chaque contrat signé…

II.8 L’heure et le jour d’envoi

Le moment où vous envoyez vos emails est crucial.
L’heure et le jour d’envoi sont stratégiques. L’idéal est d’être dans les derniers arrivés lorsque le destinataire consulte sa boîte.
Il est aussi possible de segmenter l’audience pour une meilleure pertinence. Par exemple, l’heure d’envoi sera différente entre l’Asie et l’Europe.

2 idées de test

Test n°1 : 9 h versus 14 h
Test n°2 : envoi le lundi versus un jour du mardi au jeudi

III Comment analyser vos résultats ?

Avant tout, les 2 échantillons sont aléatoires et représentatifs.  
Un objectif a été fixé au départ, les tests vont permettre de remplir cet objectif.  

Ces derniers sont de trois types   :

  • le taux d’ouverture à travers l’objet et le preheader.
  • le taux de clic pour mesurer l’efficacité du CTA et du contenu.
  • les conversions, elles dépendent aussi de la page d’atterrissage. Le message n’est donc pas le seul à prendre en compte.  

Après avoir analysé les résultats, les gagnants sont appliqués sur les prochaines campagnes.
Il faut toujours continuer les tests pour progresser.  

Conclusion sur les tests A/B

C’est une stratégie puissante. Bien menée, elle améliore continuellement les campagnes d’emailing.
Il faut bien sûr prendre des précautions pour vérifier la pertinence des volumétries et respecter les conditions de tests : échantillons aléatoires et représentatifs, même configuration dans les 2 cas.
En testant et optimisant chaque élément, vous maximisez vos taux d’ouverture, d’engagement et vos ventes.

5 réflexions sur “8 tests A/B essentiels pour des campagnes d’email marketing réussies”

  1. J’aime la manière dont tu illustres chaque exemple, ça donne des idées concrètes à appliquer tout de suite. Tester, ajuster, optimiser… Un bon rappel que chaque détail compte pour booster ses campagnes.

  2. Merci, Diane, pour ton article 🙂

    En effet, je ne pensais pas qu’il fallait avoir une volumétrie minimale de 10 000 contacts / 4 000 mails.
    Je me doutais bien qu’une centaine de contacts, ce n’est pas pertinent, mais je ne pensais pas que ce serait aussi élevé.
    Est-ce que, lorsque l’on démarre ses premières campagnes avec peu de contacts, on reprend tout de même certains des conseils que tu évoques, ou bien part-on complètement sur une autre stratégie ?

    1. Merci Jérémy, effectivement en B2C, les bases se comptent souvent par centaine de milliers, il n’y a pas de problème.
      En B2B, les bases sont souvent réduites à quelques milliers de contacts au plus, 10 000 contacts est une belle base.

      Si tu prends un segment A/B de 2000 contacts et que tu testes l’ouverture, tu auras 500 contacts environ qui vont ouvrir.
      Pour les clics en B2B, il y a de nombreux clics qui sont fantômes.
      En prenant, un segment de 5000 contacts, tu auras environ 250 clics qui sont pertinents.

      Tu peux partir des conseils indiqués avec une petite base, il n’y a pas d’autre alternative.
      Si tu réalises une enquête, c’est identique, il faut au moins 1000 interrogés, c’est un peu moins tout de même.
      Donc sur des petits volumes réaliser des tests est possible mais il faut garder à l’esprit la problématique de la fiabilité, il vaut mieux ne rien faire en dessous de 1000 contacts.
      Et donc tester très régulièrement pour voir si le résultat évolue ou non.

  3. Je ne pensais pas qu’il fallait autant de contact pour que les résultats d’un test A/B soit pertinent. A partir de quelle taille faudrait-il commencer à réaliser des test A/B, au moins sur les objets qui test l’ouverture de l’email ?

    1. Bonjour Rudy,
      4000 adresses permet des résultats sûrs.
      Il est possible de commencer à 1000, mais tout dépend du taux d’ouverture de vos campagnes.
      Pour 25 %, on a donc 250 ouvertures au global et 125 environ par campagne.
      En dessous de 1000 adresses en base, les tests A/B ne sont pas fiables.
      Diane

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Retour en haut