Astuces de Semalt sur la façon de se débarrasser des mauvais robots

Le trafic de robots a la capacité d'avoir un impact sur les données de rapport de Google Analytics (GA), entravant les performances du site Web, augmentant les coûts de maintenance du site Web et conduisant à de fausses hypothèses. La plupart des utilisateurs pensent que le trafic des robots n'a pas d'impact sur leurs sites Web. Cependant, des études récentes indiquent que 60% des sites Web peuvent être associés à des robots. À cet égard, il est important de comprendre les moyens de repérer le trafic de robots pour rapporter les données avec précision.

Dans cet article, Lisa Mitchell, Customer Success Manager de Semalt , met en évidence certaines des meilleures pratiques qui peuvent être utilisées pour détecter le trafic de robots dans les rapports Google Analytics (GA) ainsi que les méthodes d'élimination des bots à l'aide de filtres et d'autres techniques mentionnées. De plus, les pratiques industrielles importantes qui doivent être suivies aux côtés des filtres GA sont discutées.

Identification des bots

Les points suivants sont importants à prendre en compte dans les rapports GA associés aux bots:

  • Faible durée moyenne par session.
  • Taux de rebond élevé.
  • Près de 100% de trafic par de nouveaux visiteurs.

Filtration des bots

  • Paramètres d'affichage de l'administrateur

Sous le segment "Admin", un utilisateur peut modifier les paramètres de "visualisation" en cochant la case pour éliminer les bots connus. Les experts Internet recommandent que les utilisateurs créent d'abord une vue de test afin de voir les résultats concernés avant de postuler à la vue principale. La liste internationale des robots et araignées ABC / IAB décrit les robots éliminés qui ne sont pas disponibles dans le domaine public.

  • L'utilisation de l'agent utilisateur et de l'adresse IP

Dans les situations où une adresse IP spécifique est responsable du trafic de robots, les propriétaires de sites peuvent utiliser des "filtres d'affichage" pour éliminer ladite adresse IP. Cependant, les utilisateurs doivent comprendre que les bots changent d'adresse IP à chaque fois pour échapper à leur identité. Un gestionnaire de balises Google peut être utilisé pour transmettre la valeur de chaîne du visiteur à Google Analytics (GA) en tant que dimension personnalisée et exclure les sessions. Enfin, une dimension personnalisée appelée "agent utilisateur" peut être créée dans GA et définie comme variable JavaScript dans Google Tag Manager en récupérant les valeurs à l'aide de navigator.userAgent. "Un filtre peut ensuite être créé pour exclure les agents à l'aide de la état.

  • Exclure le trafic de robots

Plusieurs pratiques de l'industrie peuvent être suivies en dehors de GA, par exemple, le service CAPTCHA. En tant qu'entreprise, Google a introduit un nouveau service du populaire CAPTCHA appelé "No CAPTCHA". Ce service peut détecter le comportement humain, comme l'utilisation de la souris et prendre une décision basée sur de tels actes. L'ajout d'une phrase pour des raisons de vérification est inutile dans ce scénario. Chaque fois qu'un utilisateur visite une page Web pour la première fois, le service "No CAPTCHA" s'affiche pour l'utilisateur. La balise Google Analytics (GA) doit ensuite être déclenchée après la réussite du service CAPTCHA. Enfin, un cookie de session peut ensuite être mis en place après la procédure, et il devrait exclure la plupart du trafic de robots qui pénètre sur un site. Un processus de suivi peut être mis en place en présentant un formulaire de demande d'adresses e-mail aux utilisateurs pour l'envoi du lien d'activation dans les 24 heures.