Twitter : l’invasion des bots

Les bots ont envahi l’écosystème des réseaux sociaux. Si les plus visibles sont à la fois appréciés et détestés (notamment ceux utilisés en live chat ou pour du SAV), ils sont aussi couramment utilisés pour promouvoir du contenu sur les diverses plateformes sociales – à un point que l’on ne soupçonnait peut-être pas. En effet, une étude du Pew Research Center s’est penchée sur Twitter, en examinant les quelque 1,2 million de tweets (envoyés par des utilisateurs anglophones) qui incluaient des liens vers 2 135 sites web parmi les plus populaires pendant environ six semaines à l’été 2017. Les résultats sont parlant :

> Dans tous les liens tweetés vers ces sites Web, 66% sont partagés par des comptes présentant des caractéristiques les désignant comme des «bots» automatisés, plutôt que des utilisateurs humains.

> Parmi les sites d’informations (people et actualités plus sérieuses), 66% des liens tweetés sont créés par ce que l’on suspecte être des bots, ce qui est identique à la moyenne générale. Mais pour certains sites, notamment les aggréagateurs de contenus, on estime que 89% des liens tweetés sont le fait de bots.

> Un nombre relativement faible de bots hautement actifs sont responsables d’une part importante des liens vers des sites d’information et des médias de premier plan. Cette analyse révèle que les 500 comptes de robots les plus actifs sont responsables de 22% des liens tweetés vers des sites d’actualités populaires et d’actualités sur la période au cours de laquelle cette étude a été menée.

> Un point rassurant (peut-être) : l’étude ne trouve pas de preuve que les comptes automatisés ont actuellement un « parti pris politique » libéral ou conservateur dans leur comportement global de partage de liens. Cela ressort d’une analyse du sous-ensemble de sites d’information contenant du matériel orienté politiquement.

 

La pratique n’a, en soi, rien de répréhensible – du moins quand le bot responsable de la publication de liens est celui du média (au sens large) en question. En revanche, les choses sont moins claires quand il s’agit de comptes présentés comme des individus mais qui ne servent en fait que de caisse de résonnance à certains contenus : on a vu, récemment, ce que cela pouvait donner sur des réseaux comme Facebook.

La vigilance est de mise…

 

 

Baromètre des médias sociaux en France 2018

L’étude Social Life 2018, menée par Harris Interactive, confirme que les séismes qui secouent aujourd’hui les réseaux sociaux (et surtout Facebook) ont des conséquences sur les usages des internautes – mais peut-être pas autant qu’on aurait pu le penser (caveat : l’étude a été menée avant la complète explosion de l’affaire Cambridge Analytica).

Si la protection des données à caractère privé est un souci maintenant majoritaire, la consommation des réseaux sociaux ne diminue pas, voire augmente pour certain (notamment les millenials, atteints du syndrome FOMO – Fear Of Missing Out, la peur de rater quelque chose).

L’étude confirme encore, par ailleurs, la montée en puissance des images et de la vidéo comparées aux contenus textuels ; si vous n’avez pas déjà adopté ces outils, il est encore temps…

Vous trouverez les principaux résultats de l’étude résumés dans l’infographie ci-dessous. Bonne lecture !

 

Les causes d’un référencement non optimal

Parfois, après de vaillants efforts pour optimizer le référencement de son site – rédaction au poil, images traitées et dotées de métadonnées… – les performances sur Google peuvent se montrer un peu décevantes : par exemple, le site n’est pas en première page pour ses principaux mots-clés… La première chose à ne pas faire, dans ces cas-là, est de s’affoler – nous pouvons affirmer que d’après notre expérience, chez l’agence de communication Nostromo, Google met entre 48h et une semaine à intégrer des changements apportés sur un site. Et certains mots-clé sont beaucoup plus difficile à dominer que d’autres. Mais si, au bout de quelque temps, les résultats ne s’améliorent toujours pas, il est temps de se pencher un peu plus attentivement sur le site, car plusieurs facteurs peuvent causer une sous-performance. Vous trouverez résumées dans l’infographie ci-dessous les 11 causes principales recensées (qui vous fournissent autant de points à vérifier ou travailler sur vos sites).

Bonne lecture !