Le social listening est-il en voie d’accélération ou de disruption avec l’IA ?

Par Xuoan D. le 22/05/2024

Temps de lecture : 13 min

Y a-t-il un domaine que l'IA ne va pas chahuter ? Nul ne le sait.

Intéressons-nous aujourd’hui au social listening, l’activité de recueil et d’analyse des milliards de contenus quotidiens publiés sur les médias sociaux. Un tel corpus est fait pour l’IA : trop massif et trop remuant, cela fait belle lurette qu’il ne peut plus être traité manuellement par des humains.

Ainsi, l’IA, en particulier générative, a-t-elle transformé le social listening pour de bon ? Ce secteur est-il en voie d’accélération, ou au contraire de disruption si les LLM se mettaient à avoir réponse à tout sur les marques, avec des données actualisées – soyons fous – à la seconde près ?

Réponse avec un panel d’experts, aussi bien du côté des plateformes de social listening que des agences et cabinets conseil.

Comment l’IA était utilisée par le social listening avant l’IA générative

« Le grand public découvre l’IA par l’IA générative, mais le social listening n’a pas attendu ChatGPT pour avoir recours à l’IA », prévient d’entrée Arnould Moyne, directeur produit de la solution Meltwater (précédemment Linkfluence / Radarly). « L’IA est utilisée de diverses manières depuis presque aussi longtemps que le social listening existe en tant qu’industrie », confirme Mélanie Corolleur, Director of Field Marketing, Southern Europe de la solution Brandwatch (groupe Cision).

Il est loin le temps où, lors d’une pige presse quotidienne, des êtres humains relisaient chaque publication, en faisaient l’analyse et la synthèse, et en tiraient des enseignements pour les marques.

Tout a changé avec l’avènement des médias sociaux. La création de l’API Firehose de Twitter a donné le top départ d’un social listening passant de « données échantillonnées à des données massives, à très grande échelle, servant une approche “Je veux tout entendre, je veux tout capter” », comme l’explique Arnould Moyne.

Face à de tels volumes, un traitement humain de chaque citation de marque n’est plus raisonnable. Il a fallu automatiser pour « transformer de grands volumes de données non structurées et désordonnées en informations significatives et structurées », précise Mélanie Corolleur. L’IA et ses modèles d’apprentissage automatique (NLP pour natural language processing, notamment) « aident à segmenter les conversations en thèmes et à filtrer le bruit non pertinent. »

Pour quels usages ? « Le machine learning constitue un formidable outil pour enrichir les données finalement très brutes des posts publics des réseaux sociaux, prendre du recul sur le contenu (thématiques abordées, tonalité, sentiment…), et rajouter une dimension démographique impossible à avoir autrement : âge / sexe / métier, localisation… », s’enthousiasme Jean-Christophe Gatuingt, co-fondateur de la solution Visibrain. « En plus de la tonalité, l’IA était également utilisée (et l’est toujours) pour mieux qualifier les émotions qui transparaissent dans les messages (joie, colère, peur, envie, etc.) », complète Anthony Boucharel, Social intelligence director de We Are Social.

 « Globalement, cela consistait à chaque fois à prendre des jeux de données et à les annoter. », tempère Arnould Moyne. L’IA n’était a priori pas capable d’analyse avec finesse chaque message, même si « certains outils permettaient une catégorisation basée sur un échantillonnage manuel humain qui venait nourrir l’IA et ainsi, l’affiner. Cela permettait de mieux cerner l’ironie par exemple », détaille Anthony Boucharel

L’IA permettait aussi d’analyser les images et détecter un logo ou une célébrité par exemple, ce qui a présenté une révolution à l’époque, car le social listening collectait et analysait jusqu’alors uniquement les textes partagés en ligne.

Jocelyn Munoz de Deep Opinion – une société spécialisée dans le social listening et le traitement de data via IA – se montre plus réservé « Pour être honnête, l’IA ne faisait pas grand-chose pour le social listening avant l’émergence des LLM. » Des fonctionnalités étaient annoncées avec le déjà très “hype” mot-clé “IA”, le machine learning était bien là en coulisses. Mais la pertinence de ce traitement automatisé n’était pas suffisante pour le directeur associé de la filiale d’Occurrence et de l’IFOP : « Ça ne marchait pas ».

L’IA bouleverse le social listening

Comment expliquer aujourd’hui l’avènement de l’IA générative et des LLM (large language model) ? C’est très certainement grâce à la fameuse loi de Moore : tous les deux ans, la puissance de calcul double tout en maintenant les coûts constants. « La loi de Moore rend les choses possibles techniquement et financièrement, en abaissant le coût de processing de la data et en rendant possible de grands datasets de données », selon Arnould Moyne (Meltwater). On le sait, la plupart des algorithmes utilisés par les IA récentes ne sont pas forcément. En revanche, ces approches deviennent aujourd’hui soutenables. Et cela change tout ou presque.

« Est-ce que l’IA a un impact sur le social listening ? La réponse est oui. Est-ce que cela l’impacte fortement ? La réponse est un super oui » pour le directeur produit de Meltwater. « Cela nous permet de proposer une amélioration de ce que l’on faisait avant. Les algorithmes des LLM vont permettre meilleure une automatisation de la notation, de la catégorisation, de l’analyse d’images, etc. Cela crée des expériences conversationnelles et des expériences de synthèse, parfois combinées. »

Passons justement en revue les principaux bénéfices de l’IA générative pour le social listening : 

1. Le gain de temps

Jean-Christophe Gatuingt ne cache pas son enthousiasme : « Cela va permettre aux plateformes de comme Visibrain d’aller encore plus loin dans le traitement automatique de ces données. Par exemple, nous allons bientôt proposer des résumés clés en main des données social media pour apporter instantanément un premier niveau de réponse aux questions que se posent nos clients :
– Pourquoi il y a eu un pic de volume aujourd’hui ?

– Quel est le top 5 des préoccupations des internautes sur ma marque ce trimestre ?

– Quelles sont les tendances émergentes dans mon secteur d’activité ?

Le gain de temps va être énorme ! »

Anthony Boucharel (We Are Social) acquiesce : « C’est l’un des principaux changements. L’analyste pourra passer plus de temps sur des phases analytiques et de recommandations et non plus sur des phases de détection. »

2. La simplification des usages : adieu booléens ?

Corollaire du gain de temps, la simplification. Les interfaces conversationnelles motorisées par les IA génératives rendent les interfaces des solutions de social listening plus intuitives, délivrant davantage d’informations aux utilisateurs pour moins d’efforts.

« Brandwatch a créé sa première fonctionnalité construite sur les premières versions de GPT en 2019. Il s’agit de notre moteur de recherche basé sur l’IA qui peut trouver des mentions pertinentes de n’importe quelle entité sans avoir besoin d’écrire de requêtes booléennes complexes à la main », rappelle Mélanie Corolleur.

Ainsi, des informations auparavant difficiles d’accès sont à la portée de tout débutant. « Grâce à cette technologie, on est convaincu qu’on va pouvoir toucher de nouvelles cibles. Cela démocratise l’accès à la donnée sociale dans l’entreprise », s’émerveille Arnould Moyne (Meltwater).

« Cela peut conduire à simplifier techniquement le métier de manière générale : les opérateurs booléens sont un passage obligé pour réussir à identifier des informations pertinentes. Néanmoins, la “patte technique” dans l’écriture n’est pas complètement perdue. Avec certains outils, les analystes sont toujours là pour écrire les pré-prompts qui serviront à la bonne classification des conversations », nous met tout de même en garde Anthony Boucharel.

« Tout le monde déploie aujourd’hui des agents conversationnels. Arnould Moyne anticipe que Les interfaces actuelles vont être profondément bouleversées dans les deux années qui viennent. »

3. La compréhension fine de la langue, ironie comprise

« L’une des grandes forces d’OpenAI et de son GPT est d’avoir eu un contrat avec Twitter [désormais X] pour absorber plusieurs milliards de tweets. Tous ceux jamais publiés à la date précédant le deal. Ainsi, ce type de LLM a la capacité de comprendre comment les gens s’expriment sur ces réseaux », souligne Jocelyn Munoz (Deep Opinion). L’IA générative permet en effet quelque chose à laquelle nous n’étions pas habitués : échanger avec une machine « qui simule l’expression et la compréhension du langage », précise Arnould Moyne.

Ainsi, les sarcasmes sont enfin compris ! « Les LLM apportent de la finesse là où les autres formes de machine learning montraient leurs limites, typiquement sur la détection de l’ironie », déclare, sans ironie, Jean-Christophe Gatuingt. Il en va de même de certaines expressions où le négatif est annulé par le positif : « Quand la Haute Autorité de Santé a le feu vert ou donne le feu vert, c’est positif. Ce qui avant n’existait pas. Le feu était toujours élément négatif tout le temps. Et ça, c’est top. La détection de tonalité n’en devient que meilleure », Jocelyn Munoz, ici tout feu tout flammes. 

4. Un meilleur taggage des influenceurs

Le social listening, ce n’est pas que recueillir des citations de marques, et identifier si elles sont positives, neutres ou négatives. C’est aussi qualifier qui en sont les émetteurs : consommateurs, citoyens, influenceurs, politiques, célébrités… Là aussi, l’IA générative apporte un peu de finesse et de compréhension du contexte. « Jusqu’à présent, le taggage des audiences ne se faisait bien que manuellement », d’après Jocelyn Munoz. Mais tout a changé avec les LLM. « La catégorisation se fait sur la base de plusieurs choses : la biographie de l’émétteur, mais aussi ses contenus émis. Par exemple, si une personne a retweeté 17 fois Jean-Luc Mélenchon sur ses 100 derniers tweets, la probabilité statistique que ce soit un fan d’Emmanuel Macron est quand même assez faible. »

L’IA n’est pas un remède à tous les maux du social listening

Si Jocelyn Munoz croit aux promesses de l’IA générative pour le social listening, la réalité du “terrain” ne le rend pas encore dithyrambique. « Pour le moment, ce n’est pas “game changer”. » Une IA qui vous explique pourquoi il y a un pic de citations, « c’est bien, mais n’importe quel analyste un peu rodé vous l’explique en 15 secondes, en analysant cela à la main ». 

On le sait, les LLM sont probabilistes. Ces modèles se basent sur des probabilités. Par exemple, qu’un mot ait des chances d’aller avec celui qui précède, et ainsi de suite jusqu’à former une phrase cohérente. Cette “moyennisation” se fait au détriment des signaux faibles. Or, pour le directeur associé de Deep Opinion, « ce qui nous intéresse en social listening, c’est d’aller trouver des expressions rares, qui pourraient gagner en traction à terme. L’approche probabiliste de l’IA générative l’empêche d’identifier des choses uniques et qui ne reviennent jamais. Elle a du mal à les générer ou à les simuler. »

Le mot clé IA est toujours utile pour la communication des acteurs du social listening. Talkwaker a par exemple été présenté comme “AI-powered” lors de son rachat par Hootsuite. Mais Jocelyn Munoz est convaincu que ces entreprises ont actuellement d’autres chats à fouetter. « Tous ces acteurs ont été rachetés par des américains sous LBO (leveraged buy-out). Ils sont actuellement davantage dans une logique de rentabilisation, de dividendes, que dans une logique d’investissement. » Or, on le sait, l’IA est complexe à manipuler (par des profils très senior et très rares sur le marché) et à exécuter (coûts serveurs importants). Enfin, les solutions de social listening doivent aussi faire face à leurs propres faits de marché, comme un LinkedIn qui ouvre puis referme les vannes de son API permettant de collecter ses contenus. Ou encore un TikTok qui n’est pas proposé par toutes les solutions.

Cependant, ce terreau boosté par l’IA pourrait permettre à de nouvelles solutions d’émerger, et pourquoi pas, de disrupter le marché. Jocelyn Munoz cite par exemple Crowlingo, une solution française « qui a été créé en lien avec le ministère des Affaires étrangères au moment de Charlie. C’est un outil basé sur le LLM Llama de Meta. Ils sont les seuls à aller aussi loin avec l’IA générative. »

À plus long terme, d’autres risques demeurent et seront peut-être plus complexes à contrer que le contexte marché. Anthony Boucharel (We Are Social) évoque « l’existence de biais potentiels. Dans le cas des LLM, ces biais sont les biais des personnes qui en sont à l’origine. On peut les inclure de manière malveillante ou de manière involontaire, mais le résultat peut reproduire en output les stéréotypes ou biais présents à l’input. C’est pour ça qu’il reste important de pouvoir vérifier les données. L’analyste a, lui aussi, des biais, mais tout l’objectif d’un travail collectif est de les diminuer au maximum. L’importance d’un “sanity check” est immense. Cela va permettre d’éviter les hallucinations et de contrôler si des dérives apparaissent, comme des fake news par exemple. » Ces biais pourraient aussi venir « de faux comptes gérés par IA, comme on le voit dans la série La Fièvre », observe Jocelyn Munoz.

Sans oublier le fameux dark social, totalement inaccessible pour le social listening alors qu’il constitue la priorité ou un asset majeur pour des réseaux comme Snapchat ou Instagram, sans parler des messageries à la WhatsApp ou Messenger. « Tant de débats, d’échanges et de comportements prennent vie sur ces canaux et échappent aux analystes. Alors bien entendu, il ne s’agit pas de rebattre les cartes de la vie privée, mais de voir dans quelle mesure certains ponts pourraient être bâtis. Il y a aussi un enjeu autour de la majorité silencieuse, tous ces utilisateurs qui s’engagent mais qui ne parlent pas : sur X, 80% des messages sont publiés par 10% des utilisateurs » pointe Anthony Boucharel. Et si l’IA permettait d’analyser en toute confidentialité ces messages privés – en délimitant bien ce qui est recueilli ou non comme typologie de contenus – pour en générer des échantillons et données synthétiques ? La valeur serait immense pour les marques.

Quelle est l’étape d’après ?

Même si sa genèse remonte aux années 2010, l’IA générative, n’en est qu’à son année 2 si on acte son avènement au moment où celle-ci a commencé à être utilisée par des millions de personnes. Nous n’en sommes qu’au début du périple, comme le rappelle Mélanie Corolleur (Brandwatch) : « Les LLM deviendront moins chers, ce qui permettra de les appliquer à un plus grand nombre de données et de fournir des informations plus fiables. L’IA générative commencera également à jouer un rôle plus important en fournissant des recommandations stratégiques plutôt qu’en résumant simplement les informations obtenues grâce au social listening. » Une sorte de loi de Moore, à nouveau : plus vite, pour moins cher, ce qui permet de nouveaux usages.

Le social intelligence director de We Are Social, Anthony Boucharel, imagine quant à lui que l’IA générative va booster la contextualisation. « Il ne faudrait pas beaucoup pour que les outils puissent croiser et rendre intelligible la donnée qui prendrait en compte le contexte dans lequel la conversation a été lancée (politique, social, sociétal, géopolitique, économique, etc.). Cette contextualisation pourrait également passer par un croisement avec du search listening (tendances de recherche utilisateurs via Google, YouTube, Bing, mais également via les réseaux sociaux qui sont aujourd’hui utilisés comme des moteurs de recherche).  L’étape d’après sur ce sujet, c’est que l’IA puisse rendre tout ça compréhensible et activable. La contextualisation pourrait également passer par les données dont les marques sont propriétaires. Le terrain de jeu pourrait paraître sans limite si l’IA pouvait avoir un accès sécurisé et maîtrisé au site d’une marque, à ses analytiques, à ses réseaux sociaux, à ses bases de données CRM, etc. de manière à pouvoir nourrir les insights du social / search listening avec des données comportementales owned. »

Jocelyn Munoz, dont la structure, Deep Opinion, dépend de l’IFOP, voit dans l’alliance de l’IA et du social listening une incroyable opportunité pour prolonger et actualiser des études marketing. Par exemple, des segments de consommateurs peuvent provenir d’une étude IFOP, identifier de tels segments sur des comptes sociaux constamment actualisés, et faire évoluer les segments 1 ou 2 ans après l’étude en prenant en compte les nouveautés du contexte marché (nouveaux concurrents, évolution de la marque) de façon automatisée.

Pour Arnould Moyne (Meltwater), le plus surprenant est aujourd’hui à l’abri des regards non experts. « Ce que le public ne perçoit pas encore, c’est l’explosion de l’IA générative dans le monde des API. 

Le machine to machine. Les marchés financiers se sont automatisés, passant de transactions entre un individu à un autre individu au téléphone, puis par plateforme technologique interposée, puis un jour, les transactions à haute fréquence sont arrivées, exécutées par des machines entre elles, avec des instructions données par des humains initialement. Cela s’est aussi passé dans la publicité programmatique. Cela sera probablement le cas avec le social listening, avec plus de machine to machine, API to API,  pour intégrer des workflows de collecte, d’enrichissement, d’analyse, de synthèse, de traitement et de prise de décision. »

À l’opposé – ou en complément devrions-nous dire – Jean-Christophe Gatuingt (Visibrain) croit dans le chair et en os pour l’avenir du social listening : « Personnellement, je pense que l’humain restera indispensable dans une analyse des données des réseaux sociaux. Bien sûr, les nouvelles technologies d’IA vont faire gagner du temps, voire remplacer l’humain sur une partie des tâches. Mais c’est l’humain qui, par sa sensibilité, son intuition et sa connaissance fine d’une problématique, va pouvoir définir une approche méthodologique globale, guider les outils, et avoir le dernier mot sur l’interprétation. » 

Human after all.

News Scan Book

Starbucks célèbre ses 20 ans en France

1

2

3

4

5

Précédent Suivant