Bloquer ou faire payer, telle est la question.
Cloudflare a dévoilé mardi 1er juillet un nouveau service baptisé Pay per Crawl. Cette initiative, lancée en version bêta privée, permet aux éditeurs de sites web de mieux contrôler (et potentiellement monétiser) l’accès à leur contenu par les robots d’intelligence artificielle. Ce projet s’adresse aux clients de Cloudflare et vise principalement le marché américain pour le moment.
Concrètement, Pay per Crawl permet aux éditeurs de décider s’ils souhaitent bloquer les robots IA, les autoriser gratuitement ou leur facturer chaque exploration via un système de micropaiements. L’objectif : apporter de la transparence dans un paysage numérique où de nombreuses IA collectent du contenu sans rémunérer les créateurs. Cloudflare joue ici le rôle d’intermédiaire technique.
Ce lancement intervient dans un contexte tendu. La désintermédiation croissante opérée par les chatbots et la chute du trafic SEO, largement commentée lors des derniers Cannes Lions, inquiète les éditeurs qui subissent une baisse de trafic liée à l’essor des moteurs de réponse comme ChatGPT ou les AI Overviews de Google. D’après Cloudflare, l’écart entre les contenus aspirés par les IA et le trafic effectivement redirigé vers les sites serait particulièrement élevé. OpenAI, par exemple, explorerait 1 700 fois un site pour chaque visite générée. Un déséquilibre que Pay per Crawl tente de corriger, au moins partiellement.
Reste à voir si ce nouveau marché trouvera un équilibre viable, alors que peu d’entreprises d’IA semblent prêtes, aujourd’hui, à payer pour un accès qu’elles ont longtemps considéré comme libre.
À noter que l’IAB Tech Lab a lancé son propre projet, la LLM Content Ingest API Initiative, comme nous le détaillait à Cannes Arthur Millet, directeur général de l’Alliance Digitale. Si les objectifs paraissent similaire, l’initiative de l’IAB se veut ouverte, a contrario de la proposition de Cloudflare, dont les modalités restent celles d’une entreprise privée, accélérant 20% des sites dans le monde.
