L’interview de David Raichman, Ogilvy Paris.
Depuis quelques années, les médias, entreprises et chercheurs laissent entendre que le marché du travail sera – d’ici quelques années – grandement impacté par l’automatisation des tâches et la généralisation des intelligences artificielles. Nous l’évoquions déjà en 2017 pour les métiers créatifs, mais les publicités produites étaient jusqu’alors assez anecdotiques, voire risibles.
Et puis, au printemps-été 2022, un saut technologique a eu lieu. Des programmes d’IA comme DALL·E (OpenAI), Stable Diffusion ou encore Midjourney ont émergé, rendant accessible – presque à tous – l’art génératif. Ces IA sont capables de créer des photos, des illustrations et autres œuvres d’art au réalisme ahurissant en quelques clics – ou plutôt grâce à quelques “prompts”, ces textes détaillant à l’IA quelle sorte d’image créer, tel un brief homme-machine.
Ces nouveaux outils représentent-ils un danger pour le secteur artistique, comme le laissent suggérer certaines communautés d’art en ligne ? Les illustrateurs et photographes doivent-ils craindre pour leurs métiers ? Idem pour les directeurs artistiques en agence ? Ou au contraire, cela sera l’opportunité pour ces professionnels de tirer partie de la technologie pour s’affranchir des tâches répétitives liées au craft ? Réponse dans cet entretien passionnant où David Raichman – directeur exécutif de la création social et digital d’Ogilvy Paris, street-photographe IA la nuit – nous a livré un aperçu du potentiel de ces solutions d’arts génératif.
L’art et les visuels générés par des IA semblent avoir connu un bon qualitatif majeur ces derniers mois. Partagez-vous cette observation ?
David Raichman : Absolument. Depuis quelques mois, les intelligences artificielles sont capables d’imiter des formes artistiques comme la photographie, l’illustration, les arts graphiques, la peinture ou encore la 3D. Il devient d’ailleurs très difficile de différencier le travail généré par une IA d’une véritable œuvre artistique.
Depuis quand suivez-vous ces technologies ?
D.R. : Je fais de la photographie depuis une dizaine d’années, et l’art génératif m’intéresse particulièrement. Depuis 2-3 ans, j’exploite avec parcimonie les IA pour traiter une partie de mes photographies. Cela fait 1 mois et demi maintenant que l’ensemble de mes productions photographiques (personnelles, tout du moins) sont intégralement produites par des IA. J’y ai passé mes nuits !
Étant passionné de street-photographie, je me suis amusé à « faire le tour du monde » avec les IA, comme si je prenais seulement des photos de rue à New York, Jérusalem, Lhasa, Paris, Bombay… Le résultat était assez surprenant. Ce qui est extrêmement intéressant, c’est que l’on peut exploiter les mêmes paramètres qu’un véritable photographe (angles à shooter, ouverture de l’objectif, vitesse d’obturation, type de pellicule, etc.)
En fait, nous avons beaucoup plus de contrôle que ce que l’on peut penser ! Après, c’est une approche personnelle. Chacun a sa méthode et sa manière de travailler. Ceux qui vont vouloir travailler l’illustration ou de la 3D vont utiliser leurs propres codes, différents des miens.
Les IA n’ont jamais été aussi accessibles qu’aujourd’hui : sur le web, sur Discord…. La révolution de l’art génératif semble aussi résider dans son accessibilité.
D.R. : Tout à fait. J’ai déjà pu créer des images sur mon téléphone dans la rue en me promenant, et même en attendant le métro. On peut exploiter les IA n’importe quand, n’importe où. Grâce à des IA complètement en open source (comme Stable Diffusion) les gens peuvent les installer sur leurs propres ordinateurs.
La seule barrière, c’est le prix. On peut dépenser beaucoup d’argent dans ces outils – qui sont addictifs, je ne le cache pas [ndlr : David concède avoir dépensé dans les 100€ pour ses derniers tests d’images, ce qui reste raisonnable pour de tels outils]. Mais je pense qu’à terme, ceux-ci seront accessibles à des coûts nettement moins élevés.
Que peut-on faire – et ne pas faire – avec des programmes comme DALL·E ou Midjourney aujourd’hui ?
D.R. : Tout d’abord, il y a des contraintes éthiques. On ne peut pas créer des images qui pourraient inciter à la haine, des mots sont d’ailleurs déjà bannis dans les “prompts” de certaines IA. La plateforme la plus ouverte est Stable Diffusion. DALL·E est assez difficile à dompter. Pendant le décès de la Reine d’Angleterre par exemple – dont les funérailles se déroulent aujourd’hui – il était impossible d’y rentrer le nom « Reine Elisabeth II ». Alors que dans Midjourney cela ne posait aucun souci. On peut également demander à une IA quel style nous intéresse en termes de rendu photographique, et donner des références d’artistes (Guillermo del Toro et HR Giger sont fréquemment utilisés). Cela peut poser problème d’un point de vue éthique également, mais je trouve que c’est intéressant de mélanger les styles pour créer ainsi son propre style.
Dans un second temps, il existe des limitations techniques. Par exemple, les IA ne sont pas compétentes aujourd’hui pour représenter des personnes qui s’embrassent et s’entrelacent. Idem pour les visages, ils sont souvent déformés et pas cohérents. Pour cette raison, des utilisateurs vont utiliser plusieurs IA afin d’être plus justes et réalistes dans ces représentations. Le modèle GFP-GAN est par exemple fréquemment utilisé pour améliorer le rendu des visages d’une image générée par des solutions comme Midjourney ou DALL·E.
Vous pouvez également donner aux IA des “images de départ”, influençant ainsi leurs résultats – c’est quelque chose que fait très bien Stable. Cela lui donne plus de liberté, mais aussi des contraintes. Aujourd’hui sur Midjourney, je pense qu’on ne peut pas dépasser plus de 2 ou 3 images, mais demain on pourra lui en donner beaucoup plus.
À part cela, il n’y a pas vraiment de limites dans ce que l’on peut faire avec les IA aujourd’hui. Au contraire, il y a un champ des possibles énorme.
3. Avez-vous déjà réalisé des campagnes pour des annonceurs avec de telles IA ?
D.R. : Oui, à l’instant ! Nous venons tout juste de lancer une campagne pour La Laitière. Pour contextualiser, il y a quelques jours, DALL·E et sa dernière fonctionnalité “Outpainting” [ndlr : fonctionnalité qui étend une peinture au-delà de ses limites d’origine] a permis de dévoiler ce qui se cache hors du cadre du tableau de La Jeune fille à la perle de Vermeer. Nous avons fait de même, mais avec La Laitière.
Ce tableau de Vermeer a inspiré une saga publicitaire emblématique. C’est pourquoi, à l’ère du numérique et du web 3.0, nous avions voulu utiliser l’IA au service de cette idée, afin qu’elle puisse imaginer tout un environnement autour de l’œuvre originale. Une scène hors du temps signée “C’est si bon de prendre le temps”.
Ces IA se nourrissent de datas visuelles, leurs bases de données d’inspiration en somme. Peut-on imaginer qu’à terme vous puissiez fournir à l’IA tout l’historique artistique d’une marque, pour que les visuels générés respectent sa charte et son patrimoine graphique ?
D.R. : C’est déjà un peu le cas. Quand on donne à une IA le nom d’une marque connue, elle connaît les références et l’histoire de celle-ci. Par exemple, une IA a récemment réalisé avec brio une campagne pour Heinz – un ketchup dominant dans l’inconscient collectif. L’IA est capable de saisir le patrimoine visuel d’une marque, mais ce sont les prompts qui vont l’aider à donner le ton, à aller dans la bonne direction, et à expliquer ce que l’utilisateur veut – ou pas. En ce qui concerne les mots, ces IA visuelles ne les écrivent pas très bien. En revanche, on peut très bien faire générer des alphabets ou une typographie spécifique pour une marque. C’est quelque chose qui pourrait être envisageable demain.
Après, il n’y a pas que des IA visuelles, GPT-3 (OpenAI) est un logiciel d’intelligence textuelle. Aujourd’hui, on peut tout à fait imaginer faire écrire des textes dans un ton de marque par une IA.
Pour rappel : une IA, n’est ni un être humain, ni un outil, c’est un entre deux. Face à un problème, elle va proposer des solutions – qui ne sont certes pas toutes bonnes – mais elle est force de proposition. C’est cela qui est nouveau. On ne peut pas demander à une IA de nous trouver un slogan ou encore un logo. Il y a toute la démarche humaine derrière.
Le prompt est-il une nouvelle sorte de brief ?
D.R. : C’est à la fois une forme de brief, mais c’est aussi presque une forme d’art. J’ai déjà passé des prompts à 200 mots – ce qui est assez conséquent. Mais c’est une manière d’être hyper précis et influent sur la manière avec laquelle l’IA va générer quelque chose. Il y a un art du design du prompt.
Il y a un mois, des places de marché se sont mises en place, dans lesquelles des gens vendent leurs prompts pour avoir de belles images.
Il existe d’ailleurs une plateforme (Replicate) qui pratique le reverse engineering prompt – en échange d’une image, l’IA va proposer le prompt qu’il y a derrière. Mais ce n’est pas tout, des IA aident même à générer des prompts de qualité. D’autres encore génèrent des prompts à l’infini – on lui donne juste un mot, et elle sort plein de versions du mot donné à l’origine.
Le prompt est devenu le nerf de la guerre de ces créations. C’est avec le prompt que l’on crée.
Ces IA sont-elles une menace pour les métiers d’illustrateur, de photographe ou encore de directeur artistique ?
D.R. : Récemment, beaucoup de photographes ont posté des vidéos alarmistes, pensant que les robots allaient leur voler leur métier. C’est une innovation majeure face à laquelle, il va falloir réinventer notre métier, l’améliorer et surtout “embrasser” la technologie – plutôt que d’aller dénoncer quelque chose dont le résultat est assez extraordinaire.
Le domaine de l’illustration doit particulièrement se réinventer, on pourrait imaginer que les IA puissent réaliser des roughs (aperçus visuels d’une illustration, d’une mise en page ou d’un storyboard) très rapidement.
Les métiers de la photographie peuvent aussi être impactés, mais je ne pense pas que ces IA iront jusqu’à détruire ces métiers. Disons que c’est une avancée qui peut les aider à aller plus loin. C’est un autre genre de création, comme l’image de synthèse a pu l’être à une époque.
Sur Photoshop, il y a déjà beaucoup de plugins qui sortent (faisant appel directement à des IA) qui aident les DA à obtenir des effets d’image supplémentaires ou à effectuer des tâches difficiles. Les IA, ce n’est pas nouveau dans ce milieu-là. Par exemple, les Neural Filters de Photoshop permettaient de changer un regard sur une photo, ajouter des profondeurs de champ, etc.
Ici ce qui est nouveau, c’est qu’on va pouvoir utiliser de l’outpainting, créer du hors-champs, garder un style donné. Il faut voir cette innovation comme une manière d’avoir des processus (ou des manières de produire) plus rapides au service de quelque chose qui est plus vaste. Ça peut être un vrai accélérateur dans la production. C’est comme cela que je vois les choses, plutôt qu’une menace.
Aujourd’hui, les marques réagissent souvent à l’actualité avec des memes. Je pense que demain, ces réactions se feront avec des images produites par des IA, de façon beaucoup plus créative.
Et au-delà des réactions de marques ?
D.R. : Je pense que les IA ne servent pas juste à générer du beau, mais vont aussi permettre de faire émerger davantage de concept dans notre production d’images. Il y a eu un tsunami de générations d’images (sur Instagram), et c’est aussi intéressant de voir comment est-ce que l’on peut se distinguer de tout ça et avoir sa propre patte. Ça a été une de mes quêtes : comment réussir à avoir mon style là-dedans, et non pas le style de l’IA. Problème que l’on a pu retrouver sur Midjourney, puisque cette plateforme a un style très proéminent.
Il y a un véritable enjeu pour l’artiste ou le créateur de demain. C’est un secteur qui est en pleine explosion, chaque semaine il y a du nouveau. Personne ne peut savoir aujourd’hui exactement les impacts que cela va avoir. Il y aura sûrement un impact dans la mode par exemple, mais aussi dans le domaine de la vidéo. En effet, une IA – pour le moment expérimentale – permettrait de raconter des histoires avec un script. On peut déjà commencer à faire des scénarii, pour créer des œuvres animées… Enfin si on peut qualifier cela d’œuvre, ça c’est une autre question !