A-t-on encore besoin de photographes quand l’IA peut (presque) tout faire ?
A-t-on encore besoin de photographes quand l’IA peut (presque) tout faire ? L’intelligence artificielle révolutionne la photographie et la vidéo. Retouches en un clic, détourage automatique, génération d’images hyperréalistes… Jusqu’où peut-elle aller ? Faut-il voir l’IA comme un simple outil au service des photographes ou comme une menace qui redéfinit en profondeur leur métier ? Dans cet épisode, Olivier Gobert, photographe et vidéaste, partage son regard d’expert sur l’impact de l’IA dans la création visuelle. Comment l’intelligence artificielle transforme-t-elle concrètement son travail ? Quels savoir-faire restent irremplaçables ? Et surtout, l’IA peut-elle vraiment remplacer l’œil humain ? Un échange passionnant pour comprendre si l’avenir de l’image sera encore entre les mains des photographes… ou entre celles des algorithmes.

Olivier Gobert, artiste et artisan de l'image, s'établit à Troyes en 2000 pour y poursuivre ses études. Depuis, il est resté fidèle à cette région, où il a ancré son parcours artistique.Sa passion pour l'audiovisuel débute en 2003, lorsqu'il saisit une caméra pour la première fois, marquant le point de départ d’une vocation qui l'anime encore aujourd'hui. Fasciné par les possibilités infinies qu’offre l'image, il poursuit sans relâche une quête de perfection.Fondateur et dirigeant du Studio OG SARL, Olivier s'investit en tant que directeur artistique, réalisateur, photographe et télépilote de drone. Aux côtés de sa femme Sabrina, il a créé un univers dédié à l’art visuel. Rêveur invétéré, Olivier est un passionné dont l'amour pour la photographie et la réalisation audiovisuelle dépasse les tendances, guidé par le désir de partager son imaginaire foisonnant.

Olivier Gobert
Photographe et vidéaste
Julien Redelsperger : « Et pour cela, j'ai le plaisir d'être accompagné par Olivier Gobert, qui est photographe et vidéaste. Il se définit d'ailleurs lui-même comme un artisan de l'image. Il est régulièrement médiatisé pour son travail sur des photos uniques qui sont utilisées pour illustrer notamment le calendrier annuel des pompiers de la ville de Troyes en France. Aujourd'hui, nous allons donc parler d'IA, évidemment, mais aussi de photos et de vidéos. Autant dire que le sujet est large et qu'un épisode ne sera sans doute pas suffisant. Bonjour Olivier, merci de participer à cet épisode d'AI Experience. Comment vas-tu ? »
Olivier Gobert : « Bonjour Julien, ça va très bien, merci. Merci beaucoup de m'accueillir pour cet épisode d'AI Experience. C'est un grand plaisir de partager une petite heure avec toi. »
Julien Redelsperger : « Le plaisir est partagé. Alors on va évidemment parler de photos et de vidéos. C'est ton dada, c'est ta passion, c'est même ton métier. On sait que ce milieu a connu de nombreuses évolutions au cours des dernières années. Il y a quelques années, 10 ans, 15 ans, 20 ans, même en arrière, on parlait du passage de l'argentique au numérique. Aujourd'hui, j'ai l'impression qu'on voit un peu l'IA comme la prochaine révolution dans le monde de la photo et de la vidéo. Qu'est-ce que tu en penses ? Et est-ce que c'est comparable selon toi en termes d'impact ? »
Olivier Gobert : « Alors comparable, je ne sais pas, puisque effectivement, il n'y a aucun débat sur le fait que c'est la nouvelle grande révolution de la production d'images. Mais pour moi, elle est même encore plus importante que le passage de l'argentique au numérique, puisque le numérique, finalement, a été quelque chose d'assez progressif. On a commencé à avoir des capteurs numériques qui ont fonctionné en parallèle à la création argentique, avec des défauts techniques qui étaient assez notables, puis des améliorations jusqu'au jour où le numérique est devenu très supérieur à l'argentique, alors que l'IA a plutôt tendance à tout rembourser d'un coup sur la table, avec des vrais gros changements majeurs quasiment immédiatement. Donc aujourd'hui, pour moi, c'est effectivement un très très grand changement et une très très grande révolution. »
Julien Redelsperger : « D'accord. Est-ce que toi, c'est quelque chose que tu as vu venir, le déploiement, la démocratisation de l'IA ? Je sais que tu t'intéresses beaucoup, évidemment, à la technologie, mais ça fait en gros deux ans qu'on parle énormément d'IA générative. Tu t'attendais à ce que ça soit aussi fulgurant en termes de développement ?
Olivier Gobert : « Alors non, je ne m'y attendais clairement pas. Je pense que c'est justement ce que j'ai un côté assez geek depuis très longtemps, et dans cette approche geek, le fonctionnement de l'informatique jusqu'à là a toujours été de 1 + 1, 1 + 1 c'est égal à 2, ça ne pouvait pas être autrement. Alors que l'IA, justement, a complètement bouleversé les certitudes et permis de créer des choses de A à Z qui n'étaient pas programmées pour obtenir. C'est-à-dire que les résultats sortis par l'IA ne sont pas des résultats pré-programmés. Donc on avait bien évidemment vu apparaître de l'image générative il y a 3-4 ans, comme les fameuses photos de Will Smith en train de manger des spaghettis, qui étaient absolument affreuses. À peine un an après, on se retrouvait avec des images qui étaient relativement réalistes, de la même manière avec les textes, et ça, je pense que le changement était tellement important qu'on ne pouvait pas le... En tout cas, à mon niveau, je n'ai pas pu l'anticiper. »
Julien Redelsperger : « D'accord. Alors je l'ai dit, toi tu es photographe, tu es aussi vidéaste. Comment est-ce que l'IA a transformé ton quotidien de manière concrète ? »
Olivier Gobert : « Alors concrètement, l'IA a bouleversé pas mal de choses au niveau du travail, mais pas forcément de la manière dont on pourrait l'imaginer. C'est-à-dire qu'aujourd'hui, je vais finalement assez peu utiliser l'IA pour générer des images, puisque mon travail c'est de produire des images, donc je n'ai pas besoin d'outils comme Midjourney ou autres pour produire des images. Par contre, là où ça a vraiment foncièrement changé la donne, ça va être pour des améliorations, notamment sur du traitement audio, où je te parlais dans d'autres podcasts juste avant, où là on se retrouve avec des sons qui étaient pris dans des conditions quelquefois un petit peu compliquées, avec des micro-cravates ou des choses comme ça, et on se retrouve avec un son qui est ultra clean, comme s'il avait été pris avec un micro de podcast. Ça va être sur des fonctionnalités de détourage automatique, donc dans du post-traitement d'images, on va pouvoir détourer les ciels en un clic, et se permettre de redonner une dimension à un ciel en l'assombrissant ou en l'éclaircissant par rapport à ce qu'il a à la base, et lui permettre d'être plus impactant au niveau de l'image. Ça va être aussi sur des photos de communication touristique, par exemple, on a toujours la problématique soit des gens présents dans les images, soit des panneaux de signalisation, soit des enseignes publicitaires qui peuvent être amenées à changer avec le temps. En quelques clics, on peut les effacer, alors qu'avant ça ne pouvait pas. Et de manière quasiment systématique, dans ce qu'on peut faire au niveau de la vidéo aujourd'hui, je vais utiliser l'IA pour la création musicale, puisque jusque-là j'avais recours à des musiques de banque de sons, et j'ai fini par me rendre compte que par des softs comme Suno, on pouvait créer des musiques qui avaient une structure qui était favorable pour appuyer le propos des images, et ça c'est absolument génial. Donc en fait il y a plein de choses dans lesquelles le processus d'IA va rentrer en ligne de compte, mais pas forcément sur de la création de A à Z, même plus basiquement sur des choses que j'ai fait récemment. Par exemple, j'avais créé un scénario sur un tournage qu'on devait faire, et je me suis servi de l'IA pour générer des images de référence à partir du scénario, et ces images de référence m'ont servi de modèle pour construire la lumière que j'ai réalisée lors du tournage. Et donc en fait j'avais mon scénario, j'ai généré des prompts via JetJPT, et ces prompts d'images je les ai replacés dans Krea pour générer des images, et ces images m'ont servi de référence pour donner la tonalité que je voulais par rapport à l'esprit du film. Donc en fait l'IA générative en termes d'images ne sert à rien dans ce contexte, elle ne sert à rien dans ce qui est vendu au client, mais par contre elle sert dans la construction de l'image réelle qui est produite derrière. Et ça c'est extrêmement intéressant parce que ça permet déjà pour l'équipe technique de savoir où on va avec un appui très concret, et au client de savoir l'esthétique vers laquelle je me suis orienté pour produire le film sans avoir besoin d'en discuter lors du tournage. »
Julien Redelsperger : « D'accord, est-ce qu'il y a des choses que tu ne pouvais pas faire avant et que tu peux faire aujourd'hui avec l'IA ? Parce que ce que je comprends c'est que l'IA ça accélère les choses, ça te fait gagner du temps, mais est-ce qu'il y a des choses qui techniquement étaient trop compliquées à faire il y a 5-6 ans, qui sont aujourd'hui beaucoup plus faciles à faire grâce à l'intelligence artificielle ? »
Olivier Gobert : « Oui, ça va servir sur certaines fonctionnalités, notamment rattraper, par exemple c'était quasiment impossible jusque-là d'élargir un cadre, et donc il m'est arrivé par moment d'avoir des photos où malheureusement un peu prise sur le vif, on se retrouvait avec des photos qui étaient un peu penchées, et la perspective n'était pas parfaite, donc du coup j'ai redressé en post-prod, et en redressant en post-prod il manquait des éléments sur le bord cadre en haut à droite ou autre. Grâce à l'IA générative aujourd'hui ça prend quelques clips d'étendre l'image, donc après c'est des choses qu'on pouvait déjà faire dans certains cas, comme avec le remplissage d'apprêts de contenu sur Photoshop par exemple, mais ça marchait sur des ciels, ça marchait sur des palais, mais ça ne marchait pas sur un bâtiment ou sur des éléments complexes. Aujourd'hui c'est très facile de faire ça très rapidement, et c'est une manière que tu peux, enfin non seulement tu peux étendre un peu un cadre, mais tu peux étendre considérablement un cadre. Et donc ça m'est arrivé par exemple d'avoir des photos de commandes pour des clients qui étaient faites en format paysage, et pour leurs besoins d'usage sur les réseaux sociaux ou des choses comme ça, ils revenaient vers moi en me demandant de transposer ces images en format portrait, sauf qu'une image qui a été cadrée en format paysage, elle n'est pas du tout prévue pour être cadrée en format portrait, et dans certains cas, ça impliquait soit d'avoir un cadre qui n'était pas beau, soit de bricoler pour reconstituer l'image manquante sur la partie haute ou basse, ce qui pouvait s'avérer extrêmement chronophage, très complexe. Et aujourd'hui grâce à l'IA, c'est très facile de basculer, et si le cadre nécessite des tags bandits d'un côté ou de l'autre, un clic c'est fait, parce qu'effectivement il y a plein de choses comme ça sur lesquelles ça va vraiment avoir un impact sur le travail. »
Julien Redelsperger : « D'accord. Alors on disait tout à l'heure que l'IA évidemment avait un impact sur les retouches, on sait que ça fait partie du travail du photographe, une fois que la photo est prise, il faut la développer, la retoucher, avant de la vendre à son client par exemple. Est-ce que l'IA c'est un outil qui permet d'accélérer ces processus ? Est-ce que concrètement, en trois clics, tu pourrais aujourd'hui retoucher une photo ? Est-ce que ça te fait gagner du temps ? Et est-ce que ces retouches sont encore nécessaires ? »
Olivier Gobert : « Aujourd'hui sur certains points, l'IA permet de gagner un temps énorme, dans le sens où quand on travaille sur des grosses séries de photos par exemple, il y a dans certains cas où on va être amené à appliquer un filtre identique sur l'intégralité des ciels, et là l'IA va permettre, à partir du moment où il a été fait sur une première photo, de transposer le même effet sur toute la suite, et du coup de gagner un temps fou, parce que pour un ciel, avant ces fonctionnalités-là, c'était un boulot de cinglé. Dans la logique de retouches, moi là où ça va plutôt jouer aujourd'hui, c'est qu'il y a quelques années de ça, j'allais retoucher en profondeur des images uniquement dans certains cas, c'est-à-dire quand on se retrouvait sur des images où je savais qu'elle allait atterrir en enquête par trois, ou finir en couverture d'un magazine de présentation touristique ou des choses comme ça, parce que je ne pouvais pas laisser passer le moindre défaut, alors qu'aujourd'hui, des simples photos convocations à finir sur des publications Instagram, on va rentrer dans des processus de retouches plus poussées, grâce à l'IA, parce que ces fonctionnalités sont tellement accessibles que finalement, à les retirer, comme je le disais tout à l'heure, un panneau de signalisation ou autre, c'est quelque chose qui devient très facile. Donc sur du gros post-traitement d'images, l'IA aujourd'hui, bouleverse la donne et le rend extrêmement rapide et beaucoup plus simple que celle d'été jusque-là. Par contre, sur le processus de post-traitement complet de séries de photos, au final, ce n'est pas vraiment un gain de temps, c'est même plutôt une augmentation, puisque l'accessibilité de l'outil rend la démarche de retouches presque plus accessible et du coup, ça donne plus envie de pousser les choses pour aller au bout, pour ne pas sortir de l'image qui ne sont pas forcément abouties. Sur un exemple concret et simple, par exemple, jusqu'il y a quelques mois de ça, c'était impossible de faire des… Il y avait quelques outils qui permettaient de faire du dénoise sur les photos, c'est-à-dire quand on avait des photos prises en basse lumière avec une forte sensibilité, on avait vu du bruit qui apparaissait, et les quelques outils qui faisaient ça avaient tendance à créer un certain glissage, c'était assez rapide, mais ce n'était pas très beau. Aujourd'hui, c'est des fonctions qui sont ajoutées directement dans Camera Raw ou dans Lightroom, ou alors il y a des outils dédiés comme Topaz que j'aime bien utiliser, et ces outils sont très rapides au niveau de l'acte humain, parce que c'est juste un clic à faire pour le lancer, mais par contre, ce sont des outils qui sont très, très, très chronophages en termes de temps mâchés. Et quand on a une série de 100 ou 200 photos à post-traiter, et que ces 200 photos doivent être dénoisées, je ne sais pas comment dit-on en français, débrouillées, on va dire, ça peut vite prendre 2 ou 3 heures de calcul machine pour retirer ce bruit, et pour en avoir une image qui devient extrêmement clean. Donc au final, on a passé plus de temps, mais sauf que ne pas le faire alors que c'est quelque chose qui est accessible simplement par un clic, ce n'est plus possible, en fait. Et je pense qu'aujourd'hui, on ne peut plus se permettre, en tant que photographe, de livrer une photo qui contiendrait du bruit, puisque c'est possible de le supprimer. Mais par contre, supprimer le bruit, ça prend du temps. Donc il y a un bénéfice sur l'outil et sur le rendu final, mais est-ce qu'il y a un réel bénéfice sur le temps passé au niveau du post-traitement, je ne suis pas certain, parce qu'inévitablement, on rentre dans d'autres processus de traitement qui n'existaient pas à la base. »
Julien Redelsperger : « D'accord. Alors tu as évoqué très rapidement Topaz, Krea, tu parlais de Lightroom, tu as parlé de Photoshop, tu as parlé de Camera Raw, tout ça, c'est des outils, j'imagine, que tu utilises au quotidien. Est-ce qu'il y en a d'autres ? Est-ce que tu peux donner quelques exemples concrets de ces outils, de ces plateformes à base d'IA qui font partie aujourd'hui de ton quotidien ? »
Olivier Gobert : « Oui. Alors déjà, je n'utilise pas Lightroom, je n'ai jamais utilisé Lightroom parce que c'est très généraliste, mais je ne bosse que sur Camera Raw, mais ça revient au même. Donc moi, dans l'ordre d'utilisation, les outils que je vais utiliser le plus, ça va être bien évidemment la suite Adobe, avec tout ce qui est traitement, retouches des photos, réduction du bruit, amélioration audio, pour Adobe Premiere, génération des outils automatique, et un petit peu d'extension d'image ou des choses comme ça. Mais enfin, en tout cas, la suite Adobe intègre plutôt bien l'IA, même si ce n'est pas sur les fonctionnalités qu'ils proposent les outils les plus performants actuellement. Donc après, je pense qu'Adobe a tellement de moyens que ça finira par les rattraper et qu'ils ne sont pas encore tout à fait morts. Mais pour moi, c'est vraiment la base du travail, parce que c'était déjà la base du travail liée à la production d'images et de photos. Après, j'utilise énormément le chat GPT. Le chat GPT, c'est très intéressant pour plein de choses. Ça me permet de clarifier les scénarios pour mes clients. Par exemple, moi, ça m'arrive quand on me demande de créer un spot de pub, souvent pour gagner du temps, je me contente d'écrire scène 1, il se passe ça, scène 2, il se passe ça, scène 3, il se passe ça, et de manière assez épistolaire. C'est-à-dire que ça ne contient pas… Je mets finalement assez peu d'informations. Et après, je repasse le script, peut-être que je l'ai écrit dans le chat GPT, en lui demandant d'aller plus loin et en lui donnant des spécificités par rapport à la caractérisation des personnages, ce que je veux voir ou transcrire, ou des choses comme ça. Et là, le chat GPT va me permettre de pousser les choses plus loin pour que le client arrive beaucoup plus facilement à transposer ce qui est écrit que simplement mon script de base, qui au final s'avère être limite plus un synopsis. Et avant, je sais que j'y passais vraiment beaucoup de temps dès que j'écrivais un scénario, parce qu'il fallait me prendre dans les détails pour que les clients comprennent bien. Alors que finalement, un scénario, dans les contextes d'utilisation que je peux faire, où je tourne ce que j'écris, moi je n'avais pas besoin d'informations ultra détaillées. Et maintenant, grâce à ces outils-là, on peut aller plus loin. Je m'en sers également pour générer des paroles de chansons. C'est-à-dire que par exemple, quand on fait des vidéos événementielles, souvent j'essaye d'avoir des textes dans les chansons qui appuient le propos de la vidéo, sur des vidéos événementielles ou sur des petites vidéos. Moi, j'opte plutôt souvent pour des paroles en anglais, comme ça, ça donne un peu le poisson. En tout cas, les gens un peu anglophones font le lien. Et ça donne un cachet assez unique aux vidéos. Et je sais qu'on a déjà sorti des vidéos comme ça, où les gens qui les regardaient étaient assez surpris. Ils s'imaginaient tout de suite qu'on faisait une musique qui était vraiment faite pour le besoin de la vidéo. Donc j'écris des paroles avec les TPT, et je génère des musiques via Suno, qui est assez bluffant au niveau de la structure, des capacités musicales. »
Julien Redelsperger : « D'accord. Et cet outil te permet également de gérer le chant, ou tu embauches un chanteur ou une chanteuse ? »
Olivier Gobert : « Ah non, non. Suno, ça génère des musiques de A à Z, chant y compris. Et c'est vraiment, vraiment bluffant. J'ai un abonnement là-dessus et je m'en sers très, très régulièrement. Par contre, Suno est meilleur sur des musiques avec chant que sans paroles, parce qu'en fait, il a tendance à structurer les musiques en fonction du texte. C'est-à-dire que si on raconte quelque chose de triste, il va avoir tendance à faire des musiques tristes. Si on raconte quelque chose de positif, il va avoir tendance à mettre quelque chose de positif dans la sonorité. Et il a du mal à mélanger les deux. Et c'est un peu le côté réducteur de l'outil, je trouve, parce que dans certaines musiques, on a vu des musiques populaires ces dernières années, par exemple le cas de Stromae, qui avait beaucoup cartonné, il avait toujours ce côté musique très festive et populaire pour des paroles ultra glauques. Ce type de structure, c'est impossible à faire avec Suno, il n'y arrive pas. Et de la même manière, quand on lui demande de générer des musiques strictement instrumentales, il a tendance à créer des boucles assez peu variées, parce qu'il n'a pas de texte sur lequel s'appuyer. Et contrairement à des musiques réelles, c'est assez étrange, mais contrairement à des musiques réelles, tu ne peux pas séparer les pistes audio et musicales de manière ultra efficace. En fait, si tu mets une musique générée par Suno, la voix va rester présente un peu sur la musique, et inversement, alors que sur des vraies musiques, ça marche extrêmement bien. »
Julien Redelsperger : « Tu ne peux pas avoir ta guitare d'un côté, ta batterie de l'autre, le chant de l'autre.1gg
Olivier Gobert : « Non, et c'est là qu'on voit que ça génère une piste audio qui est assez particulière. »
Julien Redelsperger : « Et à l'instant, tu parlais de chat GPT pour la partie script, scénario, c'est hyper intéressant. Est-ce que parfois, le chat GPT t'a challengé ? Est-ce que parfois, tu t'es rendu compte qu'une idée que tu avais, en la passant dans le chat GPT, en fait, c'était peut-être pas une bonne idée, et que tu utilises aussi le chat GPT, non pas comme un assistant, mais comme un peu l'avocat du diable qui vient te bombarder de questions, te remettre en question, t'apporter des nouvelles idées, te dire peut-être que ton idée de départ n'était pas bonne. »
Olivier Gobert : « Non. Mais par contre, il m'arrive de demander à chat GPT de relire les scénarios et de lui demander quels sont les points qui peuvent être améliorés. Et quel point peut être amélioré dans la structure, quel point peut être amélioré dans la narration, ou des choses comme ça. Et donc, effectivement, il y a une efficacité notable sur le côté relecture. Par exemple, on est en train de monter un truc, on l'a tourné la semaine dernière pour l'ADMR, et en fait, ma structure de base du scénario, je l'ai fait relire par ChatGPT, qui m'a dit "si on déplace telle séquence à tel endroit et telle séquence à tel endroit, ce sera plus efficace". Et l'analyse était bonne, en fait. De la même manière, ça peut vraiment être efficace si on veut accentuer des points de bascule et qu'on trouve pas de solution, enfin pas de solution, ça m'est déjà arrivé, de lui dire "tiens, je bloque à tel moment, comment je peux faire pour accentuer ce moment-là ?" Et là, il n'y a pas de souci. Par contre, ChatGPT, non, il ne contredit pas, mais je ne pense pas que ChatGPT contredit ce qu'il se soit. Ce n'est pas le fond de cet outil. Mais c'est vrai qu'il y a une vraie efficacité dans l'analyse du texte, qui est absolument remarquable et qui permet d'aller plus loin dans ta démarche à partir du moment où tu sais ce que tu lui demandes, et je m'en sers énormément. De la même manière que j'utilise beaucoup aussi ChatGPT pour générer des promptes d'images. Je disais tout à l'heure par exemple que j'avais utilisé des images génératives pour avoir mes bases de lumière sur un contexte de tournage. En fait, j'avais mis la description d'une séquence dans ChatGPT, je lui ai demandé de me générer l'image qui lui semblait la plus appropriée par rapport au contenu. Là il m'a sorti un truc, je l'ai réajusté, je lui ai demandé de me fournir le prompt et après j'ai repassé ce prompt dans autre chose, dans Krea en l'occurrence, parce que je trouve que les images qu'il génère sont esthétiquement super belles. Et c'est le prompt de ChatGPT avec les images générées dans Krea qui sont devenues ma référence d'image par rapport à mon orientation de tournage. »
Julien Redelsperger : « D'accord, ok. Je vais te raconter une petite histoire très rapidement. J'ai interrogé des traducteurs dans le cadre du podcast et parfois certains me disent que c'est important quand on a un nouveau contrat de bien gérer la relation avec le client. Le client ne s'attend pas forcément à ce qu'un rédacteur ou un traducteur utilise l'IA pour faire son travail, ce pour quoi on est payé. Par rapport à toi, dans le monde de la vidéo et de la photo, quelle est la position de tes clients vis-à-vis de l'IA ? Est-ce qu'ils trouvent ça normal que tu utilises l'IA pour faire de la création vidéo et photo ? Ou est-ce qu'à l'inverse, ils s'attendent à ce que tout soit fait de manière artisanale, manuelle, comme c'était le cas avant ? Est-ce que c'est un sujet de discussion ? Est-ce que ça figure dans tes contrats ? Et comment tu présentes les choses ? »
Olivier Gobert : « Alors comment je présente les choses ? Déjà, je l'assume complètement. C'est-à-dire que j'assume complètement le fait que j'utilise l'IA dans le cadre de mon travail. J'assume le fait que la musique est générée par l'IA, j'assume que mes images de référence sont générées par l'IA, que mes scénarios sont corrigés par ChatGPT par l'IA, il n'y a pas de souci là-dessus. Non, aujourd'hui, ce n'est pas quelque chose de mal perçu parce que, dans tous les cas, c'est extrêmement artisanal à la production de l'image, à partir du moment où on va mettre en place un environnement, une lumière, des gens, pour produire la photo à la base, enfin la photo ou la vidéo à la base. Tout ce qui est autour, ça reste qu'un appui. Après, sur la musique, en l'occurrence, en général, soit ça ne leur fait ni chaud ni froid, parce que de toute façon, c'était des musiques de banque de son, et qu'ils n'attendaient pas quelque chose de personnel par rapport à ça, soit, au contraire, ça les amuse parce qu'ils se disent "ouais, c'est génial, c'est une vraie musique, on dirait qu'il y a la tafée composée quelque chose". Et le troisième cas, c'est qu'on fait... sur certains cas, on peut avoir besoin de musique vraiment très qualitative, et dans ce cas-là, moi, je passe encore par des compositeurs, et puis ça ne changera pas parce qu'en fait, le travail humain, quoi qu'il en soit, à tout niveau, reste meilleur que ce que propose l'IA aujourd'hui. »
Julien Redelsperger : « D'accord. Mais en tout cas, ça ne fait pas partie des clauses des contrats, ils ne te disent pas "interdiction d'utiliser l'IA sur ce projet", par exemple ? »
Olivier Gobert : « Je ne sais pas si ça pourra arriver un jour, mais ça n'a pas de sens, en fait. Si un jour un client me disait quelque chose comme ça, je veux bien l'entendre, mais ça n'a pas de sens, parce que rien que le traitement de l'audio sur une interview, le passer dans l'IA, c'est avoir un audio de meilleure qualité, même si on prend quelqu'un qui va faire le registrement, rien que le détourage automatique d'un sujet ou d'un ciel, comme je le disais sur une photo, par l'IA, c'est forcément amener un résultat de meilleure qualité au final. Donc dire "non, n'utilise pas l'IA", ça n'a aucun sens. Et là où ça pourrait peut-être devenir un peu plus délicat, c'est que ce serait si j'allais me mettre à aller tourner des films entièrement écrits par l'IA, mais ça n'a pas de sens, enfin je n'irais pas faire ça non plus. D'autant plus que JPT n'est pas capable de structurer un scénario de manière cohérente aujourd'hui. J'ai déjà essayé des choses, notamment il y a un point qu'il n'arrive absolument pas à comprendre, c'est que dans un scénario, c'est une séquence, un lieu. Il n'y a pas d'alternative, c'est comme ça. Et j'ai eu beau lui donner des exemples, lui poser des questions, l'orienter, et ainsi de suite, ça dans sa continuité, il ne l'assimile absolument pas. Il est absolument incapable de séparer les séquences avec une séquence, un lieu. Et donc ce qu'il te propose au niveau des scripts écrits nativement, c'est jamais tournable dans l'état. »
Julien Redelsperger : « Est-ce que les outils d'IA fonctionnent aussi bien dans le monde de la photo que dans le monde de la vidéo ? Ou est-ce que la vidéo me semblerait intuitivement peut-être un peu plus avancée dans ce milieu ? Ou peut-être c'est moins compliqué à faire ? »
Olivier Gobert : « Alors moi je n'ai pas ce point de vue là. Je pense que au contraire, les fonctionnalités photo sont très poussées déjà. Je me demande même ce qu'on pourra faire de plus à la condition de réussir à augmenter un petit peu le niveau de détail de certaines productions. Sachant qu'aujourd'hui, pour moi, ce qui est le plus fort au niveau du traitement de l'image, ça va être vraiment ce que va proposer Photoshop. Mais avec les énormes défauts qu'avaient les IA au départ, c'est-à-dire qu'il est tout à fait capable de sortir une image avec quelqu'un qui a trois jambes, ou douze doigts à la main, ou des choses comme ça. Mais par contre, il est capable aujourd'hui de générer des images avec un niveau de détail équivalent à celles qui ont été prises par le capteur de l'appareil photo à la base. Donc avec des images à 41 pixels. Alors que ce n'est pas le cas du tout dans les autres applications. Genre moi j'utilise Krea, je te l'ai dit tout à l'heure. Krea, il plafonne à 1900 ou 1080, enfin équivalent. Par contre au niveau de la vidéo, non, pour l'instant c'est extrêmement limité. Déjà tout ce qui est application de génération de vidéos ne va pas au-delà de la Full HD. Alors que le standard au niveau du tournage, ça va être la 4K, voire la 6K aujourd'hui, voire même plus dans les années à venir, on verra. Et donc même les fonctions bêta qu'il y a en première ne sont pas exploitables dans la vue de production, puisqu'elles sont trop limitées au niveau du débit. Il y a finalement assez peu de fonctionnalités utiles comme les masques automatiques. Alors je crois que DaVinci fait ça, mais en tout cas dans la suite Adobe pour l'instant ça n'a pas du tout été développé. Finalement on n'en a encore vraiment qu'au tout début. Enfin quand on arrivera à basculer au niveau de l'image vidéo à des équivalents avec ce qu'il y a sur la photo, déjà on aura fait un gros repas en avant. Mais moi je ne suis pas, enfin je te l'ai déjà dit, mais je ne suis pas très convaincu par les trucs type runway ou des choses comme ça. Parce qu'il y a un côté très peu naturel dans les mouvements, dans les déplacements, des déformations dans tous les sens. Alors après moi je sais qu'on avait testé il n'y a pas très longtemps avec la fonctionnalité vidéo dans Krea justement. On avait cherché à générer un bullet time avec Krea. Donc en filmant deux séquences simultanément avec deux caméras qui étaient décalées de 30°. Après plusieurs tentatives, le résultat était absolument bluffant. Et là, moi ce côté là me paraissait extrêmement intéressant et je pense que je vais y venir. Parce que la définition est moins bonne que la définition de base d'une image standard. Mais le côté technique est tellement incroyable qu'on accepte de beaucoup plus le côté faible qualité. Parce que quand tu, enfin dans une petite production, tu balances un enchaînement de séquences où d'un coup hop le temps s'arrête et la caméra se déplace à droite à gauche comme ça avait été exploité pendant la Légio avec le skate par exemple. Vous avez trouvé le moyen de faire ça en temps réel. C'est absolument bluffant et ça c'est des fonctionnalités qui pour moi méritent vraiment de se pencher sur les questions. Enfin tout ça pour dire que je pense qu'aujourd'hui l'IA est très bien intégrée dans le flux de production de la photo, que la vidéo il y a encore des choses à faire, mais que les possibilités à terme seront vraiment énormes. Puisque par définition l'audiovisuel ça concerne et la vidéo et l'image, enfin et le son. Et qu'à partir du moment où on fait un peu ce qu'on veut sur l'image et sur le son, ça deviendra complètement fou.
Julien Redelsperger : « Tu parlais de Runway à l'instant, donc juste pour expliquer, Runway ou Sora qui sont des outils qu'on appelle "text to video" où en gros à la manière de ChatGPT on crée un prompt et ce prompt se transforme en vidéo. Alors souvent c'est des vidéos de 3, 4, 5 secondes, pas toujours très qualitatifs comme tu le soulignais. Mais est-ce que tu... ça va t'assembler à quoi selon toi le futur du "text to video" ? Est-ce que tu vois des outils comme Runway ou Sora vraiment dans les années à venir transformer le travail des pros ? Voir même les remplacer peut-être ? Même si aujourd'hui on a bien compris qu'on est vraiment dans les prémices de cette technologie. »
Olivier Gobert : « Donc là on est au fait, effectivement on est complètement dans les prémices, mais je pense que ça va remplacer... ça va dépendre comment ça évolue. Je pense que sur le "full text to video", c'est-à-dire qu'on ne part pas d'une image de base et on ne finit pas sur une image qui est déjà prise en compte, ça me paraît un peu compliqué d'exploiter ça de manière vraiment considérable, puisque là il y a quand même un énorme problème pour l'instant avec l'image générative, au sens large, puisque ça implique également la photo, c'est que c'est impossible de prendre un objet et de le réintégrer dans une image générative sans que l'objet ne subisse des déformations notables, y compris sur des personnages. Alors après je sais qu'il y a du mieux indéniablement, mais quand on est amené par exemple à faire un spot de pub pour une voiture, si on intègre une photo de la voiture et que la photo de la voiture se retrouve ne serait-ce que légèrement déformée, ce n'est pas la bonne voiture. Et ça c'est un énorme problème, ça rend la chose inexploitable pour les clients. Donc s'il y a une amélioration vraiment notable là-dessus, au bout d'un moment ça devrait être quelque chose d'intéressant. Après je pense que déjà aujourd'hui c'est quand même quelque chose qui est assez bluffant, notamment pour, je sais que j'ai vu des mecs qui s'en servaient pour générer des effets spéciaux sur du fond vert, où ils demandaient à Sora justement de générer des images qui étaient déjà intégrées sur du fond vert, avec des éléments par exemple avec des plantes qui poussaient ou des arbres, et il serait incrusté là-dedans. Et ça je pense que c'est un bouleversement majeur, mais c'est quelque chose qui finalement va plus poser problème aux activités de graphiste ou de VFX que aux activités de tournage, puisque quand on tourne, on tourne la réalité. »
Julien Redelsperger : « Ces enjeux sont quand même hyper intéressants, parce que je ne sais pas toi comment tu vois les choses, mais j'ai l'impression qu'il y a tellement de nouvelles fonctionnalités, de nouveaux outils pratiquement tous les jours, toutes les semaines. Comment tu fais pour rester connecté à l'actu, pour passer à côté de rien ? Il y a un côté un peu parfois, il y a juste trop de choses, trop d'informations, trop de bruit, trop de trucs. Comment est-ce que tu fais pour traiter, filtrer ces infos et utiliser des outils ou des informations qui sont vraiment utiles dans ton quotidien ?
Olivier Gobert : « Donc là je passe à côté de plein de choses, c'est certain, il y a beaucoup d'éléments sur lesquels je n'ai jamais pu me pencher dessus. De manière toute basique, moi je n'ai jamais utilisé MidJourney, alors que c'est l'outil de génération d'images par excellence. »
Julien Redelsperger : « Pardon Olivier de t'interrompre, pourquoi tu n'as jamais utilisé MidJourney ? Je suis très curieux. »
Olivier Gobert : « Parce que je n'en ai jamais besoin en fait. Et c'est ça la finalité, c'est que les nouveaux outils deviennent intéressants à partir du moment où le besoin devient réel et se fait sentir. Et moi je me suis intéressé à Suno parce que j'avais besoin de faire des musiques, je me suis intéressé à ChatGPT parce que j'avais besoin d'écrire des textes. Et je me suis intéressé à Krea, non pas pour la génération d'images à la base, mais pour une fonction d'amélioration des images qui s'appelle la fonction NNance, qui te permet d'humaniser, si je puis dire, des images GIA. Et ça c'est vraiment bluffant. Et en fait, en poussant les choses, je me suis rendu compte que cet outil permettait également d'améliorer des images réelles. C'est-à-dire que je prenais une photo réelle et je la repasse à l'intérieur de cet outil, et l'image qui vient de ressortir va être une image générée du coup, qui a des modifications assez substantielles, mais qui va être plus belle. Ça va être sur des choses par exemple basiques, mais simplement les ongles de la main, si il y a une photo sur la photo, la personne a des... enfin, on voit sa main, il va me faire ressortir des ongles qui vont être d'une forme parfaite. Et effectivement, dans un contexte cube, ça peut être quelque chose de très utile. Et du coup, je me suis mis à m'intéresser à faire utiliser ça, parce que ça devenait hyper pertinent. Et là, aujourd'hui, moi j'ai des outils qui répondent à à peu près toutes les cases dont j'ai eu besoin, il y a la suite Adobe pour le traitement des images, et enfin toute la base, JPT pour le texte, et puis également pour les images avec David, Suno pour la musique, et Krea qui va faire la même chose que ce que m'a proposé Midjourney et Renoué, mais pas avec les mêmes rendus forcément, mais en tout cas j'ai déjà eu le besoin express d'aller sur Midjourney. Et donc peut-être qu'un jour j'y viendrai, parce qu'en plus je vois bien ce qui passe, je vois bien que le rendu est meilleur sur Midjourney. Mais jusque là, je n'ai pas eu de chose où je me suis dit "Ah ça, j'en ai absolument besoin, il faut que j'y passe", donc je suis là tout simplement. »
Julien Redelsperger : « Et pour revenir sur le sujet de la veille technologique, de toutes les infos, est-ce que tu as du temps pour lire, te renseigner, explorer les nouvelles fonctionnalités des outils, etc.? »
Olivier Gobert : « Je dis justement, c'est là que j'allais en venir, c'est que la veille technologique se fait à partir du moment où le besoin devient réel. Et c'est de la même manière que sur les évolutions technologiques sur un point de vue hardware, je ne vais pas m'intéresser à ce que sort Sony au niveau de ses caméras, dans la mesure où je bosse sur Canon, sauf vraiment de manière très très rare, parce que j'ai envie de suivre un petit peu et de voir si telle ou telle marque devient meilleure que l'autre, mais ce n'est pas la finalité en première. Et donc au niveau de l'IA, ça va être la même chose, je vais m'intéresser considérablement aux évolutions et à tout ce qui change, à partir du moment où ça correspond à un de mes besoins. Et donc quand je me dis "Tiens, j'aimerais bien qu'on puisse faire ça", basiquement par exemple il y a un mois ou deux, je me disais "Ah, ce serait quand même bien si on pouvait trouver le moyen de mixer le son automatiquement pour avoir un son qui est plus présent sur les vidéos, tout en prenant en compte la musique et la voix quand on fait des interviews". Et puis on s'est mis à chercher des logiciels IA qui sait du mixage son, on a trouvé des choses qui étaient plutôt pas mal, mais par contre pas encore à un niveau suffisamment qualitatif pour que ça justifie de se passer d'un prestataire ce qu'il fait, parce que moi j'ai des gens qui mixent le son et qui mixent très bien, donc pour l'instant je n'ai pas encore mixé de mon son. En tout cas, c'est du besoin qui met la recherche. »
Julien Redelsperger : « D'accord, ok. Est-ce que j'aimerais revenir un instant sur ton travail qui t'a un peu médiatisé ces dernières années sur le calendrier des pompiers de la Ville de Troyes. Alors si vous ne voyez pas du tout à quoi je fais référence, je vous invite à chercher sur Google "Olivier Gobert", je pense que vous allez le trouver assez facilement. Tu as fait plusieurs versions, dont la dernière s'est quand même beaucoup nourrie à base d'IA pour mettre en scène les pompiers dans des scènes un peu surréalistes. Ça a été quoi ton processus créatif et qu'est-ce qui t'a amené à faire ce choix ? »
Olivier Gobert : « Ce qui m'a amené à faire ce choix, c'est que l'année dernière on avait fait une série avec des super-héros et des princesses qui avaient plutôt bien marché, puisque pour l'anecdote, je sais qu'on en a vendu jusqu'au Québec. Il y a eu une résonance qui a été extrêmement importante. Cette année, il fallait faire une nouvelle série et moi je ne voulais pas refaire la même chose qu'on avait fait avant, je voulais quand même faire quelque chose qui allait un peu sortir du lot pour ne pas faire un flop par rapport à l'année précédente. Donc ça a peut-être un petit peu moins marché, mais en tout cas il y a eu un assez gros succès puisqu'on avait parlé même jusqu'à France Inter, donc j'étais assez content là-dessus. Le Parisien, je crois, on a parlé aussi, il y a eu France 3, il y a eu plein d'articles dans plein de presse, même je crois que j'avais eu Télé 7 jours ou des choses comme ça, c'était déconnant. En fait, le processus créatif, c'est qu'au début je voulais faire... Je me suis dit, la cible qui marche bien c'est les enfants, c'est normal, c'est eux les plus sceptiques, les plus intéressés par les calendriers. On voulait sortir de l'image du calendrier de pompiers classiques avec les incendies, les accidents, tout ça, parce que ce n'est pas très chouette. Donc comme on avait fait des princes et des princesses, c'est assez basiquement, je me suis dit, autant que les pompiers interviennent pour sauver des jouets. Et la première réflexion a été de mettre en œuvre des jouets qu'on avait à droite à gauche, avec des photos qui auraient pu être faites en conditions réelles dans des chambres d'enfants. Le problème, c'est que ça impliquait finalement de rendre les pompiers tout petits par rapport à un environnement gigantesque, et je n'aimais pas beaucoup l'image que ça renvoyait. Je ne sais pas si tu vois ce que je veux dire, c'est-à-dire que si on intègre les pompiers dans un environnement, enfin dans des vrais jouets, le pompier devient un pompier miniature. Et pas l'inverse. Et du coup, je n'aimais pas trop cette image-là, je trouvais que ça ne marchait pas. Puis là, on est venu à se dire, ce qu'il faut qu'on fasse, c'est qu'on fasse des jouets de grande dimension pour transposer les pompiers à l'intérieur. Et là, ça, c'est la seule solution qui m'est venue, et qui restait dans un budget pas déconnant, c'était de générer des images par AI. Donc on a échangé avec les pompiers pour voir quels étaient les différents métiers qu'ils pouvaient avoir dans leurs activités. Et donc, dans le processus créatif, c'était quelque chose d'assez... Enfin, une démarche assez inverse, puisqu'en fait, on a d'abord généré les images par AI, en prévoyant des images qui pourraient permettre d'intégrer les pompiers. Donc en fait, il y avait déjà la recherche de prompts avec ChatGPT. La génération des images, en l'occurrence, en était passée à l'époque par DALEE et par Firefly. Et pourtant, je suis repassé dessus avec Krea justement par la fonction AI, ce qui leur a donné un peu plus de cachet. On a d'abord généré les images, ensuite on les a modifiées avec Photoshop pour agrandir certaines zones, pour effacer certains éléments, tout ça, pour permettre d'intégrer les pompiers. Et après, on a refait les photos sur fond vert dans leur caserne, en reproduisant systématiquement la lumière de la photo de base. C'est une analyse technique assez importante de la chose, pour qu'on puisse, une fois détouré, réintégrer les personnages dans les environnements. Et je pense qu'au final, ça marche pas trop mal. »
Julien Redelsperger : « D'accord. Alors pour donner quelques exemples, on a des photos où on a des pompiers sur un bateau qui vont sauver dans une grande baignoire, en tout cas un bateau en forme de jouet. On a des pompiers qui viennent soigner une poupée qui est tombée d'un cheval en bois, qui viennent désincarcérer deux voitures en forme de jouet qui sont rentrées dedans, ou qui viennent encore tenter de récupérer, capturer une licorne. On est quand même sur un imaginaire qui est assez fantastique. C'est à quel point ça a été long et compliqué à mettre en musique ces images, à partir du moment où tu as eu l'idée. Je veux dire, il faut rentrer dans la pratique, il faut mettre un peu les mains dans le cambouis. Ça doit pas être simple, non ? »
Olivier Gobert : « Ouais, c'est marrant parce que tu es le premier à poser cette question, parce que tout le monde a cru que c'était facile. Non, non, non, non, non, non. Donc ouais, ça a été assez compliqué parce qu'en fait, déjà, il a fallu trouver les idées. Donc ça, il y en a certaines qui nous ont semblé assez évidentes, qui m'ont semblé assez évidentes, notamment le bateau et la baignoire, ou le dragon cracheur de feu. Ça, c'était assez évident. Il y en a d'autres sur lesquelles on s'échait beaucoup plus. Genre, j'avais pas trop d'idées, par exemple, avec le bonhomme radioactif, le mobile, ou des choses comme ça. Mais ça, ça a été la première étape. Et la deuxième étape a été, effectivement, de générer les images. Donc il a fallu trouver les bons promptes pour qu'on se retrouve avec des images qui nous permettaient d'avoir des focales comprises entre 24 et 35 mm. Alors ça, autrement dit, c'est parce que je voulais absolument des photos prises au grand angle pour aller les intégrer dedans. Et donc, c'était pas évident d'avoir un point de vue qui était assez favorable à la prise de vue au sol. Comme on était sur de la recherche basée sur des jouets, il y avait tendance à faire des photos qui étaient toujours prises par au-dessus, comme si on était vu d'un adulte dans une chambre d'enfant. Donc, il a fallu vraiment réfléchir à la formulation des phrases pour que les photos soient prises tout le temps le plus bas possible au ras du sol, pour qu'on arrive à s'intégrer là-dedans. Je pense qu'on a bien passé 3-4 jours à générer des images jusqu'à ce qu'on obtienne une série qui nous convenait bien. Après, on a défini les QLCT, on les a, comme je te disais, remodifiées dans Photoshop. Après, il y a eu une journée de prise de vue, puis après, le post-traitement pour intégrer tout ça. Donc, il y a eu le détourage, puis l'intégration. Ça a dû prendre un jour, un mois et demi de boulot sur les 10 images. Donc, il y a un peu de taf quand même. »
Julien Redelsperger : « J'imagine bien. Tu parlais du prompt à l'instant, c'est intéressant. Donc, le prompt, je répète, c'est juste donner des instructions à un outil d'intelligence artificielle. Est-ce que selon toi, ça va devenir la nouvelle compétence indispensable pour les photographes ? Est-ce que tu aurais quelques conseils, peut-être, pour savoir bien parler à une IA, à partir de l'expérience que tu as eue avec notamment le calendrier des pompiers ? »
Olivier Gobert : « Prompté, compétence, j'ai du mal avec ça. Puisque, par définition, le prop de l'IA, c'est d'avoir une compréhension du langage naturel. Le langage naturel, ce n'est pas prompté, c'est juste s'exprimer correctement dans un français correct ou dans un anglais correct selon le langue dans laquelle on est. Donc, après, je ne me promets pas de prompter quoi que ce soit. Je formule les choses comme je les pense et de la manière la plus précise possible. Après, je sais qu'il y a différentes capacités de compréhension des IA selon les applications qu'on peut utiliser. Indéniablement, ChatGPT est au-dessus de tout par rapport au reste. Les autres ont quand même plus de mal à comprendre le langage naturel, ou en tout cas, ils l'interprètent d'une manière qui est moins bonne. Donc, moi, dans mon mode de fonctionnement, dès que j'ai besoin de générer une image, je passe systématiquement par ChatGPT pour générer la prompté. Je lui explique l'image telle que je l'entends. En général, il va soit me proposer, enfin, quelquefois, il ne comprend pas bien les choses, même quand je lui demande de générer la prompte, quelquefois, il va me générer l'image directement. Soit il génère quelque chose qui correspond à mon idée, et dans ce cas-là, je lui demande de me donner le prompt et je vais le recopier dans les autres applications. Soit, il ne sait pas exactement, et dans ce cas-là, je vais être plus précis pour lui demander ce qui... pour qu'il retouche les parties qui ne me conviennent pas, jusqu'à obtenir un résultat qui me semble favorable. Mais quoi qu'il en soit, la seule chose qui est très importante, finalement, c'est d'être le plus clair et le plus précis possible. Il n'y a pas de place à l'interprétation dans l'écriture. Un peu, finalement, à la manière d'un scénario, quand on écrit un scénario de film, et ça, ça a toujours été un point qui était assez notable, on ne marque pas, par exemple, "Pierre pense qu'il a envie de manger". À l'image, c'est infransposable, ça. C'est-à-dire que le texte doit être très explicite sur comment on montre que Pierre a envie de manger. Eh bien, dans la génération d'images, c'est la même chose, en fait. On ne marque pas d'éléments sujet à interprétation. On doit être extrêmement explicite sur si Pierre a envie de manger. Si Pierre efface un gâteau, il a un grand sourire et il se lèche les babines. C'est beaucoup, beaucoup plus explicite, en fait. Et on comprend la même... Enfin, l'intention est la même. Et donc, dans la démarche de rédaction d'un prompt, la chose qui est très importante, c'est de réussir à faire abstraction d'éléments sujet à interprétation et d'être le plus clair et le moins imagiqué possible au niveau de l'expression écrite.
Julien Redelsperger : « J'ai tendance à dire que pour bien prompter, c'est un peu comme si tu parlais à un enfant. Il faut vraiment donner des détails, être précis, prendre son temps. C'est un peu ce que tu ressens ? »
Olivier Gobert : « Oui, complètement. Parce qu'en plus, j'ai une fille qui a 7 ans, qui arrive enfin à l'âge de raison. Mais effectivement, c'est complètement ça. Les logiciels d'IA sont assez peu capables de comprendre... Pour le coup, l'IA n'a pas d'imaginaire. Et donc, si tu ne laisses pas une certaine forme d'interprétation, ça ne va pas marcher. Donc, oui, tu as tout à faire raison. C'est pertinent. »
Julien Redelsperger : « Tu parlais tout à l'heure des banques d'images et hasard du calendrier, au moins quelques jours avant qu'on enregistre cet épisode. On a eu une annonce importante qui était la fusion des banques d'images de Shutterstock et de Getty pour un nouvel ensemble valorisé de plus de 3 milliards de dollars, 3,7 milliards de dollars, c'est un truc énorme. Donc, une nouvelle fusion dans ce domaine. Ça me fait penser à une question que j'aimerais te poser sur le futur des banques d'images et des banques de son. Ça va ressembler à quoi alors qu'il n'a jamais été aussi facile de générer des images avec des outils d'intelligence artificielle ? Est-ce qu'elles sont mortes ? Ou est-ce qu'au contraire, elles vont se réinventer, ces banques d'images ? »
Olivier Gobert : « Alors, moi, je suis plutôt d'un naturel assez pessimiste et j'ai tendance à penser qu'elles n'ont absolument pas la moindre chance de survivre à cette révolution. Peut-être qu'après, elles vont trouver d'autres moyens économiques. Mais en tout cas, moi, j'ai des abonnements, notamment chez Premium Beat ou des choses comme ça, qui déjà a revu considérablement son modèle économique, puisque Premium Beat, tu devais jusque-là payer une licence par musique. Maintenant, tu payes un abonnement à l'année pour avoir droit à un certain nombre de musiques. Ce qui fait qu'au final, c'est beaucoup moins cher quand on fait beaucoup. Et ça, ce n'est pas un hasard s'ils ont tourné leur veste comme ça, alors que ça, c'est 10 ans de Premium Beat, tu payes des licences à 50 ou 200 euros selon le visage quand tu peux danser jusque-là. Aujourd'hui, comme je te disais sur l'aspect musique, par exemple, Suno propose des choses qui sont largement aussi bien que ce qu'il y a sur les musiques de banque de son, à l'exception près des musiques type jingle. C'est-à-dire que Suno n'est pas très doué pour faire des musiques de 10, 15, 20 secondes, parce qu'il a tendance à faire une boucle qui va être toujours la même. Mais dès qu'on est sur des choses un peu plus longues, c'est aussi pertinent. Aujourd'hui, je sais qu'au moins la moitié des cannes, on a recours à des musiques qui arment, plus que des musiques de banque de son pour les projets de clients, ou alors encore, comme je te disais, des compositeurs, parce que quand on a besoin de choses vraiment très qualitatives, la musique doit avoir un impact majeur entre l'image et le son, et là, je fais encore appel à des compositeurs, mais autrement, c'est rare. Et dans la même logique, je vois aujourd'hui les clients qui... Alors moi, je ne suis pas sujet à ça, parce que je n'en achète pas, mais les clients achetés des images de stock pour leur communication, pour leur site web, pour leur fly ou des choses comme ça, finalement, ils cherchaient quelque chose d'assez impersonnel qui pouvait convenir à tout le monde, de relativement qualitatif pour ne pas payer de photographe. Aujourd'hui, tu tapes un prompt et tu as un truc qui est cohérent par rapport à ta propre boîte. Quoi ils iraient faire autrement, en fait ? Et je vois toutes les boîtes que je connais qui avaient recours à des banques d'images, c'est déjà fini, en fait. Les banques de son et les banques d'images sont un domaine qui ont fait extrêmement mal à l'activité des compositeurs et des photographes il y a une quatrième année, bien plus finalement que l'immigration de l'argent antico-numérique, qui était juste une transition à suivre, mais pas dramatique. Et c'est un sacré retrou de bâton. Donc, ce n'est pas si mal.
Julien Redelsperger : « Bien sûr. Ok, parfait. Merci beaucoup, Olivier. Peut-être une dernière question sur ton activité. Est-ce que l'impact de l'IA, selon toi, a affecté un peu le marché du travail des photographes et des vidéastes ? Est-ce que tes tarifs ont baissé, par exemple ? Est-ce que les clients négocient plus ? Est-ce que dans ton réseau personnel, professionnel, tu vois des photographes ou des vidéastes qui galèrent plus qu'avant ? »
Olivier Gobert : « Est-ce que mes tarifs ont baissé ? Non, bien évidemment. Est-ce que ça a eu un impact jusque là ? Je n'ai pas remarqué. Peut-être que j'aurais eu plus de boulot s'il n'y avait pas eu de l'IA. En tout cas, je n'ai pas remarqué une baisse d'activité, à propos de comment parler. Je pense que les graphistes, pour le coup, ont été beaucoup plus impactés. Je ne vois énormément passé de "fly" ou autre avec des compositions graphiques totalement faites par l'IA. Ça finira par avoir un impact, c'est sûr. Et pour moi, notamment, dans notre type d'activité, je pense que ça ne sert pas à tant que ça, parce qu'on est quand même vraiment dans une activité qui prône le réel, avec des tournages où on met en avant les salariés des entreprises, les locaux des entreprises, le territoire ou le patrimoine touristique d'un lieu ou des choses comme ça. Par exemple, j'avais vu l'année dernière, une des institutions touristiques troyennes qui avait généré une affiche pour un concours photo de promotion touristique basé sur l'IA. Je trouve que ça, ça n'avait pas de sens. Et je pense qu'assez peu de clients iront prendre le risque. Après, par contre, parce que c'est au final une image qui est biaisée de la réalité, et ce n'est pas forcément très pertinent. Après, par contre, on a, par exemple, beaucoup de photos de produits. Aujourd'hui, ces photos de produits, elles sont très largement retouchées, détourées. Elles ont besoin de ressembler le plus possible à la réalité. On a un peu peur qu'au bout d'un moment, ce type d'activité devienne une photo smartphone balancée dans un logiciel d'IA et qu'il va le refaire en quelques secondes de manière ultra qualitative et ultra efficace. Mieux que non, on pourra le faire. Je pense qu'à terme, effectivement, il y a certains plans d'activité qui pourront en pâtir, notamment tout ce qui est images publicitaires sans que l'ancrage territorial ou réel soit vraiment majeur. Mais oui, ça va forcément avoir un impact. En tout cas, pour nous, pour l'instant, ce n'est pas mesurable et ce n'est pas notable. »
Julien Redelsperger : « D'accord. Photographe, est-ce que c'est toujours un métier d'avenir ? Et quels conseils tu donnerais aux jeunes ou moins jeunes, d'ailleurs, qui souhaiteraient débuter ou se reconvertir dans la photographie ou la vidéo ? Alors, est-ce que c'est un métier d'avenir ?
Olivier Gobert : « Oui, bien évidemment, il y aura toujours besoin de photos, il y aura toujours des besoins de vidéos, même si c'est un métier qui est quand même déjà très, très, très occupé. Il y a beaucoup de gens, mais en même temps, il y a 10 ans, c'était déjà le cas et je suis encore là. Donc, il n'y a pas de raison que quelqu'un n'arrive pas à prendre sa place. Par contre, je pense qu'il ne faut surtout pas négliger la technique, comprendre les outils, y compris l'IA. Et ça fait partie, c'est une partie intégrale du métier. Et il faut absolument développer une vision artistique unique, c'est ça que je fais la différence à long terme. »
Julien Redelsperger : « D'accord, parfait, trouver sa niche, trouver son marché finalement et se développer. Ok, super, écoute, merci beaucoup Olivier. Alors, à la fin de chaque épisode, l'invité du jour doit répondre à une question posée par l'invité précédent. En attendant d'écouter la tienne, je vais te laisser écouter celle de Bertrand Misonne, qui est chercheur en intelligence artificielle et écrivain. On écoute sa question. »
Bertrand Misonne : « C'est à propos du moment où ça va partir vraiment en vrille avec l'IA. À quel moment est-ce qu'on va se rendre compte qu'on est allé trop loin ? Et donc, comment décririez-vous la situation dans laquelle l'humanité se trouvera au moment où elle dira « Ah oui, là, on est quand même allé trop loin avec l'IA ».
Olivier Gobert : « Il y a plusieurs points sur lesquels je suis assez d'accord avec ce monsieur. Le premier est qu'l'IA consomme des quantités d'énergie absolument astronomiques et que ce n'est absolument pas négligeable. Et quand tu vois certaines tournures climatiques ces derniers temps, notamment avec ce qui se passe à Los Angeles ou ce qui s'est passé à Mayotte, qui sont des conséquences directes du réchauffement climatique, même si certains font semblant que ce n'est pas le cas, il y a quand même un besoin de se raisonner. De la même manière, aujourd'hui, l'IA a quand même une très sérieuse vocation à détruire une bonne partie des activités, de création intellectuelle humaine, des professions intellectuelles, ce qui était quand même un des passions protégées de l'activité économique mondiale. Et c'est très, très, très, très, très rassurant sur le sujet, parce que l'économie ne pourra pas tourner avec des machines qui font tout le travail et des gens qui s'en épousent sur la canapé. Au bout d'un moment, il va falloir produire quelque chose. Donc, là-dessus, il y a un problème. Après, est-ce qu'il y a peut-être besoin, effectivement, de modérer les choses et de contrôler un peu plus ce qui peut sortir ? Parce que, notamment au niveau de la désinformation, je parle sur plein de sujets, mais notamment au niveau de la désinformation, clairement l'IA peut réorienter complètement les positions politiques à droite et à gauche. Et le cas de KroK avec GroK, c'est ça ? GroK, ouais. GroK avec une machine de désinformation absolument phénoménale. Je le comprends sur le fait qu'effectivement, il y a quand même plein de signaux qui sont un peu inquiétants. Après, est-ce que l'IA va prendre le contrôle du monde comme on peut l'avoir dans des films comme I Robot ? Je n'y crois pas des masses. Je pense que ça reste… Terminator, ce n'est pas pour maintenant. Parce que l'IA ne fait finalement que régurgiter les choses qu'on lui a données. Et je n'ai pas l'impression, dans les interactions que j'ai pu avoir avec Chats et Pt, d'avoir affaire à quelqu'un, puisque ce n'est pas quelqu'un, en fait on sent vraiment que c'est quelque chose, et que ce quelque chose ne prendra jamais partie sur rien, à la condition que certains garde-fous soient posés. Donc comment savoir si ça va prendre une bonne ou une mauvaise tournure ? Finalement, c'est peut-être dans la régulation, mais dans la régulation, ça veut dire laisser certains pays faire tout et n'importe quoi et en profiter allègrement, ou au contraire, se fermer et réguler les choses. Enfin, ça avance ce sujet, mais ce n'est pas simple. Et je pense qu'on ne peut pas l'ignorer aujourd'hui. On ne peut pas ignorer l'IA aujourd'hui. On ne peut pas se dire qu'il y a une quelconque forme de danger, donc on ne fait rien et pendant ce temps-là, les États-Unis font tout. »
Julien Redelsperger : « Ok, parfait. Très bien. Merci Olivier. Alors à toi à présent, quelles questions aimerais-tu poser au prochain invité ? »
Olivier Gobert : « C'est marrant parce que tu vois, ça fait presque un lien. Ma question est, penses-tu qu'il est important de réfléchir à l'éthique dans l'utilisation de l'IA ? Si oui, où faut-il fixer les limites entre progrès et responsabilité ? »
Julien Redelsperger : « Effectivement, on n'en est pas très loin, on voit qu'il y a un lien. Merci beaucoup de ta participation. Olivier Gobert, je rappelle que tu es photographe et vidéaste. Merci d'avoir participé à ce podcast. Merci à toi, Julien. »
Cette transcription a été réalisée par un outil d'intelligence artificielle. Elle n'est peut-être pas 100% fidèle au contenu d'origine et peut contenir des erreurs et approximations.