Ce que l’IA dit de nous (et qu’on préfère ignorer)
Comment l’intelligence artificielle façonne-t-elle vos choix sans que vous le réalisiez ? Dans cet épisode, nous accueillons Laura Sibony, autrice, formatrice et enseignante, pour explorer les facettes invisibles et souvent méconnues de l’IA. Vous découvrirez comment cette technologie agit comme un miroir, reflétant à la fois nos forces, nos biais et nos paradoxes. Laura nous explique pourquoi l’IA ne se limite pas à ses prouesses techniques et comment elle influence vos décisions quotidiennes, parfois à votre insu. Nous abordons également des questions cruciales : l’impact écologique de ces technologies, les enjeux éthiques liés à la collecte et l’utilisation des données, et ce que l’IA dit de nos sociétés modernes. À travers des exemples concrets et des réflexions profondes, Laura vous invite à porter un regard neuf sur l’intelligence artificielle et sur son rôle dans votre vie. Un épisode essentiel pour comprendre ce que l’IA révèle sur vous… et sur ce que vous préférez ignorer.

Diplômée de Sciences Po, de la Sorbonne et d’HEC, Laura Sibony a travaillé pour Google Arts & Culture, avant d'enseigner les bases de l'intelligence artificielle, à HEC et en entreprise. Elle est notamment l’autrice de L'École de la Parole (Hachette, 2020) et de Bien parler en public (Marabout, 2022). Fantasia est son premier ouvrage sur l’intelligence artificielle.

Laura Sibony
Autrice, conférencière, formatrice et enseignante
Julien Redelsperger : « Ravi de t'avoir à mes côtés aujourd'hui. Alors, première question pour toi Laura, à ton avis aujourd'hui, pourquoi est-ce que c'est un bon moment pour s'intéresser à l'intelligence artificielle ? »
Laura Sibony : « Déjà parce que tout le monde en parle. Et c'est surtout cette appropriation de l'intelligence artificielle qui la rend intéressante. C'est le fait qu'on en parle dans des milieux tellement différents, dans des secteurs tellement variés, qui fait qu'il y a énormément de facettes à l'intelligence artificielle et qu'on discute beaucoup plus ces enjeux. On ne la voit plus uniquement sous l'aspect technique, mais on voit beaucoup plus les enjeux écologiques, géopolitiques, les enjeux même philosophiques qu'elles portent. Et donc pour moi, c'est le meilleur moment pour s'intéresser à l'intelligence artificielle dans toute sa diversité, ou même pour mieux dire, aux intelligences artificielles. »
Julien Redelsperger : « Mais c'est ça, parce que pourtant l'IA ça existe depuis 50, 60 ans, Turing travaillait déjà dessus il y a très longtemps. Et pourtant aujourd'hui, on en parle de plus en plus. C'est quoi ? C'est l'effet de chat GPT ? Les derniers progrès technologiques qui ont amené à la démocratisation de l'IA générative ? »
Laura Sibony : « Oui, et puis j'ai l'impression aussi, le fait qu'on ait lâché cette idée qu'il faudrait avoir des définitions strictes et qu'on voit plus les enjeux que porte l'IA au-delà de la technique. C'est-à-dire au-delà des technologies d'intelligence artificielle, on voit plus ce qu'une nouvelle approche de l'informatique, qui va plus se baser sur les données, change aujourd'hui dans le monde, en fait dans le monde et dans tous ces secteurs variés. Donc il y a évidemment une part technique, il y a l'augmentation des capacités de stockage de la donnée, de la production de la donnée, des capacités de calcul, qui permet de mieux s'approprier l'intelligence artificielle, mais il y a aussi que ces usages se généralisent, se démocratisent et qu'on se rend mieux compte de ce que ça change dans l'ensemble du monde.
Julien Redelsperger : « D'accord, mais alors c'est quoi pour toi l'IA ? Est-ce que c'est un sujet techno ? Est-ce que c'est un sujet scientifique, sociétal, philosophique peut-être ? De quoi on parle quand on parle d'IA et notamment quand on n'a pas un cursus d'ingénieur ou de développeur ? »
Laura Sibony : « Je n'ai pas un cursus d'ingénieur et de développeur, et justement moi si je me suis intéressée à l'intelligence artificielle, c'est parce que je travaillais sur la recommandation littéraire. Je cherchais ce qui fait que quelqu'un va aimer un livre alors qu'il ne l'a pas encore lu. Comment est-ce qu'on sait qu'une personne en particulier, un individu, va apprécier un livre lui aussi individuel ? Il y avait des moyens qui existaient, mais j'ai découvert le matching par similarité. Comment est-ce qu'en cherchant les patterns, les motifs de similarité dans une base de données, on pouvait faire le lien entre un profil et une base de données et que ces données, elles en disaient beaucoup sur nous. Que des données, ce n'était pas quelque chose d'abstrait, mais c'était en l'occurrence des livres, ça pouvait être des thématiques, les données, ça peut être notre visage, notre voix, ça peut être nos préférences. Ce sont des choses finalement très concrètes, ces données. Et donc lorsqu'on parle de la manière de gérer et d'organiser la donnée, on parle d'un reflet de l'ensemble du monde. Et aujourd'hui, si on voit l'IA uniquement sous l'angle technique, comment ça fonctionne, on oublie que ces données en révèlent beaucoup plus qu'une série de chiffres. Elles en révèlent très long sur qui on est, ce qu'on aimerait faire, mais ça ne va évidemment pas s'oublier dans la collecte et dans l'interprétation de ces données. Donc pour moi, non, c'est clairement pas uniquement l'intelligence artificielle ne se limite pas à son aspect technique, et c'est même dangereux et naïf de chercher uniquement le comment, sans se préoccuper de ce que signifient ces données et de la manière dont elles sont gérées, collectées, par qui, quelle est leur valeur, comment est-ce qu'on leur rend de la valeur. D'accord. Alors en préparant cette émission, tu me disais que l'IA nous affecte tous, même si on ne s'y intéresse pas particulièrement. Ça veut dire que monsieur et madame tout le monde, même s'ils n'ont pas forcément une grande connaissance en matière d'IA, ils sont concernés. »
Julien Redelsperger : « Qu'est-ce que tu veux dire exactement ? C'est quoi ? Elle est inévitable, elle est partout autour de nous, c'est ça ? »
Laura Sibony : « Ça a l'air très effrayant dit comme ça, mais je pense qu'on fait de l'IA sans le savoir la plupart du temps. L'exemple que j'aime beaucoup donner, c'est celui de ma grand-mère, parce qu'elle n'en revient toujours pas. Ma grand-mère utilise à peine son portable, déjà parce qu'elle a des faux-ongles qui l'empêchent de taper sur les touches. Elle n'utilise pas du tout l'ordinateur, elle n'a pas d'adresse mail, enfin elle en a une mais elle n'est pas au courant parce que c'est pour pouvoir commander les taxis. Donc elle pense être très éloignée de l'informatique. Sauf qu'elle tient toutes ces informations de ma tante, qui passe sa vie sur Facebook, donc qui reçoit une information, des contenus qui sont optimisés, qui sont curatés, c'est-à-dire sélectionnés en fonction de ses préférences, en fonction de ses centres d'intérêt, des centres d'intérêt de son réseau d'amis. Et donc ça influence évidemment ma grand-mère. J'ai, pour le dire rapidement, une grand-mère qui est en train de devenir complotiste à cause en grande partie de l'intelligence artificielle et surtout des effets sociaux, des bulles de filtre que l'intelligence artificielle n'a pas créé mais va rendre beaucoup plus efficace et donc va s'en même s'en rendre compte. Donc oui, l'intelligence artificielle aujourd'hui a des effets qui nous concernent tous et qui sont le plus souvent invisibles. Et je pense que ça c'est un défaut très contemporain d'assimiler l'intelligence artificielle à ChatGPT, d'assimiler aux intelligences artificielles génératives. Bien sûr, c'est plus impressionnant, c'est plus concret, c'est visible. Quand on est sur ChatGPT, on sait qu'on utilise un modèle de langage, qu'on utilise de l'intelligence artificielle. Mais l'intelligence artificielle, c'est aussi ce qui va nous éviter d'être noyés sous les spams, c'est aussi ce qui va sécuriser notre compte bancaire, c'est aussi ce qui va optimiser l'imagerie médicale et c'est ce qui détermine en grande partie l'information qu'on voit sur les réseaux sociaux et donc cette information à partir de laquelle on se crée nos opinions. »
Julien Redelsperger : « Et est-ce que tu penses, si on prend vraiment de la hauteur, est-ce que pour toi l'IA, ça peut être même un enjeu géopolitique, c'est-à-dire selon les avancées de certains pays ou de la technologie, elle peut bouleverser un peu les équilibres du monde ? Aujourd'hui quand on parle de l'IA, clairement les États-Unis, l'Amérique du Nord, c'est vraiment le gros pôle de recherche et de déploiement et de développement. En Chine, aussi évidemment. L'Europe, où est-ce qu'elle se place un peu dans cet équilibre ? Et toi, quelle est ta vision de ces grands rapports de force qui sont liés à la techno et qui sont liés à l'IA ? »
Laura Sibony : « Ça c'est une question extrêmement large parce que la géopolitique recouvre beaucoup de choses. Si la question porte plus sur l'équilibre des puissances, là en effet on voit qu'il y a des zones géographiques qui commencent à se structurer, qui vont être pour certaines dans un écosystème fermé, qui ne vont pas utiliser les mêmes outils, qui ne vont pas collecter les données de la même manière, et qui ne vont pas réglementer de la même manière. Pour moi, la principale force géopolitique qui est modifiée par l'intelligence artificielle, c'est essentiellement le contrôle de la donnée. Parce que cette donnée, il n'y a pas d'intelligence artificielle utile et efficace sans une bonne gestion de la donnée. J'étais il y a deux mois environ dans un salon du livre, je me suis retrouvée à côté de José Bové. Et en fait on a été meilleurs potes pendant une après-midi, parce qu'on a le même combat. Lui son combat c'est les semences qui sont possédées par trois ou quatre grosses entreprises dans le monde, mais c'est à peu près les mêmes systèmes d'uniformisation et de monopole qui se créent autour de la donnée. Parce que ces données sur les préférences d'achat, sur les préférences de contenu, qui sont fournies en permanence lorsqu'on passe du temps par exemple sur les réseaux sociaux, elles sont collectées par une poignée d'entreprises dans le monde. Et quand on voit que 98% des revenus de Meta, donc le groupe qui possède Facebook, WhatsApp, Instagram, proviennent plus ou moins directement de la publicité, je trouve que c'est effrayant parce que c'est une perte de contrôle sur ces données, mais aussi sur notre identité et sur la valeur qu'on crée collectivement pour ces données. Bien sûr, lorsqu'on complète un captcha, on n'a pas l'impression de travailler. Pourtant, on fournit une information qui va permettre, en l'occurrence Google, de décrypter des numérisations du New York Times, et donc qui crée de la valeur. C'est une valeur qui est collective, parce que personnellement, ça serait des fractions de centimes, mais qui additionnée représente les revenus de… le chiffre d'affaires de Google cette année était équivalent au PIB de l'Algérie, qui représente des forces géopolitiques, des forces économiques qui sont majeures. Sur l'aspect géopolitique de l'intelligence artificielle, il y a beaucoup de choses à dire sur la course technologique, sur les réglementations qui vont varier aussi selon les zones géographiques, sur la recomposition de ces enjeux quand on se trouve face à des données qui ne connaissent pas de frontières, sur la difficulté de réguler le contenu, de réguler la propriété intellectuelle, de réguler l'accès à la pédopornographie, enfin de réguler énormément de sujets qui le sont déjà, mais de façon différente selon les pays, à l'heure où on peut utiliser des VPN et être physiquement dans un pays, mais virtuellement sur un serveur à l'étranger. Donc, il y a énormément de questions qui se posent, mais pour moi, la principale, c'est d'abord la valeur de ces données personnelles qui en disent très long sur nous et qui appartiennent, qui sont utilisées par une poignée d'entreprises dans la Silicon Valley.
Julien Redelsperger : « D'accord. Alors, comment est-ce que selon toi, la manière dont on parle de l'IA, ça peut influencer justement les choix technologiques ou les applications? Je m'explique, c'est que, comme je te disais, l'IA, ça fait très longtemps que ça existe, c'était dans les laboratoires de recherche, on a une couche d'IA invisible, etc. Pourtant, novembre 2022, boom, ChatGPT sort, d'un seul coup, tout le monde semble découvrir l'IA. Est-ce que finalement, ChatGPT n'a pas été un peu le meilleur storytelling en mettant dans les mains du grand public, un truc qui est facile à utiliser avec des cas d'usage très clairs? Et je m'interroge juste sur cette manière de se dire, comment est-ce qu'on raconte l'IA, qu'est-ce que ça dit de nous et qu'est-ce que ça raconte des applications qu'on peut faire de cette technologie? »
Laura Sibony : « ChatGPT, c'est un modèle de langage, et donc ça s'attaque au langage qui est le vecteur de la pensée. Donc, on va très facilement assimiler un langage à de la pensée. Et j'ai écrit sur l'intelligence artificielle, mais je me retrouve encore régulièrement à demander à ChatGPT, qu'est-ce que tu en penses? Je sais très bien que c'est un modèle de langage, que le rôle d'un modèle de langage, c'est de trouver des régularités statistiques dans une base de données pour pouvoir générer du texte. En plus, sur ChatGPT, il y a beaucoup de filtres qui vont après orienter la réponse que je recevrai. Malgré tout, c'est extrêmement tentant parce que c'est troublant d'utiliser comme données, non pas des données financières, météo, mais des données qui représentent, qui portent habituellement la pensée, c'est-à-dire les mots, le langage. Et donc, le grand coup de ChatGPT, ça a été de rendre déjà très accessible, de façon très intuitive, facile d'accès, simple, un modèle de langage, mais c'est surtout de s'être attaqué au langage. Et on le voit avec les générateurs d'images qui impressionnent beaucoup la première fois, mais qui très vite vont décevoir, soit parce qu'on n'en voit pas l'utilité immédiate, soit surtout parce que c'est plus difficile de modifier une image, alors que ChatGPT encourage l'interaction, et l'interaction au langage naturel. »
Julien Redelsperger : « C'est intéressant ce que tu dis par rapport aux générateurs d'images. C'est vrai que moi j'utilise par exemple Midjourney ou ChatGPT pour créer les miniatures de mon podcast. Et souvent quand on parle d'IA, on en est réduit à des représentations un peu simplistes, un peu robotiques, un peu futuristes. Mais c'est toujours difficile d'aller au-delà. Est-ce que c'est quelque chose que tu as travaillé, que tu as vu, et qu'est-ce que ça révèle surtout ? »
Laura Sibony : « Là, cette année, j'avais un séminaire à l'EPITA, une école d'ingénieurs qui s'appelait "IA et images". Et donc l'un des axes qu'on a étudié, c'est les représentations de l'intelligence artificielle. Donc j'avais donné des chapitres de mon livre aux étudiants, des chapitres de Fantasia, en leur demandant de l'illustrer. Et c'est là qu'on voyait la nécessité d'avoir une vraie direction artistique, une vraie vision artistique lorsqu'on prompte, c'est lorsqu'on envoie des requêtes à un générateur d'images. Parce que si on ne le prompte pas, si on n'a pas cette vision artistique derrière, les images sont très stéréotypées. L'intelligence artificielle, comme ça ne se voit pas, ça se représente par un androïd vaguement féminin. On ne comprend pas toujours l'intérêt d'avoir cette poitrine de métal, toujours très blanc, dans un code couleur qui… J'ai l'impression que dans les années 2000, on avait le codeur, le geek, qui codait sur fond noir avec des lettres vert fluo. Maintenant, on est passé aux lumières bleutées, roses. Il y a même une charte couleur, avec ces couleurs fluo, lumineuses, des représentations de l'intelligence artificielle, qui pour moi montre l'intérêt d'une vision artistique. Parce qu'en travaillant avec des petits exercices simples, avec du coaching, juste en réfléchissant à ce qu'on veut obtenir avant de le demander, en réfléchissant à cette direction artistique, on pouvait obtenir des choses beaucoup plus intéressantes. Sur IA et image, j'aurais énormément à dire. Je suis intervenue il y a quelque temps avec un expert en mémétique, qui s'intéressait à l'IA comme champ technosocial, sociotechnique, et qui cherchait à trouver la cohérence dans les représentations de l'intelligence artificielle et à trouver les points de bascule. Et tout ça à partir des mèmes sur l'intelligence artificielle, donc des images humoristiques produites autour de l'IA. C'était passionnant, et surtout de se rendre compte que ce qu'on voit aujourd'hui encore comme une nouveauté, parce qu'on pense à l'IA générative, alimente les mèmes et l'imaginaire depuis bien longtemps, sans pour autant renouveler l'imaginaire. On voit encore souvent des images qui viennent de Hall 2000, de Terminator, qui continuent de peupler notre imaginaire autour de l'intelligence artificielle.
Julien Redelsperger : « À quel rythme ça évolue justement ? Parce que là, on est parfois un peu sur les tendances de la science-fiction des années 80 à 90. À quel rythme est-ce que tu vois évoluer ces représentations symboliques ou artistiques de l'IA ou de la technologie ? »
Laura Sibony : « Je suis mal placée pour en parler. Là où je pourrais le mieux en parler, c'est surtout à travers les conférences que je donne, les interventions autour du livre, parce que je constate quand même une petite évolution des questions en un an autour de l'intelligence artificielle, où il me semble qu'il y a un an, les questions étaient beaucoup plus la curiosité. On cherchait, avec un esprit encore cartésien, qu'est-ce que l'intelligence artificielle ? Comment est-ce qu'on peut la définir ? Qu'est-ce que ça change ? On était beaucoup dans le « qu'est-ce que c'est ? » Quoi ? Et aujourd'hui, les questions vont justement plus porter sur des enjeux philosophiques, métaphysiques. J'ai vu que le Vatican, par exemple, avait des positions très nettes sur l'intelligence artificielle. C'était complètement approprié le sujet. Je ne sais pas si c'est un hasard, que l'un des premiers « deepfake » à avoir fait le tour du monde, c'était le pape en doudoune. Mais ça, par exemple, c'est deux univers, celui du catholicisme, de la religion, et celui de l'intelligence artificielle, que je n'aurais pas imaginé voir s'hybrider avec autant d'harmonie et aussi rapidement. Donc, j'ai l'impression, à partir des questions, surtout que j'entends aux conférences, qu'on voit aujourd'hui plus, il y a comme une interrogation fondamentale sur ce qu'est l'intelligence artificielle, est-ce qu'il y a une spécificité de l'homme, ce que ça dit sur nous en tant que société, sur l'humanité, sur les souhaits pour devenir meilleurs. Ça, c'est un débat que j'ai eu récemment, qui était organisé par Usbek et Rica. La question était, est-ce que l'IA nous rend meilleurs ? On était dans une question d'ordre tout à fait philosophique. Donc, j'ai l'impression que les représentations portent moins sur le quoi, donc sur une vision encore très technique d'une IA qu'on pourrait maîtriser. C'était l'époque, il y a un an, où on parlait encore du moratoire sur l'intelligence artificielle, où on parlait encore de débrancher l'intelligence artificielle. Je pense que maintenant, on a compris que l'IA, ça ne se débranchait pas, que c'était un ensemble très varié de technologies qui touchait à beaucoup de secteurs, et que c'était surtout un questionnement, donc une évolution et un questionnement dans des domaines très variés, depuis la médecine jusqu'à la créativité. »
Julien Redelsperger : « D'accord. En tant qu'observatrice attentive de l'IA, est-ce que tu es à l'aise avec le terme "intelligence" ? "Intelligence artificielle", est-ce que l'IA est intelligente ? »
Laura Sibony : « Je pense que si on pose la question en français, c'est aussi que le terme vient d'une confusion avec l'anglais. Lorsque le terme apparaît en syncopsis à la conférence de Darmans, à l'époque, on parle encore de mathématiques computationnelles, d'informatique computationnelle. La conférence de Darmans a réuni des statisticiens, des mathématiciens, des chercheurs en informatique. Il faut se rappeler qu'en 1956, l'informatique en est à ses balbutiements. Il fallait, pour avoir la capacité de stockage qu'on a aujourd'hui dans une clé USB, il fallait une immense machine. On a en tête l'image d'Enigma, plein de fils partout. Et donc, cette informatique balbutiante va s'adresser à la statistique, aux mathématiques, pour essayer de mieux comprendre les capacités cognitives de l'homme, la capacité à organiser l'information, à lui donner du sens, à pouvoir générer, c'était encore très loin à l'époque, mais comprendre les capacités cognitives de l'homme en les simulant sur des machines. Et pour l'anecdote, cette conférence de Dartmouth, ça a été la plus coûteuse de l'histoire lorsqu'on la rapporte au nombre de participants. Ça, ça veut dire déjà qu'ils avaient du super champagne et ensuite qu'il fallait des financements. Et donc, c'est là que les membres de la conférence se sont adressés à la fondation Rockefeller, parler d'informatique computationnelle, ce n'est pas très sexy. Et donc, on forgé le mot "artificial intelligence", qui représentait assez bien l'idéal de pouvoir imiter, externaliser hors du cerveau les capacités cognitives de l'homme. Ce qu'on fait déjà avec une calculatrice, quelque part, c'est mettre hors de son cerveau la capacité à calculer. De même qu'un robot externalise notre force musculaire, une calculatrice externalise notre capacité de calcul. Et donc, ce mot "artificial intelligence", il est utilisé au sens où on parle des "intelligence services" de James Bond, ce qu'on appellerait en France le renseignement. On parle d'intelligent design. Ce n'est pas dans le sens de "to be smart", "to be clever", ce n'est pas la transcendance de l'esprit humain. Sauf qu'en français, ça a été traduit par "intelligence", qui est très polysémique, qu'on ne sait pas bien définir, et donc qu'on assimile beaucoup plus à cette créativité spécifiquement humaine, d'où le paradoxe du terme d'une intelligence spécifiquement humaine, mais qui serait artificielle. Le mot est de toute façon beaucoup trop ancré dans le grand public, dans l'usage pour en changer, mais c'est bien de se rappeler qu'il vient d'abord de "intelligence", et non pas de l'intelligence au sens de la capacité à créer, à inventer, à ressentir, à émouvoir. »
Julien Redelsperger : « D'accord, intéressant. Est-ce que toute cette histoire t'a inspiré quand tu as écrit ce livre, je rappelle qu'il s'appelle "FantasIA", édité chez Grasset, qui est un recueil de contes et de légendes de l'intelligence artificielle. Comment t'est venue cette idée, et qu'est-ce qu'on trouve dans ce livre exactement ? »
Laura Sibony : « L'idée m'est venue surtout en enseignant, parce que j'ai rapidement commencé à enseigner l'intelligence artificielle par le biais des collections de Google art et culture. Google art et culture, c'est une petite équipe de Google qui a numérisé 8 millions d'œuvres à travers le monde, des chefs-d'œuvre, des peintures, des sculptures, des vitraux, qui a numérisé la naissance de Vénus, de Botticelli, le plafond de Chagall à l'Opéra de Paris. Et donc, je montrais comment l'intelligence artificielle pouvait organiser ces 8 millions d'œuvres, parce que 8 millions d'œuvres, pas très bon en calcul mental, mais même en en regardant plusieurs centaines par jour, il faudrait un petit bout de temps pour toutes les regarder. Donc, c'est important de pouvoir trouver un mécanisme de sélection, de curation. Donc, en explorant les différents mécanismes, c'est aussi un moyen de montrer les différentes formes d'apprentissage machine. Qu'est-ce que de l'apprentissage non-supervisé, où on va s'adresser aux données brutes ? Qu'est-ce que de l'apprentissage supervisé, où cette fois on va classer les données par label, donc par ce qu'on sait sur les données, mais qui ne font pas directement partie du contenu. Là, ça a l'air très abstrait. Lorsqu'on le voit, lorsque la donnée en question, ce n'est pas juste un ensemble de pixels, mais c'est la naissance de Vénus par Botticelli, on comprend beaucoup mieux ce qu'est le non-supervisé, ce qu'est le supervisé, ce que sont les différents concepts de l'intelligence artificielle. Donc, je me suis rendu compte de l'importance de raconter, de montrer cette intelligence artificielle, de montrer aussi ce que ça n'est pas, de dégonfler la baudruche par moments, de montrer les promesses qu'elle fait, mais aussi celles qu'elle ne pourra jamais tenir, à travers des histoires, des brèves, des dialogues. Et c'est... Une dialogue, c'était une forme qui était très courante dans l'Antiquité. On pense aux dialogues platoniciens, qui ont maintenant 25 siècles et qui nous parlent encore aujourd'hui. Et donc, c'était une forme qui était très courante et qui permet d'explorer les différentes facettes, de ne pas avoir une vision monolithique d'un sujet. Donc, j'ai varié les formats parce que l'intelligence artificielle a des facettes très variées. »
Julien Redelsperger : « D'accord, et c'est une œuvre de fiction, c'est quelque chose qui a été inventé, ou tu t'es basé sur des faits réels, sur des anecdotes peut-être existantes ? »
Laura Sibony : « Tout est basé sur des faits réels. Et sur des anecdotes, je me suis beaucoup inspirée de mon expérience à Google art et culture, de discussions, d'interviews. Et je n'ai pas voulu me limiter à un livre d'interview, par exemple, qui aurait pu être très vivant aussi et illustrer différentes facettes, parce que je voulais aussi montrer des types de données différentes, et surtout, je crois que c'est ces données que je voulais montrer, et que je voulais montrer avec l'œil de quelqu'un qui est né en 1994, parce que je pense que le fait d'être né dans cette génération de l'entre-deux qui a connu les débuts de l'informatique grand public, mais qui connaît aussi le monde d'avant, et qui doit d'une part discuter avec des parents qui, on approche des fêtes de Noël, qui vous demandent de réparer l'imprimante ou de réparer la Wi-Fi, parce que l'informatique, c'est un gros ensemble dans leur esprit, et si on s'est envoyé un mail, on s'est réparé l'imprimante. Et d'un autre côté, qui voit aussi de nouvelles pratiques, qui avancent à un rythme vertigineux. Et donc, je pense que le fait d'être né dans les années 90, d'avoir connu l'ordinateur que je me partageais avec mes sœurs, parce qu'on devait avoir des tours, lorsqu'on utilisait le réseau internet, on ne pouvait plus téléphoner, et d'avoir connu maintenant aussi TikTok et tout ce que ça change dans le monde, dans notre manière de rencontrer les gens, dans notre manière de consommer du contenu, ça nous donnait un rôle de témoins et de passeurs. Donc, je voulais aussi garder cet œil de la génération de l'entre-deux. »
Julien Redelsperger : « On sait que l'IA, ça évolue quand même assez rapidement, toutes les semaines ou presque, il y a des nouvelles fonctionnalités, des nouveaux outils, des nouveaux cas d'usage. Est-ce que tu penses que ton livre va vieillir rapidement, ou est-ce que au contraire, tu l'as écrit en disant, si on le lit encore dans 5 ans ou dans 10 ans, les anecdotes, les histoires, les contes que je raconte, ça sera toujours d'actualité, on pourra toujours s'y raccrocher ? »
Laura Sibony : « Même mieux, je pense qu'il est d'autant plus d'actualité maintenant, j'en suis à première surprise. Mais justement, parce que je parle assez peu des IA génératives, mon but, c'était surtout de montrer les IA du quotidien et ces IA le plus souvent invisibles. Et j'ai l'impression qu'on les oublie de plus en plus, celles-là, face à la vague de l'IA générative et face à ces gadgets qui sortent constamment. Et c'est vrai, un rythme absolument vertigineux. On est constamment dépassé, même dans une veille sérieuse et régulière, par les nouveautés qui sortent sur l'intelligence artificielle. Ça, c'est vrai, mais pas forcément pour les IA invisibles du quotidien. Je lisais dernièrement une définition d'IA que j'aimais bien qui disait « L'IA, en fait, c'est tout ce qu'on sait faire, et justement, comme on sait le faire, nous, on n'appelle plus ça de l'intelligence artificielle, mais on appelle ça un correcteur automatique, un filtre autospam. » Et moi, c'est justement ces IA-là auxquelles on s'est habitués, tellement habitués qu'on ne les regarde même plus, que je voulais montrer. C'est les IA qui vont faire la curation de contenu sur les réseaux sociaux. C'est celles qui optimisent le référencement web. C'est mettre le coup de projecteur sur les IA de Monsieur Jourdain, les IA qu'on utilise sans s'en rendre compte. »
Julien Redelsperger : « D'accord. Alors toi, tu t'intéresses évidemment à l'IA, tu écris sur l'IA. Maintenant, ma question, c'est est-ce que toi, tu utilises l'IA dans ton travail au quotidien ? Est-ce que tu utilises ChatGPT pour écrire ? Et oui ou non ? Et surtout, pourquoi ? »
Laura Sibony : « Oui, ça, c'est presque le test extrême, comme je suis écrivain, profession. Déjà, ce n'est même pas sûr que ce soit une profession, pas une vocation et une identité. Mais c'est vraiment le type de métier où on imagine le moins l'intelligence artificielle. Moi, je l'utilise beaucoup, évidemment pas pour générer du texte. Déjà, je ne suis pas certaine de la qualité du résultat, mais ça, ce n'est pas tant la question. C'est surtout que ça n'aurait pas d'intérêt de le faire, parce que le plaisir d'écrire, c'est d'écrire, c'est de le faire, c'est de réfléchir à son texte. Par contre, là où j'utilise beaucoup l'intelligence artificielle, ça va être pour interroger des bases documentaires. J'utilise un outil que les podcasters connaissent maintenant bien, qui est Notebook LLM, pour charger une base documentaire et pouvoir l'interroger. Comme mon prochain roman est une œuvre historique, j'ai souvent besoin d'aller au-delà de la simple lecture des sources et de me demander, par exemple, ces deux personnages ont-ils pu se croiser en 1913 ? Je sais à peu près ce qu'ils faisaient en 1913, mais je ne sais pas précisément à quel moment ils étaient, à quel endroit. En interrogeant leur biographie, les pages Wikipédia sur la deuxième guerre des Balkans, en interrogeant cette base documentaire que j'ai moi-même constituée, j'ai des pistes qui sont très utiles après pour pouvoir croiser les données, pouvoir dresser le fond historique de mon roman. »
Julien Redelsperger : « D'accord. Donc on voit dans ton cas, l'IA apporte une plus-value dans le travail de recherche, dans le travail de documentation. À l'inverse, l'IA peut aussi mettre en danger certains métiers. Je pense notamment au futur des créateurs de contenu, qui peuvent être écrivains, qui peuvent être aussi rédacteurs, traducteurs, voire encore graphistes, designers ou illustrateurs. Quelle est ta vision des métiers de la création à l'ère de l'intelligence artificielle ? À quoi ça va ressembler ? Et est-ce qu'il faut s'inquiéter pour eux, surtout ? »
Laura Sibony : « Vous allez me trouver très subtile, mais je pense que c'est entièrement vrai que les métiers sont en danger, mais pas forcément les tâches. Et que le métier d'écrivain sur une période historique particulière, ça inclut de chercher dans des sources. Oui, sauf que ce n'est peut-être pas la tâche la plus passionnante lorsque ce qu'on veut faire, c'est écrire. Et donc souvent on compare l'IA à un assistant, ce qui ne veut pas dire grand-chose parce qu'il y a toutes sortes d'assistants. Mais en l'occurrence, je pense que ça peut aussi être l'assistant qui se veut calife à la place du calife, tout comme ça peut être simplement l'assistant qui fait les recherches documentaires lorsqu'on lui demande. Il y a des jours où je suis optimiste et où je me dis que l'intelligence artificielle remplacera uniquement les tâches qu'on veut bien lui fournir. Pour les rédacteurs par exemple, si elle permet d'optimiser le SEO pour laisser plus de place à la création et à l'invention, très bien, je ne pense pas que ce soit un grand mal de le faire. Mais il y a des jours où je suis aussi plus pessimiste. Je repense à cet exemple qui est encore une expérience qui avait été faite par Google en 2017. Ils avaient développé le Cheese Master. Le Cheese Master, c'était un outil qui utilisait un nez électronique, qui utilisait un pouce à tâter le fromage pour classer les fromages et pouvoir distinguer un coulommier d'un camembert, pouvoir distinguer un produit original, un fromage AOP, d'un ersatz. En 2017, lorsqu'ils avaient publié cette vidéo en ligne qui annonçait le Cheese Master, tout le monde riait. Et ils avaient raison, parce que c'était le poisson d'avril de Google en 2017. Aujourd'hui, la vidéo est déréférencée de YouTube parce qu'aujourd'hui, en 2024, les gens ne la regardaient plus du tout de la même manière. On voyait beaucoup plus de critiques, de distances ironiques envers cette vidéo, parce que c'est possible et parce que des Cheese Master, on en a vu beaucoup des entreprises qui ont fait de l'IA « because they can », parce qu'elles le pouvaient, parce qu'elles en avaient les moyens, sans se demander s'il y avait un réel intérêt, une plus-value, si on n'était pas en train de remplacer quelque chose que l'homme aime faire, sait faire, fait déjà très bien, par un nez électronique et un pouce à tâter le fromage. Et donc, dans mes moments de pessimisme, je me dis qu'on est en train de faire beaucoup de Cheese Master, c'est-à-dire d'IA qui servent à remplacer les humains sur ce qu'ils font déjà bien et ce qu'ils savent faire. Mais je ne pense pas du tout que ce soit une nécessité. Et je pense que l'intelligence artificielle, c'est une certaine manière d'organiser les données, de les organiser pour chercher les patterns, ce qui permet, selon le modèle qu'on utilise, de faire de la recommandation de la génération ou autre. Mais on ne s'est pas assez interrogé sur quelles sont les tâches les plus humaines, qu'est-ce qui nous rend plus humains. Déjà que le mot intelligence est difficile à définir, l'humanité l'est encore plus. Mais il y a un paradoxe quand même extraordinaire, c'est qu'il n'y a que l'humain qui est capable d'inhumanité. Il n'y a que l'humain qui est capable d'abdiquer cet esprit humain pour automatiser ses tâches et pour s'attacher à cette automatisation. »
Julien Redelsperger : « Ce que j'entends, c'est que tu n'as pas forcément d'avis très tranché sur le sujet, pour les créatifs qui nous écoutent… »
Laura Sibony : « Je n'ai pas un avis très tranché du point de vue technologique, parce que cette question relève pour moi du champ économique, parce qu'on est dans un champ économique où la création n'est pas ce qui est le plus valorisé. Pour prendre un exemple peut-être encore plus marquant, il y a énormément de tâches, toutes celles qui relèvent du soin, de s'occuper des enfants, les tâches ménagères, qui n'ont pas de valeur économique au sens où elles ne vont pas contribuer au PIB. Elles ne vont pas directement. On a tendance à ne pas trop les regarder, alors que c'est justement ces tâches-là, parce qu'elles sont moins mesurables, sont aussi moins automatisables. Dans un contexte économique où on va valoriser ce qui est mesurable, en effet, je ne suis pas forcément très rassurée sur l'avenir des métiers créatifs. Mais je pense que là, il faudrait plutôt s'adresser à ce système économique et que peut-être l'intelligence artificielle, une fois qu'elle aura automatisé ce qui est automatisable, permettra de mieux valoriser ce qui ne l'est pas, parce qu'on ne sait pas quoi mesurer, qu'est-ce qui fait la valeur d'un lien humain, qu'est-ce qui fait qu'on écoute bien, par exemple, une personne âgée, qu'on accompagne bien un enfant. Et donc, même la valeur d'un plat, de la cuisine, ne se mesure pas uniquement à une note sur 10. Et donc, mon espoir, c'est que l'intelligence artificielle nous permette de mieux valoriser ces tâches qui ne sont pas mesurables. Mais là c'est une position politique, économique, qui dépasse l'intelligence artificielle.
Julien Redelsperger : « Oui bien sûr, je comprends. J'aimerais d'ailleurs parler un peu du sujet social, sociétal, en particulier via le prisme de la diversité dans la représentation de l'IA. Je t'explique rapidement, mais de manière un peu schématique, l'IA globalement est développée plutôt par des hommes, cisgenres, blancs, souvent occidentaux, souvent jeunes, dans des grandes entreprises de la Silicon Valley. Est-ce que ça peut impacter la capacité de l'IA à produire des contenus, à produire des images qui peuvent être parfois un peu trop stéréotypées ? Est-ce que si on apporte de la diversité dans les gens qui travaillent sur l'IA, l'IA va, elle, à la fin, être aussi plus diverse et plus inclusive ? »
Laura Sibony : « Je crois qu'il faut que je fasse une confession, parce que j'avais contribué, j'avais été dans une équipe qui a fait une IA biaisée, en toute bonne foi. C'est-à-dire que l'une des expériences les plus célèbres développées par Google Agriculture s'appelle ArtSelfie. ArtSelfie, c'est une application qui permet de prendre son selfie, sa photo, et de la comparer avec les 8 millions d'œuvres de la base de données, parmi lesquelles il doit y avoir 300 000 ou 400 000 portraits. Donc de trouver le portrait des collections qui nous ressemble le plus, de trouver son sosie dans l'histoire de l'art. Ce qui a un intérêt pour la médiation muséale, ça amène à l'art des gens qui n'y seraient pas allés spontanément, et qui a un intérêt pour valoriser des collections de portraits que personne n'allait voir, et donc qui a beaucoup d'intérêt. Sauf que rapidement, on a eu des personnes de couleur qui nous disaient que leur match, leur sosie, n'était pas très flatteur, c'était souvent des esclaves, des courtisanes, où elle n'était pas pertinente. Et c'est vrai que c'était un biais. Ce n'est pas l'IA qui est raciste, c'est que les collections de portraits sont très occidentales. Le fait de représenter son visage sur une toile pendant très longtemps, ça a été un signe de richesse et de sa position sociale. Le fait d'exposer ces toiles dans des musées, déjà d'avoir des musées, d'avoir des lieux où on va uniquement pour regarder la couleur sur des toiles, c'est très occidental aussi. Le fait de les faire numériser par Google Art et Culture, de faire numériser les archives, c'est encore plus occidental. Donc il y avait déjà beaucoup de biais dans la collecte des données. À mon avis, ça aurait été l'occasion de faire de la pédagogie, c'est-à-dire d'expliquer que ces collections n'avaient pas vocation à représenter l'ensemble du monde, que le portrait, ça a eu une histoire. Mais ce n'est pas la voie qu'a choisie Google, qui a évidemment des enjeux de communication, des enjeux médiatiques, qui a plutôt ajouté des filtres. Alors des filtres, bien sûr, il y en avait déjà. Par exemple, aujourd'hui, on a beaucoup plus de lunettes et de lumières artificielles qu'il n'y en avait à base de données. Mais c'est un choix qui a été fait de représenter différemment le monde. Et là où je dois me confesser, c'est que lorsque ArtSelfie a été fait, a été programmé par des ingénieurs français, suisses, qui travaillaient à Google Art et Culture, par des creative coders, lorsqu'elle a été faite, on les avait sous les yeux, les 300 000 portraits. On pouvait voir que c'était essentiellement une tâche pâle sur un fond sombre. Sauf qu'on est tellement habitué à voir un portrait, à savoir quoi voir dans le portrait, que ce qui compte, ce n'est pas le fond, même s'il représente la moitié de la superficie de l'œuvre. Que ce qui compte, c'est le visage, que ce qui fait la beauté d'un portrait, ça va être l'expressivité du regard, ça va être de retrouver une émotion dans le visage. On sait tellement quoi regarder qu'on n'arrivait plus à le voir. Et c'est comme quand on est concentré sur une conversation et qu'on n'entend plus le bruit de fond, quand on écoute au lieu d'entendre. Là, on regardait sans voir. Et donc, je pense que finalement, ça a été aussi une bonne manière de nous montrer nos propres biais, de nous montrer toute cette éducation de l'œil par laquelle on est tous passés. On sait quoi regarder dans un tableau. On ne regarde pas de la même manière une nature morte ou un portrait. On sait qu'un tableau de Van Gogh est incomparable avec une carte italienne du XVIe siècle, même si de loin, les couleurs et les formes se ressemblent beaucoup. Et donc, ça a finalement mis en lumière nos propres biais. Donc, là où je te rejoins entièrement, Julien, c'est sur le fait que oui, les IA sont biaisées parce qu'elles ne visent pas à représenter l'ensemble du monde, mais que finalement, on peut seulement remplacer un biais par un autre, plus socialement acceptable, plus inclusif. Mais on ne peut pas supprimer un biais. Donc, lorsqu'une IA révèle un biais humain, révèle un de nos préjugés, je trouve que c'est déjà une bonne avancée. »
Julien Redelsperger : « Mais la vision humaine de ces biais, de ces clichés, de ces stéréotypes, évolue quand même avec le temps. La manière dont on parlait dans les années 80 ou dans les années 70 n'est plus du tout la même que dans les années 2020. Et du coup, est-ce que ces biais aussi, cette représentation de l'IA peut évoluer avec le temps ? On peut peut-être se corriger si on en a conscience ? Parce que ce que tu expliques avec ton expérience à Google Art et Culture, c'est que... »
Laura Sibony : « Oui, mais comme tu dis, ces biais étaient déjà là dans les années 80. En fait, ce sont des biais humains. L'IA va les reproduire, va les mettre en lumière aussi. Et ce sont des biais humains. Et si aujourd'hui, on manque, par exemple, de personnes de couleur ou de femmes ou de personnes âgées dans le monde de la tech, c'est un biais d'abord humain avant d'être un biais de l'IA, mais qui évidemment va se refléter dans les modèles qui sont faits, dans la manière de collecter les données, dans la manière de les interpréter. Donc pour travailler sur une IA qui soit plus inclusive et plus diverse, il faut d'abord travailler sur les données qui permettent de la construire et de la nourrir. Et ça veut dire aussi travailler sur les équipes humaines qui ont ce travail en charge, en fait. Ça oui, ça entièrement. Et je suis persuadée que s'il y avait eu plus de personnes de couleur, enfin plus de diversité dans l'équipe, aussi sans doute s'il y avait eu plus de temps, il y aurait eu quelqu'un pour alerter dessus, pour voir différemment, porter un autre regard sur les collections de portraits. Mais ce n'est pas simplement des recrutements, ce n'est pas la diversité photo de classe. C'est aussi d'encourager les paroles plus divergentes, c'est aussi d'encourager la capacité à critiquer, à remettre en question. Donc ça doit être une diversité vivante, on aimerait dire, enfin pas juste la diversité sur papier glacé, pas juste une diversité d'apparence, mais ça doit vraiment être l'encouragement d'une diversité de paroles et d'une diversité de pensées. »
Julien Redelsperger : « D'accord, parfait. Merci. Alors peut-être une dernière question, j'aime bien poser cette question-là, même si elle est difficile, mais si on fait un peu de perspective, si on se projette un peu dans le futur. Aujourd'hui, on sait que l'IA permet de générer du texte, elle permet de générer des images, et depuis peu, de générer des vidéos. OpenAI a récemment sorti Sora, par exemple, son nouveau modèle de génération de vidéos. Dans un an, dans deux ans, dans cinq ans, à quoi va ressembler l'IA demain ? Et comment est-ce que toi, tu imagines le futur de notre société à l'ère justement d'une intelligence artificielle totalement débridée, démocratisée et omniprésente ? »
Laura Sibony : « J'ai beaucoup de mal à dire à quoi ressemblera l'intelligence artificielle de demain, parce que mes prédictions ont été très mauvaises sur ces dernières voix. Par contre...
Julien Redelsperger : « T'es pas une bonne pronostiqueuse, c'est ça ? »
Laura Sibony : « Très, très mauvaise. Mais je peux dire à quoi j'aimerais que ressemble l'IA de demain. Et je pense qu'une des thématiques qu'on devrait plus mettre en avant, c'est tous les enjeux écologiques autour de l'intelligence artificielle, qui souvent sont compris comme optimiser la consommation d'eau ou d'énergie, qui en réalité sont plus savoir optimiser les modèles eux-mêmes, la consommation de données, si on voit, lorsqu'on fait une demande de traduction, par exemple, c'est plus consommateur d'eau et d'énergie d'utiliser ChatGPT que d'utiliser Deepl. Et encore plus probablement que d'utiliser un dictionnaire. Ça dépend comment est-ce qu'on mesure. Eh bien, je pense que l'IA de demain serait une IA plus frugale, au sens où elle sera mieux adaptée aux usages et où on aura cessé de faire des cheese masters de l'IA parce qu'on peut le faire, de l'IA parce qu'on a l'impression que si on n'investit pas aujourd'hui dans l'IA, on sera largué demain, et qui part plus des réels besoins. Ça a l'air d'être du bon sens, mais ce n'est pas toujours appliqué en entreprise. Et donc, plus se demander, déjà humainement, pourquoi est-ce qu'on le fait ? Est-ce qu'il y a un réel besoin avant de créer des besoins artificiels qui viennent d'abord de la disponibilité de la technologie ? »
Julien Redelsperger : « D'accord. Et pourtant, récemment, on a appris Amazon ou Microsoft qui rachètent des centrales électriques, des centrales nucléaires, parce qu'ils ont des besoins énormes en électricité pour alimenter leurs data centers qui font derrière tourner les modèles d'IA. »
Laura Sibony : « Oui, on entendait même parler à un moment, ça fait quelques mois maintenant, Sam Altman qui voulait créer de nouvelles formes d'énergie. Exactement. Oui, c'est vrai que pour l'instant, ça a plutôt l'air d'être la voie vers laquelle on se dirige, mais je ne pense pas que ce soit le plus souhaitable. Et je pense que, enfin, le bon sens, ce n'est pas la chose du monde la mieux partagée. Elle nous encourage plutôt à se demander d'abord quels sont les réels besoins avant de créer ces besoins artificiels. Parce que c'est difficile de se débarrasser d'un besoin artificiel parce que ce sont à la fois des besoins et des désirs. Un portable, c'était un besoin artificiel il y a encore une vingtaine d'années. Aujourd'hui, on ne pourrait plus s'en passer puisque toutes les personnes avec qui on interagit, on en a, et qu'aujourd'hui, c'est se mettre à l'écart que de refuser le portable. Donc, si on accepte trop ces besoins artificiels comme étant nécessaires, eh bien, ils finissent par le devenir. »
Julien Redelsperger : « D'accord, parfait. Écoute, merci beaucoup Laura. Tu as brièvement parlé de ton prochain livre. Tu peux nous en dire deux mots ou c'est encore un peu secret ? »
Laura Sibony : « C'est surtout en cours parce que là, il y a un projet de fusionner deux idées. Mais en tout cas, dans la voie actuelle, ce serait une grande fresque historique qui s'appellerait "Le quart de siècle", qui s'étendrait entre 1913 et 1940 et qui montrerait les immenses espoirs, mais aussi les désillusions qu'ont emporté les révolutions socialistes au cours de cette période. D'accord. Donc, on ne va pas parler d'IA dans celui-ci ? A priori, non, même si je pense que la crise qu'a traversée la civilisation pendant cette période, c'est la fameuse époque de "Nous autres civilisations, nous savons désormais que nous sommes mortels", a des aspects très variés. Et c'est le moment où on voit se développer l'art génératif, pourquoi l'art génératif a précédé l'intelligence générative. L'art génératif est de nouvelles formes d'art, donc de nouvelles manières de voir le monde. On dit parfois que l'art est l'avant-garde de la société, dans le sens où les artistes auraient cette capacité à représenter en mots ou sur les toiles, ou par divers médias, à représenter les grandes tendances, ce qu'ils sentent venir à représenter, cet instant prémonition du futur. Et dans ce sens-là, je pense qu'il y a un lien avec l'intelligence artificielle, avec des changements technologiques, artistiques, sociaux très profonds qui vont s'enchevêtrer jusqu'à aboutir à une crise multifacette. On n'est pas à 1913, à 1940, c'est la période de la montée des fascismes, de l'entre-deux-guerres, de la Première Guerre mondiale et de l'entre-deux-guerres. Et ça reflète une crise profondément humaine qui vient aussi d'un nouveau rapport à la technologie quand se développe l'aviation, la radiotélégraphie, des choses qui aujourd'hui nous semblent normales et qui à l'époque changeaient complètement la vision du monde. L'art a changé quand on a commencé à voir le monde d'au-dessus. Et le fait de voir le monde d'au-dessus a aussi encouragé le culte de la vitesse, qui a encouragé le culte de la force, qui n'est sans doute pas pour rien dans la montée des fascismes. Donc tout ça est assez enchevêtré, et c'est aussi ce que j'aimerais montrer dans cette phase. »
Julien Redelsperger : « D'accord, parfait. Sortie prévue quoi, 2025, 2026 ? Tu ne te prononces pas ? »
Laura Sibony : « Ça c'est si je m'aide beaucoup dans l'intelligence générative. Non, ça ne sera pas le cas. C'est un projet très ambitieux qui demandera du temps. »
Julien Redelsperger : « Bon, écoute, merci et bon courage surtout. Et alors Laura, comme tu le sais sans doute à la fin de chaque épisode, l'invité du jour doit répondre à une question posée par l'invité précédent. Alors en attendant d'écouter la tienne, je te laisse écouter celle de Frédéric de Todaro, qui est Chief Product Officer chez Kameleoon, une société qui propose une solution pour faire de l'A/B Testing et de l'expérimentation en ligne. On écoute sa question. »
Frédéric de Todaro : « Est-ce que 2025 risque pas d'être un bain de sang pour beaucoup d'entreprises qui se sont lancées dans l'IA sans une stratégie solide, sans concrètement avoir de business case à résoudre ? Et donc, est-ce qu'on n'est pas déjà sur la prochaine bulle ? »
Laura Sibony : « Très juste comme question, mais 2024 a déjà été un bain de sang pour les entreprises qui se sont lancées dans des transformations IA sans vision stratégique. Et donc, ça, à partir de ces réels besoins et pas de besoins artificiels, à la conférence de Davos, il y avait un chiffre qui avait été cité, je crois que c'est de mémoire 66% des entreprises qui s'étaient lancées dans des transformations IA en 2023 et qui ont échoué. Et il y a plusieurs causes à ça. Il y a des entreprises françaises, pardon, qui s'étaient lancées dans des transformations IA. Je pense qu'on ne mesure pas bien tout ce qu'il y a d'humain derrière l'intelligence artificielle. Un exemple que j'ai pu voir quand j'étais consultante, c'était quand on cherchait à faire des jumeaux numériques de cheveux pour un groupe cosmétique qui fait des colorations cheveux et qui faisait ces colorations et faisait des tests pour vérifier si la coloration tenait bien sur le cheveu sur le long terme, donc si elle ne verdissait pas, si elle ne jaunissait pas, en particulier pour les cheveux texturés pour pouvoir justement permettre plus de diversité pour faire des produits qui s'adressent à tout type de cheveux. Et donc pour faire ces tests, c'était très coûteux parce que c'est des tests qui se font in vivo sur de réels cheveux. Il faut les suivre pendant plusieurs mois pour vérifier comment tient la coloration. Et il faut des personnes qui sont ultra spécialisées pour faire ça. Sauf que les personnes qui se sont ultra spécialisées dans la pharmacologie spécialisée, coloration de cheveux, elles savent bien qu'il y a une poignée d'entreprises dans le monde qui font ça. Et donc que si elles perdent leur emploi, elles auront beaucoup de mal à trouver quelque chose d'équivalent. Et donc elles y sont extrêmement attachées à leur emploi. Et par ailleurs, comme elles doivent faire des tests qui sont là pour vérifier des intuitions, des développements de couleurs, de teintes, etc. Eh bien, c'est des tests qui sont très coûteux. Donc lorsque ça marche très bien, on continue le développement du produit. Lorsque ça ne marche pas, ça a des conséquences coûteuses. Déjà parce que le test était cher et puis ensuite parce que ça met fin à la recherche sur une nuance spécifique. Et donc déjà parce que c'est des gens qui se sentent menacés dans leur emploi et ensuite parce que c'est des gens qui n'ont pas envie de renseigner les échecs, qui n'ont en tout cas pas envie de s'en vanter et de partager les causes de l'échec, mais plutôt de le glisser sous le tapis. Eh bien, ça donnait des données qui étaient incomplètes parce qu'il n'y avait pas assez de culture de l'échec et parce que les gens n'avaient pas envie d'être très responsables de leurs données puisqu'ils se sentaient déjà menacés par l'intelligence artificielle. Et donc je pense que ça, ça fait partie des grandes causes d'échecs, des transformations IA lorsqu'on n'a pas pris le temps d'expliquer quel est l'intérêt, non seulement pour l'entreprise, mais aussi pour les personnes, de mener des transformations IA. Et lorsqu'on n'a pas des données fiables, et ces données fiables, ça demande souvent de se poser de grandes questions et parfois d'aller jusqu'à des changements de gouvernance parce que la donnée, elle est produite sur le terrain, elle n'est pas produite dans les bureaux où se décide la vision stratégique. Et donc ça demande d'être encore plus, ou parfois d'être tout court, à l'écoute du terrain, de savoir faire remonter toute cette science de la donnée, enfin toute cette capacité à la collecter, à la suivre, à encourager les données d'échec aussi, tout ce qui n'a pas marché, tout ce qui aurait pu être mieux fait. Et donc il n'y a pas juste la transformation IA au sens d'investir dans une entreprise qui fait de l'IA, où on n'installe pas l'IA dans une entreprise comme on installe un logiciel, ça demande aussi un accompagnement, une formation, parfois même des changements de gouvernance, une vision stratégique claire, une capacité à bien capter et interpréter la donnée. Donc c'est beaucoup plus profond et beaucoup plus transformateur qu'un nouveau logiciel. »
Julien Redelsperger : « D'accord, parfait. Merci beaucoup. Alors à toi à présent, quelle question est-ce que tu aimerais poser au prochain invité ? »
Laura Sibony : « Quel est votre auteur favori et pourquoi ? Parce que c'est une question qui est toujours très révélatrice. »
Julien Redelsperger : « Simple, court, efficace. Parfait. Et bien écoute, merci beaucoup de ta participation. Laura Sibony, je rappelle que tu es autrice, formatrice, enseignante et conférencière. Merci d'avoir participé à ce podcast. »
Laura Sibony : « Merci à vous. »
Cette transcription a été réalisée par un outil d'intelligence artificielle. Elle n'est peut-être pas 100% fidèle au contenu d'origine et peut contenir des erreurs et approximations.