L'IA : un nouveau compagnon pour l'humanité ?
L'intelligence artificielle est-elle en train de redéfinir notre quotidien, nos métiers et la sphère publique ? Cet épisode d’AI Experience vous invite à explorer avec Naomi Roth, conseillère experte en technologies, la révolution silencieuse orchestrée par l'IA générative. De l'espace personnel où des compagnons virtuels offrent une écoute inédite, au monde professionnel où les métiers se transforment sous l'impulsion de ces technologies, jusqu'aux débats publics enrichis ou mise en danger par les deepfakes, découvrez comment l'IA infiltre et modifie les différents pans de notre existence. Naomi Roth partage avec vous sa vision du potentiel de l'IA pour réinventer nos interactions, stimuler l'innovation et même remodeler notre conception de la démocratie. Quels défis cette intégration croissante de l'IA pose-t-elle à notre société ? Comment naviguer entre les promesses d'amélioration et les risques de déshumanisation ? Plongez au cœur de ces questions essentielles pour comprendre le rôle pivot de l'IA dans l'évolution de notre monde.
Sa carrière débute dans le journalisme, avant de s'orienter vers l'innovation lorsqu'elle est sollicitée (2016) pour structurer les lignes de recherche d’un hub d'innovation explorant l'intersection entre la réalité virtuelle, la réalité augmentée et les technologies d'intelligence artificielle.Spécialisée dans l’impact des technologies sur l’humain et les sociétés, et dans la détection des supercheries du monde de l'innovation, Naomi Roth a fourni des conseils stratégiques et de la vision à plus de 1 250 hauts dirigeants et leaders. Parmi ses clients se trouvent des groupes prestigieux tels que VYV, la FFF et la Biennale de Venise.Au même titre, elle instruit depuis 2016 sur l’avenir des technologies immersives et de l'intelligence artificielle générative en collaborant avec des centres de recherche, des hubs d’innovations, des universités et des grandes écoles en France et à l’étranger. Aujourd'hui, elle partage son temps entre la recherche, la formation et son rôle de Technology Advisor indépendant.
Naomi Roth
Technology Advisor
Julien Redelsperger : « Bonjour Naomi, merci de participer à cet épisode d'AI Experience. Comment vas-tu ? »
Naomi Roth : « Bonjour Julien, très bien et toi ? »
Julien Redelsperger : « Merci, très bien, merci beaucoup. Ravi d'être avec toi aujourd'hui. Alors avant d'aller plus loin, est-ce que tu peux nous expliquer ce qu'est un ou une Technology Advisor ? En clair, quel est ton métier et avec qui tu travailles ? »
Naomi Roth : « Écoute, un Technology Advisor tout d'abord étudie les avancées des technologies émergentes telles que la réalité virtuelle et l'IA générative dans mon cas. Et je vais aider mes clients à voir clairement à la fois les potentiels et les risques qui sont associés au développement de ces nouvelles technologies et à l'utilisation de ces nouvelles technologies. Donc je vais les mettre à jour sur un domaine qui avance très rapidement et je vais les aider à prendre des décisions stratégiques, les accompagner dans leur précision stratégique et leur construction de vision et également les accompagner si tu veux à utiliser et à intégrer de façon stratégique l'IA générative par exemple en les aidant à passer à travers les mailles du filet de ceux qui nous vendent des vessies pour des lanternes parce que tu n'es pas sans savoir que quand il y a le développement d'une nouvelle technologie, il y a beaucoup d'offres qui arrivent sur le marché et parfois c'est difficile de trier ce qui est de qualité. Donc en gros pour résumer si tu veux tu peux me voir comme un guide à travers le territoire complexe des technologies émergentes. »
Julien Redelsperger : « D'accord et est-ce que tu t'intéresses uniquement au niveau stratégique accompagnement des dirigeants et des équipes managériales ou est-ce que tu vas également un peu avec la partie formation, terrain, mise en place concrète, pratique de la tech ? »
Naomi Roth : « Oui c'est ça, c'est-à-dire formation, mise en place concrète de la technologie, c'est-à-dire on part de la prise de conscience, la compréhension de cette technologie, qu'est-ce qu'elle est, sa nature, ses limitations, à comprendre quel est le besoin à l'intérieur de l'entreprise, est-ce qu'on doit se tourner aujourd'hui vers ce type de technologie, est-ce que ça vaut vraiment la peine de faire ses dépenses, ses investissements pour aller vers ce type-là en particulier d'innovation ou pas, est-ce que ce n'est pas encore mature, créer une feuille de route et ensuite créer à l'intérieur de l'entreprise des projets qui vont pouvoir être des premiers projets d'utilisation de cette technologie pour réduire les risques si tu veux et réduire les dépenses qui seraient inutiles. »
Julien Redelsperger : « D'accord, et en matière d'intelligence artificielle, notamment intelligence artificielle générative, quelles sont les entreprises qui ont besoin de toi ? »
Naomi Roth : « Alors c'est vraiment tout type d'industrie, si tu veux ça va entreprise, groupe, organisation, université, on passe de la santé au sport, à l'éducation, en passant par l'ingénierie, donc c'est assez large en fait. »
Julien Redelsperger : « Plutôt des grosses organisations j'imagine ? »
Naomi Roth : « Oui, plutôt, oui. »
Julien Redelsperger : « D'accord, parfait. Alors première question pour toi Naomi, pourquoi est-ce que selon toi c'est un bon moment pour s'intéresser au sujet de l'intelligence artificielle générative ? On sait que depuis la sortie de ChagGPT en novembre 2022, il y a eu un vrai boom sur le marché, pourquoi faut-il s'y intéresser ? »
Naomi Roth : « Très bonne question. Alors déjà je pense qu'il n'y a pas eu seulement un boom sur le marché, il y a aussi eu un développement complètement exponentiel de ces technologies si tu veux. J'attends encore de trouver un exemple dans l'histoire de l'humanité d'une technologie, d'une innovation qui a été aussi rapidement déployée, acquise par le grand public et par les professionnels, mais aussi le plus rapidement qui s'est développée. J'invite les gens qui nous écoutent à regarder ce que faisait Dall-e il y a un an et ce que Dall-e est capable de faire aujourd'hui. On est sur un développement complètement exponentiel de ces technologies. Donc, vu la rapidité du développement de l'IA générative, pour rester à la page, c'est plus important que jamais aujourd'hui de s'intéresser à ces technologies. Ensuite aussi parce que ça va apporter des opportunités à la fois extraordinaires pour le public et le privé, mais aussi de nouveaux périls, de nouveaux dangers, notamment pour les prochaines élections à venir. On est face à une technologie qui va bouleverser la société. Je prends pour preuve l'IA Act, l'Union européenne qui a réagi très rapidement face au développement de ces technologies pour mettre en place des pare-feu à leur utilisation et à leur développement. Donc, je pense que tout cela prouve que c'est important maintenant de s'y intéresser. Et puis en dernier, je dirais que peut-être d'identifier des use case maintenant, ça va nous permettre de mieux nous projeter. »
Julien Redelsperger : « Quand tu parles avec des décideurs ou avec des responsables d'entreprise, qu'est-ce qu'ils te disent sur le sujet de l'IA ? Est-ce qu'ils comprennent les enjeux ? Est-ce qu'ils en ont conscience ? »
Naomi Roth : « De manière générale, je dirais qu'ils ont conscience que c'est une technologie qui va être transformatrice de leur société et de la société, des organisations. En revanche, en général, ils vont mal apprécier les contours de cette technologie. Notamment, ils ont du mal à apprécier la nature particulière de l'IA générative versus d'autres types d'intelligence artificielle. Et donc, ils ont beaucoup de mal à se projeter sur ce qu'elle est capable de faire ou pas. Et ça, ça pose problème parce que pour se projeter, évidemment, il faut être ancré dans le concret, ce qui va nous permettre de projeter des cas d'utilisation qui concernent son organisation. J'ai aussi souvent face à moi des personnes qui sont très curieuses des aspects juridiques. Ils s'interrogent sur la responsabilité, sur les cadres d'utilisation, sur l'utilisation des données notamment. Et en dernier, je te dirais aussi que je remarque particulièrement, en revanche, que les leaders et les chefs d'entreprise vont passer à côté souvent, facilement, des questions de vulnérabilité qui sont apportées par l'utilisation de ces nouvelles technologies. Alors, on a eu plein d'exemples qui ont été médiatisés récemment. Je pense par exemple à cette entreprise coréenne qui a perdu 25 millions de dollars en faisant un virement à l'étranger parce qu'ils sont tombés dans un scam de DeepFake. Donc, quelqu'un qui s'est fait passer pour quelqu'un de leur hiérarchie et leur a donné l'ordre de faire ces virements. Et malgré qu'il y ait des arnaques comme ça au président qui se multiplient, malgré qu'on sait qu'on peut utiliser l'IA générative pour reproduire votre voix, pour se connecter à votre compte en banque, qu'il y a plein de cas de hacks comme ça qui se mettent en place, j'entends encore souvent des chefs d'entreprise notamment me dire qu'ils ont utilisé ChatGPT pour rédiger un email à caractère juridique, ce qui est super dangereux. Donc, je pense qu'il y a une grosse prise de conscience à faire sur cette partie-là. Et ensuite, je dirais qu'il y a aussi quelque chose qui n'est pas suffisamment apprécié, c'est l'ampleur de l'utilisation déjà à l'intérieur des entreprises de ces outils. Je lisais l'autre jour que 64% des employés cachent leur utilisation de ChatGPT à leur supérieur. C'est énorme. »
Julien Redelsperger : « Pourquoi ? Parce qu'on se dit que si un salarié utilise ChatGPT, il va être mal considéré, on va dire qu'il triche. Un peu comme quand on allait sur Google il y a 20 ans pour trouver une réponse, ça voulait dire qu'on n'avait pas forcément les compétences ou qu'on ne cherchait pas au bon endroit. »
Naomi Roth : « Je ne saurais pas me mettre à la place de l'employé, je t'avoue, qui cache à sa hiérarchie. Mais je pense que tes théories sont toutes bonnes. Ce serait intéressant de faire passer un sondage pour les personnes qui seraient d'accord de répondre. En tout cas, peut-être qu'il y a aussi la notion qu'on est sur une zone de gris, qu'on fait quelque chose qu'on n'est pas sûr qu'on a le droit de faire non plus. Peut-être que ça rentre dans le scope des réponses. Et les enjeux sont quand même super importants, les enjeux sont là. Tu vois que j'ai une étude qui est sortie récemment où sur une entreprise en moyenne où il y a 100 000 employés, ces employés vont partager des centaines d'informations confidentielles chaque semaine. Ça, c'est des informations confidentielles qui sont partagées à OpenAI, que tu ne récupéreras jamais, qui peuvent ressortir, comme on l'a vu, à de nombreuses reprises dans le chat d'autres utilisateurs. Ça peut être des mots de passe, ça peut être des noms clientèle, ça peut être plein de choses. Donc, je pense qu'il est plus important que jamais aussi de penser à former ces employés sur ces outils-là pour qu'ils sachent comment les utiliser à bien, mais aussi qu'ils se rendent compte de quelles sont les limites. Et quand on parle d'employés, il faut s'imaginer que tout le monde est soumis aujourd'hui à ce biais de naïveté envers cette nouvelle technologie parce que même les employés de Google et de Samsung ont dû être remis à l'ordre récemment sur l'utilisation de ces outils. Et en dernier, je pense que j'aimerais aussi te parler d'un dernier risque qui est sous-estimé, c'est les risques réputationnels. Alors, réputationnels, Deepfake, ça parle à tout le monde. Je pense que je n'ai pas besoin de donner un exemple de ce qu'est un Deepfake. Ça vient rapidement en tête. Mais imagine maintenant qu'il y ait un Deepfake audio, vidéo, qui soit réalisé sur des déclarations d'un dirigeant ou d'un leader, ça peut faire très facilement chuter la confiance en ce leader ou dans une entreprise et affoler les cours de la bourse.
Julien Redelsperger : « Donc, on imagine un dirigeant qui prend la parole sur les réseaux sociaux en annonçant que le dernier produit ou la dernière offre n'est pas bonne, il y a des problèmes, etc. »
Naomi Roth : « Oui, exactement. Ou en disant finalement je vais fermer telle partie de mon entreprise ou je vais arrêter tel produit ou on a des problèmes de cybersécurité, on revient vers vous rapidement. »
Julien Redelsperger : « D'accord. Et sur le plan du monde du travail, sur les salariés qui ne sont pas forcément des experts, des ingénieurs en IA, mais qui voient les choses changer, comment est-ce que toi tu vois évoluer ce monde du travail dans un système où l'IA générative se développe de plus en plus vite ? Quelles sont les conséquences et en même temps les opportunités pour les salariés ? »
Naomi Roth : « Écoute, quand tu me parles de salariés, la première chose qui me vient en tête, c'est cette analyse que je lisais où 65% des Français se disent préoccupés par l'impact de l'IA sur l'emploi et au Canada c'est 56%, je crois. Je pense qu'ils ont raison parce que les signes sont là et ils sont nombreux, que ça va impacter très fortement le monde du travail, l'emploi. Et selon toi, est-ce que ces gens-là ont raison de s'inquiéter ? Est-ce que tu les comprends et est-ce que tu es capable d'expliquer un peu ces raisons ? Oui, je pense qu'ils ont raison de s'inquiéter et pour te donner quelques signaux qui vont dans ce sens-là, en marge du dernier sommet à Davos, il y a un questionnaire qui avait été distribué parmi un peu plus de 5000 chefs d'entreprise de 100 pays différents, donc on a un beau panel, et un quart de ces chefs d'entreprise estimaient qu'ils allaient réduire en 2024 leur effectif et c'était une réduction de 5% à peu près. Donc 5% d'effectifs en moins qui seraient remplacés par l'IA générative. On a plein d'exemples comme ça qui sont déjà d'actualité, je pense notamment à Klarna qui a déclaré très récemment qu'ils ont remplacé 700 employés dans le service clientèle par l'IA générative. Donc ils gèrent, je crois que c'était un peu plus de 2 millions de messages avec leur service clientèle avec l'IA générative maintenant. On a Google qui aujourd'hui paye des rédactions de journalistes pour utiliser une de leurs IA génératives afin de créer du contenu et que les journalistes prennent en main ce type d'outil et se rendent compte de quelles sont les opportunités qui viennent avec. Donc là je te donne plusieurs exemples de cas qui sont déjà effectifs où on remplace les employés. Il faut voir maintenant un petit peu plus dans le détail qu'est-ce qui se passe. On sait que les domaines qui vont le plus utiliser l'IA générative c'est le développement logiciel, les services clientèles, d'où l'exemple de Klarna, le marketing, la vente et la R&D. Donc dans le recherche et développement, imagine pharmaceutique, matériaux, ingénierie. Et ceux qui le souffrent on va dire en premier ça va être les freelance. Et là on a des chiffres aussi, on a des statistiques que je trouve très intéressantes. Cinq mois après le lancement de ChatGPT, les freelancers sur la plateforme Upwork, je ne sais pas si tu vois ce que c'est. »
Julien Redelsperger : « Oui absolument, une plateforme qui met en relation les freelance avec les entreprises. »
Naomi Roth : « Exactement. Donc les freelancers de manière globale sur cette plateforme perdaient 3% de propositions de collaboration et environ 10% de leurs revenus. D'accord. Donc c'est significatif. Après si tu regardes dans le détail, tu vois que ceux qui ont le plus perdu c'est les copywriters, donc ceux qui proposaient d'écrire pour leur clientèle. C'est 33% de perte de revenus et de propositions d'emploi. 19% c'était de la traduction, ça aussi ça paraît évident, parce que l'IA générative fait extrêmement bien de la traduction. Et 16% c'était du service clientèle. Par contre il y a aussi quelque chose qu'on notait d'intéressant, c'est que 10% des jobs du design, ou je vais le dire différemment, les jobs du design, que ça va être UX design ou graphic design, eux ils ont enregistré au contraire une hausse de demande d'emploi. Après je pense aussi qu'il faut réfléchir à la différence entre remplacement et exposition, parce qu'on entend beaucoup parler de remplacement, on va perdre des emplois, donc ça c'est sûr, c'est une réalité, mais il y a aussi des cas d'exposition où en fait on va se retrouver avec des humains augmentés d'IA générative, ce qu'on appelle aujourd'hui joliment des intelligences hybrides ou des centaures, j'ai entendu certains penseurs appeler la connexion humain-IA générative des centaures des formes hybrides d'intelligence. Si tu regardes les chiffres, tu as à peu près 80% des travailleurs qui sont exposés aux IA générative, donc c'est la quasi-totalité des emplois. En revanche, il n'y en a qu'un sur cinq qui est très exposé, c'est-à-dire qui va se retrouver probablement remplacé par les IA générative. Et dans le lot, malheureusement, tu vas trouver aussi beaucoup de métiers artistiques. Je pense à la grève de Hollywood où les voice actors, les figurants, tout de suite ont compris l'enjeu pour le futur de leur métier. Là il y a récemment aussi Tyler, j'ai oublié son nom, qui est un compositeur et producteur américain de renom. Il avait prévu de mettre à peu près 800 millions de dollars sur la table pour augmenter ses services et ses studios. Et quand il a vu le déploiement de Sora et d'autres IA génératives, il s'est dit que ça ne sert à rien que je fasse ces investissements. L'IA va prendre mon travail dans le futur proche. Donc il a complètement arrêté ses investissements. Tout ça, ce sont des signes où on se rend bien compte que le marché du travail est en train d'être disrupté. Je pense qu'à moyen terme, on va vraiment réfléchir à apprendre à designer des services qui permettent de tirer le meilleur de cette fameuse intelligence hybride et de garder l'humain dans la loupe des process. Ça c'est hyper important. »
Julien Redelsperger : « C'est ça, parce que comment on se prépare à ce changement radical qui arrive si tu n'as pas des rédacteurs qui nous écoutent, des illustrateurs, des traducteurs, voire même pourquoi pas des comptables ou des assistants RH ? Comment est-ce qu'on se prépare à ce changement de paradigme en entreprise qui est l'intelligence artificielle générative ? »
Naomi Roth : « Il faut se former. Il faut rentrer dans la boucle. Il faut comprendre la nature de cette technologie et ce qu'on peut en faire avec. Je pense qu'elles feront autant partie demain de nos métiers et d'utilisation au quotidien que la suite Google, Excel ou Gmail, etc. De toute façon, ça va être déployé partout. Je pense absolument à rentrer dans la boucle, se former. Et après, je pense aussi qu'à moyen terme, la question du revenu universel va devoir sérieusement se reposer, revenir sur la table. »
Julien Redelsperger : « C'est marrant parce que tu n'es pas la première invitée à mon podcast qui m'en parle. C'est un sujet qui revient de temps en temps. Des gens qui disent effectivement qu'il y aura moins de jobs ou en tout cas, on va travailler moins souvent, moins longtemps. Et la question du revenu universel va se poser. C'est quoi ta réflexion derrière ça ? Comment ça te vient en tête ? »
Naomi Roth : « Alors moi, j'y pense. Je ne crois pas qu'on va travailler moins longtemps. Je prends en parallèle le développement des machines, notamment ce qui a permis par exemple d'automatiser le lavage à la maison des vêtements. Ce qui prenait moins de temps finalement aux femmes qui s'occupaient de ces tâches. On se rend compte que finalement, il y a de nouveaux standards qui se mettent en place, des nouveaux standards de propreté. Et donc, on va mettre encore plus de travail pour laver encore plus souvent ces vêtements, les laver mieux, les garder dans le temps ou en avoir plus souvent des neufs, etc. Donc finalement, on se rend compte que le temps qui est gagné par le déploiement de nouvelles technologies, là en l'occurrence c'était de nouvelles machines, eh bien il est perdu dans les nouveaux standards qu'on essaye d'acquérir. Donc moi, je pense que c'est exactement la même chose qui va se passer avec l'IA générative. On va juste continuer à travailler autant, mais on va faire plus. Donc je ne vois pas, le temps de travail se réduire. En revanche, la réflexion derrière le revenu universel, elle est assez simple. C'est que il y a tellement d'emplois qui vont être impactés et de personnes qui n'auront plus accès à l'emploi parce qu'on parle d'emplois, même d'emplois qualifiés qui ne seront plus accessibles à l'humain. Et on est sur des technologies qui sont allées puiser dans les productions humaines pour les remplacer. Donc comment on remercie l'humanité qui est passée avant et celle qui arrivera après de cette contribution au fait qu'on leur enlève la valeur qu'ils pouvaient apporter à la société. Et c'est là où je pense que les questions de revenu universel vont finir par revenir sur la table. Sam Altman, le créateur d'OpenAI, lui-même travaille sur la question, parle de l'utilité, le besoin de développer le revenu universel. Tu pourras regarder, il y a un projet qui s'appelle Orb et WorldCoin qui essayent tout simplement de mettre en place ce qu'on appelle un proof of humanity, c'est-à-dire comment s'assurer qu'il y a derrière telle identité digitale un véritable humain singulier et auquel on va pouvoir rétribuer une partie de la chaîne de valeur qui lui a été volée ou qui a été générée par les IA, générative ou autre. Et en dernier, je pense que pour répondre à ta question initiale, ce sera intéressant pour les créatifs de se battre pour un label fait par l'humain. Parce que je pense que c'est quelque chose qui prendra de la valeur aussi dans le futur.
Julien Redelsperger : « Pour dire que je suis sûr que c'est un humain qui est derrière la production de ce résultat, un petit peu comme l'artisanat où on a ce rapport très particulier. Comme tu peux avoir un label rouge ou made in France, tu pourrais avoir un made by humans pour toute production. OK, c'est intéressant. Selon toi, Naomi, est-ce que l'IA générative peut souffrir d'un risque de bulle ? Je t'explique. Ça fait 50 ou 60 ans qu'on parle d'intelligence artificielle. Ce n'est pas un sujet nouveau et c'est un sujet qui a connu différents hivers, c'est-à-dire des périodes de temps longues pendant lesquelles il y avait un certain désintérêt et désinvestissement. Comment est-ce que toi, par ton expérience, est-ce que tu entrevois le futur de l'IA et en particulier l'IA générative ? Est-ce qu'on est dans un phénomène de bulle ou est-ce qu'on est vraiment parti pour rester, pour durer et l'IA générative est là maintenant comme n'importe quelle technologie l'est aujourd'hui ? »
Naomi Roth : « Très intéressante cette question. Si tu en appelles à mon expérience, ce que je peux te dire, c'est que la première chose qui me vient en tête, c'est ce que j'ai pensé quand les NFT et le métaverse sont arrivés sur la table. C'est très rapidement, qui a été la bulle par excellence, très rapidement, j'ai senti que ça allait retomber. Alors qu'aujourd'hui avec les IA génératives, j'ai des signaux qui sont tout à fait différents. Pour te donner vraiment la réponse courte, je pense que dans le futur proche et le moyen terme, non, ce n'est pas une bulle et ce n'est pas un truc qui va éclater. On est sur un marché qui est instable évidemment, puisqu'il y a beaucoup de choses qui sont en train de se produire et qui vont disparaître. Mais là, je pense que vraiment le fond de ta question, c'est est-ce que c'est parti pour durer ? Est-ce que l'IA générative est partie pour durer ou est-ce que ça va faire un peu comme les Google Glass à une époque qui sont tombés comme un soufflé ? Je pense que c'est vraiment parti pour rester et qu'on est déjà dans des effets qui sont mesurables. Dès aujourd'hui, on est sur des outils qui sont largement déployés et utilisés. On est sur un niveau de maturité qui est intéressant. Ce n'est pas du tout le cas de la question des métaverses. C'est une technologie qui évolue très rapidement et puis elle est arrivée déjà dans tous les smartphones. En fait, on l'utilise si ça se trouve au quotidien sans se rendre compte. Dépendamment de l'utilisation que vous faites de votre smartphone aujourd'hui, mais si vous utilisez des filtres, des outils de modification qui seront disponibles dans les prochains smartphones, si vous faites de la traduction instantanée, si vous utilisez des agents conversationnels, vous êtes déjà en lien avec ces technologies. Ils vont rester, ils vont continuer à se déployer. Moi, je vois ça un petit peu comme les filtres aussi. Tu vois, les filtres qui ont eu… peut-être il y a un filtre, je n'ai pas le nom, je ne suis pas suffisamment sur le réseau social pour ça, TikTok, mais on a des filtres de glamourisation, tu vois, d'un utilisateur qui va avoir une période donnée de fame sur la plateforme et après, on va passer à un autre filtre. Mais pourtant, les filtres ne sont pas tombés en désamour. On continue à les utiliser, c'est rentré dans nos usages de quotidien.
Julien Redelsperger : « C'est-à-dire que la technologie sous-jacente est là pour rester, les usages qu'on en fait peuvent varier dans le temps. »
Naomi Roth : « C'est ça, exactement. Et un dernier point là-dessus aussi, je pense qu'il faudra surveiller, en lien avec l'IA générative, l'avènement des lunettes de réalité augmentée avec l'IA embarquée. Ça commence à devenir aussi un use case sérieux, tu vois, avec les derniers Meta Ray-Ban. Je pense qu'ils vont surfer très fort sur cette vague des assistants personnels et que c'est probablement un des types d'applications qui risque de séduire le public. Alors, les premières versions, non, mais je pense qu'on a une forme d'appétence pour ces agents de poche. »
Julien Redelsperger : « D'accord, OK, très bien. Donc, on a bien compris, l'IA générative est là pour rester. Et un des sujets quand on parle d'IA, c'est aussi la question des dangers, des problèmes que cela peut générer. Tout à l'heure, tu parlais des deepfakes. On peut parler des fake news, on peut parler de désinformation à échelle industrielle, de manipulation, de mensonge. Effectivement, les échéances électorales ont un rôle clé à jouer dans cette frise chronologique. Comment est-ce que toi, tu travailles sur ce sujet ? Comment est-ce que tu l'appréhendes ? Est-ce que tu es inquiète ? Et est-ce que tu y vois un risque pour notre humanité ? »
Naomi Roth : « C'est effectivement quelque chose que je suis de près. Après, je vais commencer par la fin de ta question, parce que quand on parle de risque pour notre humanité, je vais essayer de distinguer là où je me trouve exactement dans mon appréciation pour ce sujet. Par exemple, je ne vois pas de risque existentiel comme ceux qui nous ont été présentés depuis les États-Unis majoritairement, c'est-à-dire une abolition de l'espèce par l'IA générative. Je pense que l'homme est tout à fait capable de s'occuper de son cas tout seul sans l'IA générative et qu'on a d'autres problèmes qui sont plus urgents que ça. Mais si tu veux, ça fait bien, c'est hollywoodien d'avoir comme ça un grand méchant et contre lequel on va s'élever de façon héroïque. Je ne pense pas qu'il y aura une fin de l'humanité par développement de l'IA. Je pense qu'en revanche, si on a trop de « over reliance » sur des systèmes d'intelligence artificielle, si on se repose trop sur des systèmes d'intelligence artificielle, oui, on arrivera à des « megadeaths », à des phénomènes de mort multiples par million, si on est sur des systèmes notamment de santé qui seraient très sensibles. Donc ça, c'est des choses que je pense qui pourraient arriver. Ou le pilotage automatique des véhicules, des avions, des camions, des trains. Oui, voilà. Ce genre d'attaque pourrait faire en sorte qu'on ait des scénarios « megadeaths ». En revanche, dans les dangers qui sont immédiats, évidents et déjà existants pour le court, moyen, long terme, on identifie les risques que tu as donnés en introduction. C'est les « deepfakes », ils ont des risques évidents pour faire sens ensemble et donc faire société ensemble, faire démocratie ensemble. Là, je suis tout à fait d'accord avec les avis qui disent que les démocraties telles qu'on les connaît aujourd'hui sont sensibilisées par le développement de ces technologies, vraiment. Mais il y a d'autres types d'impacts qui existent déjà, qu'on peut voir, qui ont été documentés, comme par exemple ce qu'on appelle la pornographie non consensuelle, où on va avoir des atteintes réputationnelles ou des attaques psychologiques sur des individus, en grande majorité des femmes, ou essayer de faire taire des opposants et opposantes politiques en les mettant en scène dans des scénographies érotiques, pornographiques, contre leur gré et en faisant croire qu'ils se sont livrés à ces pratiques.
Julien Redelsperger : « C'est-à-dire qu'on récupère leur image, leur vidéo, leur voix et on les met en scène dans des films ou des séquences qui n'existent pas en réalité. »
Naomi Roth : « Exactement. Et ça, on le voit notamment en Inde, il y a plusieurs opposants politiques femmes qui ont été victimes de ces campagnes de dégradation. Ça se passe à plusieurs niveaux également. Ça se passe au niveau des écoles, où maintenant il y a des jeunes étudiants qui, au lieu de faire ce qu'on appelle du "revenge porn", vont faire du "deepfake porn" en prenant la photo de leur ancienne petite amie ou de quelqu'un qu'ils n'apprécient pas dans un groupe social et le mettre en scène de cette façon. Donc là, on est sur des impacts qui sont psychologiques très forts et qui sont aussi documentés. On sait que ça pousse les individus à avoir des pensées suicidaires, à se retirer socialement. Ce sont des sujets assez graves. »
Julien Redelsperger : « Effectivement, en matière de harcèlement scolaire notamment, ça ouvre énormément de portes. Et qu'est-ce que ça raconte sur nous, sur notre humanité, sur notre manière de penser et de voir les choses ? C'est un peu terrifiant ce que tu racontes. »
Naomi Roth : « Écoute, ça continue à mettre en lumière certaines tendances de l'humanité, à aller simplement équiper de nouveaux outils. La problématique, c'est que ces outils sont extrêmement faciles à prendre en main. Donc là, on est dans un rapport de force qui n'est pas équilibré. Il faut espérer que les réglementations vont permettre d'apporter un peu plus d'équilibre là-dedans. Mais si tu veux, c'est toujours cette course entre le voleur et le policier. Tu parlais de démocratie aussi. Il y a quelque chose qui me revient en tête, que je trouve assez inquiétant aussi, autour du sujet des démocraties. C'est la désinformation qui devient complètement aujourd'hui industrialisée à cause de ces outils. Tu as une organisation qui s'appelle Newsguard qui prête attention aux sites d'information qui ont été générés par des intelligences artificielles et qui produisent de la désinformation. Il y a un an, il y en avait 150. Aujourd'hui, il y en a près de 800. Et tu vois, ça va très vite. Et sachant qu'il y a un gros risque de manipulation des élections parce qu'il suffit de balancer un deepfake la veille des élections pour faire basculer beaucoup d'intentions de vote. Ça ne coûte rien de faire un deepfake. C'est maximum 500 dollars et une journée. Mais par contre, pour fact-checker ces contenus, ça prend beaucoup plus longtemps et parfois on n'est même pas sûr à la fin de si c'est vrai ou si c'est faux ce qu'on a face à nous. En effet, je suis assez inquiète du développement de ces technologies-là. »
Julien Redelsperger : « Comment est-ce qu'on fait pour s'en prémunir de tout ça ? Que ce soit les enseignants en salle de classe, que ce soit les entreprises ou que ce soit les politiques ? On sait que les mauvais acteurs ont toujours un coup d'avance parce qu'ils maîtrisent la technologie. Quelles sont les barrières qu'on peut mettre en place ? Est-ce que ça passe par la formation, l'éducation, la sensibilisation ou il y a d'autres techniques ? Sachant qu'on est sur du long terme, c'est compliqué. »
Naomi Roth : « Oui, c'est très complexe. Une première ligne de défense, ça va être l'éducation, évidemment, mais c'est un peu comme une épidémie. En fait, tu ne peux pas juste demander aux gens de porter un masque et ça va être suffisant ou de se vacciner. En fait, il faut plusieurs couches de protection envers la désinformation et les deepfakes qui sont en fait une autre forme, si tu veux, de virus informationnel. C'est pour ça que je fais le parallèle avec une épidémie. Donc, l'information au média, l'information à la pensée critique, mais tout ça n'est pas suffisant parce qu'on est dans des contextes où on s'en rend compte que les contextes socio-culturels politiques deviennent de plus en plus complexes, de plus en plus stressants. On porte le poids aussi des tensions internationales beaucoup plus qu'avant et je pense que ça amène les individus à être beaucoup plus négligents face à l'information qui va aller dans leur sens. Tu vois, des biais de confirmation quand on lit les news parce qu'on est déjà fatigué, on est déjà tendu, on est déjà prêt à s'enflammer via les réseaux sociaux. Et donc, la moindre information peut avoir un impact sur nous. L'autre, peut-être, d'autres types de pare-feu qu'on pourrait essayer de mettre en place, c'est des réglementations sur le type de publication au pourtour d'une élection. Est-ce qu'on a le droit de partager même une news qui est brûlante la veille des élections, etc. Tu vois, essayer de protéger le pourtour pour garder un moment de calme et de réflexion dans des moments qui sont cruciaux et qui font basculer un pays. »
Julien Redelsperger : « Toi qui es, je rappelle, un technology advisor, donc tu conseilles les entreprises, les dirigeants sur ces sujets clés de la technologie. Comment est-ce que tu fais pour rester positive ? Comment est-ce que tu fais pour rester optimiste ? C'est quoi ton secret ? »
Naomi Roth : « Écoute, j'essaye de regarder autant les difficultés apportées par l'IA en général et l'IA générative que les possibilités qui sont apportées. Je pense que c'est une hygiène mentale qui est nécessaire parce qu'aussi, il est facile de tomber dans un biais. Il est tout à fait possible de se concentrer sur le négatif et d'avoir tort également, même si les enjeux sont importants. C'est à apporter, si tu veux, un équilibre à tout ça. »
Julien Redelsperger : « Et d'ailleurs, tu t'impliques dans une démarche qui s'appelle Right Tech. C'est un peu en lien avec tout ce dont on vient de parler. Est-ce que tu peux nous en dire plus ? Qu'est-ce que c'est ? En quoi ça consiste ? »
Naomi Roth : « Right Tech, c'est le juste milieu entre la low tech et le high tech. Derrière l'idée de la right tech, il y a cette volonté d'essayer de ne pas déployer de la technologie juste pour déployer de la technologie. L'idée, c'est de s'intéresser vraiment à ses capacités, vraiment aux bénéfices que l'on peut attendre d'un déploiement, s'interroger sur la recherche qui est existante, sur les use case qui sont existants pour voir si ça vaut le coup de déployer. Parce que quand je dis le coup, évidemment, il y a les coûts financiers, mais il y a les coûts humains et il y a les coûts environnementaux. Donc, pour moi, la posture de Right Tech, c'est toujours de garder la tête froide. Quand on est dans un contexte, par exemple, d'entreprise où il y a des enjeux de peur, il faut le dire, à l'intérieur des entreprises, il y a aussi la peur de se faire dépasser, la peur de ne pas être vu comme compétitif, la peur de ne pas pouvoir continuer à embaucher si on n'est pas vu comme une entreprise high tech aujourd'hui. Et je pense qu'il faut autant traiter ces peurs-là que la réalité de terrain et qu'est-ce qu'on peut aujourd'hui augmenter de ces technologies. Parce que j'ai vu énormément, et je veux dire très souvent, l'entreprise se mettre en lien avec l'innovation pour faire du pouvoir concept ou pour faire des applications qui finalement leur fait perdre de l'argent, leur fait perdre du temps, leur fait perdre des collaborateurs. Donc, Right Tech, c'est trouver un juste milieu. »
Julien Redelsperger : « D'accord. Est-ce que c'est aussi une forme de frugalité en se disant on prend le temps, on fait juste ce qui est strictement nécessaire, et effectivement pour des questions notamment environnementales et de coûts, etc. »
Naomi Roth : « Alors, la question du strictement nécessaire, elle est parfois difficile à apprécier parce que quand tu veux faire de l'innovation, des fois, il faut aller un petit peu au-delà du strictement nécessaire. Donc ça, c'est aussi quelque chose qui s'entend au sein de l'entreprise. Mais il y a cette volonté de trouver une réponse qui est juste et qui est équilibrée par rapport aux besoins de l'entreprise, par rapport aux enjeux de l'entreprise et pour les positionner bien entendu d'un point de vue stratégique et compétitif, mais sans entamer leur budget, sans entamer les ressources et sans entamer aussi la confiance des collaborateurs. »
Julien Redelsperger : « D'accord. Ok. Alors, dans tes conférences, je n'ai pas précisé, mais tu animes également et tu organises des conférences. J'ai remarqué que tu parles beaucoup d'un sujet que j'aimerais que tu m'expliques, je ne suis pas sûr de le comprendre, qui est un monde post-virtuel. De quoi s'agit-il et qu'est-ce que c'est tout simplement le monde post-virtuel ? »
Naomi Roth : « Alors, le monde post-virtuel, la définition que je t'en donnerai, c'est un monde dans lequel on ne peut plus distinguer le faux du vrai en étant seulement équipé de nos sens naturels, la vue, le toucher, l'ouïe, l'odorat. Donc, ce monde post-virtuel, c'est un monde dans lequel on arrive, on est en train de tomber modalité après modalité. Et modalité, qu'est-ce que j'entends par modalité ? C'est par exemple le texte, l'image, la vidéo. Tous ces contenus sont aujourd'hui passés du côté du post-virtuel pour moi, c'est-à-dire que récemment, par exemple, on a dépassé la modalité de la voix avec Google Soundstorm qui a produit une intelligence artificielle qui, avec trois secondes d'input audio, est capable de recréer une entière conversation style podcast avec des émotions, avec des intonations et tu n'y vois que du feu. Vraiment, tu n'y vois que du feu. C'est impossible de déceler qu'il y a une intelligence artificielle derrière. D'ailleurs, même si on pense juste à l'écrit, aujourd'hui, tu as 60% des utilisateurs de bot qui n'arrivent pas à se rendre compte s'il y a une IA derrière ou si c'est un humain qui leur répond. Donc, tu vois, le texte est aussi passé en post-virtuel. La vidéo, très récemment, avec Sora, on a des résultats qui sont incroyables, qu'on n'attendait pas aussi rapidement, vraiment, dans l'industrie, qui nous font basculer du côté du post-virtuel pour l'enjeu vidéo. Et puis, je pense que la prochaine frontière, ça va être la musique et les sons d'ambiance. »
Julien Redelsperger : « D'accord. Donc, ça veut dire que l'intelligence artificielle va être là pour créer du contenu, créer quelque chose qu'il est impossible de dire si ça a été fait par des humains ou fait par des systèmes numériques, informatiques. »
Naomi Roth : « Oui, c'est-à-dire qu'à partir de maintenant, quand on est face à un contenu, on ne peut pas savoir s'il est synthétique ou s'il est naturel, s'il est d'origine humaine, s'il a été capté dans un environnement réel ou s'il a été généré par une intelligence artificielle.
Julien Redelsperger : « Et est-ce que c'est un problème ? Est-ce que c'est bien ou pas bien qu'on bascule dans ce monde post-virtuel, selon toi ? »
Naomi Roth : « Alors oui, c'est un problème pour toutes les raisons qui ont été évoquées dans notre discussion autour des deepfakes et des enjeux démocratiques, mais aussi parce qu'on est face à un nouveau phénomène qui vient être appelé « reality apathy », donc être apathique face à la réalité. Et en fait, la définition de la « reality apathy », c'est qu'on n'a plus l'impression qu'on est capable d'avoir un impact positif sur le monde, que c'est devenu beaucoup trop dur. Et ça, c'est créé par le surplus d'informations négatives et de fausses informations qui nous parviennent au quotidien et qui vont créer des sensations chez les individus de vide, de désorientation, d'indifférence, et qui va couper l'envie d'engager avec le monde, d'engager avec le réel. Donc ça, c'est un phénomène qui est très embêtant parce qu'on a plein de challenges à relever aujourd'hui et on va avoir plein de challenges à relever si on a une grande partie de la population qui devient apathique face au phénomène du réel. Ça va devenir compliqué de les engager, de les motiver, de continuer à croire finalement dans un futur commun humain. Je repense aussi à Elon Musk qui tweetait, je ne sais plus quand exactement, il tweete beaucoup mais qui tweetait "if you don't like reality, ignore it". Donc si tu n'aimes pas la réalité, tu as juste à l'ignorer. Et je me demande s'il n'y a pas de plus en plus de personnes qui arrivent à ce niveau peut-être de cynisme, je ne sais pas si cynisme est le bon mot, je pense plutôt à une approche nietzschéenne du monde. Il me semblait aussi important de rajouter dans l'impact de développement des IA génératives et le fait de basculer dans le post-virtuel, de faire appel à une définition de l'information que j'apprécie beaucoup qui est que l'information c'est une habileté à faire des prédictions qui sont supérieures à la chance. Donc on voit bien que l'information est très importante et que l'information est contextuelle. Et si demain les deepfakes ou les contenus synthétiques remplacent pour beaucoup l'information, eh bien on va perdre notre capacité à faire des prédictions qui sont supérieures à la chance. Et là avec toute une liste d'impacts qui sont possibles, économiques, de santé, de société. »
Julien Redelsperger : « D'accord, parfait. Alors on parlait à l'instant effectivement de tous les sujets, tous les enjeux, tous les problèmes notamment liés à l'IA générative. Est-ce que toi tu y vois un lien à un moment donné avec la question de la santé mentale dont on parle de plus en plus, notamment depuis la pandémie de Covid, mais pas uniquement. Est-ce que l'IA générative peut impacter positivement ou négativement ces questions de dépression, anxiété, isolement, etc. »
Naomi Roth : « Alors c'est un sujet qui est très vaste et honnêtement on n'a pas encore la réponse parce que quand tu parles d'IA, il y a autant l'IA qui se trouve derrière les réseaux sociaux qui aujourd'hui on sait sont mauvais pour la santé mentale, que des IA qui vont être des compagnons, qui vont accompagner des personnes qui se sentent seules et en situation d'isolement et qui vont peut-être les aider à revenir vers des relations humaines, leur donner le courage de se tourner vers les humains, leur donner des outils pour se retourner vers les humains, que des IA qui aujourd'hui se développent pour essayer de prendre la place du thérapeute. Alors je n'ai pas beaucoup de retours sur ce type d'IA donc je ne vais pas me prononcer. Ce que je sais c'est qu'il y a beaucoup de gens qui aujourd'hui utilisent l'IA comme psy, c'est-à-dire qu'ils vont se confier à lui en lui demandant des conseils, ce que je ne conseille pas aujourd'hui. Mais apparemment les utilisateurs en sont assez contents et en première intention, quand leur psychologue n'était pas disponible et qu'ils se sont tournés vers une IA compagnon, ils étaient assez ravis du résultat. Il faut voir que ça manque quand même de profondeur, ça manque de contexte, qu'on n'aura pas un suivi comme avec un professionnel de la santé mentale. Et puis même il faut se poser la question de toutes nos confidences, elles finissent dans l'oreille de qui, de quelle entreprise, ça c'est important. Après tu parlais de santé mentale, j'ai envie de revenir sur cette notion aussi d'isolement qu'on peut ressentir depuis les différents confinements auxquels on a été soumis. Il y avait de la solitude avant et puis de la solitude après le confinement, mais j'écoutais une chercheuse de Stanford qui a fait des études post-confinement, justement sur le fait que des personnes avaient perdu la volonté d'essayer de recréer des liens sociaux après les confinements. C'est comme si ça leur avait demandé tellement d'énergie et ça avait été tellement compliqué pendant le confinement et post-confinement qu'ils avaient appris à ne plus se battre socialement, à arrêter de se mettre en relation avec des humains. Et donc ils tombent, ils s'installent dans un isolement qui est chronique. Et ça c'est des populations qui pourraient être les primos utilisateurs de compagnons virtuels type Replica où tu peux avoir un ami virtuel, un meilleur ami virtuel jusqu'à un compagnon, une compagne virtuelle. Et sinon aujourd'hui, ça nous paraît un petit peu peut-être edgy comme type d'application, ça nous paraît un petit peu étrange. Ça peut être un peu étrange effectivement de se dire au lieu de parler à quelqu'un en vrai, je vais parler à un programme informatique. C'est vrai que ça peut nous paraître étrange, mais il ne faut pas oublier que si on vient d'une famille qui est soudée, on a beaucoup de gens autour de nous, on a des amis de plus longtemps, etc. On ne peut pas se mettre à la place des personnes qui souffrent d'isolement chronique. Et la santé mentale qui est affectée par l'isolement chronique, c'est aussi de la santé physique. On sait que l'isolement des humains, ça amène beaucoup plus de cas de cancer chez les individus, de cas cardiovasculaires, donc voilà, des causes de mortalité supérieures marquées chez les personnes qui sont isolées. Donc, ce n'est pas rien non plus d'apporter des outils qui permettent de briser cet isolement. Et je reviens toujours à cette notion de handicap parce qu'on a tendance à oublier que les primos utilisateurs, notamment des mondes virtuels type Second Life, ce sont des gens qui sont handicapés physiques ou handicapés ou d'autres types de handicap, en handicap émotionnel ou qui ont un autisme ou qui ont un stress post-traumatique ou qui ont une phobie sociale. Ça correspond jusqu'à 50% des utilisateurs de Second Life. Et pour eux, ces univers-là, cette virtualité, ce n'est pas une seconde vie, ce n'est pas du virtuel, c'est leur première vie. Et c'est leur source de contact social, c'est leur source de bien-être, c'est leur source d'apprentissage, de découverte, d'émerveillement. Et je pense qu'il faut toujours se rappeler de ça quand on est une personne valide, de se mettre à la place de ces publics qui se tournent vers ce type d'outils. Ce n'est pas forcément des gens qui sont cassés ou à qui il manque une case. En fait, c'est des gens qui ont un besoin et qui l'expriment et qui le retrouvent à travers ces outils. Donc, je pense qu'on va avoir de plus en plus.
Julien Redelsperger : « Les compagnons virtuels, les mondes virtuels, les contenus communautaires qui sont produits par l'IA ou non, c'est aussi une fenêtre sur le monde pour des gens qui n'ont pas forcément accès à d'autres personnes ou à d'autres contextes. »
Naomi Roth : « Oui, tout à fait. Mais qui peut aussi leur permettre de réaccéder au contexte du réel, de se redonner confiance et de se redonner des cadres qui leur permettent d'explorer à nouveau les relations sociales. »
Julien Redelsperger : « Très bien. Alors, depuis le début de cet épisode, on a parlé beaucoup des dangers, des enjeux, de la manipulation, de l'isolement, etc. J'aimerais qu'on termine par une note positive. Est-ce que tu veux bien nous partager une expérience marquante, selon toi, où l'IA a eu un impact positif dans ton domaine d'expertise, que ce soit avec des entreprises, des personnes, des salariés ? Est-ce que tu penses à un sujet qui pourrait être intéressant à partager ? »
Naomi Roth : « Je pense à un sujet qui est très intéressant, mais qui ne sera pas du milieu de l'entreprise. Je pense à ce sujet parce qu'on a beaucoup parlé des risques de l'IA sur la démocratie et j'ai aussi un contre-exemple de l'IA qui permet de faire mieux démocratie ensemble. C'est très intéressant. Ce n'est pas non plus un exemple qui est récent puisqu'il se déroule à Taïwan. Je pense que les premiers tests, c'était en 2015. Est-ce que tu as déjà entendu parler de la plateforme Polis ? »
Julien Redelsperger : « Non, ça ne me dit rien. »
Naomi Roth : « Donc, ça a été pris en main, développé, déployé par Audrey Tang, qui est la ministre des Affaires digitales de Taïwan. L'idée, c'était de pouvoir utiliser l'IA pour faire ressortir des suggestions des citoyens et faire réglementation ensemble, donc vraiment faire une démocratie plus directe dans le sens où… Là, le cas d'étude que j'ai en tête, c'était Uber. Est-ce qu'ils voulaient laisser Uber rentrer à Taïwan et sous quelles conditions ? En fait, ils se sont donné un mois pour partager aux populations en open data. Le gouvernement partageait des datas, mais les citoyens et les entreprises pouvaient aussi partager des datas pour que chacun s'élève sur la question. Ensuite, il y avait une deuxième partie où chacun pouvait faire des propositions de réglementation. Tous les participants vont voter sur les propositions des autres participants. À la fin, on a un consensus qui est une médiation par IA qui se met en place. C'est-à-dire qu'on va voir qui est d'accord avec nous, qui n'est pas d'accord avec nous. On peut faire de nouvelles propositions et on continue à voter et à faire des propositions jusqu'à ce qu'on arrive sur un consensus. Les affaires sur lesquelles il y a un consensus, elles sont intégrées aux réglementations. Et celles où il n'y a pas de consensus, on décide de se donner un an d'expérimentation et on repasse ensuite par Polis pour retrouver un consensus et on continue, etc. Taïwan, c'est un exemple qui est très intéressant de territoire qui utilise l'IA et les IA génératives également au service de la démocratie. C'est un territoire qui évolue très rapidement. Donc, j'en appelle à ta curiosité de creuser sur le sujet si ça te prend du temps. »
Julien Redelsperger : « Absolument, je vais aller voir ça rapidement. En tout cas, un grand merci à toi Naomi. Alors à la fin de chaque épisode, l'invité du jour doit répondre à une question posée par l'invité précédent. En attendant d'écouter la tienne, je te laisse écouter celle de William Eldin, qui est le fondateur de 22, une solution d'analyse vidéo en intelligence artificielle. On écoute la question. »
William Eldin : « Penses-tu que l'humain est assez bête pour se laisser dépasser par une technologie qu'il a complètement créée ? Ou penses-tu que l'humain même, de manière urgente, sa valeur numéro une, c'est la capacité à se sauver, à rebondir et à redevenir un leader de la technologie ? Donc, est-ce que la technologie va guider l'humain dans les prochaines années ou est-ce que l'humain restera à tirer les technologies vers ses besoins ? »
Naomi Roth : « Oui, écoute, je trouve cette question très intéressante parce qu'elle me met dans une position, quelque part, d'essayer de choisir entre l'un et l'autre. Est-ce que l'humain gardera les rênes de la technologie ou est-ce que la technologie l'emportera sur l'humain ? Je pense qu'on est typiquement sur un cas de système complexe où l'outil nous forme en retour, où on essaye d'encadrer un outil mais qui évolue beaucoup plus rapidement que notre capacité à la fois à le comprendre et à le maîtriser. Et donc, je n'ai pas la réponse, malheureusement, à cette question. C'est-à-dire que j'ose espérer que par sursaut, par fierté et par intérêt, l'humain se pose très sérieusement la question de où se trouve effectivement le contrôle. Mais en même temps, je pense que le contrôle, en tout cas aujourd'hui, s'observe un petit peu des deux côtés de la barrière. »
Julien Redelsperger : « D'accord. Donc, on n'est pas dans un univers manichéen, finalement. Ce n'est pas l'un ou l'autre. C'est un peu les deux et les deux évoluent en s'influençant mutuellement. D'accord. Ok, parfait. Je transmettrai à William Eldin qui a posé cette question. Et maintenant, à ton tour, Naomi, quelle question est-ce que tu aimerais poser au prochain invité ? »
Naomi Roth : « Alors, j'aimerais proposer une petite mise en situation pour le prochain invité. J'aimerais lui proposer d'imaginer qu'il, elle, rencontre un génie et qu'au lieu d'exaucer trois vœux, ce génie est capable de répondre à trois questions sur le futur du développement de l'IA, donc sur le futur qui va nous toucher en lien avec le développement de l'IA. Et donc, j'aimerais lui demander quelles seraient ces trois questions. S'il pouvait être sûr d'avoir la réponse sur ce futur, quelles seraient les questions qu'il poserait ? »
Julien Redelsperger : « Parfait. C'est un sujet original, je garde et je transmettrai. Merci beaucoup de ta participation. Naomi, je rappelle que tu es technologie advisor. Merci beaucoup de participer à ce podcast. »
Naomi Roth : « Merci Julien. »