RH : comment donner vie à une base de connaissances avec l'IA
Comment l'intelligence artificielle peut-elle transformer les bases de connaissances en ressources dynamiques et interactives pour les ressources humaines ? Dans cet épisode Kevin Soler, fondateur et PDG de Virteem, explore la manière dont l'IA révolutionne la gestion des connaissances en entreprise. Découvrez comment Virteem utilise l'IA pour rendre les bases de connaissances plus accessibles et utiles, simplifiant ainsi la vie quotidienne des employés et optimisant les processus RH. Kevin partage également sa vision sur les défis et les opportunités liés à l'intégration de l'IA dans les pratiques professionnelles actuelles. Un épisode indispensable pour comprendre l'impact réel de l'IA sur la gestion des connaissances en milieu professionnel.
Kevin Soler est le CEO et fondateur de Virteem, une société française de réalité virtuelle et d’IA au travers de Virteem Companion. Il est business angel, auteur et ex sportif de haut niveau (6 records du monde en street workout). Spécialisé dans la tech depuis son plus jeune âge il est reconnu comme l’un des acteurs français du web 3 et de l’IA. Il a écrit le livre « comment j’ai sauvé ma boite » à la suite d’une mauvaise association, où il explique les différentes étapes par lesquelles il est passé.
Kevin Soler
Fondateur et PDG
Julien Redelsperger : « Et pour cela j'ai le plaisir d'être accompagné par Kevin Soler qui est fondateur et PDG de Virteem et qui a déjà vécu 1000 vies en tant qu'entrepreneur, qui a sauvé sa boîte au bord de la faillite et qui en a sorti un livre, mais aussi en tant que sportif de haut niveau où il dispose de 6 records du monde, de street workout. On pourrait aussi parler de ses activités de business angels ou de conférenciers, mais aujourd'hui on va principalement se concentrer sur l'intelligence artificielle. Bonjour Kevin, merci de participer à cet épisode d'AI Experience. Comment vas-tu ? »
Kevin Soler : « Salut Julien, ça va super bien. »
Julien Redelsperger : « Kevin, avant de commencer et de rentrer dans le vif du sujet, est-ce que tu peux nous présenter rapidement ton entreprise qui était au départ spécialisée sur la réalité virtuelle et réalité augmentée, mais qui se développe maintenant sur l'IA. C'est bien ça ? »
Kevin Soler : « C'est exactement ça. Alors en fait, Virteem était donc spécialisé, et on l'est toujours, sur la réalité virtuelle. En fait, on a une business unit spécialisée sur la réalité virtuelle où on développe le concept qu'il y a deux types de métavers existants, le métavers light et le métavers lourd. Le lourd typiquement, c'est ce qu'on a pu voir qui a fait un bad buzz avec des central hands, sandbox, Roblox, etc. Et nous, on va plutôt aller sur des enjeux de métavers light qui seraient des sortes de visites virtuelles améliorées avec des chats, des choses en temps réel, des prises de rendez-vous, des calls to action, etc. Ça, c'est le métier historique de VeeR Team. Sauf que maintenant, un peu plus d'un an, on a développé une deuxième BU. Donc, ce n'est pas un pivot, c'est vraiment un rajout stratégique de notre part d'aller sur l'intelligence artificielle, puisqu'on adressait essentiellement déjà des marchés autour de la RH, du QSE, de l'aide à la vente et du ticketing. Donc, on s'est dit, on a déjà les clients, on a une solution en interne qui fonctionne. Donc, j'en parlerai un petit peu plus, j'imagine, tout à l'heure sur comment la développer. »
Julien Redelsperger : « Qu'est-ce qui fait que tu as pris la décision, toi et tes équipes, j'imagine, de développer une BU sur l'intelligence artificielle ? Est-ce que c'est le buzz de l'IA générative, la sortie de ChatGPT ou tu y pensais depuis très longtemps ? »
Kevin Soler : « En fait, c'est un mix de deux choses. La première, c'est le fait que j'ai interrogé mes équipes il y a à peu près une année, un peu plus d'une année, sur les tâches rébarbatives qui étaient faites en interne d'essayer de comprendre les choses sur lesquelles on n'avait pas de valeur ajoutée. Puisque dans mon métier historique, à la réalité virtuelle, il y a pas mal de tâches qui sont rébarbatives, surtout sur la partie gestion de projet. Et quand tu es dans une scale-up, une société qui grossit rapidement, tu recrutes des gens et tu as beaucoup de sujets autour de ce qu'on appelle la knowledge base ou le knowledge management, c'est-à-dire la connaissance de l'entreprise en tant que telle, les clients que tu adresses, le pricing de tes offres, la convention collective pour les congés, etc. Donc on a trouvé ce use case assez intéressant puisque quand on onboardait des gens, c'était long pour eux alors qu'on était encore petits et qu'il fallait trouver une solution pour synthétiser et automatiser ça plutôt que d'aller solliciter son collègue. Donc c'est là qu'on a déjà pensé à l'IA puisqu'on avait remonté ce cas d'usage là interne et on s'est dit peut-être que l'intelligence artificielle peut nous aider là-dessus. Et deuxième point qui s'est passé au même moment, c'est une rencontre avec à l'époque un stagiaire que j'ai rencontré, Paul-Alexandre, qui était dans une entreprise qui était mon cabinet de M&A et de conseil, qui était un peu mon board externalisé et qui m'avait déjà parlé de l'IA parce que c'est un passionné et à force de parler de l'IA, c'est rentré dans ma tête et quand on a eu ce meeting avec mon équipe, j'ai dit je pense qu'il faut qu'on en parle avec Paul-Alexandre puisque lui a peut-être des solutions existantes sur l'intelligence artificielle et c'est parti de ça en fait à la base. »
Julien Redelsperger : « D'accord et cet outil donc ça s'appelle, si je ne me trompe pas, Virteem Companion, c'est bien ça ? »
Kevin Soler : « Tout à fait, écrit en anglais, on ne met pas le G, on met le N. »
Julien Redelsperger : « Comment est-ce que tu expliquerais, comment est-ce que tu résumerais son usage, son utilité ? C'est quoi ? C'est une IA générative qui permet d'accéder à une base de connaissances et on y pose des questions et elle répond en direct, c'est ça, en temps réel ? »
Kevin Soler : « Oui, c'est très bien pitché en fait. Pour une comparaison que tout le monde comprendra, imaginons que c'est chat GPT, sauf qu'au lieu d'aller récupérer ses réponses sur internet, il les récupère dans la base de connaissances de l'entreprise et que, et ça c'est très important, je mets vraiment, j'écris tout en majuscules là quand je le dis, c'est basé en France, la donnée reste en France et ça répond aux prérogatives de l'IA Act, IA Act qui est voté mais qui n'est pas mis en pratique dans les faits. Maintenant nous on s'est dit dès le départ, si on le fait, on va le faire bien et on va le faire de manière européenne et surtout française puisqu'on sait qu'on ne veut pas que les données fuitent, dans chat GPT tu poses des questions, les réponses qu'il va te donner, les questions que tu vas donner etc. tout ça va dans un endroit, c'est un peu les méandres, on ne sait pas trop où ça part et comment ça va être utilisé. Nous l'idée c'est vraiment que ça reste éthique et je pense que c'est un des points clés aujourd'hui et ça c'est l'élément le plus important. »
Julien Redelsperger : « D'accord, donc de manière schématique, toutes les connaissances de l'entreprise, d'ailleurs qu'est-ce qu'on appelle une connaissance dans l'entreprise, qu'est-ce qui nourrit cette base de connaissances ? »
Kevin Soler : « C'est une bonne question, alors j'aime bien le faire par cas d'usage puisque en fait la base de connaissances elle est générale certes mais elle est niche par rapport à des demandes bien spécifiques. L'exemple RH marchait très bien tout à l'heure, tu vois typiquement tu rentres dans une entreprise, si tu es un grand groupe comme Orange, tu te dis j'ai besoin de poser des congés, c'est quoi la procédure ? J'ai perdu mon badge pour aller à la cantine, comment ça marche ? Tout ça aujourd'hui c'est documenté, c'est obligatoire parce que forcément quand tu rentres tu es obligé d'avoir ces infos, c'est documenté comment ? Souvent ce sont des PDF, des SharePoint qui sont mis à disposition des collaborateurs, sauf que quand tu as une question tu n'as pas la réponse directement, tu dois fouiller dans les documents pour trouver la réponse à ta question. Très souvent il y a plein de documents différents, tu ne sais pas dans lequel fouiller et une fois que tu rentres dans le document et que tu vois qu'il y a 89 pages, c'est long à trouver ta réponse et potentiellement tu ne la trouves pas exactement. Là, l'IA fait un travail remarquable puisque nous au lieu d'avoir à chercher dans ce document tu vas l'intégrer dans Virtim Companion, tu vas lui poser la question de j'ai perdu mon badge, comment ça marche ? Et là il va te répondre directement en allant scraper l'information dans le document. Il y a un point qui est clé, donc on utilise le RAG et on ne va pas changer la réponse, changer la donnée, on va réutiliser ce qui est marqué dans le document pour être sûr d'avoir une donnée qui soit, une réponse qui soit pertinente. C'est très important puisque on le voit des fois, ChatGPT, il nous donne des réponses, on ne sait pas trop, il invente un petit peu et là c'est ce qu'on ne veut pas justement, on veut que la réponse soit précise et qu'elle se base sur les documents de l'entreprise. »
Julien Redelsperger : « Mais aujourd'hui Kevin, toutes les entreprises utilisent SharePoint, Google Drive ou Dropbox, en quoi ta solution est différente ? Parce que les solutions des GAFAM ont déjà des outils d'intelligence artificielle qui sont souvent natifs. »
Kevin Soler : « Alors oui, si je prends l'exemple de Copilot, l'usage le plus intéressant chez eux, c'est de résumer une réunion, ce qui n'est pas du tout notre cas d'usage. Comme je te disais, nous l'idée c'est de récupérer la base de connaissances, de l'intégrer dans le modèle et de lui poser une question, d'avoir une réponse. Ce qu'on pourrait comparer, qui est même éloigné malgré tout, mais en termes d'usage technologique et d'usage pur, c'est les FAQ. Une foire aux questions. Tu as des entreprises, typiquement dans le médical, pour leurs collaborateurs en interne, la foire aux questions, "Bah sûr, j'ai perdu mon badge, comment ça marche ?" etc. La différence, la FAQ, il faut quand même aller chercher qu'il y ait une question qui soit la même que celle que tu te poses ou très similaire. Donc tu dois te palucher toutes les questions. Là, on va beaucoup plus vite puisqu'on pose la question au modèle et c'est le modèle lui-même qui nous amène la réponse. Donc il n'y a pas ce travail de recherche en amont. Et je vais te donner un chiffre. On a mené des études pour voir si on était les seuls dans ce cas-là ou pas. Et tu as une étude de McKinsey qui dit d'ailleurs que tu perds 1,8 heures par jour par collaborateur à chercher un document interne à l'entreprise que tu ne trouveras d'ailleurs pas. 1,8 heures par jour. Et ça, ce sont des études très sérieuses. Il y en a plein. Des chiffres comme ça, j'en ai plein. Donc c'est impressionnant. Quand on a vu le chiffre, on a halluciné de se dire "Comment aujourd'hui tu peux imaginer dans des groupes où il y a 10, 15, 20, 30 000 collaborateurs, il y a plus d'une heure par jour perdue par collaborateur à chercher une info".
Julien Redelsperger : « Et donc aujourd'hui avec Virteem Companion, qui est responsable de maintenir cette base documentaire ? C'est quoi ? C'est les services RH qui la nourrissent avec le règlement intérieur, des guides, des bonnes pratiques, etc ? »
Kevin Soler : « Eh bien, ça va dépendre du use case en fait. Puisque là, on parle du use case RH puisqu'il est simple à comprendre. Maintenant, tu vas avoir d'autres use case, typiquement ce qu'on appelle pré-sale ou aides à la vente. Là où tu as, je prends des exemples, tu as des grandes sociétés, leur métier c'est de vendre du matériel à d'autres grandes sociétés, typiquement des ordinateurs. Et souvent le cas d'usage est simple, on imagine il y a 50 000 références de produits. Comment un commercial va aller adresser son appel d'offre ? Eh bien, il va aller regarder les notices des 50 000 références qui pourraient correspondre, les comparer et te proposer peut-être trois modèles différents. Là, la différence c'est qu'on va mettre toutes tes notices dans Virteem Companion, on va lui poser trois, quatre questions dans le prompt et lui va nous sortir les références qui pourraient correspondre. D'autant plus que le commercial, quand il fait ce travail, les documentations ne sont pas tout le temps au même endroit, ce n'est pas écrit de la même manière, parfois c'est à la page 1, des fois c'est à la page 8. Donc en fait, il faut vraiment qu'il regarde la totalité de la documentation alors que seulement une infime partie de cette doc va concerner sa question. Eh bien là, Virteem Companion gagne du temps puisque tu poses la question et tu as la réponse directement de ce que tu cherches. Donc là, pour le coup, on va plutôt travailler avec soit les directeurs des ventes, soit de l'innovation, soit des DSI, soit des DRH. Donc c'est eux qui vont gérer derrière la donnée. C'est important ce que tu dis puisque nous, on n'est pas responsable de la donnée, c'est vraiment le client lui-même qui vient mettre ses documents à l'intérieur du système ou dans des cas particuliers, on nous demande une API pour aller appeler le SharePoint de l'entreprise par exemple pour avoir un système qui fait qu'automatiquement, ils ont tout le temps les derniers documents à jour. Il n'y a que plus d'un cas sur deux, on va conseiller que ce soit pas le cas puisque ça leur permet vraiment de dissocier ces deux usages différents, un SharePoint où tu glisses toute la documentation d'entreprise versus un Compagnon comme le nôtre où tu vas avoir des cas d'usage très spécifiques et tu veux qu'il y ait moins de docs mais des docs précis sur les questions qui vont être posées, c'est pas tout à fait le même usage. Maintenant, les deux sont tout à fait possibles. Donc c'est soit les DRH, soit les DSI. »
Julien Redelsperger : « D'accord. Tu connais sans doute l'expression "garbage in, garbage out", c'est-à-dire de la qualité des informations que tu fournis à un système d'IA dépend de la qualité de ce qui va te ressortir. Quels conseils est-ce que toi tu donnerais à tes clients ou personnes qui utilisent l'IA en général pour fournir justement des documents de bonne qualité, pour avoir des outputs qui vaillent la peine ? »
Kevin Soler : « Alors c'est une question un peu tricky parce qu'il y a plein de choses. Je dirais que la bonne nouvelle c'est qu'il y a, elle est quand même vachement intelligente pour comprendre ce qui est bien, ce qui est pas bien. La seule chose qu'elle sait pas faire, et c'est pareil qu'un humain, parce que souvent c'est une question qu'on nous pose, "que se passe-t-il si j'ai deux documents qui se contredisent ?" Et c'est souvent la vraie question, c'est "ok, l'IA va répondre comment, elle prend partie pris où ?" Et en fait, tu as plusieurs réponses possibles, ça va dépendre de ton modèle d'IA. Nous, ce sur quoi on travaille c'est d'essayer de dire "bah aujourd'hui j'ai deux documents qui se contredisent donc je peux pas prendre de décision". Là où tu as des IA des fois qui vont halluciner à ce moment-là, donc essayer de produire une réponse qui n'a strictement rien à voir. Ça arrive souvent. Donc dans la qualité des contenus, je dirais que la première chose à faire c'est de faire en sorte qu'il n'y ait pas des contenus qui se télescopent dans la réponse. Pour moi c'est ce qui est le plus important, puisque même s'il y a des contenus un peu moins qualitatifs, je trouve que l'IA fait un super job là-dessus de savoir rendre des fois qualitatif une information qui ne l'est pas forcément dans sa façon dont elle est écrite. Encore une fois, parce qu'elle sait bien rephraser de manière générale et d'englober ça dans un contexte. Surtout que nous, ce qui est le cas, c'est qu'elle prend très rarement un seul document pour donner une réponse. En fait, elle va prendre une multitude de documents. On fait un mix entre du RAG et du champ sémantique, c'est un espèce de micmac des deux, ce qui fait que tu as une réponse qui est super complète. Et l'IA, là où elle fait bien son job, nous ou ailleurs d'ailleurs, c'est que tu peux, une fois que tu as ta réponse, l'IA générative, tu peux lui dire "fais-moi ça sous forme de bullet point" ou alors "diminue-moi la taille de la réponse parce que c'est trop long" et c'est là où c'est super puissant en fait quand tu regardes. Maintenant, sur la qualité des contenus, je pense que globalement toutes les entreprises aujourd'hui ont un vrai travail, puisque on avait sous-anticipé le besoin de la qualité des documents. Et d'ailleurs, on le voit, alors nous on peut pas faire de magie là-dessus, parce qu'on n'a pas notre rôle à jouer. En revanche, il existe beaucoup de ce que je vais appeler d'intégrateurs ou de sociétés de conseils qui sont spécialisées là-dedans, dans le traitement du knowledge management ou de la knowledge base, et où il faut en sorte de mapper ce qui manque ou ce qui manque pas. Nous, on a apporté un bout de réponse, je te dirais, qui est en fait le côté collaboratif de Virteem Companion, qui marche de la manière suivante. Quand tu poses une question à l'IA, admettons, je sais pas, j'ai perdu mon badge à la cantine, c'est quoi la procédure ? Admettons que j'ai aucun document dans la knowledge base qui réponde à ça. Donc l'IA va te dire "désolé, j'ai rien qui répond à ça". Toi, tu as une capacité en tant qu'utilisateur de lui donner une réponse en disant "moi je pense que la procédure c'est ça". Cette réponse est envoyée dans le dashboard des managers, qui doivent obligatoirement le valider pour que ce soit rentré à l'intérieur de l'IA et que la prochaine fois que la question est posée, on ait cette réponse qui soit intégrée. Pourquoi on fait ça ? Parce qu'il faut une validation humaine, obligatoirement, pour pas que tu puisses apprendre n'importe quoi à une IA. Ça c'est un vrai souci aussi actuel, c'est que chat GPT tu peux le rendre raciste en 30 secondes. Là, le but, c'est que tout doit être validé par de l'humain chez eux, chez chaque client. Et en fait, ce côté collaboratif va t'aider à, je dirais, augmenter la taille de ta knowledge base par rapport à du collaboratif des collaborateurs. 9 fois sur 10, ils ne sauront peut-être pas la réponse ou ils auront une bribe de la réponse, mais ça permet aussi aux managers en face de dire "ah, ils m'ont suggéré une réponse là-dessus, c'est que mon document ne le traitait pas. Peut-être qu'il faut que je produise un document qui va traiter ça ou alors on va implémenter la réponse ou modifier un petit peu la réponse qui a été donnée pour l'implémenter dans le système le temps qu'on fasse un vrai document qui traite cette question. Et ça leur permet aussi de voir un truc tout bête et on voit qu'il y a un vrai retard là-dessus. À quel endroit j'ai des trous dans la raquette sur les documents et sur les réponses que les collaborateurs peuvent se poser ?
Julien Redelsperger : « Il y a un côté un peu Wikipédia finalement. Chacun peut contribuer à hauteur de ses connaissances pour améliorer justement la qualité de la base de connaissances. »
Kevin Soler : « Exactement, puisque même si tu as une réponse et que tu estimes qu'elle est très bonne, tu peux lui dire "ok, la réponse était très bonne, merci". Et l'idée c'est que par rapport à ça, tu as aussi les managers qui disent "ok, ça c'est top, on sait que ce contenu il est génial. Maintenant celui-ci, ça fait trois fois qu'on vient, qu'on a une réponse qui tire des informations de ce document et on voit qu'à chaque fois c'est un bonhomme qui tire la gueule. Donc du coup peut-être que ce document il faut qu'on le revoit". Et je pense que c'est important parce que c'est très dur quand tu pars de rien d'améliorer ta knowledge base sans vraiment savoir où aller. Et en fait on a tous beaucoup de données quand on regarde même les petites structures, sachant que pour structurer la donnée, c'est un travail qui demande un travail de titan.
Julien Redelsperger : « Est-ce que toi et tes équipes qui ont développé votre propre modèle d'IA génératif ou est-ce que vous utilisez un modèle ou une technologie existante du type, je sais pas, ChatGPT, Gemini ou autre ? »
Kevin Soler : « Alors surtout pas, puisque du coup on a dit que ça restait en France. Mais du coup oui, on se base forcément sur un système existant open source, d'une version qu'on a travaillée nous bien entendu, mais je dirais le noyau initial, c'est basé sur Mistral, forcément. On voulait absolument encore une fois que ça soit français et qu'il n'y ait pas de problème sur la donnée etc derrière. Par contre on l'a énormément fine-tuné, si j'utilise le terme, pour répondre à nos cas d'usage. J'aime bien le dire, l'IA c'est très puissant quand on répond à des enjeux niche, quand on veut répondre à tout et à n'importe quoi en même temps, d'un coup la pertinence de l'IA est beaucoup moins bonne.
Julien Redelsperger : « Et ça veut dire que les équipes de Mistral ne voient pas ce que requêtent les utilisateurs derrière, c'est vraiment confiné dans le système de Virteem Companion ? »
Kevin Soler : « Exactement. »
Julien Redelsperger : « Est-ce qu'il y a des techniques particulières que vous utilisez en termes de sécurité, en termes de protection des données personnelles etc ? Est-ce qu'il y a une équipe qui travaille, qui réfléchit sur le sujet ? »
Kevin Soler : « On a justement une chercheuse sur la partie, sur tout le pôle R&D qui travaille. Elle a un PhD sur le sujet donc c'est assez pratique et c'est assez rare aujourd'hui de trouver des gens qui sont très qualifiés là-dessus. Moi, mon domaine, je vais être beaucoup moins technique dans la réponse là-dessus. En revanche, nous on le sait, on parlait de d'IA éthique tout à l'heure. Il y a deux choses, il y a la fuite des données à l'extérieur, on en parlait, tu as l'exemple de ChatGPT qui s'est fait attaquer par je sais plus quel magazine parce qu'ils ont tourné un article dans le sens inverse. Tu as un procès aussi en cours avec le New York Times parce que ChatGPT a pompé en gros toute la base d'articles du New York Times pour entraîner son LLM. Exactement et le problème c'est qu'en plus des fois il peut ne pas bien avoir compris l'article et le tourner dans le sens inverse, surtout que des fois la presse ça te laisse l'ouverture sur ça peut être d'un côté ou de l'autre côté. Donc c'est un peu la difficulté. Nous, volontairement, on ne voulait pas qu'il y ait ce côté fuite de données vers l'extérieur et fuite de données à l'intérieur du modèle. Typiquement, si je pose 200 fois la question "est-ce que tu es raciste, est-ce que tu es raciste, est-ce que tu es raciste" pour essayer de le tourner pour ce qui devienne raciste, nous on ne veut pas que ce soit le cas puisque comme je te disais, il n'apprend que quand il y a une validation humaine. Donc ça, la protection des données, elle passe aussi par ça. Et on a un autre point, alors même si les deux modèles sont possibles chez nous, mais aujourd'hui 99% du temps on va vendre un modèle où on ne vend pas un modèle économique à l'utilisateur, ce qui sous-entend qu'il n'y a pas besoin d'être logué, on le vend en bundle de requêtes. C'est comme ton mobile, quand tu vas à l'étranger, tu vas pouvoir consommer 100 gigas d'internet par exemple, donc ça, ça fait partie de ton forfait, puis quand tu veux 50 gigas de plus, ça coûte x, y ou z. Donc là, nous c'est un peu le système puisque je trouve que c'est contre-productif quand tu commences à loguer les utilisateurs, puisque derrière on connaît les questions qui ont été posées, d'autant plus que l'idée de l'IA, c'est de dire, je prends le cas RH à nouveau, ça va parler à tout le monde, si je pose la question sur les congés, ce n'est pas une question que j'aurais posé en face-to-face. Si demain je la pose à une IA, je veux que ce soit anonyme. Si je la pose mais que ce n'est pas anonyme et qu'on va pouvoir scraper que c'est moi qui ai posé cette question, c'est la même chose que si je la posais en face-to-face à quelqu'un. Donc ça, c'est un autre moyen aussi de protéger la donnée personnelle des utilisateurs et de favoriser finalement le plus de challenge possible autour de l'IA pour que ça soit utilisé.
Julien Redelsperger : « Les utilisateurs ne sont pas identifiés, c'est-à-dire que quand moi je pose une question dans le système, le système ou la personne en face ne sait pas que c'est moi qui l'ai posé. »
Kevin Soler : « Exactement, sauf quand je vais pouvoir suggérer une réponse, je note qui c'est, puisque c'est intéressant qu'on sache qui est la personne en face, puisque au moment où le manager édite et valide ou supprime ou valide directement la réponse, la personne qui a proposé une réponse ou une bribe de réponse va recevoir un mail en disant "on a répondu à la totalité de votre question, il y avait ça, ça, ça, ça en plus", par exemple. Donc lui est au courant que ça rentre dans le modèle et que sa contribution a eu du sens. Là pour le coup, il faut qu'on sache qui c'est pour que ça lui envoie un mail en lui expliquant que ça a bien été intégré. Donc effectivement des questions sur les congés payés, les augmentations salariales, les représentations syndicales, des choses qui peuvent être un peu parfois compliquées à exprimer face à un responsable RH, là dans ce cas-là, tout se fait directement via ton système par l'IA. C'est ça, sauf, attention je mets un "sauf" puisque tu n'es pas identifié, les questions ne peuvent pas être nominatives, c'est-à-dire que je ne peux pas dire "Kevin a le droit à combien de jours de congé à partir du mois de septembre ?" et l'idée c'est de ne pas aller là-dedans justement, puisque aujourd'hui ça poserait des vrais soucis de confidentialité sur "je peux me faire passer pour quelqu'un d'autre" ou "je peux prendre les accès d'un collègue et avoir accès à des informations dont je n'aurais pas le droit d'avoir" et ça c'est très important. C'est pour ça qu'aujourd'hui on l'utilise vraiment dans des cas d'usage où la donnée, globalement, j'ai pas de problème à ce qu'elle fuite en interne de la société. Donc encore une fois, si c'est ta convention collective qui dit que tu as le droit à deux jours et demi de congé par mois ou que ton badge quand tu l'as perdu c'était la procédure, c'est pas grave que tous les collaborateurs le voient puisque ça les concerne. En revanche, tu as des cas d'usage qui nécessitent d'aller logger, c'est pour ça que je disais 99 fois sur 100 on va vendre nous une solution où il n'y a pas besoin d'être logué, par contre il y a le 1% où ça arrive qu'on doit vendre avec du login, exemple tout bête, j'ai un chat pour les managers parce qu'ils ont accès à des contenus supplémentaires qui ne sont pas ouverts à d'autres personnes, donc quand ils posent certaines questions on couvre la réponse différemment avec des contenus ++ versus d'autres collaborateurs qui n'ont pas accès à ça. Donc ils ont deux chats différents et côté manager, il faut se loguer en amont pour pouvoir avoir accès à cette base un peu plus établie ou alors cette base différente. »
Julien Redelsperger : « D'accord, en début d'entretien tu parlais d'hallucination, je réexplique rapidement pour nos auditeurs, les hallucinations dans l'IA c'est quand le système d'IA invente de manière très convaincante des faits qui n'existent pas, des dates, des personnages etc. Comment est-ce que toi avec Virteem Compagnon tu traites ces sujets ? Tu disais qu'il y en avait très peu, comment c'est possible et c'est quoi vos procédures en interne ? »
Kevin Soler : « C'est une excellente question très technique, donc je vais essayer de répondre le plus simplement possible puisque de toute façon sinon je vais me perdre moi aussi et que effectivement, là j'ai la chance d'avoir une équipe et d'avoir Paul-Alexandre qui porte vraiment le projet chez nous sur ce sujet là, qui connaît par coeur. On a une chance folle, l'hallucination elle est limitée à partir du moment où la knowledge base elle est qualitative et vu que nous on ne se base pas sur internet, tu as moins de chances d'avoir une hallucination là où tu as des documents qui vont répondre à des choses assez précises sur des raisons pour lesquelles on a monté un chat. Encore une fois, quand tu prends un chat GPT, il répond à tellement de choses différentes, type compatibilité astro et la date d'une guerre, là où nous ça va être sur des choses qui sont vraiment basées sur la documentation de l'entreprise. Je te donne un cas d'exemple, un cas d'usage qui nous est arrivé tout à l'heure. Je faisais une démonstration à un grand groupe industriel et je pose la question "Qui est Kevin Soler ?" Donc dans l'idée, il n'y a rien dans la documentation et là d'ailleurs, l'IA me répond "Dans le contexte qui m'est fourni, donc dans les documents qu'on m'a donné, j'ai rien qui traite de Kevin Soler. En revanche, ma base va plutôt traiter des sujets de la QSE. Donc si vous avez des questions autour de la QSE, je saurais vous répondre. Maintenant, je ne traite pas des personnes spécifiques." Donc là, c'est intéressant de voir que la réponse, tu vois, il n'a pas essayé d'halluciner en disant "Mais je pense que Kevin Soler est un ancien je sais pas quoi." Et ça, l'hallucination, c'est qu'il essaye toujours, il va forcer une réponse en général, pour essayer de te dire "Je te trouve quand même une réponse, même si je ne sais pas trop, je vais te mettre un truc un peu bizarre." Donc ça, c'est une des réponses. La deuxième, c'est qu'en fait, l'hallucination, on la mesure avec un pourcentage et nous, on arrive sur de l'ordre d'hallucination autour de 4 à 5% pour expliquer à ceux qui nous écoutent. C'est globalement le même niveau d'hallucination qu'un ChatGPT aujourd'hui, qui comprend des milliards de paramètres. Et donc, sachant qu'on se base sur un LLM qui en a beaucoup moins, 7 milliards de paramètres, le nôtre, ce qui est beaucoup, beaucoup moins. Tu prends le dernier d'Elon Musk, c'est, si je ne dis pas de bêtise, 218 milliards, un truc comme ça de paramètres. C'est énorme. Et le nouveau ChatGPT, ça va être, c'est un trillion, c'est plus d'un trillion de paramètres. Donc, on imagine plus il y a de paramètres, forcément, plus l'IA, elle est puissante, elle est performante. Malgré ça, on arrive à avoir ces taux d'hallucination faibles parce qu'encore une fois, on est sur des cas d'usage qui sont basés sur la documentation de nos clients. Plus, nous, on a travaillé, je suis désolé pour les équipes techniques qui vont m'écouter chez moi, mais on a fine-tuné le modèle, c'est-à-dire qu'on lui met des guardrails en lui disant à quel moment tu ne sais pas qu'est-ce que tu dois dire, si tu ne sais pas comment tu dois réagir. Et c'est un travail de fond pour éviter les hallucinations. C'est pour ça qu'on a des PhD qui travaillent sur le sujet et leur rôle à eux, ça va faire sourire, c'est des fois c'est diminuer de 0,02% une hallucination sur le modèle et ça paraît microscopique, mais en fait, c'est un travail de titan. Donc, on a toute une procédure. Je ne vais pas rentrer dans les détails techniques parce qu'encore une fois, c'est très technique et c'est très spécifique, mais nos cas d'usage font que nos méthodes de travail, le fine-tuning initial et le choix du LLM initialement utilisé n'a pas été fait par hasard. Il a été aussi fait pour ça.
Julien Redelsperger : « Qui sont tes clients ? Dans quel secteur d'activité ou quelle taille d'entreprise ? Si jamais tu ne peux pas les nommer. »
Kevin Soler : « Je ne vais pas les nommer spécifiquement, mais aujourd'hui, ce qu'on voit, c'est que tu as des vrais enjeux RH. Et nous, encore une fois, c'est un sujet qu'on connaît bien puisque c'est ce qu'on adresse depuis toujours sur Virteem, sur la branche traditionnelle VR. Il y a des vrais enjeux RH parce qu'on veut du support pour les RH, on veut du support pour les équipes et on veut du support en temps réel et qualitatif. On veut vraiment aider les équipes à avoir accès à des choses qui aujourd'hui leur sollicitent du temps et sur lesquelles ils ne sont pas productifs. Donc quand on parle de RH, on parle déjà de sociétés qui ont une certaine taille. C'est vrai que des boîtes qui ont en dessous de 250-300 salariés, c'est compliqué, sachant que l'IA coûte encore cher. Elle coûte cher pour diverses raisons, pour la technologie et le travail de R&D qui est fait derrière, et aussi et surtout par rapport au coût des serveurs, qui est encore, j'utilise le terme anglais, mais qui n'est pas mainstream. C'est-à-dire que c'est compliqué de trouver un provider qui va te vendre des serveurs qui soient assez puissants pour faire tourner l'IA sans que ça te coûte des milliers, voire des dizaines de milliers d'euros par mois, en fonction de ce que tu utilises. Ce qui plus est, en gardant les guardrails de "il faut que ça reste made in France", "il faut qu'il y ait des normes derrière", "il faut que tu aies un SLA qui te permette de, si jamais il y a une coupure, dédommager ton client parce qu'il a eu une coupure". Voilà, toutes ces prérogatives-là nécessitent d'avoir des serveurs qui coûtent cher. Donc mes clients vont être soit des boîtes qui ont des services RH assez importants, donc on peut nommer des banques, des assurances, du médical, mais pas sur de la donnée de santé, plutôt des laboratoires, pour aider à la vente, des gros intégrateurs ou des SS2I, des sociétés qui vont utiliser beaucoup d'intérimaires. Donc là, on va plutôt travailler la branche QSE, beaucoup d'industrie ou de BTP. Typiquement, on a des collaborateurs intérimaires qui ne connaissent pas la procédure, si jamais il y a une chute de matériaux, comment ça marche. Donc là, ça va être un moyen de solliciter le compagnon et tout de suite qu'on nous dise "la procédure c'est ça". Voilà les trois priorités à mettre en place quand il y a un nouveau collaborateur qui est tombé, qui a fait une chute ou ce genre de choses, pour sauver des vies. Et derrière, tout ce qui est ticketing. Et le ticketing, ça peut être autant du public, sur des départements, des villes, des régions, que sur des grandes sociétés qui ont un système de ticketing qui n'est pas forcément très optimisé pour aller trouver la réponse à son problème rapidement. »
Julien Redelsperger : « D'accord, le ticketing c'est j'ai un problème ou une question, je crée une requête dans un système informatique et ensuite le support client revient vers moi, c'est ça ? »
Kevin Soler : « Souvent c'est la DSI et souvent ça les embête d'aller répondre à "j'ai une erreur de boîte mail, donc le mail ne s'envoie pas quand j'écris". Donc aujourd'hui, ils envoient un email où ils ouvrent un ticket à la DSI, j'ai tel problème. Le problème a été résolu souvent mille fois avant, sauf que c'est très rare que les sociétés aient historisé en fait les réponses aux problèmes et même si elles l'ont fait, puisqu'il existe des solutions très bien qui existent sur le marché, le problème c'est que dans l'historisation qui a été faite, les gens n'ont pas envie de s'embêter à chercher. Du coup, et même si tu as un moteur de recherche, donc ils se disent "ouais, c'est un peu différent". Là, la différence c'est que vu que tu es sur de l'IA générative, tu peux lui dire "j'ai une erreur 404 où j'ai un problème SMTP", lui va te suggérer la réponse. Si tu dis "ok, mais ça m'a créé un nouveau problème", vu que c'est générative l'IA, tu peux échanger avec le modèle, il va te dire "ah bah oui, j'ai déjà eu quelqu'un qui a eu le même problème que toi, ça a créé un second problème, voilà ce qu'il faut que tu fasses". En fait, ce qui nous embête aujourd'hui, quand on va... je déteste ce terme "chatbot", parce qu'on a tous été très déçus des expériences chatbot, notamment sur du ticketing, où tu arrives, on te dit "choisissez l'un de vos problèmes parmi ces trois suggestions", puis ensuite on te dit "vous appartenez à quelle direction", puis en fait tu fais des choix, des choix, des choix, des choix, des choix, arrivé au troisième choix, en général t'as quitté, parce que ça te saoule, ou alors t'as pas trouvé ce qui te correspond, donc t'as des taux de rebonds qui sont très élevés. Là où l'IA, je pense, elle a un vrai avenir, c'est que justement tu peux poser ta question et t'as une réponse précise directement, sans avoir à passer par tous ces filtres avant. Et donc le ticketing, c'est ce que t'as dit, c'est très bien résumé. »
Julien Redelsperger : « D'accord, parfait. Le choix de ton positionnement sur le "made in France", ou en tout cas "made in Europe", pourquoi est-ce que tu as fait ce choix ? Parce que ça vous crée des contraintes supplémentaires ? Est-ce que les clients le demandent ? Et est-ce que pour toi c'est un positionnement commercial, ou derrière il y a une, je sais pas, des questions technologiques qui ont conduit à faire ce choix de souveraineté ? »
Kevin Soler : « Ok, je vais parler un peu à moi à titre perso, parce que c'est important de le comprendre, pourquoi on fait ça. J'ai bossé à Londres, ensuite j'ai beaucoup travaillé en Australie, et j'adorais la philosophie là-bas, etc. Je suis quand même rentré en France, puisque ça m'a permis de voir que quand t'es très loin pendant, et tu sais ce que c'est, t'es très loin pendant des années de ton pays, etc., il y a des choses qui te manquent, tu réalises aussi ce qui te plaît dans ton pays. Il y a un truc que j'ai adoré en Australie, c'est que les Australiens adorent l'Australie, dans le sens où ils vont consommer du produit australien, ce qui crée une économie qui est hyper vertueuse. Ce qui n'est pas forcément le cas en France, pour diverses raisons, je vais pas rentrer dans la politique. En revanche, nous, sur ce qu'on a toujours fait, on n'a jamais décentralisé, ou je suis jamais allé chercher, je sais pas, à Taïwan, des dev ou en Pologne, ce que j'aurais pu faire pour notre métier historique, qui nous aurait été beaucoup moins cher, et qui nous aurait permis d'avoir une qualité de délivery qui soit super bonne. Pour autant, j'ai toujours dit on reste en France. Donc déjà, il y avait un positionnement où je vis en France, je consomme en France, mes collaborateurs sont en France, et ça me paraît logique. Et je pense que ça, c'est bien le rendre à son pays, et je pense que c'est important. Mais ça, ça n'engage que moi, et ça fait quand même aussi partie des valeurs de l'entreprise, sur toute notre démarche RSE. Le deuxième point, c'est que quand on a vu ChatGPT et les différentes choses, les différents procès qu'il y a eu, les différents cas, t'as peut-être entendu parler aussi de cette personne qui a réussi à acheter une voiture gratuitement, parce qu'à force de forcer sur le chat, il lui a donné une astuce pour acheter la voiture gratuitement dans la marque dans laquelle il répondait. On voulait éviter un petit peu que les données partent partout, et on s'est dit le moyen de le faire, c'est de se mettre les plus grosses contraintes. Les plus grosses contraintes, c'est quoi ? En général, c'est la France. On regarde, parce qu'on aime bien se mettre des contraintes là où il n'en faut pas forcément. Et on s'est dit qu'en plus de ça, ça allait devenir, donc c'est le troisième point, un argument commercial. Pourquoi ? Parce qu'on a très vite vu que les DSI challengaient où partaient les données, comment étaient stockées les données, et que si nous on se disait "ok, l'IA Act, c'est notre base, notre pilier", eh bien ça allait nous donner une crédibilité sur la façon dont on allait traiter ces données-là, et que ça allait devenir un argument commercial, alors qu'à la base, ce n'était pas censé être le cas. Du coup, c'est devenu d'ailleurs notre argument commercial phare, par la force des choses. Et oui, on s'est rajouté beaucoup de contraintes, puisque une norme 42001, ça vaut de l'argent, ça nécessite de déployer des équipes le temps qu'on passe la norme, c'est à renouveler tous les ans. C'est des contraintes qui parfois ne sont pas du tout adaptées à des tailles d'entreprise comme la mienne. C'est plutôt des contraintes qui sont pour des grands groupes qui ont le temps de se focaliser que sur ce truc-là, alors que nous on gère bien.
Julien Redelsperger : « Tu peux juste rappeler, Kevin, combien de collaborateurs tu as chez toi ? »
Kevin Soler : « On est 20 à Sofia, on est 5 à Angers, et on a 4-5 collaborateurs en Martinique aussi. »
Julien Redelsperger : « Quand tu dis Sofia, ce n'est pas Sofia en Bulgarie, c'est Sofia Antipolis dans le sud de la France. »
Kevin Soler : « Merci, c'est vrai que je dis ça, mais effectivement, tu as raison. Sofia Antipolis dans le sud de la France, à côté de Nice. Voilà un peu pourquoi on s'est mis ces contraintes. Et encore une fois, ce n'est pas le côté bullshit, mais il y a un côté RSE, je pense, dans la démarche de dire qu'on essaie de laisser ça en France. Il y en a marre de toujours être dépendant des players qui sont loin. Et c'est aussi un gage pour nos clients de dire « si demain, vous avez la bonne idée, nous on s'est mis dans notre roadmap tout de suite, et tu n'es pas dépendant d'un player américain qui va dire « attendez, le marché français, vous êtes microscopique, ce que vous demandez c'est propre au marché français, et nous on s'en fout ». Parce que c'est clairement ce qui arrive aujourd'hui quand tu vois Salesforce, quand tu vois ces machines de guerre, qui sont des success stories fantastiques, mais où le marché français est microscopique par rapport au reste du marché. Alors où le marché vraiment qu'on adresse, ça reste le marché français, au tout du moins, pour démarrer, et on ne changera pas ce côté « made in France ».
Julien Redelsperger : « Si on se projette un peu dans le futur, Virteem Companion, dans trois ans, dans cinq ans, ça va ressembler à quoi ? Est-ce que ça va être multimodal ? On va pouvoir discuter avec lui comme on discute avec Siri ? Est-ce que tu pourras balancer des PowerPoints, des images, des vidéos ? Comment tu vois, même si techniquement ce n'est pas encore prêt, mais quelle est la vision, toi, du futur de l'IA dans la recherche et la gestion documentaire ? »
Kevin Soler : « Il y a beaucoup de points de réponse, je pourrais en parler longuement, mais si je prends les principaux, multimodal, effectivement, il n'y a pas de sujet là-dessus. Aujourd'hui, on a fait le choix de ne pas y aller, même si on peut y aller, puisque la pertinence des réponses, quand on y intègre du multimodal, n'est pas encore optimisée, au niveau des LLM, du nombre de paramètres, etc. On sait que ça va changer demain, ça va à une vitesse dingue aujourd'hui, donc au moment où ce sera le cas, que la technologie sera apte et que les serveurs seront aptes à supporter ça, on ira. Nous, il y a surtout un travail sur la matérialisation de la donnée du client, c'est-à-dire que les documents qu'ils vont intégrer aujourd'hui, c'est un peu comme un fourre-tout, c'est-à-dire qu'ils droppent leurs documents, et on en parlait juste avant, justement, avec Paul-Alexandre, c'est d'avoir une matérialisation, une sorte de matrice de ta base de connaissances sur les sujets qui sont plus ou moins traités dans ta base documentaire. L'idée, c'est de dire, tu mets tous tes docs, mais tu as des graphiques qui se mettent en t'expliquant que tu traites beaucoup, je ne sais pas, le sujet des congés payés, mais tu traites beaucoup moins le sujet du badge à la cantine. Et l'idée, c'est que très rapidement, en un seul coup d'œil dans notre plateforme, le client se dise, ah, là, j'ai un vrai trou dans la raquette, il faut que je produise des contenus là-dessus, puisque s'il y a des questions, je sais que j'ai moins de documents qui répondent à ça. Ça, c'est un des points clés. Et il y a un autre point clé très important, c'est où va-t-on utiliser l'IA ? J'entends par là, quel display ? Et on sait qu'aujourd'hui, mon mobile, tablette, ordinateur, en iframe ou directement en pleine page, tout ça, pas de sujet. Nous, on a déjà des proto avec des intégrations dans du 360, type visite virtuelle ou réalité virtuelle, et on va le montrer à VivaTech, où on a un stand avec la région du sud. On va montrer une expérimentation où on va avoir la partie VR d'un côté, la partie chat en XR, dans l'Apple Vision. L'idée, c'est de dire, on se met les contraintes qu'il faut que ce soit dans l'Apple Vision, donc très souvent, tu es assez cloisonné avec Apple, on se met volontairement la pire contrainte pour dire que ça peut rentrer là-dedans, et qu'on l'intègre dans des sujets qui vont jusqu'à la XR, c'est-à-dire qu'on imagine assez facilement la personne sur sa chaîne de production qui a son casque sur la tête, on va lui donner des informations complémentaires sur ce qui se passe, donc ça c'est la XR, et en plus de ça, il va avoir sur le côté ce Virteem Companion qui pourra activer avec la voix, avec texte ou speech, et il va pouvoir lui dire, j'ai une erreur 408 sur ma chaîne de prod, que dois-je faire ? Donc en même temps, avoir des informations sur sa chaîne de prod qui se met en XR. »
Julien Redelsperger : « XR, pardon, juste pour préciser, c'est la réalité mixte, c'est-à-dire c'est un casque qu'on met sur les yeux, où on voit l'environnement réel, et on superpose certaines informations, où parfois on est complètement dans un monde de réalité virtuelle. »
Kevin Soler : « Exactement, donc on imagine, on a le casque sur la tête, j'ai ma chaîne de production qui est physiquement en face de moi, et j'ai des chiffres qui s'ajoutent par-dessus, qui eux sont dans mon casque, pour me dire la vitesse de production, ce genre de choses, ou s'il y a une erreur. Et si en plus je peux interroger mon chat en parallèle avec la voix, et lui dire, j'ai une erreur 404, dis-moi rapidement la procédure, ou cite-la-moi de manière vocale, ça me permet d'intervenir tout de suite, ou en cas d'incendie, ou ce genre de choses. Donc la manière dont on va intégrer l'IA, sur quel support, ça, ça va avoir un rôle majeur dans l'adoption. Si c'est pas sur la XR, on l'a dit, c'est pas grave, ça peut être déployé partout, mais en tout cas, on veut montrer que ça va pas s'arrêter spécifiquement à un usage uniquement ordinateur ou mobile. »
Julien Redelsperger : « Alors si on prend un peu de hauteur, Kevin, on se pose beaucoup de questions sur l'impact de l'intelligence artificielle dans les entreprises. Je lis beaucoup de choses sur le fait que certains métiers vont évoluer, voire peut-être disparaître dans un futur proche. Toi qui es en relation directe avec les entreprises, avec les décideurs, avec les services RH, qu'est-ce que tu en penses, et que te disent les entreprises quand tu leur parles d'intelligence artificielle ? »
Kevin Soler : « Il y a une énorme crainte de métiers qui vont disparaître. Moi, mon avis, c'est que c'est le cas, quitte à choquer tout le monde, mais c'est pas une mauvaise chose. Je suis un partisan de la destruction créatrice, sous-entendu, ça va détruire des métiers pour en créer de nouveaux. Et il y a un cas d'usage qu'on peut prendre, sans parler d'IA, mais que tout le monde connaît, et qui est nous, qui était le cas. Les personnes qu'on avait au marketing chez nous, aujourd'hui, sont quasiment aussi formées, autant formées que des graphistes. C'est-à-dire qu'à un moment, on a formé des graphistes à la pelle, et aujourd'hui, quand tu fais le moindre diplôme marketing, on t'apprend à te servir d'InDesign, etc. et d'avoir... t'es peut-être pas aussi bon qu'un graphiste, mais en tout cas, t'as beaucoup de compétences qui s'en rapprochent. Ce qui fait que le métier de graphiste, en soi, aujourd'hui, c'est compliqué. Tu peux pas être juste graphiste, tu dois avoir des skills en plus, et je pense que c'est ce qui va se passer. T'as des métiers qui, aujourd'hui, sont voués à disparaître parce que la valeur ajoutée humaine est faible. En revanche, c'est des métiers qui vont se transformer ou qui vont renaître différemment. C'est pour ça que je pense que ça va pas tuer des emplois, ça va faire migrer des emplois. Et d'ailleurs, on le voit de plus en plus, des groupes qu'on va accompagner nous disent "on a fait évoluer des fiches de poste dans lesquelles on a intégré de nouvelles missions qui sont portées par l'IA, par exemple, ou pas, mais on a intégré de nouvelles missions et on en a enlevé d'autres". Parce qu'on sait que certaines missions nécessitent pas cette capacité que peut faire l'IA et que l'IA peut tourner toute la journée, et c'est beaucoup plus simple. Donc, on fait beaucoup d'acculturation en expliquant que les personnes qu'on accompagne, si je reprends l'aspect RH, votre métier sera là encore demain. Et tu vois, j'avais une grande chaîne d'hôtels avec qui on échange, qui me dit "moi j'ai peur, c'est un DRH, moi j'ai peur pour mon métier demain, j'ai fait ce métier de DRH parce que j'aime l'humain". Et je dis "vous savez, vous serez jamais aussi proche de l'humain qu'avec l'IA". Pourquoi ? Parce qu'aujourd'hui, vous passez votre temps à répondre à des questions qui ne nécessitent pas votre savoir-faire et votre échange humain et votre compassion humaine que l'IA n'a pas. Votre compassion dans le sens suivant. J'ai une personne qui vient, on parlait des congés tout à l'heure, je vais reprendre l'exemple, j'ai le droit à combien de jours de congés sur ma convention ? Ça j'ai pas besoin d'interroger un RH ou un DRH qui est sollicité toute la journée sur ce genre de questions, ça c'est facile, c'est une réponse qu'on peut me donner froidement et factuellement. En revanche, si mon problème c'est "j'ai un gros souci, mon enfant a la varicelle, comment on peut faire pour aménager mes horaires demain ?" Ça, j'ai besoin de la compassion d'un humain et j'ai besoin d'une réponse humaine parce que ça passe par une relation. Et je pense que justement ça va dégager du temps pour qu'on puisse traiter plus de problématiques de ce type-là, qui vont éviter du turnover quand on se sent pas écouté en tant que collaborateur, qui vont éviter un mal-être parce qu'on n'ose plus parler derrière à des gens de nos vrais problèmes, là où justement un DRH il est fait pour ça. Pour qu'on parle de ses vrais problèmes de fond, de ses vrais problèmes humains, et on a besoin d'être écouté par un humain à ce moment-là. Et toutes les tâches de non-valeur ajoutée, c'est très bien. La DSI, même principe, la DSI elle n'est pas là pour répondre "j'ai un problème de SMTP, t'as pas ouvert le bon port dans ta boîte mail". Ça c'est facile, je veux dire, alors ça paraît barbare pour ceux qui connaissent pas, mais on va dire à tel endroit tu cliques, tu mets tel chiffre au lieu de tel chiffre. Ça j'ai pas besoin d'avoir un DSI. Le DSI, il a d'autres rôles plus importants qui nécessitent vraiment son échange, son cerveau, sa réflexion. Donc je pense pas que ça va tuer, ça va créer du chômage on va dire. Je pense que ça va faire migrer des emplois et qu'on va redécouvrir, et se redécouvrir le fameux "why". Parce que t'as beaucoup de gens qui ont pas ce "why" parce qu'ils font des tâches toute la journée, ils savent même pas pourquoi je fais ça. Quand tu remplis des Excel toute la journée, pourquoi tu fais ça ? Tu peux pas donner un "why" à ça, je veux dire c'est super compliqué. Maintenant si ça on te l'automatise et que toi ton travail c'est plus de l'analyser, de le comprendre, d'essayer de bouger des... Ça donne du sens, ça donne plus de sens en tout cas à ton métier. Je peux me tromper mais c'est mon avis. »
Julien Redelsperger : « Non mais c'est parfait et c'est intéressant parce que tout à l'heure tu parlais d'acculturation. Est-ce que tu penses que les entreprises ont bien conscience de la déferlante autour de l'intelligence artificielle et des impacts que ça peut générer ? Est-ce qu'il y a beaucoup de besoins en termes de formation, d'explication, d'éducation peut-être sur le sujet ? »
Kevin Soler : « C'est franco-français de penser qu'on a besoin de formation à chaque fois. Et c'est vrai que je l'entends tout le temps d'ailleurs "oui mais alors nous on cherche quelqu'un mais il n'y a personne qui est formé". En fait ça vient d'arriver, il n'y a pas de formation et les formations ne sont pas forcément toutes légitimes aujourd'hui. Et je vais te donner l'autre vague qu'on a vécu nous et où ça nous a beaucoup fait rire, c'est les nouveaux jobs de chief metaverse officer, d'experts du metaverse qui sont arrivés avec des formations dédiées au metaverse etc. alors que c'était tout nouveau. Donc comment on peut former sur un truc sur lequel on a très peu de retour, très peu d'expérience ? Techniquement on ne peut pas vraiment. Donc tu vas plutôt embaucher des gens qui sont débrouillés là-dessus. Comment se sentent les entreprises là-dessus et quelle conscience elles en ont ? Tu te rends compte que tu as deux écoles, tu as les écoles qui en sont méga conscientes, on le voit sur quand même beaucoup de grands groupes qui disent "aujourd'hui on a déjà nous nommé un expert IA en interne, on a contacté des boîtes pour passer des normes, on a intégré dans notre roadmap l'IA et surtout on essaie d'intégrer un maximum des équipes". A côté de ça tu vas avoir des fois d'autres sociétés qui vont te dire "ouh là là, nous on en est très loin puisque notre data elle est toute pourrie et on sait pas où ça ira demain". En revanche là où je vois une vraie différence, encore une fois pour parler de notre autre branche, le métavers ça a fait super et d'un coup down, c'est à dire que ça a été ultra rapide dans les deux sens. Là on voit que c'est pas juste une tendance, c'est un vrai usage de fond puisque il y a des capillas, il y a des ROI. Le problème du métavers c'est que, et ça c'est un vrai problème humain pour le coup parce que je pense que ça aurait pu virer différemment, il y a beaucoup de gens qui l'ont mal utilisé ou qui l'ont fait pour des mauvaises raisons. L'IA on a tous tout de suite compris que ça pouvait aller très vite et un exemple prouet, moi ma fille pour le coup je lui ai expliqué très rapidement, là elle va passer en troisième, je lui ai très vite expliqué comment servir de ça pour ses devoirs. Alors comment s'en servir correctement ? L'idée c'est que ce soit une utilisation intelligente et très souvent j'ai le débat "oui mais ça va abrutir les gens". Est-ce que ça les rend plus intelligents d'aller chercher une encyclopédie et de lire dans l'encyclopédie ? Je suis pas persuadé. La réponse à la fin ça reste la même réponse, c'est juste qu'une fois les données dans un tchat et l'autre on doit les chercher dans une encyclopédie. Et à un moment on n'est pas devenu plus abrutis quand l'encyclopédie c'était Wikipédia ou qu'elle était sur internet. Donc c'est juste que c'est différent, l'apprentissage est différent. Maintenant je pense que tu parles de ChatGPT aujourd'hui, t'as pas une personne qui dit "j'en ai jamais entendu parler". Bien sûr. Je crois que j'ai plus le nombre d'utilisateurs en France et je crois que c'est plus de la moitié qui ont de la France qui avait déjà utilisé tchat GPT au moins une fois. Donc t'as une perforation de marché quand même relativement importante. »
Julien Redelsperger : « D'accord, d'accord, parfait. Eh bien écoute, merci beaucoup Kevin de ta participation. Alors à la fin de chaque épisode, l'invité du jour doit répondre à une question posée par l'invité précédent. En attendant d'écouter la tienne, je te laisse écouter celle d'Alexandre Polakowski qui est expert dans la réglementation de l'IA et créateur du podcast Esprit IA. On l'écoute. »
Alexandre Polakowski : « Alors ma question pour le prochain invité, les big tech américaines, OpenAI, Elon Musk interviennent de plus en plus pour expliquer que l'arrivée de l'AGI est imminente, à savoir l'intelligence artificielle générale qui serait capable de concurrencer l'humain dans tous les domaines, voire potentiellement de réfléchir par elle-même. D'autres considèrent que l'AGI est simplement une théorie de science-fiction, qu'il n'y a aucune chance qu'elle arrive et que de toute manière l'IA n'est pas intelligente et n'aura pas vocation à l'être. Alors est-ce que l'AGI a une chance d'émerger un jour ? »
Kevin Soler : « Le premier truc qui m'est passé par la tête c'est comment je vais m'échapper de cette question ! Non, je ne pense pas que ça remplace l'humain, je pense que ça va être de plus en plus puissant, forcément on l'a vu avec les investissements sur les serveurs etc puisque tout part de là, sur les calculs, sur le nombre de paramètres, c'est la course au nombre de paramètres en ce moment. Donc ça ne concurrencera pas l'humain surtout, par contre sur une grosse partie je pense que oui et c'est encore une fois une transition à opérer de la part des humains sur là où mon cerveau humain amène une valeur que les maths, si je synthétise facilement avec l'IA, ne peut pas m'apporter. Je parlais tout à l'heure effectivement de cas de conscience ou tout ce qui est sentiments liés à l'humain, que ce soit la peur etc, l'IA a quand même du mal à le comprendre, en tout cas aujourd'hui c'est une de ses faiblesses, la compassion par exemple. Alors tu peux lui dire "écris-moi un message avec de la compassion" mais ce n'est pas ça en fait, nous quand on est humain on réagit par rapport à ces sentiments là, chose que l'IA ne sait pas encore faire. Est-ce que je dis que ça n'arrivera jamais ? Honnêtement j'en sais rien parce que ça va à une vitesse tellement rapide, on ne sait pas jusqu'où ça va s'arrêter. Maintenant moi je le vois vraiment pas comme une crainte mais vraiment comme une opportunité et si on essaie de lutter contre de toute façon on va se faire emporter par le raz-de-marée, au contraire montrons là où on est bon. Il y a un des hobbies dont on n'a pas parlé tout à l'heure, on fait de la musique, donc tu vois l'art est un des sujets au cœur de l'IA, est-ce que l'IA sait produire du contenu artistique mieux qu'un humain ? Aujourd'hui l'IA produit déjà des trucs quand même pas mal quand tu lui demandes d'écrire des riffs de guitare, franchement c'est plutôt bien fait mais c'est pas encore au niveau humain et t'as pas cette sensation et ce sentiment que tu vas retrouver dans quelque chose qui est produit par un humain avec un sentiment de tristesse ou autre, même si elle y arrive à peu près. »
Julien Redelsperger : « Est-ce que tu te souviens de ta réaction quand tu as découvert ChatGPT pour la première fois ? Qu'est-ce que tu en as pensé ? Est-ce que tu te souviens ou pas ? »
Kevin Soler : « Oui, justement c'est Paul-Alexandre qui m'a intégré dans le sujet et au départ je lui ai dit "bon ok c'est un chat" le problème c'est que je pense que beaucoup ont fait ça, c'est un chatbot, puis vu qu'on a tous eu des chatbots qui n'étaient pas bons, on s'est dit bon ok. Par contre quand j'ai fait le test et que j'ai vu les réponses, j'ai fait "ah ouais, là il y a quand même un truc qui est méga puissant" et tout de suite après c'est peut-être propre à mon côté entrepreneur, je me suis dit "ouais, ça ouvre un milliard de perspectives". »
Julien Redelsperger : « Ok, parfait. Ben écoute, merci beaucoup Kevin. Alors à ton tour à présent, quelles questions est-ce que tu aimerais poser aux prochains invités ? »
Kevin Soler : « Je vais poser une question un peu piégeuse on va dire. Moi j'aimerais bien savoir dans quelle mesure et quelles actions sont et vont être mises en place pour faire en sorte, sachant que ça nécessite énormément d'énergie, d'avoir une IA qui soit green et qui soit vertueuse en termes de données RSE, de production d'émissions carbone. Entre autres, on sait qu'aujourd'hui ce sont des serveurs qui consomment quand même beaucoup beaucoup d'énergie. Est-ce qu'on va trouver une solution type géothermie ou autre pour réutiliser la chaleur d'une manière ou d'une autre ? J'aimerais bien poser la question aux prochains invités de savoir s'il a déjà des pistes de réflexion sur le sujet parce que ça nous intéresse et comme je le disais en préambule, la donnée RSE c'est hyper important donc comment on peut faire pour intégrer la donnée RSE dans notre réflexion sur l'IA et ses serveurs.
Julien Redelsperger : « Parfait, une IA plus verte, plus green en tout cas. C'est parfait, je poserai la question. Merci beaucoup de ta participation Kevin, je rappelle que tu es fondateur et PDG de Virteem. Merci d'avoir participé à ce podcast. »
Kevin Soler : « Merci à toi, à très vite. »