Intelligence artificielle : la gendarmerie passe à l’offensive
Comment l'intelligence artificielle transforme-t-elle les opérations de la gendarmerie nationale ? Dans cet épisode d'AI Experience, vous découvrirez comment l'IA s'impose comme un atout majeur dans la lutte contre la criminalité. Le général Patrick Perrot, coordonnateur général pour l'intelligence artificielle au sein de la Gendarmerie Nationale, partage son expertise sur l'intégration de l'IA dans les missions de sécurité. De la reconnaissance faciale à la gestion des cybermenaces, il vous dévoile les projets concrets qui redéfinissent le travail des forces de l'ordre. Vous apprendrez également comment la gendarmerie se prépare aux défis futurs tout en veillant à respecter les droits fondamentaux des citoyens.
Officier de gendarmerie, docteur en intelligence artificielle (IA), le général de brigade Patrick Perrot a combiné des fonctions de commandement opérationnel à l’exercice de la science dans la lutte contre la criminalité. Auteur de différentes publications dans le domaine de l’intelligence artificielle, des sciences forensiques comme du renseignement, il est également à l’origine de nombreux développements en IA au profit de la sécurité : reconnaissance de locuteur, reconnaissance faciale, analyse décisionnelle, authentification de deepfakes et est également en charge d’enseignement au sein de différentes universités. Il est chercheur associé au sein de la Chaire Law, Accountability and Social Trust in AI portée par la Professeure Céline Castets-Renard, ANITI (Artificial and Natural Intelligence Toulouse Institute) et assure la co-présidence de l’European AI Strategic Group et membre du comité d'assistance de l'AI Board de l'UE. Membre expert de l’Institut EuropIA sur les enjeux de sécurité, il participe à la pédagogie comme à la transparence de l’exploitation de l’IA dans le domaine de la sécurité intérieure.A l’origine de la stratégie IA de la gendarmerie nationale, il occupe la fonction de coordonnateur pour l’intelligence artificielle et est depuis janvier 2024 conseiller IA auprès du commandement du Ministère de l’Intérieur dans le cyberespace.
Général Patrick Perrot
Coordonnateur général pour l'IA
Julien Redelsperger : « Et pour cela, j'ai le plaisir d'être accompagné par le général Patrick Perrot de la Gendarmerie Nationale. Alors, je ne vous cache pas que j'ai quand même très envie de mettre la musique du gendarme de Saint-Tropez dans le générique, mais je ne le ferai pas car aujourd'hui, c'est du sérieux. Patrick Perrot est coordonnateur général pour l'IA au sein de la Gendarmerie Nationale et conseiller IA auprès du commandement du ministère de l'Intérieur dans le cyberespace. Et ensemble, nous allons parler de sécurité, de défense et bien sûr d'intelligence artificielle. Bonjour Patrick, merci de participer à cet épisode d'AI Experience. Comment allez-vous ? »
Patrick Perrot : « Bonjour Julien, ça va très bien. Et effectivement, avec l'IA, on est bien loin du gendarme de Saint-Tropez. »
Julien Redelsperger : « J'imagine effectivement. Alors, ma première question est souvent la plus simple. Est-ce que vous pouvez nous expliquer votre rôle en tant que coordonnateur pour l'intelligence artificielle ? En clair, que faites-vous et quelle est votre mission ? »
Patrick Perrot : « Alors, je suis effectivement coordonnateur pour l'intelligence artificielle au sein de la Gendarmerie Nationale depuis 2020, sur un choix du directeur général. Pourquoi ? Parce qu'il nous a semblé essentiel de pouvoir structurer l'intelligence artificielle. Ça veut dire quoi ? Ça veut dire construire une stratégie en matière d'utilisation de l'IA à des fins de protection des populations. Quand j'entends protection des populations, je veux dire protection individuelle du citoyen, protection collective des populations. Le but, c'est de prévenir toute forme de mésusage de l'intelligence artificielle qui pourrait potentiellement porter atteinte aux droits fondamentaux, dont les libertés individuelles. Alors, ça veut dire quoi ? Établir une stratégie en matière d'intelligence artificielle, ça veut d'abord dire qu'il faut avoir une vision. On n'utilise pas de l'IA si on n'a pas de vision. Avoir une vision, c'est la première des choses, parce qu'il faut se fixer un cap. On parlera de l'IA générative, mais l'IA générative, c'est un tel raz-de-marée qu'aujourd'hui, si vous n'avez pas de cap, vous êtes sûr d'être noyé par la vague. Ce cap, il doit être décliné par des directives concrètes à appliquer, parce qu'il faut qu'en matière d'acceptabilité de l'intelligence artificielle, on voit des choses concrètes qui se mettent en place. Et puis, et ça c'est essentiel par rapport notamment aux enjeux de réglementation, un contrôle et un suivi de l'application de cette feuille de route. Alors, si je devais caractériser cette stratégie en quelques mots, c'est une stratégie multifacette. C'est une stratégie polymorphe parce que l'intelligence artificielle, ce n’est pas une discipline informatique, contrairement à ce qu'on entend toujours. Ça veut dire que cette stratégie, elle est construite autour d'un volet d'acculturation et de formation. Elle est construite autour d'un volet de recherche et de développement appliqué, autour d'un volet de formation et de valorisation de ce que nous faisons, et autour d'un volet d'éthique, de réglementation et de conformité. Ces quatre piliers sont essentiels. Il ne faut pas appréhender l'intelligence artificielle par un seul de ces piliers, parce qu'on en oublie. En fait, vous ne pouvez pas travailler sur la réglementation si vous n'avez pas d'application. Vous ne travaillez pas sur des applications si vous n'avez pas de formation. Et donc, c'est vraiment un package global qu'il faut réussir à mettre en place, et c'est ce que nous faisons aujourd'hui, sans compter qu'au-dessus de cela, il faut une instance de gouvernance. Et cette instance de gouvernance, elle doit elle aussi être composée de sachants. L'intelligence artificielle, ce n'est pas un simple produit numérique. L'intelligence artificielle, elle a une singularité par rapport au projet numérique, c'est qu'elle va très vite. Elle va très vite et elle nécessite des puissances de calcul, elle nécessite des capacités théoriques que ne nécessitent pas forcément l'ensemble des projets théoriques. Et cette célérité, ça nous oblige à penser différemment par rapport au système d'information classique, c'est-à-dire penser agilité, c'est-à-dire penser renouvellement de nos applications, ça veut dire penser suivi continu de nos applications. Parce qu'une intelligence artificielle, elle peut dériver. Donc ça, c'est aussi un enjeu pour nous de suivre tout cela. Et puis depuis le mois d'août dernier, et je terminerai là-dessus pour cette première question, mais je suis également investi dans le champ cyber, vous l'avez rappelé, je suis conseiller IA auprès du ComCyber, le ministère matériel. Pourquoi ? Parce qu'on s'est bien rendu compte que l'IA ne vit pas que dans l'espace physique, l'IA est également très présente dans l'espace cyber, dans l'espace immersif, dans l'espace virtuel qu'on appelle les jumeaux numériques. Donc l'enjeu est là, utiliser l'IA comme un outil dans les différents espaces et de la manière la plus responsable possible. »
Julien Redelsperger : « D'accord, et alors pourquoi est-ce que la gendarmerie s'intéresse spécifiquement à l'intelligence artificielle ? L'image qu'on a des gendarmes, c'est plutôt des gens qui sont sur le terrain, qui font du maintien de l'ordre, qui mènent des enquêtes, notamment au milieu rural, etc. Pourquoi cet engouement, ces investissements en matière d'intelligence artificielle ? »
Patrick Perrot : « J'ai eu peur que vous me rameniez sur le gendarme de Saint-Tropez. »
Julien Redelsperger : « Je n'aurais pas osé. »
Patrick Perrot : « Vous avez parlé d'émissions un peu plus modernes, je vous en remercie. Mais effectivement, ça peut surprendre de prime abord qu'on s'intéresse à l'intelligence artificielle, mais je vais vous donner quatre raisons qui me paraissent essentielles. La première, c'est la préservation des activités régaliennes. L'État ne peut pas laisser le champ de la protection de ses citoyens, le champ de la protection d'un modèle démocratique à des big tech, dont l'objectif, et ce n'est pas quelque chose que je critique, mais l'objectif est d'abord économique, avant le bien commun des populations. Pardon, je suis un agent de l'État, donc vous me direz que j'ai un biais, mais ma mission, c'est d'abord le bien commun des populations. Et donc, ces activités régaliennes, il est important que les forces, notamment dans le champ de la sécurité intérieure, ne laissent pas tout s'échapper. Demain, on aura de plus en plus de territoires connectés. Il ne s'agit pas que tous ces territoires connectés soient totalement gouvernés par des instances qui échappent à l'État. Et c'est un risque objectif. L'intelligence artificielle, c'est un enjeu de souveraineté, c'est un enjeu de souveraineté sur les machines de calcul, c'est un enjeu de souveraineté sur la connaissance en termes de développement, c'est un enjeu de souveraineté sur les capacités de stockage, et tout ça, il faut y aller au plus tôt. Ça ne veut pas dire qu'on sera meilleur que les big tech, il suffit de voir les financements, on n'est pas à la même hauteur. Pour autant, on a toute notre place à jouer. La deuxième raison, c'est la complexité. L'intelligence artificielle, c'est complexe. Et donc, on me dirait, les gendarmes ne sont pas des mathématiciens. Il y a quelques mathématiciens chez les gendarmes et parce que c'est complexe, on doit s'y engager parce qu'on a un devoir de redevabilité vis-à-vis de la population. Utiliser l'intelligence artificielle sans ouvrir le capot, sans savoir ce qu'il y a dedans, c'est courir le risque d'une utilisation en mode boîte noire, c'est courir le risque, là encore, et c'est quelque chose sur lequel je reviendrai, mais de porter atteinte aux libertés individuelles. Et ça, c'est un risque qu'on ne peut pas se permettre. Ça veut dire que cette complexité, on doit la maîtriser, il faut qu'on ait la compétence en termes de ressources humaines pour être capable de développer nous-mêmes nos systèmes d'intelligence artificielle et de les paramétrer au juste besoin. Et ça, c'est important parce que le juste besoin, c'est un juste besoin opérationnel, mais c'est aussi un juste besoin environnemental, et ces questions sont essentielles aujourd'hui. On n'a pas besoin d'une usine à gaz pour une application étroite. Donc ça aussi, c'est quelque chose qu'il faut intégrer au plus tôt. La troisième raison, c'est l'assistance au gendarme. Dans son quotidien, l'intelligence artificielle peut assister le gendarme. On a développé un système de transcription automatique de la parole. Vous me direz, ce n’est pas très nouveau. Oui, ce n’est pas très nouveau, mais au regard justement de la sensibilité des données qu'on est amené à traiter, ce n'est peut-être pas mal de ne pas toutes les donner à Google, à Amazon, ou OpenAI, Microsoft. Voilà, voilà. Donc on préfère maîtriser tout cela en interne. L’analyse de vidéos de masse, c’est pareil. Donc c’est vraiment faire gagner du temps au gendarme dans des tâches chronophages, qui apportent peu de valeur ajoutée, de façon à replacer l’humain là où on a de la valeur ajoutée par l'intelligence humaine. Le quatrième pilier sera le dernier, et ce n’est pas le moins important, c’est que notre client, c’est qui ? C’est le criminel. Notre client, il utilise l’intelligence artificielle sans contrainte, sans réglementation, sans besoin d’avoir, sans la nécessité d'expliquer ce qu’il utilise. Et donc là aussi, il ne s'agit pas qu'on ait une asymétrie par rapport à tous ces criminels, qu’on se retrouve en incapacité de faire face à cette criminalité de plus en plus technologique. »
Julien Redelsperger : « D'accord. Donc ça veut dire que quand vous travaillez sur des projets d’IA, est-ce que vous travaillez avec ces fameuses big tech ou est-ce que vous avez développé votre propre technologie avec vos propres équipes ? Comment est-ce que ça se passe au quotidien quand on travaille l'IA au sein de la gendarmerie ? »
Patrick Perrot : « On a plusieurs possibilités. Déjà, entre nous et les big tech, il y a des entreprises qui sont intermédiaires, qui peuvent largement nous rendre service. J'irais qu’on a les trois volets. On a le développement interne, on est capable de développer nos propres outils, des outils qu’on utilisera dans le cadre d'enquêtes judiciaires, des outils qu’on utilisera pour assister le gendarme au niveau national. Mais peut-être qu’on ne sera pas aussi performant que certaines grandes sociétés. Je pense à une société française comme Idemia dans le champ de l’identité numérique, qui est très performante. On n’a pas les mêmes capacités qu'elle. Ce n’est pas grave. On développe des outils, on pourra acheter son produit, mais on sera capable de le benchmarker, on sera capable de le critiquer. Et donc, ce n’est pas parce qu’on développe en interne qu’on ne va pas utiliser des solutions du commerce. Et on a un intermédiaire, c’est tout ce qui est partenariat. On a tout ce qu’on appelle Horizon Europe au niveau de l'Union Européenne. Ce sont des projets de recherche où on associe des académies, des industriels et ce qu’on appelle des “end-users”, des institutions qui peuvent effectivement participer dans ce consortium au développement d'outils d'intelligence artificielle. Donc, on est vraiment sur développement interne, participation avec différents partenaires et puis achat sur étagère de solutions. Notre rapport avec les big tech n'est pas un rapport conflictuel. On a un rapport d'échange tout à fait normal avec elles. On a besoin d'elles dans le cadre d'enquêtes judiciaires pour soulever quelques réquisitions parfois, pour savoir qui a adressé tel ou tel message. Je ne rentrerai pas dans le détail, mais donc on a besoin aussi de ces big tech. Donc, il ne s'agit pas d'être en opposition, mais notre finalité n'est pas la même. Donc, on n'a pas forcément à utiliser leurs outils et surtout à dépendre totalement de leurs outils. »
Julien Redelsperger : « D'accord. Alors, sur quelle mission spécifique l'IA est-elle utilisée dans la gendarmerie ? Vous avez évoqué certains sujets, mais j'aimerais qu'on rentre un peu dans le détail avec des exemples très concrets. Vous avez évoqué l'identification judiciaire, vous avez cité la partie texte to speech ou speech to texte plutôt. Est-ce que vous pouvez nous orienter un peu, nous donner des exemples concrets ? »
Patrick Perrot : « Alors, il y a quelques grandes dominantes missionnelles en gendarmerie. Il y a la police judiciaire, la sécurité publique générale, qui est plutôt dans le champ administratif, le maintien de l'ordre, on a des clients en intervention sensible, comme le GIGN par exemple, qui est plutôt dans cette dominante-là, et on a la sécurité routière. Je dirais que l'IA peut être utilisée dans l'ensemble de ces grands champs missionnels. Après, si je prends l'exemple de la police judiciaire, en fait, je vous parle de ces champs missionnels parce que chacun de ces champs missionnels a un cadre juridique particulier. Nos applications s'inscrivent à chaque fois dans ce cadre juridique particulier. Dans le champ de la police judiciaire, on peut être soumis au règlement général de la protection des données, le RGPD, le JPA en anglais, mais aussi au code de procédure pénale, qui est essentiel. Quel type d'application ? On peut avoir des applications de détection d'images pédopornographiques. On peut avoir de la reconnaissance faciale sur des individus, toujours dans ce domaine pédopornographique, pour tenter de les reconnaître avec l'autorisation du magistrat. Ce n'est pas de la reconnaissance faciale a priori en temps réel. On est vraiment dans le cadre d'une enquête judiciaire avec cette idée, effectivement, de comparer des images et in fine, c'est toujours l'enquêteur qui va dire oui c'est la bonne personne, non ce n’est pas la bonne personne. Il faut garder tout ça en tête, c'est-à-dire qu'en gendarmerie, on n'utilisera jamais une intelligence artificielle qui va dire "c'est lui", "ce n’est pas lui" sans supervision humaine, et ça c’est un élément important. Vous avez cité le speech to texte, mais on peut parler de la détection d'incidents, la détection d'entités dans des vidéos. Ça peut être un véhicule rouge, on veut identifier tous les véhicules rouges sur des heures et des heures de vidéo. Là, ça peut aussi être important pour nous. On a tout ce qui est détection d'anomalies dans le champ cyber qu'on est en train également de traiter. On a développé un outil de vieillissement et de rajeunissement de personnes dans le champ de l'IA générative. On pourra le détailler un peu plus tard, mais on a un outil qu'on travaille en collaboration interministérielle, qui consiste à assister le gendarme dans la réponse aux citoyens, c'est-à-dire qu'on a des citoyens qui interrogent via une plateforme qu'on appelle Service Public Plus en France, et c'est une IA générative qui va apporter la réponse au gendarme et le gendarme décidera s'il choisit cette réponse, s'il la modifie ou s'il formule lui-même une autre réponse. Donc voyez, le panel de nos missions, enfin de notre exploitation de l'intelligence artificielle peut être extrêmement large, ça va du champ cyber au champ de la police judiciaire, au champ de la sécurité publique générale. On a travaillé aussi sur des outils d'analyse et d'anticipation des phénomènes de délinquance qui là aussi sont extrêmement intéressants pour essayer de voir comment peuvent évoluer les phénomènes de délinquance. »
Julien Redelsperger : « Vous parliez du GIGN tout à l'heure, j'ai du mal à voir comment l'IA s'intègre dans leur mission. »
Patrick Perrot : « Typiquement, ils utilisent des caméras pour des interventions. L'intelligence artificielle peut les aider à détecter un certain nombre de choses via les caméras qu'ils utilisent. Ils portent des charges extrêmement lourdes, les exosquelettes peuvent largement les aider dans leur action au quotidien également. Donc, on a aussi autour des drones quelques utilisations d'intelligence artificielle qui sont possibles dans les unités d'intervention. Et là, on est vraiment sur, je ne vais pas dire des niches, mais sur des applications très étroites pour des besoins très précis. Et là, c'est vraiment du design presque à la main qu'il faut éprouver à la difficulté du missionnaire. »
Julien Redelsperger : « D'accord. Et pour les gendarmes qui sont sur le terrain, pour les femmes et les hommes qui portent l'uniforme, qui sont au quotidien avec les citoyens, comment est-ce qu'eux, ils perçoivent l'intelligence artificielle ? Comment est-ce que l'IA s'intègre dans leur quotidien professionnel quand on fait un contrôle routier, quand on prend des plaintes en gendarmerie, etc. ? »
Patrick Perrot : « Alors, le gendarme, c'est un citoyen comme nous tous, et certains sont plutôt pro-techno, certains sont plutôt anti-techno, certains se méfient, se posent des questions sur leur emploi. Donc il y a une nécessité d'accompagner sur ce qu'est l'intelligence artificielle. C'est pour ça que je vous parlais d'acculturation et de formation. On publie une revue qu'on appelle Culture-IA. On la publie tous les deux mois, et elle explique ce qu'est l'intelligence artificielle dans le champ de la sécurité intérieure. Alors, le gendarme, en fait, ce qu'il faut, c'est qu'on expérimente avec lui des outils. C'est-à-dire qu'on tente de l'associer au plus tôt à ce qu'on veut mettre en place. Typiquement, dans le champ de l'analyse prédictive des phénomènes de délinquance, il est associé au plus tôt et on réajuste avec lui les besoins. Parce que si vous voulez, un système d'intelligence artificielle, il se conçoit de façon théorique et je dirais même pratique sur des bases de données. On l'éprouve, mais à un moment, il faut sa déclinaison sur le terrain. Et là, on est dans une étape non pas de validation des performances, mais de calibration du système par rapport aux problématiques terrain. Et ça, c'est un enjeu, effectivement, d'acceptabilité pour le gendarme. Il faut absolument l'associer parce que si on le développe, c'est pour qu'il l'utilise. Si on le développe et que ça reste dans son smartphone et qu'il ne l'utilise pas, ça n'a aucun intérêt. Donc on est vraiment sur cet enjeu d'acceptabilité par le gendarme, qui est quelque chose d'essentiel. Et c'est pour ça qu'on veut aussi avoir la maîtrise de nos outils. Parce que quand c'est des boîtes noires, c'est beaucoup plus difficile d'expliquer au gendarme comment les utiliser, comment les paramétrer, et d'expliquer les limites d'utilisation. Parce que tout système d'IA a bien entendu des limites d'utilisation. »
Julien Redelsperger : « D'accord. Est-ce que ces sujets-là, ce sont des sujets un peu internationaux ? Et quand vous parlez avec vos collègues en Europe, en Allemagne, en Espagne, en Italie ou autre, est-ce que vous avez le sentiment qu'ils ont les mêmes problématiques au niveau de l'acceptabilité et de l'usage des outils, etc. ? »
Patrick Perrot : « Alors, oui totalement, et oui partiellement. Ma réponse peut paraître un peu contradictoire, mais ces enjeux sont des questions globales. Et pour certains, ces questions ne sont pas totalement instruites. Typiquement, la notion d'exigence de transparence. Certains nous disent : “Mais en fait, nous, la population ne pose pas vraiment de questions sur ces sujets-là.” C'est aussi un rapport de confiance avec ses forces de sécurité intérieure, c'est un rapport culturel. Et je trouve qu'en cela, l'intelligence artificielle est extrêmement intéressante, parce qu'elle nous interroge sur notre essence culturelle à proprement parler par rapport à tous ces enjeux. Je co-préside un groupe sur la stratégie en intelligence artificielle au profit des forces de sécurité européennes avec un certain nombre de partenaires. On est 16 nations et on s'est réunis justement pour partager nos visions et pour élaborer une stratégie qui pourrait être commune à tous. Et je voudrais le souligner, parce qu'en fait, je ne connais pas beaucoup de secteurs où cela se fait. Et je trouve que c'est plutôt intéressant de voir qu'au niveau de l'Union européenne, on travaille en commun pour essayer de définir nos besoins. Et là encore, pas pour surveiller la population, mais vraiment pour éviter l'asymétrie entre les opportunités criminelles et ce que nous sommes en capacité de faire. Parce qu'en fait, le risque est qu'à un moment, on ne soit plus en mesure de faire face à une certaine forme de criminalité. »
Julien Redelsperger : « Est-ce qu'il y a des pays qui vous semblent plus avancés que d'autres en Europe, quand vous échangez avec vos collègues ou des initiatives qui fonctionnent mieux dans certains pays que dans d'autres ? »
Patrick Perrot : « Vous parlez du rapport culturel qu'on a avec les forces de l'ordre ? Comme les JO sont en France, je dirais que la médaille d'or est à la France. Non, effectivement, la maturité n'est pas la même dans tous les pays. Mais sincèrement, au niveau de la France, on est plutôt bien placés sur la structuration qu'on a mise en place. Sur les investissements, il y a des pays comme les Pays-Bas, comme l'Allemagne, où il y a des investissements qui sont intéressants pour les forces de sécurité. Et la Suède aussi, qui est plutôt investie. Mais on sent quand même que la manière de traiter l'intelligence artificielle est différente entre le monde anglo-saxon et le monde plus européen. Nous, on est très orientés sur l'aspect juridique, pas assez sur l'aspect scientifique, à mon sens. Et je pense que la maturité passe par la connaissance scientifique, parce que l'intelligence artificielle, c'est d'abord une discipline mathématique, une discipline de la science, qui doit trouver dans le droit son espace de développement. Mais il s'agit d'abord de comprendre ce qu'elle est. Et donc ça, c'est un problème parfois de compréhension de ce qu'est l'intelligence artificielle dans certains pays. C'est-à-dire qu'on met d'abord des barrières avant de se poser la question. Mais qu'est-ce que c'est une donnée d'apprentissage ? Qu'est-ce que c'est qu'une donnée de validation ? Qu'est-ce qu'un système ? Est-ce qu'il apprend en continu ou pas ? Et tout ça, certains l'ignorent. Un modèle de fondation, certains ne savent pas ce que c'est. Et ça, c'est vraiment des enjeux sur connaître véritablement ce qu'est l'intelligence artificielle. Mais ce n'est pas propre au champ de la sécurité intérieure. Je le vois également dans d'autres domaines. »
Julien Redelsperger : « D'accord, très bien. Alors l'IA générative, vous l'avez évoquée assez succinctement au début de l'entretien, mais au final, ce n’est qu'une partie de l'IA. Pourtant, elle prend énormément d'espace médiatique depuis notamment la sortie de ChatGPT en novembre 2022. Est-ce que la gendarmerie, dans son ensemble, utilise ce type de technologie d'IA générative et pour en faire quoi ? »
Patrick Perrot : « Oui, on utilise l'IA générative. Ou en tout cas, on travaille à son utilisation. C'est ce que je vous disais tout à l'heure sur le service Public+ ; là, on est en train de travailler. On se pose la question de l'intérêt d'avoir un assistant à côté du gendarme, un assistant machine qui serait capable. Vous savez, on a 36 000 brigades sur le territoire. On a un maillage territorial qui est considérable. C'est très difficile d'être à l'accueil dans les brigades parce que vous avez tous les problèmes à instruire. Il y a une personne qui vient vous parler de la disparition de son chat. Il y a une personne qui va vous parler d'un vol qu'elle a vu. Une personne qui va vous parler potentiellement d'un suicide. Une personne qui va vous parler d'un crash d'aéronef, d'un accident ferroviaire. Tout arrive à ce point de centralisation. Et je crois que parfois, parce que les réglementations sont parfois assez complexes, d'avoir un assistant, ça pourrait aider le gendarme à répondre à certaines questions, toujours bien entendu validées par le gendarme. Donc je vous parlais de Service Public +, c'est les citoyens qui posent des questions à l'IA générative pour aider le gendarme. Là, on est plutôt, c'est le gendarme qui pose des questions à l'IA générative pour s'aider lui-même dans la réponse qu'il apporte aux citoyens. Donc on a ce genre de travaux. On travaille aussi à tout ce qui est développement d'outils pédagogiques par l'IA générative. Comment comprendre des textes très longs, générer des QCM pour aider les personnes à réviser sur un certain nombre de sujets. C'est quelque chose qu'on utilise dans l'éducation nationale, mais qu'on peut transposer aussi, parce que le gendarme est quelqu'un qui se forme en permanence. Donc ça peut aider là aussi sur le volet formation. On a tout ce qui est recherche documentaire, synthèse de textes, qui peuvent là aussi être intéressants avec l'IA générative. Mais il y a des précautions à utiliser l'IA générative. Si vous voulez faire une synthèse judiciaire, ne donnez pas tout à OpenAI. »
Julien Redelsperger : « C'était ma question finalement, quelle techno nourrit justement ce système ? »
Patrick Perrot : « Alors on est, on parle beaucoup d'open source. Tous ces modèles ne sont pas en open source. C'est un faux sujet. En fait, ils sont en open weighted, c'est à dire, c'est des modèles de poids, sans rentrer dans le détail, mais META construit un modèle. Dans ce modèle, il y a un certain nombre de poids de connexion entre les différents neurones. On ne sait pas sur quoi ils ont appris, mais c'est ce modèle qu'ils nous donnent. Donc une fois qu'on a le modèle, on ne sait toujours pas sur quoi ils ont appris, donc ce n'est pas tout à fait de l'open source. Par contre, ce qui est intéressant pour nous, c'est que ce modèle n'est plus connecté à META. Donc on a les performances de ce modèle et on fait ce qu'on appelle une opération de fine tuning, d'adaptation à des données plus spécialisées pour l'adapter à notre texte. Ça, c'est plutôt ce qu'on privilégie, c'est à dire qu'on ne va pas aller donner à OpenAI, à Mistral, toutes nos informations. Et ça, c'est effectivement un enjeu qui est essentiel. On est en cours de rédaction d'une note qui sortira très bientôt sur la précaution, les précautions d'usage par rapport à ces outils-là. Parce que pour beaucoup, chat GPT, je cite, mais je dirais Mistral, Bloom, Falcon, Zephyr, enfin voilà, tous les systèmes de large mondial de langage que vous pouvez connaître, ce ne sont pas que des chatbots. En réalité, on a des jeunes ingénieurs qui codent avec, mais donner son code à OpenAI, ce n'est pas une bonne solution non plus. Donc cette sensibilisation, elle n'est pas simplement avec ceux qui ne connaissent pas très bien l'informatique, elle est aussi orientée vers ceux qui développent en informatique. Donc on a vraiment cet enjeu de pouvoir utiliser ces sujets-là, mais d'une part les utiliser sur des thèmes qu'on connaît, de façon à garder l'expertise humaine, et d'autre part avec un certain nombre de précautions, notamment sur le secret des affaires, sur l'information, la confidentialité, qu'il ne faut pas dispenser partout. »
Julien Redelsperger : « D'accord. Alors quand je parle d'intelligence artificielle avec les invités de mon podcast, souvent ils me disent que l'IA, ça sert un peu à augmenter les capacités des salariés ou des travailleurs en entreprise. Est-ce que dans votre cas, on peut parler de gendarmes augmentés grâce à l'intelligence artificielle ? »
Patrick Perrot : « En réalité, je n'aime pas ce terme "augmenter". Moi, si vous voulez, je peux autant vous dire que l'IA augmente comme elle diminue. Vous savez, on parle beaucoup d'effet de tunnel, à force de dire des systèmes de recommandation de type Netflix ou autre, on peut les appliquer dans le champ professionnel, mais à force de dire aux professionnels, qu'ils soient gendarmes ou autres, ce qu'il a à faire, je n'appelle pas ça de l'augmentation. À force de le déposséder de la connaissance, je n'appelle pas ça de l'augmentation. Donc je préfère que le gendarme soit assisté plutôt qu'il ne soit augmenté par l'intelligence artificielle, parce que ce terme d'augmenter, on peut augmenter la performance globale, mais ce n'est pas le gendarme qui sera augmenté. Vous savez, on peut aider le gendarme dans le cadre de la procédure judiciaire à déterminer un certain nombre de choses, des infractions ou autre, mais à un moment, si c'est tout le temps la machine qui le fait, lui ne saura plus le faire par lui-même. Et il y a des actes élémentaires qu'il est toujours important de savoir faire. Donc ça, c'est un enjeu essentiel, c'est que cette notion d'augmentation, moi je préfère parler d'assistance, l'IA n'est qu'un outil qui assiste. Elle peut augmenter comme elle peut diminuer le gendarme. Et ça, c'est... Je parlais de gouvernance tout à l'heure. C'est quelque chose qui doit être maîtrisé au niveau de la gouvernance de l'intelligence artificielle. On ne met pas dans la main de tout le monde des outils d'IA parce que la première, après la phase de rejet, c'est une phase d'acceptation et tout le monde l'utilise. »
Julien Redelsperger : « Ok, donc des gendarmes assistés plutôt que des gendarmes augmentés. Et est-ce que ces capacités supplémentaires offertes par l'IA sont mesurables selon vous ? Est-ce qu'on est capable de dire par exemple qu'un gendarme travaille X fois plus vite grâce à l'IA ou traite X fois plus de dossiers grâce à l'IA ? Et est-ce que c'est souhaitable d'ailleurs ? »
Patrick Perrot : « Non, pour moi ce n'est pas forcément l'enjeu, mais je vais vous donner un exemple très concret. Vous avez 300 kg devant vous, je vous demande de les soulever. Je vous donne un exosquelette et vous le soulevez. Vous voyez que l'IA est capable de faire ce que vous ne faites pas. Moi j'ai beaucoup travaillé dans le champ des écoutes téléphoniques. Pour transcrire une écoute téléphonique, mais ce n’est pas 10 fois que vous l'écoutez, c’est une vingtaine de fois. L'IA le fait d'un trait. Je ne vais pas mesurer le temps, mais c’est un temps phénoménal pour la détection des images pédopornographiques. Vous analysez un disque dur en quelques secondes, peut-être quelques minutes. L'humain lui prendrait un temps fou. Et c’est peut-être une semaine, c’est peut-être 15 jours, c’est peut-être une journée, mais peu importe, tout ce temps est un temps gagné. »
Julien Redelsperger : « D'accord. Je reviens sur un sujet que vous avez abordé quand on parle de prévention des crimes, prévention de la délinquance. Est-ce que l'intelligence artificielle pourrait permettre de mieux prédire ou prévenir la criminalité ? Ou est-ce qu'on est vraiment uniquement dans le domaine d'Hollywood et de la science-fiction ? »
Patrick Perrot : « Vous êtes plus cinéphile que littéraire. Moi, je pense aussi à George Orwell, 1984. On a tous ses références, mais aussi l'Odyssée de l'espace. Je crois que déjà, l'IA, ce n'est pas de la science-fiction. Alors, vous me direz, la science-fiction a quand même anticipé beaucoup de choses qui sont arrivées. Oui, c'est le propre de la science-fiction, mais pas toute la science-fiction. C'est-à-dire que dans tout ce que la science-fiction envisage, il y a des choses qui arrivent. Minority Report n'est pas du tout souhaitable. Minority Report, ce n'est pas du tout ce qui est recherché. Encore une fois, la notion de surveillance des populations, ce n'est pas du tout quelque chose qui est souhaité et souhaitable. Mais j'insiste sur ce n'est pas souhaité. C'est-à-dire que moi, qui suis gendarme depuis maintenant un certain nombre d'années, je n'ai jamais souhaité surveiller des personnes, mais je l'ai déjà fait. »
Julien Redelsperger : « Dans un cadre juridique précis, avec un magistrat judiciaire. »
Patrick Perrot : « Exactement. J'allais vous dire, vous n'avez pas l'air surpris, mais vous avez la réponse, donc ça va. Effectivement, ce cadre judiciaire est essentiel. J'ai mis des personnes sous écoute. J'ai suivi les personnes. J'ai perquisitionné chez des personnes. Mais tout ça est parfaitement défini. L'analyse prédictive des faits, ce n'est pas l'analyse prédictive des personnes. Et ça, je crois que c'est quelque chose qu'il faut entendre. C'est-à-dire qu'on s'intéressera aux personnes si on est sous le cadre d'une enquête judiciaire. Mais on n'a pas à s'intéresser aux personnes quand on est dans un cadre administratif. C'est-à-dire pas sous l'autorité d'un magistrat de l'ordre judiciaire. »
Julien Redelsperger : « D'accord. Et donc, juste pour revenir sur ces outils, notamment vous parliez des cambriolages, ça veut dire que si statistiquement on a plus de cambriolages sur une zone géographique donnée à une période donnée, peut-être que ça serait plus pertinent d'envoyer plus de patrouilles sur cette zone-là, à ce moment-là, pour tenter de prévenir les cambriolages. Ça peut être une approche, c'est ça ? »
Patrick Perrot : « Oui, j'aime bien votre approche parce qu'elle est simple, un peu simpliste. J'ai pris des précautions, je ne vais pas dire simpliste tout de suite. Pourquoi ? Parce qu'on ne va pas aller mettre du gendarme de chaque fois que c'est rouge. Par contre, l'enjeu, c'est quoi ? C'est de mettre ces outils-là non pas au niveau de la sphère d'exécution, non pas dans le véhicule de patrouille, mais au niveau de la sphère décisionnelle, au niveau des chefs qui organisent le service. Pourquoi ? Parce qu'en fait, quand vous avez une zone rouge, vous l'anticipez. »
Julien Redelsperger : « D'accord. »
Patrick Perrot : « L'anticiper, ça veut dire que vous n'avez pas nécessairement à mettre du gendarme, vous pouvez contacter les élus, vous pouvez contacter ce qu'on appelle les voisins-vigilants. On a un réseau comme ça de participation citoyenne, je crois que vous avez ce système-là aussi au Canada, qui permet de sensibiliser les personnes sur ce qui se passe. Ils peuvent nous alerter. »
Julien Redelsperger : « Oui, c'est vrai. »
Patrick Perrot : « On a les associations, quand vous avez des suspicions de violences intrafamiliales, peut-être que les associations peuvent être mises en action. Donc vous voyez, ça veut dire qu'en fait, ces systèmes-là déplacent le curseur de la sécurité vers le citoyen, plutôt que d'être toujours en bout de chaîne sur les forces de sécurité intérieure. Et si vous combinez ça avec de l'information judiciaire, là vous vous dites, il y a peut-être effectivement une surveillance à mettre en place, et là, vous allez dépêcher les patrouilles. Et là, vous allez faire des contrôles préventifs de sécurité routière, simplement pour indiquer aux délinquants potentiels "la zone est couverte, peut-être faudra-t-il aller ailleurs". Et j'insiste sur "aller ailleurs", parce qu'on nous le reproche souvent. "Vous ne faites que déplacer la délinquance". Bon, oui, mais je préfère déplacer la délinquance plutôt que de la laisser vivre tranquillement là où elle est et prospérer. Parce que c'est en se déplaçant qu'elle commet des erreurs, cette délinquance. Ce n'est pas en restant dans sa zone de confort. Et il nous est souvent aussi reproché, dans ce type de schéma, de dire "oui, mais les cambriolages, vous allez détecter une zone rouge, vous allez y aller et vous allez détecter plus de cambriolages, donc la zone va être encore plus rouge". En fait, c'est oublier ce que c'est qu'une campagne de prévention. Une campagne de prévention, c'est "on est en véhicule apparent". Moi, sur l'ensemble de ma carrière, j'ai fait une fois un flagrant délit en prévention chez une personne qui a eu la mauvaise idée de sortir par la fenêtre de la maison qu'elle était en train de cambrioler. Mais en prévention, vous ne faites pas de flagrant délit en général. C'est en police judiciaire. Quand vous surveillez, là, vous ferez du flagrant délit. Mais pas en campagne de prévention. Donc, gardons un peu raison sur ces sujets-là, ne mélangeons pas tout. Je crois qu'il faut être capable de faire confiance aux forces de sécurité intérieure sur un usage responsable de récurrence des faits et d'utilisation de ces outils, plutôt que d'aller sur des scénarii qui relèvent effectivement beaucoup de la science-fiction, mais dont on doit prendre conscience aussi. Votre remarque, moi, je la dis souvent, c'est que, effectivement, sécurité intérieure et intelligence artificielle, c'est Tom Cruise, pour ne pas le citer, qui ressort. Je trouve que l'aéronaval a plus de chance que nous, parce que ça ressort pour Top Gun. Nous, ça ressort pour Minority Report. C'est un peu dommage. »
Julien Redelsperger : « C'est vrai, c'est une belle comparaison. D'ailleurs, on parlait de science-fiction. En revanche, c'est un truc qui n'est pas de la science-fiction. C'est ce qu'on appelle les hallucinations, les biais et les fausses informations qui sont produits par l'intelligence artificielle. »
Patrick Perrot : « Moi, je n'aime pas employer ce terme. Hallucination, c'est un terme humain. C'est l'humain qui hallucine. Pour halluciner, il faut avoir un cerveau. L'IA n'a pas de cerveau, c'est un cerveau artificiel. L'IA commet des erreurs ou pas. Donc, c'est un niveau de performance. Qu'est-ce que ça veut dire ? Pourquoi on appelle ça une hallucination ? Parce qu'en fait, et notamment avec des IA génératives, l'IA générative travaille par corrélation. Elle va vous rapprocher une information et vous dire "non, mais c'est n'importe quoi". Et vous dites "elle hallucine". Mais en fait, non. Il y a une raison pour ce rapprochement-là. Il y a une raison mathématique à ce rapprochement-là. Mais on n'arrive pas tout à fait à le démontrer. Donc, comme nous, humains, on ne sait pas, on dit que c'est une hallucination. Non, c'est simplement une erreur qu'on n'arrive pas à interpréter. Donc, parlons plutôt de performance, bonne ou mauvaise, plutôt que d'hallucination. Mais je sais que ce terme est souvent utilisé. Les scientifiques parlent même de "perroquet stochastique", ce que je préfère, parce qu'il y a peut-être cette notion d'aléatoire. Est-ce qu'il y a un enjeu aléatoire sur ces erreurs de performance ? C'est possible. »
Julien Redelsperger : « D'accord, ok. Je rebondis sur ce que vous disiez tout à l'heure en début d'entretien. Vous parliez, et j'aime beaucoup le terme d'ailleurs, d'"asymétrie" entre les criminels, les malfrats d'un côté et la gendarmerie de l'autre. J'aimerais savoir comment est-ce que vous, au niveau de l'intelligence artificielle, au niveau de la gendarmerie, vous anticipez justement cette asymétrie ? Et ma question, c'est de savoir notamment dans tout ce qui est arnaques en ligne, qui proliféraient bien avant l'IA, mais qui deviennent de plus en plus crédibles aujourd'hui avec des outils d'IA, comment est-ce que la gendarmerie s'équipe, se développe et intervient pour justement réduire cette asymétrie qui existe entre les criminels technophiles et les victimes, qui sont malheureusement de plus en plus nombreuses, notamment du fait des outils d'IA ? »
Patrick Perrot : « Tout d'abord, le criminel n'a plus besoin d'être technophile. Aujourd'hui, il a des outils où le criminel lambda peut utiliser des systèmes extrêmement performants sans rien y comprendre. La création des deepfakes est très facile aujourd'hui, on n'a pas besoin de comprendre les réseaux génératifs adverses ou l'IA générative de type transformer. Ça, c'est une chose. Nous, on travaille beaucoup sur l'anticipation et l'évaluation de la menace. Qu'est-ce qui demain va arriver ? Et on est très très attentifs sur ces sujets-là, sur la menace à venir. Vous savez, le métaVR qui a été abandonné par beaucoup, nous on continue à y travailler parce qu'on se dit que ça peut revenir, notamment avec l'avènement des IA génératives, ça peut revenir sur ce sujet. Donc l'asymétrie, c'est être capable d'évaluer la menace, être capable de développer des outils. On a développé nous-mêmes nos outils de détection de deepfake, audio, images et texte. La difficulté c'est de pouvoir les mettre à jour à chaque fois parce que les méthodes évoluent énormément. »
Julien Redelsperger : « Oui, c'est un gros enjeu. »
Patrick Perrot : « Et puis l'asymétrie, c'est aussi le travail au niveau de la réglementation. La réglementation est essentielle, il faut absolument que les forces de sécurité intérieure soient soumises à la réglementation, mais je vais vous dire que c'est notre raison d'être quotidienne. Tous les jours, on travaille avec le petit livre rouge qui n'est pas d'ascendance communiste mais de droit pénal. Le code pénal comme le code de procédure pénale, ce sont des livres de chevet, le RGPD c'est un livre de chevet pour le gendarme, mais au quotidien. Pour autant, sur le projet de réglementation européen sur l'intelligence artificielle, il était essentiel qu'il n'y ait pas ce déséquilibre. C'est pour ça qu'on a quelques dérogations qui ont été établies pour l'utilisation de l'IA par les forces de sécurité intérieure. L'IA, c'est le remède et le poison, comme j'ai l'habitude de le dire, c'est-à-dire que des criminels peuvent l'utiliser pour commettre des forfaits extraordinaires, de simplicité de réalisation parce que les outils sont fournis, mais très impactants. Et nous, il faut être capable d'être à la hauteur de ce défi-là si on veut vraiment protéger les citoyens dans les années à venir. »
Julien Redelsperger : « D'accord. Est-ce que vous voyez des tendances qui évoluent grâce ou à cause de l'intelligence artificielle dans les faits de criminalité par exemple ? »
Patrick Perrot : « Oui, tout ce qui est deep fake c'est évident, ça croît considérablement. Moi, il y a quelques années, je travaillais dans le domaine de la police technique et scientifique. On a vu ce qu'on appelle le CSI effect, vous savez c'est l'adaptation des criminels aux nouvelles techniques de police technique et scientifique. Il y avait la série des experts CSI aux États-Unis et donc ça venait de là. On a vu des choses, on a changé les véhicules, on mettait des gants qui étaient plus ou moins particuliers pour effectivement se soustraire à ces problématiques d'empreinte. Et il y a eu un effet réel sur la criminalité. Et nous, ça nous a fait monter aussi, c'est des vases communicants. »
Julien Redelsperger : « Oui, je comprends. »
Patrick Perrot : « Mais c'est un enjeu aussi la communication sur ces sujets. On doit communiquer pour dire qu'on n'est pas totalement en retard, mais on ne communiquera pas sur tout. Et c'est pour ça que parfois on nous demande de la transparence, on ne peut pas être transparent sur tout. Si on dit tout, on dit tout aux citoyens, mais malheureusement parmi les citoyens, il y a une minorité de criminels. Heureusement qu'il y a une minorité, mais malheureusement il y a des criminels et eux, ils savent exploiter effectivement toutes ces failles-là. Donc oui, on le voit sur les fausses ordres de virement, on le voit dans le champ cyber, il y a de plus en plus d'attaques. Et la difficulté qu'on a, c'est qu'on doit être résilient à la fois sur les méthodes anciennes, tout en étant à jour des dernières méthodes utilisées. »
Julien Redelsperger : « D'accord, parfait. Alors dernière question pour vous Patrick, pour conclure cet entretien. J'aimerais qu'on se projette un peu dans le futur. Selon vous, à quoi va ressembler la gendarmerie nourrie ou assistée à l'IA dans cinq ans ou dix ans ? Qu'est-ce qui va changer au quotidien ? »
Patrick Perrot : « Cinq ans ou dix ans, c'est très court. Et on voit que c'est difficile de se projeter au-delà. Je pense qu'il faut absolument qu'on ait compris que l'IA ne remplacera pas l'humain, mais que l'IA doit être supervisée par l'humain. Donc ce que je souhaite, c'est qu'un gendarme soit à la maîtrise de ces outils sophistiqués. Ça ne veut pas dire qu'ils sont tous experts de l'IA, ça veut dire qu'ils sont tous experts de l'utilisation de l'IA. On n'utilise pas l'IA n'importe comment. »
Julien Redelsperger : « Oui, absolument. »
Patrick Perrot : « Donc il faudra effectivement que l'IA l'assiste dans ses patrouilles, que l'IA potentiellement pourrait lui proposer des itinéraires de patrouille, proposer, pas imposer. Il faudra que l'IA l'assiste sur tout ce qui relève des aspects logistiques, la maintenance prédictive des véhicules, ça peut être anticipé pour des questions d'économie. Moi, ce que j'aimerais, c'est qu'un gendarme, par ses applications IA, soit particulièrement attentif aux enjeux environnementaux, donc avec cette notion de proportionnalité par rapport aux utilisations, et j'aimerais une gendarmerie qui ne subisse pas les big tech. Encore une fois, je n'ai rien contre les big tech, mais il ne s'agit pas qu'on soit des vassaux asservis à ces technologies qui émergeraient chez les big tech. Donc ce que je souhaite, c'est une gendarmerie plus humaine, parce que plus dans la maîtrise de ce qu'elle fait, de ce qu'elle utilise. Je crois que l'IA nous interroge beaucoup sur notre capacité humaine, sur notre intelligence humaine. À nous de la placer au bon endroit. Donc ça, c'est une vraie réflexion qu'il faut avoir, et puis une gendarmerie beaucoup plus autonome par rapport aux outils qu'elle peut être amenée à utiliser. »
Julien Redelsperger : « D'accord. Et vous dans cinq ans ou dans dix ans, est-ce que vous serez toujours coordonnateur général pour l'IA ? »
Patrick Perrot : « Je serai certainement ce qu'on appelle en deuxième section, donc c'est ce qu'on appelle en retraite, mais ces sujets continueront à m'intéresser, c'est évident, parce que je pense qu'on a, nous les plus anciens, une vraie responsabilité. C'est-à-dire qu'aujourd'hui, les plus jeunes utilisent l'IA, bien mieux que je ne peux l'utiliser, mais ils n'ont pas toujours conscience de la responsabilité qu'elle porte derrière. Moi, j'ai connu un monde sans internet, j'ai connu un monde où l'IA était une discipline obsolète. Quand j'ai fait ma thèse, on ne parlait pas de l'IA, c'était un terme trop vieux. Donc tout ça est intéressant et ça donne un certain recul et une responsabilité sur le monde qu'on dessine demain. Donc quel que soit mon avenir, je resterai connecté, si je puis dire, à ces sujets qui me paraissent essentiels. »
Julien Redelsperger : « Parfait, très bien, merci beaucoup. Alors à la fin de chaque épisode, l'invité du jour doit répondre à une question posée par l'invité précédent. En attendant d'écouter la vôtre, je vous laisse écouter celle de Laurent Gardès, qui est responsable de l'équipe IA au sein de la direction de la recherche de la SNCF. On écoute sa question. »
Laurent Gardès : « La question que je me pose, la question indiscernable, c'est justement, est-ce qu'il suffit d'augmenter la capacité des modèles, d'augmenter la taille des données qu'on leur donne, d'augmenter la taille du paramètre des modèles pour arriver à ce stade où on va passer le test de Turing de manière complète, intégrale ? Finalement, est-ce qu'on va basculer à un moment donné dans cet IA général ? »
Patrick Perrot : « Pour moi, le test de Turing, il est déjà passé. C'est-à-dire qu'on est déjà capable de confondre une IA avec un humain sur du vocal. L'IA général, je n'y crois pas. Et l'IA général, parce que souvent on associe l'IA général avec une forme de conscience, il n'y aura pas d'intelligence artificielle consciente, je n'y crois pas. Par contre, il y aura des humains qui sauront en toute conscience utiliser potentiellement la naïveté d'autres humains pour faire croire que c'est l'IA qui est responsable, que c'est l'IA qui fait tout, mais en fait c'est toujours l'humain qui est derrière. Donc je ne crois pas à une IA générale, je crois à une IA multimodale. Multimodale, c'est-à-dire que la voix, le son, l'image, tout ça pourrait être beaucoup plus associé. On ira vers là. Une IA à mémorisation, ça c'est un enjeu effectivement pour les années à venir parce que l'IA aujourd'hui est un peu sans mémoire. Une IA à mémorisation, c'est quelque chose qui sera assez important et qui donnera le sentiment d'une conscience. Mais la conscience, elle sera toujours humaine. Mais ça, c'est quelque chose qu'il faut absolument garder, je pense. »
Julien Redelsperger : « D'accord, très bien, c'est parfait, c'est noté. Alors à vous à présent, quelle question est-ce que vous souhaiteriez poser au prochain invité ? »
Patrick Perrot : « C'est difficile. Alors je dirais : alors que l'IA est toujours montrée sous son aspect négatif, alors que l'IA est utilisée par tout le monde dans sa vie quotidienne, comment pourrait-on réussir à faire de l'IA un outil positif dans l'esprit des gens et qu'on arrête d'en avoir peur ? Voilà. »
Julien Redelsperger : « Très bien, écoutez, je garde la question, je la poserai au prochain invité. Merci beaucoup de votre participation, Général Patrick Perrot. Je rappelle que vous êtes coordonnateur général pour l'IA au sein de la Gendarmerie nationale et conseiller IA auprès du commandement du ministère de l'Intérieur dans le cyberespace. Merci d'avoir participé à ce podcast. »
Patrick Perrot : « Merci à vous, bonne journée. »
Cette transcription a été réalisée par un outil d'intelligence artificielle. Elle n'est peut-être pas 100% fidèle au contenu d'origine et peut contenir des erreurs et approximations.