L'analyse vidéo à l'ère de l'AI : la performance opérationnelle augmentée
Quand on parle d'analyse vidéo et d'IA, on pense forcément à la surveillance. Pourtant le sujet va bien au-delà des questions de sécurité. Dans cet épisode de « AI Experience », j’accueille William Eldin, co-fondateur de XXII, une entreprise qui mise sur la vidéo intelligente au service de nombreux métiers. Découvrez comment l'analyse vidéo, enrichie par l'IA, révolutionne des secteurs aussi variés que la sécurité, le commerce ou l'industrie des transports. William partage des cas concrets où l'intelligence artificielle ne se contente pas d'observer, mais agit comme un levier de transformation pour les opérations quotidiennes. Si vous vous intéressez à l'impact tangible de l'IA sur le monde professionnel et souhaitez comprendre comment elle peut améliorer l'efficacité opérationnelle, cet épisode vous offre des réponses claires et des exemples réels. Non seulement Big Brother ne vous surveille pas, mais il peut même vous rendre de précieux services.
Petit, il voulait être grand bandit ou chauffeur de bus. Sa passion pour la musique l’a poussée à monter son label avec Dam, son meilleur ami d’enfance. A 18 ans, après un tube en poche, il quitte l’aventure musicale pour entreprendre l’ouverture d’un premier magasin de détecteurs de radars à Paris, puis un deuxième, un troisième, un quatrième… Il l’admet, il aimait -et aime toujours- la vitesse !
De son petit magasin parisien et de sa rencontre avec les fondateurs de Coyote, né le réseau de distribution de la marque. Dix ans plus tard, sa soif d’entreprendre et l'envie de tout reprendre à zéro le poussent à quitter l’entreprise pour fonder XXII avec Dam.William Eldin est un autodidacte passionné et passionnant, amoureux de l’innovation et du challenge.
William Eldin
Co-fondateur et CEO
Julien Redelsperger : « Et pour cela, j'ai le plaisir d'être accompagné par William Eldin, qui est le fondateur de XXII, une entreprise spécialisée dans la solution d'analyse vidéo basée sur l'intelligence artificielle. Bonjour William, merci de participer à cet épisode. Comment vas-tu ? »
William Eldin : « Super, en forme. Moi, il est 14h30, donc tout va bien. C'est l'après-midi et je suis plein d'énergie. Merci de m'accueillir en tout cas, c'est très sympa. »
Julien Redelsperger : « Ça me fait un grand plaisir. Alors William, on va parler d'intelligence artificielle, de vidéosurveillance. J'ai énormément de questions pour toi et je pense que tu as aussi beaucoup de choses à dire. Avant d'aller plus loin, est-ce que tu peux te présenter et m'expliquer ce que fait XXII qui est une entreprise française ? On est d'accord ? »
William Eldin : « Exact. XXII, donc entreprise française qui a maintenant 7 ans. Je l'ai créée suite à la revente de mon autre entreprise avant qui était Coyote. Des petits avertisseurs de radar. Et on avait découvert à l'époque, en 2010-2011, la détection des panneaux de limitation de vitesse grâce à la vision par ordinateur. Donc, du coup, on permettait à nos clients d'avoir toujours la bonne vitesse de limitation. Et je m'étais dit, mais attends, si on arrive à imiter la perception visuelle de l'humain, on va pouvoir le mettre partout, ce système-là et à tous les endroits de l'économie, parce que tout le monde se sert de ses yeux pour agir sur son travail. Et donc, du coup, j'avais vendu Coyote, j'ai créé XXII, j'ai investi pas mal de sous dedans. J'ai composé une petite équipe de 30 personnes au début pour faire des POC, des POC, des POC. On a eu des conclusions qui nous ont permis de construire un produit en 2021-2022. Et ensuite, on scale ce produit-là. Donc, c'est un produit logiciel que tu installes en cloud ou en local sur un serveur avec de la GPU. Ça permet de récupérer toutes tes sources vidéo, donc tes caméras, tes vidéos surveillantes, si on s'en sert, finalement, pour dire à n'importe qui dans l'entreprise qui a ses caméras, si vous avez envie de savoir des choses, des métriques et apporter de la valeur à vos métiers, vous pouvez vous servir de notre produit. Et donc, typiquement, tu vois, dans le retail, s'ils veulent comprendre l'expérience client offline au même niveau que l'expérience client online avec un Google Analytics, nous, on peut leur dire dans leur magasin, les clients rentrent à 60% par la droite, ils touchent trois fois ses lunettes, ensuite ils vont payer et ceux qui touchent quatre fois les lunettes, ils payent un peu plus. Et donc, du coup, c'est de l'analytique très, très fin sur le offline. Donc, on est 80 aujourd'hui, quasiment. On a levé 22 millions d'euros en France avec des fonds français il y a maintenant quasiment un an. Et notre objectif, c'est de scaler les USA, l'Europe sur trois verticales, sécurité, retail et industrie des transports. »
Julien Redelsperger : « Donc, juste qu'on comprenne bien comment ça fonctionne, tu prends un flux vidéo d'une caméra de vidéosurveillance, tu l'intègres dans ton logiciel et dans ton logiciel, tu as un système d'IA qui permet d'identifier, là c'est un chien, un vélo, une voiture, une personne, c'est ça ? »
William Eldin : « Exactement. Et après, tu as un petit moteur de règle qui permet de dire, OK, je veux détecter les vélos qui passent entre telle heure et telle heure ici à cet endroit-là et surtout les vélos rouges. Donc, tu vois, ça te permet de granulariser la détection et de ne pas avoir des détections tout azimuts, mais d'avoir vraiment la bonne alerte au bon moment. »
Julien Redelsperger : « D'accord, très bien. Alors, quand on pense à des solutions d'analyse vidéo qui sont basées sur l'IA, il y a toujours pour moi un côté un peu dystopique, un peu film de science-fiction qui tourne mal. Est-ce que c'est des remarques qu'on te fait souvent ? Est-ce qu'on t'en parle de ça ? »
William Eldin : « Oui, reconnaissance faciale. Ah oui, mais en fait, t'es Skynet. Ah oui, mais en fait, tu es en train de nous fliquer de partout. Et puis, pour être honnête, la technologie le permet. C'est-à-dire que si demain, j'intègre ton visage, vu que je suis déjà dans pas mal de villes et pas mal d'endroits, eh bien, je pourrais te suivre dessous et savoir qui tu es. Sauf que c'est illégal, comme consommer des drogues ou rouler à 300 sur l'autoroute. Donc, il n'y en a pas qui le font normalement. Et donc, du coup, c'est interdit de le faire. Donc, oui, ça peut faire peur. Non, on a construit des barrières qui permettent finalement de ne pas pouvoir techniquement remonter sur une identité. Ça veut dire qu'un humain, chez nous, c'est comme un objet, tu vois. Et donc, du coup, on n'arrive pas à revenir sur la face de la personne, le type de vêtement. Ça, on l'a interdit. On arrive à reconnaître les couleurs de voiture, les couleurs de chien, les couleurs de ce que tu veux. Par contre, dès qu'il y a humain, c'est verrouillé. Et donc, c'est pour ça qu'on dit qu'on a créé un produit qui est GDPR, donc RGPD, By Design. Tu vois, c'est qu'à l'intérieur de l'algorithmie, tu n'as pas possibilité d'extraire des données à caractère personnel. »
Julien Redelsperger : « Est-ce que tu peux nous donner un exemple concret, notamment en termes de sûreté ou d'efficacité opérationnelle ? Un exemple où XXII a justement amélioré les choses. Que te demandent tes clients ? »
William Eldin : « Alors là, le use case significatif dans la sécurité aujourd'hui, il y en a deux. Il y en a un qui est mainstream et donc, du coup, il n'y a plus d'intérêt d'en parler. C'est tout ce qui est intrusion. Mais il y a de l'intrusion qui est technique quand même. Tu vois, sur la tour Eiffel, qui est un de nos clients, il y a des intrusions qui se passent à des endroits où même l'œil humain a du mal à les voir, tu vois, pour rentrer en pleine nuit et aller sauter en parachute. Tu les connais, ceux-là, sur YouTube. Donc, du coup, il faut calculer qu'à un moindre pixel d'être humain, on puisse détecter en pleine nuit que c'est un être humain qui rentre. Donc, tu vois, dans cette feature assez mainstream, il y a quand même des petites particularités techniques. Pour aller jusqu'au détection de bagages abandonnés en temps réel, ça, c'est galère parce que tu t'imagines tuer la caméra d'une gare. Donc, tu es à 30 mètres de tous ces gens-là qui s'habillent tous en noir et qui ont tous le même bagage noir. Et tu dois, toi, associer chaque personne à chaque bagage avec lequel il est rentré. Et dès qu'il y a une séparation d'un certain temps et d'une certaine distance, alors tu dois alerter en temps réel et continuer de traquer la personne qui a abandonné son bagage, mais de manière non biométrique. Donc, ça veut dire à tous les objets, toutes les couleurs qu'ils ont autour d'eux. Et ça, c'est hyper compliqué. Et donc, du coup, ça, ça marche bien parce que le ROI, donc le retour sur investissement, il est dingo. Tu vois, une gare hier avait en moyenne quatre détections de bagages abandonnés qui sclérosaient la gare au moins une heure par jour. Aujourd'hui, tu divises par quasiment cinq. Donc, du coup, beaucoup moins de retard dans les trains, beaucoup moins d'insatisfaction client, beaucoup moins de fermeture de gare de manière inopinée où ça fout un bordel pas possible dans les opérations. Voilà, beaucoup moins de tout ça, ce qui permet d'avoir un vrai ROI visible. Ça, c'est un use case dans la sécurité. »
Julien Redelsperger : « D'accord, parfait. Et ça veut dire qu'au niveau des postes de contrôle et de sécurité, comment ça se passe ? Tu as des agents qui s'occupaient avant de la surveillance, qui devaient regarder tous les écrans manuellement et qui aujourd'hui s'appuient sur ta solution pour gagner du temps, j'imagine ? »
William Eldin : « C'est exactement ça. En fait, c'est une aide à la décision, c'est-à-dire que tu n'as pas 500 yeux. Et donc, tu ne peux pas regarder à 500 endroits différents en même temps. Et donc, du coup, la capacité d'un être humain, c'est d'être connecté, en tout cas concentré, une vingtaine de minutes, tu vois, et de pouvoir regarder cinq, sept écrans en parallèle. Sauf que, tu vois, dans une gare française un peu connue, qui est la gare de Lyon, tu as 450 caméras. Donc là, les deux opérateurs, et encore quand il y en a deux, parce que la vérité, c'est qu'il est souvent tout seul, il ne peut pas regarder tout ça. Donc en fait, nous, on lui dit, tu peux demander à notre IA de te détecter tout ce que tu as envie de savoir. Donc, tu paramètres les algorithmes comme si toi, tu avais été derrière les caméras et tu éteins tous tes écrans et ne s'allumeront que les écrans, là où tu mérites de pouvoir poser ton intelligence dessus. Parce que ça te la fait tellement poser ton intelligence sur des endroits qui n'ont rien à voir, que du coup, nous, on vient faire cette première lame de traitement, tu vois. »
Julien Redelsperger : « D'accord. Et en termes d'intelligence artificielle, quels sont les grands défis auxquels toi et ton équipe ont été confrontés pour développer ce genre d'analyse en vidéo ? Parce que ça ne doit pas être simple, même si tu as eu l'expérience avec Coyote, comme tu le précisais avant. Mais c'est quoi les grandes étapes par lesquelles tu es passé ? »
William Eldin : « Alors, les grandes étapes, comme je te disais, au début, j'avais une idée et une vision. L'idée, c'était de faire de cette technologie un relais à l'humanité, parce qu'on ne peut pas regarder à tous les endroits pour se protéger ou pour anticiper. Donc ça, c'était vraiment la vision et l'idée. Et ensuite, sur l'exécution, je savais que je ne savais pas. Donc du coup, ce qui était important pour moi, c'était d'aller me confronter au marché. Et c'est pour ça que tu sais, au tout début de XXII, quand j'avais le use case de détection des panneaux grâce à Coyote, je me suis dit, on va prendre toutes les boîtes du CAC 40, les gars, et on va aller attaquer en mode POC entre un docteur en computer vision et moi. Comme ça, on va dire bonjour, quelles sont vos problématiques ? Et tu vois, pour te parler de la SNCF, qui est notre gros exploitant ferroviaire français, et bien la SNCF, on est allé les voir en leur disant, qu'est-ce qui vous coûte de l'argent qui aujourd'hui pourrait être résolu par juste une vision du problème, donc par vos caméras, mais que vous n'arrivez pas à résoudre parce qu'il n'y a pas assez de ressources humaines derrière ces caméras. Et du coup, tu vois, ils nous ont fait une petite liste de 10 pains et ces 10 problèmes qu'ils avaient. On a essayé de comprendre comment on pouvait résoudre pour un minimum de R&D avec un maximum de valeur ajoutée. Et tu vois, le premier pain qui est ressorti, c'était vraiment le côté bagage abandonné. Et en fait, bagage abandonné, c'est simple. C'est reconnaître des humains, reconnaître des objets type bagage et ensuite créer des règles mathématiques d'association et de dissociation. Alors, comment j'ai fait pour découvrir tout ça ? Je me suis entouré de docteurs et d'ingénieurs à l'époque. Donc, en effet, j'ai posé 2-3 millions d'euros sur la table, front comme ça, sans savoir ce qu'il y allait y avoir derrière, mais parce que j'y croyais fortement. Et ensuite, on a couru après les cas d'usage et le chiffre d'affaires. Et tu vois, au fur et à mesure, on a vu que la sécurité était gros en termes de profondeur de marché, mais on a aussi vu que le sujet d'après était clairement l'excellence opérationnelle avec la performance des entreprises. Et tu vois, je reviens d'une visite encore chez DHL, donc un des leaders mondiales dans le transport, du petit colis. Mais attend, on rentre dedans l'entrepôt de DHL, je vois tout de suite une quinzaine d'algos qui peuvent fonctionner et les aider sur les opérations au quotidien. Alors, je ne te dis pas que ça révolutionne leurs opérations, parce que c'est tellement chiadé leur truc que ça tourne tout seul. Mais aujourd'hui, s'ils perdent 1% des colis ou 0,1% des colis, moi, je vais pouvoir déjà traiter ça. Ensuite, s'ils ont un problème de vol, je vais pouvoir regarder aussi ça. Ensuite, s'il y a un problème de sécurité, je vais pouvoir regarder aussi ça. Du coup, il y a plein d'endroits où tu arrives à être un acteur. »
Julien Redelsperger : « Et pour installer ta solution sur un flux vidéo, est-ce que tu as des prérequis minimum ? Est-ce qu'il faut des caméras 4K hyper moderne ou ça marche sur n'importe quel type de flux vidéo ? »
William Eldin : « En fait, c'est un peu comme... En fait, c'est proportionnel. C'est-à-dire, si tu as une caméra de merde et que tu as un use case assez simple avec une visibilité de la scène assez proche, c'est-à-dire que les humains représentent 30% du flux vidéo et que toi, tu veux détecter et compter du nombre d'humains. On s'en fout de la qualité, du moment où il y a un minimum de pixels. Par contre, si tu veux aller choper un bagage dans une gare, en sachant que les bagages, c'est des fois des tout petits trucs noirs et ça peut ressembler à des poubelles, à des sacs plastiques, à n'importe quoi. Là, plus tu as de granularité en termes de pixels, meilleure sera la performance de tes algorithmes. Donc, pour répondre de manière très factuelle, notre produit marche à plus de 95% de performance dès que tu dépasses 720 pixels par pouce. Voilà. En gros, c'est ça. »
Julien Redelsperger : « D'accord. Donc, plus ton flux vidéo est qualité, évidemment, meilleurs seront les résultats. »
William Eldin : « Exactement, voilà. Mais aujourd'hui, 90% des caméras installées sont des caméras de millions de pixels, 4 millions de pixels. Et la vérité, c'est qu'on n'est pas en carence d'infrastructures, en tout cas de qualité d'infrastructure. On est plutôt en carence de prix de nos IA, temps de développement de nos IA et la plus grosse carence, c'est l'acceptation des humains. »
Julien Redelsperger : « Pourquoi ? »
William Eldin : « Il y a deux formes de résistance. Première résistance, la compréhension, c'est pas évident de comprendre que tu as des IA qui peuvent voir des choses que tu n'as pas le temps de voir ou que tu n'as pas envie de voir ou que tu n'as pas pu voir et un moteur de règle au-dessus et que finalement, en paramétrant ça, tu peux avoir la data qui t'intéresse, mais sans trop te casser la tête. Donc là, c'est quoi ? C'est la résistance des opérateurs de sécurité ? On n'y est pas encore. Là, on est plutôt dans la compréhension, le manque de compréhension de cette technologie. C'est en gros, OK, c'est Internet, c'est ton truc, c'est les Chinois, c'est facial. Non, c'est pas facial, c'est pas chinois, c'est français, ça marche comme ça. OK, mais votre truc, j'y crois pas trop parce que ça va tout nous contrôler. Non, ça va pas te contrôler parce que si, parce que ça. Donc c'est plutôt, finalement, de l'évangélisation et de la culture, de l'éducation. C'est un gros travail d'éducation. Mais c'est énorme et honnêtement, c'est le plus gros pain parce qu'après, le deuxième, c'est celui dont tu parles, c'est les résistants par nature, tu sais, c'est pas leur valeur. Et donc, eux, si c'est pas leur valeur, du coup, il faut faire un travail d'explicabilité, de transparence. Il faut leur montrer qu'il y a un cadre autour de notre truc et qu'on n'est pas là pour les faire chier, mais plutôt les aider. Et en principe, ces gens-là, tu arrives à les convertir en leur montrant, tu vois. Mais sinon, voilà, ce sont les deux grosses formes de résistance. Et ces deux grosses formes de résistance, elles sont longues parce qu'elles sont humaines, tu vois. Donc, de manière assez dure, je te dirais qu'il faudra deux à trois générations pour rendre mainstream le truc, tu vois, de manière un peu plus optimiste. Je te dis qu'il faut que je parie sur les promoteurs. »
Julien Redelsperger : « Ok. Alors, c'est intéressant ce que tu dis en matière de résistance, notamment sur les personnes qui sont concernées par ça, parce que moi, quand je invite des experts et des personnes à mon podcast, ils me disent « il y a des jobs qui vont disparaître parce qu'ils vont être remplacés ou améliorés par l'IA ». Dans ton cas, les opérateurs de sécurité, par exemple, leurs postes ne sont pas en danger, si je comprends bien. On est là surtout pour les aider à être plus efficaces. Quelle est ta vision du futur des humains dans le monde de la sécurité ? »
William Eldin : « Voilà. Alors, ma vision, c'est que déjà, les gens qui disent ça, ils font pitié parce qu'en fait, oui, d'accord, mais dans tout arrivé technologique industriel, il y a eu des boulots qui ont glissé, qui sont passés sur d'autres types de cas d'usage et qui, voilà, on le sait, c'est comme si tu me disais « les tracteurs, ils ont tué les ânes ». Oui, c'est sûr. Tu vois, donc, ok, déjà, je mets dans une certaine catégorie les gens qui disent ça. Ensuite, de facto, pour être complètement transparent et honnête, ça va bouger beaucoup de gens qui sont sur une fiche de poste bien précise que l'IA peut faire à 80 %. Évidemment que ça va les bouger. Ça ne va pas les bouger du jour au lendemain comme ça, mais ça va sûrement les bouger assez vite, en moins de 10 ans, tu vois. Donc, oui, il y a un risque et ils ont raison d'avoir peur, mais l'être humain, il est câblé comme ça. On a peur et après, on s'adapte et après, on recrée. Donc, en fait, c'est normal. C'est le cycle qu'on connaît depuis des millénaires. Tu vois ce que je veux dire ? »
Julien Redelsperger : « Mais concrètement, c'est-à-dire que sur le terrain, tu pourrais avoir besoin de moins d'agents de sécurité ? »
William Eldin : « Évidemment, oui, parce que tu as des systèmes d'IA qui font le job. Exactement. Déjà, tu vois, notre plus gros client est la police. La police, aujourd'hui, ils équipent leur centre d'enquêtage vidéo. Ils sont 6 000 experts vidéo à faire de l'enquêtage vidéo. Donc, à récupérer des flux d'un braquage, des flux d'une ville, à remonter caméra par caméra, où est-ce qu'est passée la bagnole en partant du braquage, etc. 6 000, d'accord ? Nous, aujourd'hui, on leur fait gagner 98 % de leur temps sur l'enquête vidéo. Donc, ça veut dire que les 6 000, maintenant, ils sont potentiellement à risque parce que demain, tu as peut-être 30 personnes qui vont pouvoir faire leur travail en disant à notre IA, 'Retrouve-moi la voiture jaune qui a quitté ce truc-là. Tu as toutes les autres caméras de la ville. Tu me fais son parcours. Tu me dis où est-ce qu'on les a perdues. Tu me dis si tu peux combien il y a de personnes dedans, etc.' Et ça, bam, t'appuies sur un bouton, ça recherche tout et ça te crache le résultat. Donc, évidemment que ça va en retirer des jobs, et comme je te disais, même peut-être à court terme. Par contre, ces enquêteurs vidéo, crois-moi que le ministère de l'Intérieur, il n'a pas prévu de les mettre dehors. Il va les réaffecter à quelque chose d'autre. Et je pense que c'est de manière assez générale, sur le très court terme, ce qui va se passer. Au moyen terme, on va retravailler des budgets. Ah tiens, un peu moins là. Et à 10 ans, oui, tu auras eu une décroissance de certains métiers, d'une trentaine de pourcents, mais tu auras eu des nouveaux métiers qui sont arrivés. Tu vois, là, je ressors d'un déjeuner avec un gars d'une fédération française de sport, qui me dit, William, dans chaque club, que ce soit national, régional ou mondial, international, on embauche des data scientists en ce moment pour la possession de la balle, le nombre de chutes, le nombre d'entraînements, combien d'heures, et ils mettent plein de data. Donc, à plein d'endroits, ça pousse, et à plein d'autres endroits, ça fane, normal. »
Julien Redelsperger : « Et comment évolue ton intelligence artificielle au fil du temps ? Elle reconnaîtra plus de choses dans plus d'endroits, et elle aura un moteur qui permet à l'humain de mieux la comprendre, mieux la paramétrer, et qu'elle lui remonte plus de données à caractère très ciblé, tu vois. Tu peux me donner un exemple de ce que tu es capable de faire aujourd'hui, que tu ne pouvais pas faire il y a deux ou trois ans ? »
William Eldin : « Aujourd'hui, je peux m'installer dans une enseigne qui a 500 points de vente, et je peux lui sortir en temps réel le comparo entre ces 500 points de vente, et lui conseiller les bonnes pratiques à faire dans les 200 points de vente qui sont 20% en dessous de la performance des 200 meilleurs. Comment tu fais ça ? Parce que je dis que le vendeur vient voir le client sous 30 secondes dans les magasins qui performent, alors que ceux qui ne performent pas, le vendeur vient voir le client 4 minutes après qu'il soit rentré. Donc, tu as un taux de drop-out, de gens qui ressortent, de 30% dans ces 200 magasins. Tu appuies sur ce taux de 30%, vous allez voir, ça convertit au POS, au point of sale, et du coup, derrière, tu augmentes tes chiffres. »
Julien Redelsperger : « D'accord. Alors, effectivement, on a beaucoup parlé de sécurité jusque-là, et tu le disais, XXII va bien au-delà, parce que ça permet également de voir ce qui se passe dans une boutique, au cas des supermarchés, ou dans le drive d'un fast-food. Est-ce que tu peux me redonner quelques cas d'usage et expliquer un peu à quoi ça sert tout ça ? »
William Eldin : « On détecte des humains et des objets. On suit des humains et des objets. Et donc, du coup, que ce soit dans la sécurité, où tout est très clair pour tout le monde parce qu'on vient d'en parler 10 minutes, mais que ce soit dans le retail, les cas d'usage qu'on vend le plus aujourd'hui, je te l'ai dit en préambule tout à l'heure, mais c'est vraiment, on est le Google Analytics du offline. C'est-à-dire que Google Analytics va te dire que, Julien, tu es rentré sur mon website par la page d'accueil, tu es resté 17 secondes, ta souris, elle est passée sur ce produit, ce produit et ce produit. Ensuite, tu es passé sur la page numéro 2, tu as eu une erreur 404, du coup, tu es parti du site. Moi, je peux te dire la même chose. Je peux te dire, le client, il est rentré là, il a fait ça, il a touché ça, il est allé là après et ensuite, il est reparti et il a acheté pour plus de 200 euros. Donc ça, c'est un bon client, un parcours type. Comme on peut faire pour McDonald's, enfin, excuse-moi, je ne dois pas dire les noms normalement, mais comme on peut faire pour d'autres types de fast-food, le fait de dire au manager, qui a plus les yeux partout, on lui dit, là, il y a trois tables à débarrasser, fais attention parce que tu as une borne qui ne marche pas, parce que nos IA, ils viennent de constater qu'il y avait eu trois personnes qui avaient touché deux fois l'écran, mais qui étaient parties au bout de dix secondes. Donc, c'est que le truc, il n'enclenchait pas. Donc, tu as un problème de traitement des flux. Tu as aussi fait gaffe, trois livreurs Uber Eats qui attendent derrière, donc les trois commandes que tu as à la valeur apportée. Fais gaffe, tu as 15 voitures qui viennent d'arriver d'un coup, donc fais préchauffer des steaks. Et puis, ton service à table, là, tu sais, les petits chevalets qui te coûtent 15 balles et que tout le monde te vole et qui marchent mal, en fait, dégage-les parce que moi, je vois en temps réel où sont les commandes. Vu tes 16 caméras dans chaque fast food, parce que c'est tout normalisé, tu vois. Et du coup, moi, je te dis où est-ce qu'il faut aller livrer quelles commandes, quoi. Et tu vois tous les use case, comme tu peux vraiment les empiler les uns autour des autres. Donc là, je t'ai parlé du cas fast food. On a aussi un use case très, très fort en ce moment sur les stations service. Il y a deux enjeux dans les stations service en ce moment. Premier enjeu, le transfert d'une énergie thermique à une énergie électrique. Comment toi, quand tu es patron de Total et que tu as 5000 stations service, tu monitores le changement, donc la réduction des pompes à essence et l'augmentation des bornes de recharge. Et bien, tu monitores ça au temps d'attente des bagnoles, au nombre de bagnoles. Nous, on sait le faire. On voit des voitures arriver, on les traque. On sait combien de temps elles attendent. On sait à quoi elles sont destinées. On sait quelle typologie de personnes sont à l'intérieur. Et tu vois, tout con, mais pour une marque française très connue, on a réussi à leur dire que les gens qui venaient recharger étaient en principe des familles, que dès qu'il pleuvait, elles restaient à 67% à l'intérieur des bagnoles et que le seul moyen qu'ils consomment à la boutique, c'était de créer ton application et de livrer dans les bagnoles électriques plus 24% de sell-out au retail. Et donc, du coup, des millions d'euros parce que derrière, c'est des milliers de stations. Tu vois ce que je veux dire ? »
Julien Redelsperger : « C'est assez fascinant, la manière dont tu peux capter et analyser des signaux qui n'étaient pas captables jusque-là pour prendre des décisions. Et est-ce qu'il y a déjà eu des exemples concrets où il y a eu des décisions, des changements structurels qui ont été faits grâce à votre analyse ? Est-ce qu'un magasin a changé son agencement ? »
William Eldin : « Oui, j'ai un cas qui date de la semaine dernière. Attends, je n'ai pas le droit de parler de lui, donc il faut que je trouve d'autres objets. Voilà, on va parler de boissons. Imagine que c'est un magasin qui est spécialisé dans la vente de boissons. Alors, il vend des objets qui sont complètement différents, mais imagine des boissons. Il vend la marque Coca-Cola et à côté, il a sa marque à lui. D'accord ? Nous, on lui a dit que 60 et quelques pour cent des gens rentraient par la droite du magasin. Et donc, il vendait plus du Coca-Cola qu'il y avait une faible marge. D'accord ? Sauf que sur sa boisson à lui, il y a une marge de fou. Et en fait, on lui a juste dit « Franchement, pourquoi vous ne changez pas juste l'implantation ? » Et que vous mettez votre marque à vous, à droite, comme ça, vous maximisez le fait de pouvoir faire de la marge plus haute, que versus un Coca-Cola. Et du coup, il nous a dit « Ok, on va tester sur huit boutiques. » Et je te jure, les huit boutiques, elles ont augmenté leur marge de 34% dans la foulée. Donc, en fait, c'est un changement significatif suite à une observation mathématique, parce qu'il ne fallait pas d'émotionnel là-dedans. Et donc, du coup, ça fonctionne. Mais ça, j'en ai 15 des use case comme ça. »
Julien Redelsperger : « Alors, à quel moment est-ce que, justement, des use case comme ça sont pertinents d'un point de vue statistique ? Je m'explique. Est-ce que les changements que tu fais sur une journée sont significatifs pour transformer l'implantation d'un magasin ? Pendant combien de temps tu dois observer une situation pour dire “On a les bonnes datas pour prendre les bonnes décisions et on va faire les changements ?” »
William Eldin : « Tu as raison de dire ça. Ce n'est pas universel. L'IA n'est pas Dieu. C'est une composante supplémentaire à la réflexion. La réflexion part d'abord de l'humain, donc du manager de la boutique et du patron des réseaux. Ensuite, ils viennent, eux, constater. Et ensuite, ils mettent notre produit en marche pour avoir vraiment une analyse massive de la donnée. Et nous, on vient être soit le début de la réflexion, parce qu'ils se disent « Putain, sur les datas, c'est dingue quand même. Regarde, cette boutique n'est pas pareille, elle marche mieux. » Donc, on est le début de la réflexion, elle repasse à l'humain. Et ensuite, nous, on vient mass-valider le truc. Pour te répondre très concret, je pense qu'un directeur des opérations, avant de le valider sur tout le réseau, il va attendre au moins deux ou trois mois de bonne pratique dans une dizaine de stores pilotes. »
Julien Redelsperger : « D'accord. Donc, pendant deux ou trois mois, tu observes la situation, tu prends des notes avec les datas. Et là, tu dis statistiquement, c'est relativement significatif en termes de comportement. »
William Eldin : « Oui. Dans 80% de vos magasins, vous avez ça qui se passe. Et dans 20%, vous avez le contraire. Regardez, la performance est meilleure là. Nous, on vous conseille, « Attendez, on va retravailler. » Parce qu'eux, ils ont une couche métier qui est bien plus performante que la mienne. Moi, je suis extérieur avec mon produit, donc je ne vois pas tout. Cependant, eux, ils arrivent à avoir quelque chose d'assez fiable quand on leur donne nos données. Donc, du coup, ils en tirent leur propre conclusion. Mon grand rêve serait qu'il n'y ait plus nécessité de mettre ma couche de business analyst par-dessus mon produit. C'est un de mes objectifs. Que les clients, aujourd'hui, quand je vends à la marque numéro X qui a 500 magasins, je leur vends un accompagnement parce que mon produit, aujourd'hui, te délivre des données que je suis sûr que tu n'as pas le temps, toi, dans ton métier, vu que tu es déjà occupé à 100%, de venir, tu vois, vraiment passer du temps à tout décrypter. Donc, nous, on a un follow-up juste après la vente, de trois à six mois, qui permet d'accompagner les utilisateurs à mieux se servir de nos produits. »
Julien Redelsperger : « D'accord, une sorte de coach pour savoir comment utiliser ces datas, quand faire et d'accord. Ok, intéressant. »
William Eldin : « En fait, on n'a pas le choix, Julien, parce que c'est vraiment un nouveau marché, une nouvelle techno, une nouvelle manière de remonter la data. Comme tu dis, avant, on ne voyait rien. Aujourd'hui, on voit, tu vois, parce qu'on a compris que la caméra, ce n'est pas que pour la sécurité. Mais en vrai, prendre un directeur des opérations de 500 magasins dans ses journées plus que remplies et lui ajouter du temps cerveau, c'est compliqué. Donc, lui mâcher le travail, c'est clairement une des clés, tu vois. »
Julien Redelsperger : « D'accord. Il y a un cas d'usage auquel je pense, on n'en a pas parlé, c'est celui des villes intelligentes, les Smart Cities. Ces villes connectées, durables, plus socialement acceptables, etc. Est-ce que c'est un sujet sur lequel toi, tu travailles chez XXII ? »
William Eldin : « C'est mon premier sujet, parce que quand on a sorti le produit, c'était plein Covid. Donc, tout était fermé et les seuls qui étaient capables d'acheter étaient les villes. En plus de ça, c'est trop bien, les villes, parce qu'il y a une infrastructure caméra qui est claire, bien organisée. Et en plus de ça, c'est trop bien pour tester les algos, parce que des fois, dans les villes, il fait jour, des fois, il fait nuit, des fois, il pleut, des fois, il neige, des fois, tout ça, tu vois. Et c'est ce qui permet, en fait, d'avoir des algos résistants. En gros, quand tu marches dans une ville, tu sais que tu marcheras forcément dans un entrepôt DHL, tu vois. Et on a commencé. Les caméras sont possédées par l'élu de la sécurité. Donc, en fait, ils sont fous de tout ce qui est aux excellences opérationnelles. Aujourd'hui, on a pas mal de villes en client. On a plusieurs dizaines de villes en client. Et je me tue à essayer de vendre du dépôt sauvage, de l'extinction des lumières nocturnes automatiques en fonction des détections d'humains ou pas, pour économiser de l'énergie, du pilotage des feux rouges intelligents. Hier soir, je suis encore rentré à 23h du bureau. À 23h, je suis sur mon scoot, sur les quais, à côté de la Défense. J'ai quatre feux rouges qui sont bêtes et méchants, qui me font attendre une minute trente par feu rouge, alors que j'ai personne à droite, personne à gauche, et je pourrais rentrer chez moi en 30 secondes. Tu vois ce que je veux dire ? Pourquoi, à ce moment-là, je n'ai pas une petite caméra qui regarde à droite, à gauche et qui me passe le feu au vert ? En fait, je trouve que l'infrastructure est bête aujourd'hui. Et les villes, c'est le meilleur moyen de la rendre dynamique. Mais sauf que les caméras ne sont pas possédées par les bonnes personnes et c'est hyper compliqué de sortir de la sécurité dans les villes. Donc, en fait, il y a plein d'avantages d'un côté pour tester et pour mettre en place des algos, mais il y a plein de freins de l'autre. Parce qu'en plus, en termes d'agilité et de dé-silotement, tu sais, entre les différentes BU, ce n'est pas les meilleurs. »
Julien Redelsperger : « C'est difficile de travailler avec des municipalités, communautés communes, départements ? »
William Eldin : « Ah ouais, hyper difficile parce que les cycles de vente sont longs. Les axes politiques à l'intérieur, donc qu'on comprend un peu moins, sont forts. Et ensuite, le bénéfice qu'en tire la ville, en tout cas que tire l'habitant pour voter au conseil municipal, n'est pas forcément un bénéfice super héroïste pour le client final, pour le citoyen. C'est souvent pour la ville, pour mieux traiter les déchets, pour mieux ci, pour mieux ça. Donc, du coup, tu vois, c'est un peu compliqué. Et en plus, la Chine a fait mauvaise presse pendant des années, parce qu'ils flippent tous dès qu'il y a une IA derrière une ville. »
Julien Redelsperger : « Justement, que te disent les élus quand tu parles d'intelligence artificielle et de flux vidéo ? C'est quoi leur sentiment ? Parce qu'on peut imaginer que c'est pas les plus acculturés aux nouvelles technologies et à l'IA. »
William Eldin : « Je vais être un peu méchant ou réaliste. Ce n'est pas leur sujet. Eux, ce sont des politiques. Donc, eux, ils transfèrent la valeur que tu apportes en arguments politiques. Et c'est rare, les élus qui sont là pour aider, mais c'est rare que les élus qui sont là pour aider, ils soient là pour aider en termes d'excellence opérationnelle. Ça marche un peu mieux, pas avec les élus, parce que tu as vraiment dit élus. Ça marche un peu mieux avec les services, donc le DGS, le directeur général des services, etc. qui, eux, ont une notion du P&L, du profit and loss de la boîte, de la ville. Et donc, du coup, eux, ils sont là pour aider en termes d'excellence opérationnelle. Mais les élus, il faut que ça serve politiquement. »
Julien Redelsperger : « Si on se projette dans le futur, XXII va ressembler à quoi ? »
William Eldin : « Alors, XXII dans un an, c'est 50% du chiffre aux US, 50% du chiffre en France, en tout cas en Europe. C'est un moteur de règles qui a accueilli 150 objets supplémentaires. Et c'est un moteur de règles aussi qui permet de se designer, donc de configurer l'offre à la volée en lui parlant uniquement. Et ensuite, dans trois ans, on est un des cinq leaders mondiaux en vision par ordinateur en temps réel. On est intégré de manière discrète, mais pas secrète. On est partout, mais pas forcément visible. Donc, pourquoi pas embarquer du smartphone ou autre, tu vois, qu'on voit en ce moment arriver, avec peut-être 300 à 400 salariés, 300 millions d'euros d'ARR et une boîte qui pèse de 3 milliards et qui peut pouvoir voir un IPO dans pas très très longtemps. Et dans cinq ans, on est IPO ready, on fait 500 millions d'ARR, on est sur tous les continents, on est structuré, on est entre 500 et 1 000. Et on s'est intégré à des systèmes de façon pérenne, qui fait que dans les 20 prochaines années, on sera un très gros acteur de la vision par ordinateur. »
Julien Redelsperger : « Aujourd'hui, tu travailles déjà en Amérique du Nord ? »
William Eldin : « Oui. »
Julien Redelsperger : « Et est-ce que tu ressens une différence de culture entre tes clients américains et tes clients français ou européens ? Est-ce que tu peux nous en dire plus ? »
William Eldin : « Oui, il y a plusieurs aspects. Déjà, il y a un sujet de culture qui est inhérente à deux choses. Premièrement, la capacité à prendre des risques. Deuxièmement, la profondeur de marché face à la capacité de prendre des risques. C'est-à-dire que, ok, quand je suis américain, j'adore l'innovation, je sais très vite acheter un ROI et je sais très vite derrière, si j'ai fait une erreur, je vais pivoter parce que le marché est tellement vaste que je te déploie que sur un petit périmètre en temps. Un, si ça ne marche pas, tu dégages et c'est fini. Il n'y a pas trop de... Les complaints ne sont pas très compliqués. Donc déjà, tu vois, philosophiquement, ça accueille plus les nouvelles techno. Deuxièmement, ce n'est pas le même effort fourni par les entreprises qui veulent vendre leurs produits sur ces marchés-là parce que le marché est énorme. Et même si un McDonald's me vendait 10 restaurants dans un premier temps, tu sais que derrière, il y en a 35 000. Donc tu te tais et tu bombardes. Et donc du coup, alors qu'en France, n'importe quelle entreprise te promet 27 déploiements dans la foulée. Donc tu vas prendre un peu moins de temps d'investir, de l'énergie. »
Julien Redelsperger : « Et tu as des bureaux sur place ? »
William Eldin : « Je suis en train de visiter. »
Julien Redelsperger : « OK. Parce que ça ne doit pas être évident de vendre à distance. Ce que je veux dire, c'est que c'est un marché aussi immense. Il faut être présent sur place, il faut rencontrer les gens, il faut faire du réseau, etc. »
William Eldin : « La chance qu'on a, c'est que le premier client américain qu'on a, son terrain d'expérimentation était la France. Donc on a réussi à choper ce client, à déployer en France et à commencer à déployer aux US grâce à ça. Et en fait, ce client est tellement visible et je t'en ai parlé déjà deux fois, mais je ne vais pas le redire là, que ça nous donne du crédit pour rentrer sur des nouveaux clients américains, même en faisant des déplacements. »
Julien Redelsperger : « D'accord. OK. Est-ce qu'aujourd'hui, tu te considères comme un expert de l'intelligence artificielle ? »
William Eldin : « Moi, non. En vrai, j'ai du bon sens. Et là où je suis plutôt expert, c'est grâce à l'expérience que j'ai vue de mes clients. Donc je sais les bonnes pratiques et pas les bonnes pratiques. Par contre, tu vois, juste après, j'ai le comité scientifique où on reparle de toute notre plateforme parce qu'on a développé une Ferrari pour aller chercher du pain, alors qu'on aurait pu aller chercher le pain en Twingo. Et donc là, on se pose les questions stratégiquement et en termes de produits. Comment on peut faire pour prendre le marché plus vite, avec moins d'efforts et moins d'investissement ? Donc je remets tout en cause. Et si j'avais vraiment été un expert, j'aurais su, il y a deux ou trois ans, tomber la bonne architecture pour les bons use case, pour les bonnes problématiques marché. Là, j'ai voulu faire un peu trop. Donc oui, je connais grâce au côté concret de mon métier. C'est-à-dire que je vois des ingés, tu vois en face de moi, j'ai une dizaine d'ingés et de docteurs avec qui je parle en permanence. Donc les gars, on sait reconnaître ça comme ça ? Non, comment, pourquoi ? Ok, mais si ton réseau de neurones, tu le fais plutôt comme ça et que tu mets les hyper paramètres comme ça. Putain, William, tu commences à connaître. Ouais, ouais, mais c'est ce que tu m'as appris. Ouais, ouais, mais tu vois, en fait, l'avantage que j'ai, c'est que la vision, quand tu as compris que chaque pixel avait une couleur et une forme et que les ensembles de pixels composaient des objets, après, tu comprends tout, tu vois. Et c'est assez du bon sens parce que la vision est très proche de notre propre sens, tu vois. »
Julien Redelsperger : « L'IA est un domaine qui évolue quand même incroyablement rapidement. On parle beaucoup d'IA générative, mais il n'y a pas que ça. Comment est-ce que tu fais, toi, pour te former, pour rester connecté à l'actu et garder en tête les bonnes pratiques ? Tu me disais, avant qu'on lance cet entretien, tes journées, c'est 7h du matin à 23h, 5 jours de suite. Comment t'organises ton temps ? »
William Eldin : « Je me lève le matin, je ne réfléchis pas, je me saute dans la douche, je prends mon scooter et je vais au boulot. Ensuite, une fois que je suis au boulot, j'ai trois manières de fonctionner. Soit je n'ai rien à faire, entre guillemets, pas de rendez-vous, il y a toujours des trucs à faire, mais soit je n'ai rien à faire, et dans ce cas-là, j'en profite pour aller voir tous les loulous un par un et je mets des sujets en avant, etc. J'échange avec eux. Ça, c'est peut-être une demi-journée par semaine pour moi. Soit j'ai des sujets à faire, donc des prêses à préparer, des rendez-vous et tout ça. Donc là, je m'enferme dans mon coin et je tombe la presse le plus rapidement possible et je la comprends de tous les autres. Soit j'ai des clients à aller voir ou des sujets à faire avancer, donc là, je me déplace et je vais essayer de trouver des solutions logicielles avec les clients, etc. Ça, c'est jusqu'à 19h. Ensuite, à 19h, je me mets sur mes mails jusqu'à 20h ou 21h, et je n'arrive pas à tous les faire. C'est compliqué, en tout cas. Et ensuite, à 21h, j'ai tendance à chiller un peu plus et à regarder les deux, trois confs que j'ai ratés, à aller voir mon flux Twitter, à aller voir les news un peu des loulous qu'ils ont mis sur Slack parce qu'on a des canaux R&D, des canaux papier, des canaux tout simple. Et donc, du coup, j'arrive à m'inspirer. Après, je rentre à la maison, 22h, 23h en principe, et là, j'ai mes deux, trois heures où j'apprends. C'est-à-dire que là, c'est un canal d'acquisition. Je me pose à la maison et soit je me suis fait mon algo TikTok qui m'apporte tout ce que j'ai envie qu'il m'apporte, je me suis fait ma bibliothèque où j'ai plein de livres et des manuels où je retape un petit peu dedans en permanence. Et ensuite, j'essaie le plus possible de me caler des calls ou des échanges avec des gens. Tu vois, à midi, avec un mec de la Fédération pour pouvoir voir et comprendre tout ce qu'il faisait, comment, pourquoi. Si j'avais un produit à lui vendre dans un an, au moins, je suis câblé sur ses problématiques du moment. En fait, moi, je suis un super agrégateur de data et j'aime bien apprendre et j'aime bien redistribuer. Et cette fluidité qu'il y a à l'intérieur de moi, je pense que c'est ce qui fait un peu mon leadership dans l'entreprise et c'est ce qui permet que je puisse assouvir ma soif d'apprendre encore. »
Julien Redelsperger : « D'accord. En tout cas, tu as eu une énergie redoutable. Pour les auditeurs qui ne peuvent pas voir William, je garantis qu'il est impressionnant. Alors, à la fin de chaque épisode, l'invité du jour doit répondre à une question posée par l'invité précédent. En attendant d'écouter la tienne, je te laisse écouter celle de Josselin Henno, qui est rédacteur en freelance. On écoute sa question. »
Josselin Henno : « Alors, ma question, c'est comment l'humain peut utiliser l'IA pour créer du lien entre les humains ? »
William Eldin : « Alors, je pense que ça passe par plein de choses. J'essaie de me noter les différents points. Premièrement, pour que l'IA aide l'humain à se rapprocher de l'humain, il faut qu'en tout cas, ça soit déjà dans notre parcours éducatif, l'IA, et que ce soit finalement vu comme un prolongement de nous-mêmes et de chacun, de manière justement à avoir une égalité sur l'utilisation et la capacité d'utiliser une IA. Parce qu'aujourd'hui, il va y avoir quand même du clivage sur l'adoption et la capacité à comprendre et à utiliser. C'est quoi ? C'est des cours à l'école, à l'université ? Dès le CP, tu apprends ce que c'est l'IA comme tu apprends à lire, parce que c'est un peu lire le demain. Donc aujourd'hui, qu'est-ce qui fait que tu communiques avec ta femme tous les jours ? Tu as appris à lire, à écrire, à parler. Ça, on te l'a appris à l'école. Tes parents te l'ont appris quand tu étais tout petit. Aujourd'hui, l'IA sera notre base, notre couche logicielle d'interaction entre tout le monde et entre les choses et le monde. Et personne ne te l'apprend au CP. Donc je pense que déjà, il y a un gros parcours éducatif là-dedans. Ensuite, je pense qu'il y a un truc qui est fondamental, c'est qu'on est de plus en plus sur la planète. Et on est en train de créer des irritants entre les gens, qu'on commence à gommer grâce à l'IA. Je te prends un exemple très concret. En tout cas, moi, ça m'a sauvé. Je suis quelqu'un d'hypersensible et j'avais de plus en plus de mal à rouler en voiture en communauté. C'est-à-dire dans Paris, tu me faisais partir en bagnole dans Paris, il est possible que je m'arrête, que je sorte et que je te mette un coup de tête, tu vois, un moment. Parce que du coup, c'était irritant, le fait d'être bloqué, le fait d'être si, d'être insulté parce que tu es dans ta carapace voiture et tu crois que tu es un... Bref. Et j'ai changé mon paradigme et donc du coup, mon énervement face à l'autre grâce à l'IA. Parce que j'ai acheté une Tesla, je me suis mis sur l'autoroute, voie de droite, conduite autonome et en fait, ça m'a enlevé cette notion de responsabilité et de "je peux gêner pour l'autre, donc je me stresse, donc il faut que je sois quelqu'un qui soit complet". Non, ça le fait tout seul. Donc, je ne me prends pas la tête, je parle à ma femme, je parle à mon fils, je suis un mec heureux et j'en veux moins à l'autre. Et au lieu de m'arrêter à l'air de repos et de le regarder mal parce qu'il m'a coupé la route et qu'il n'a pas avancé après avec son régulateur parce qu'il m'a fait chier pendant 20 bornes, là, je suis resté dans ma bulle, j'ai eu de l'interaction avec des gens, mais elle n'était pas sur le phénomène irritant et à la station de service, je peux lui parler. Ce que je veux dire de manière plus concrète, c'est que ça va gommer la connerie des cons. Et donc du coup, c'est dur et c'est peut-être un peu extrême ce que je dis, je suis désolé, mais je pense que l'IA est là pour aider l'humanité et que tous les irritants vont potentiellement être gommés et va mettre tout le monde sur un pied d'égalité en termes de savoir et de connaissance. Et du coup, ce qu'il faudra tous travailler, c'est le côté émotionnel. Donc, tu seras condamné à bien t'entendre avec ton voisin parce que de toute façon, la différence se fera plus sur la performance, se fera sur l'émotionnel. Et pour moi, je trouve que l'IA va en effet automatiser la performance pour recentrer l'humain sur son émotionnel. Voilà. »
Julien Redelsperger : « Ok, parfait. Écoute, je garde la réponse, je transmettrai. Alors maintenant à toi, William. C'est vrai ? Tu vas lui dire. Quelle question est-ce que tu aimerais poser au prochain invité ? »
William Eldin : « Moi, ça va un peu dans la continuité et c'est une question sur la confiance en l'humanité. C'est-à-dire, penses-tu que l'humain est assez bête pour se laisser dépasser par une technologie qu'il a complètement créée ou penses-tu que l'humain, même de manière urgente, sa valeur numéro une, c'est la capacité à se sauver, à rebondir et à redevenir un leader de la technologie ? Donc, est-ce que la technologie va guider l'humain dans les prochaines années ou est-ce que l'humain restera à tirer les technologies vers ses besoins ? »
Julien Redelsperger : « Parfait. Écoute, je garde. Merci beaucoup de ta participation, William. Je rappelle que tu es le fondateur de l'entreprise XXII. Merci d'avoir participé à ce podcast. »