Passer au playerPasser au contenu principal
  • il y a 2 jours
Mardi 6 janvier 2026, retrouvez Chloé Sebagh (Directrice de la communication et du plaidoyer, Diversidays), Nicolas Turpault (PDG, Sonaid) et Pierre Gilbert (Fondateur, Sator) dans SMART TECH, une émission présentée par Delphine Sabattier.

Catégorie

🗞
News
Transcription
00:00Bonjour à tous, on est ensemble pour 28 minutes exactement avec deux grands rendez-vous.
00:13On aura aujourd'hui les interviews de l'IA avec des acteurs qui font l'actualité dans le domaine de l'intelligence artificielle.
00:18Et puis on aura rendez-vous avec aussi un sujet autour de l'égalité des chances dans le secteur du numérique et de la tech.
00:25Allez c'est parti.
00:26On commence cette édition avec les interviews de l'IA avec trois acteurs qui font l'actualité dans le domaine de l'IA.
00:37Autour de la table donc Régis Jossot. Bonjour Régis.
00:41Bonjour.
00:41Vous êtes président du groupe DRI et vous nous rappelez même, j'ai envie de dire, qu'en matière d'hébergement de données d'IA,
00:47il existe des alternatives aux géants pour garder le contrôle sur nos données.
00:53Nicolas Turpot est également avec nous, fondateur de Soned.
00:58Si je dis bien ?
00:59C'est ça.
00:59Parfait.
01:00Vous développez vous un nouveau standard pour les objets connectés afin qu'ils comprennent les sons.
01:06Vous allez nous expliquer cela.
01:07Il y a des applications très concrètes dans le domaine de la téléassistance.
01:11Mais on commence avec vous, Pierre Gibert.
01:13Bonjour.
01:13Bonjour.
01:14Vous êtes cofondateur de Sator qui est une start-up française créée il y a trois ans,
01:18qui produit des masterclass avec des vidéos très longues de 9 à 10 heures qui sont structurées en épisodes de 30 minutes
01:24avec à chaque fois des experts de premier plan qui vont adresser des grands enjeux de société.
01:30Alors votre actualité, je voulais qu'on en montre un extrait, c'est le lancement d'Anima Mundi
01:35avec Carl Gustav Jung en guest star, j'ai envie de dire ressuscité.
01:41Première masterclass au monde où un grand penseur est comme ça rappelé à la vie, à l'écran,
01:48grâce au comédien François Morel et puis surtout à l'intelligence artificielle, je précise.
01:53Regardez.
01:54Avec les prouesses technologiques, me voici portant les traits de ce cher Carl Jung.
01:59Parfois, j'apparaîtrais pour vous livrer des références contemporaines
02:03et vous partager comment sa pensée prend vie aujourd'hui.
02:06Ces mots, traversant le temps, trouvent d'écho dans notre époque.
02:10Si je vous parle aujourd'hui, c'est parce que votre monde vacille par perte de sens.
02:16Votre époque appelle à une réconciliation avec l'âme.
02:19Alors Pierre, parlez-nous de ce projet.
02:22C'est un projet qui est effectivement une première mondiale,
02:25dans le sens où on n'a jamais combiné une ambition éditoriale aussi importante.
02:30J'ai un cours de 10 heures avec Carl Jung et une ambition technologique aussi importante.
02:35Ceux qui ont essayé, c'est la BBC.
02:37Ils ont fait revivre Agatha Christie pour deux heures et demie seulement, entre guillemets.
02:41Donc là, l'idée, c'est qu'on aille beaucoup plus loin avec notre savoir-faire éditorial.
02:45Sator, nous, on s'est surtout préparé et faire des contenus pédagogiques longs, etc.
02:51Donc là, pour vous, là, sur ce projet, le gros défi, c'était vraiment le travail sur l'intelligence artificielle ?
02:57Alors, on avait deux gros défis.
02:59Déjà, condenser l'œuvre de Jung, qui est un continent en 10 heures, très pédago, etc.
03:06Et en faire quelque chose de très incarnable par François Morel, qui, bon, un talent fou,
03:11donc ça n'a pas été le principal challenge, il est vrai.
03:14Et ensuite, une fois qu'on a François Morel, qu'on capte un fond vert, etc.,
03:18on vient le rhabiller avec une IA pour lui mettre, lui coller les traits et la voix de Carl Jung.
03:25Effectivement, ça, c'est un gros défi, parce que les IA, aujourd'hui,
03:28elles savent bien produire des choses assez courtes.
03:31Mais quand on passe sur du temps long, là, ça mouline.
03:35Donc, on est en phase exploratoire de tout ça.
03:37Enfin, on a trouvé nos systèmes.
03:39Donc là aussi, effectivement, c'est assez inédit.
03:42Et qu'est-ce qu'il a dû faire, François Morel, de spécifique pour se prêter à ce jeu-là ?
03:48Alors, rien de spécifique pour lui, parce que quand on a son talent et sa carrière,
03:53tout est assez facile.
03:54Nous, on a rédigé des scripts intégrals avec une équipe d'experts,
03:57de la pensée de Jung, relue par des thérapies, etc.
03:59Oui, il a fallu numériser son visage.
04:02Oui, alors lui n'avait, entre guillemets, qu'à incarner ce texte sur prompteur, sur fond vert.
04:07Et nous, sans forcément lui mettre de capteur ou quoi que ce soit, avec un certain type d'IA,
04:13on détecte les traits, les mouvements, etc.
04:16et reproduit ça fidèlement, parce qu'on voulait le meilleur du jeu de l'acteur.
04:20Reproduit ça fidèlement avec une interface numérique.
04:24On a un avatar qu'on a créé.
04:26Il y a eu une captation tout à fait classique, en fait, pour François Morel, son dispositif particulier.
04:32C'est vraiment un traitement logiciel qui a été appliqué par la suite.
04:36C'est ça.
04:37C'est ça, c'est ce qui permet aussi de produire efficacement à moindre coût,
04:41puisqu'on n'a pas des budgets du cinéma, mais c'est aussi ce que permet les nouvelles technologies.
04:46Et quand vous dites que ça demande énormément de puissance de calcul, j'imagine,
04:50vous avez utilisé une infrastructure spécifique ?
04:53Non, pas spécialement. En fait, ça ne demande pas tant de puissance de calcul que ça,
04:58dans le sens où ça n'est pas connecté au cloud, au web.
05:02Ce n'est pas une IA générative qui va piocher sur des data centers, etc.
05:05Là, c'est plutôt un logiciel qui a été entraîné par IA et qui mouline en local, entre guillemets.
05:13Donc, ce n'est pas ça le...
05:15Mais c'est quoi comme type de logiciel ? Pouvez-vous nous expliquer un peu plus précisément ?
05:18Oui, alors on passe par une technologie qui a été produite par Renewaf,
05:23une nouvelle feature, mais on n'est pas sûr de garder celle-là jusqu'au bout,
05:27parce que ça évolue très, très vite dans le domaine.
05:29Donc, c'est pour ça que je ne voulais pas forcément en parler.
05:31D'accord.
05:32Et puis, il y a des nouveaux outils qui sortent assez régulièrement.
05:34Donc, nous, l'enjeu, c'est d'être aussi toujours en pointe de cette veille-là.
05:38Parce que, bon, c'est un outil...
05:39Mais comment intervient l'intelligence artificielle ?
05:40Juste pour comprendre sur le principe, comment ça fonctionne ?
05:43C'est une IA générative ? Elle reconstitue le visage de Jung ?
05:53Disons que nous, on fait digérer à l'IA différentes images de Jung qu'on a reconstituées.
06:00On entraîne jusqu'à avoir un avatar réaliste, etc.
06:04Et on applique cet avatar sur la captation vidéo, sur le comédien.
06:09Donc, l'IA détecte ce qui tient du visage, etc.
06:13Les mouvements, en fait, c'est ça.
06:13Voilà, les mouvements, mais ce qui n'est pas solidaire du personnage, le fond, etc.
06:19On a aussi reproduit le fond, le bureau de Jung, etc.
06:22Donc, voilà comment fonctionne cet outil-là.
06:25Ça fait la différence, vous pensez, pour les spectateurs ?
06:29Avoir une masterclass incarnée à la fois par un acteur et par une personnalité avatarisée ?
06:36Ça fait, nous, c'était évidemment un challenge.
06:41On aurait pu faire un cours sur Jung, avec un expert de Jung,
06:44mais ça n'aurait pas eu cette puissance.
06:47Vous auriez pu déguiser François Morel, il fait ça très très bien aussi.
06:50Oui, oui, alors après, c'est vrai qu'il y a des petites différences physiques aussi.
06:54Mais non, puis on était curieux d'entreprendre ça,
06:58parce que, en fait, si on réussit avec Jung, derrière,
07:00il y a beaucoup d'autres personnages historiques qu'on aimerait ramener à la vie
07:03parce qu'ils ont des trucs à nous dire pour nous sortir de la panade actuelle.
07:07Donc, c'est une logique de collection.
07:09Cette collection anima mundi, Jung, c'est le premier.
07:13Mais ensuite, on va lancer d'autres personnages historiques.
07:16On a déjà les noms.
07:17Il y aura Hildegard de Bingen, il y aura Nikola Tesla, Anna Arendt, Marc Orel,
07:21parce que ces gens-là sont très importants.
07:23Nous, notre métier chez Sator, c'est de faire parler les gens très importants,
07:26qu'ils soient vivants ou passés, du coup.
07:29Vous avez des questions sur ce projet ?
07:31Vous en aviez entendu parler déjà un petit peu, peut-être ?
07:34Moi, je n'ai jamais entendu parler.
07:36Je viens d'un labo de recherche qui travaille justement pour faire les avatars.
07:39À l'INRIA, à Nancy, il y a des gens qui travaillent là-dessus.
07:40Donc, je vois très bien la technologie qu'il y a derrière.
07:42Et c'est assez bluffant.
07:45En réalité, c'est cool de voir des applications qui soient aussi utiles pour la société.
07:49Parce que là, au final, on est vraiment en train d'évangéliser des connaissances,
07:54la culture sur des prochaines générations.
07:56Donc, c'est cool de pouvoir utiliser la tête des personnes qui ont vraiment fait les choses
08:00et pas juste paraphraser.
08:01Donc, franchement, bravo.
08:03C'est vrai que ça devient beaucoup plus grand public,
08:05beaucoup plus accessible, en fait, jouer comme ça.
08:07Je précise un petit truc au passage, c'est que nous, il y a des enjeux éthiques.
08:12Quand vous avez un projet comme ça, nous, on assume de réincarner Jung, entre guillemets.
08:21Mais dans l'épisode de 30 minutes avec François Morel,
08:24il y a des moments où on voit François Morel apparaître en tant que François Morel
08:28pour mettre Jung en perspective avec les derniers travaux de recherche publiés
08:32en sciences comportementales, etc.
08:34Et quand Jung sort de son temps, de son espace temps, c'est François Morel.
08:40On ne veut pas prêter à Jung des propos qui n'étaient pas de lui.
08:44C'est-à-dire que le script de Jung, c'est essentiellement du travail sur la base de ses bouquins
08:47qu'on a isolés, etc., reformulés.
08:50Mais on essaye d'être vraiment fidèles à la pensée du personnage.
08:54On ne se serait pas permis de deepfaker.
08:57Ce n'est pas du tout notre logique.
08:59De fantasmer ce qu'il aurait pu penser de la société d'aujourd'hui, ça, vous ne vous autorisez pas à ce genre de mise en perspective ?
09:07On se l'autorise, mais pas avec son visage, avec François Morel.
09:11Oui, d'accord.
09:13Régis Jossot, vous êtes le président du groupe DRI, je le disais, hébergeur infogéreur web français.
09:18Convaincu, donc, on a des alternatives à mettre en avant, à valoriser.
09:23Et on est bien content que vous soyez là pour le rappeler, pour le répéter.
09:27DRI, c'est l'acronyme de Digital Rural Informatique, j'ai vu.
09:30Tout à fait.
09:31Ça veut dire beaucoup, ça, en votre commission ?
09:32Ça veut dire beaucoup.
09:33Parce qu'on était un petit peu précurseurs par rapport à toute cette période green.
09:36C'est-à-dire qu'en 2001, avec l'émergence des réseaux sur le territoire,
09:41on a voulu éviter de prendre la voiture et de commencer le télétravail, déjà pour nos équipes,
09:47et de pouvoir avoir un confort de vie beaucoup plus agréable.
09:51Donc là, on est en amont aussi sur la partie RSE,
09:53de donner, on va dire, du travail à des personnes qui ont peu de mobilité, par exemple,
09:58ou pas de mobilité pour des raisons familiales, pour des raisons de santé.
10:02Et déjà, de pouvoir avoir une activité rémunérante.
10:05Ok.
10:06L'entreprise a été créée au Mans.
10:08Aujourd'hui, le siège est à Nantes.
10:09Donc vous êtes vraiment inscrit dans la localité.
10:13Oui, c'est important.
10:14Pourquoi ?
10:15Parce qu'on pense, comme je viens de l'entendre, justement,
10:18qu'on a beaucoup d'acteurs, on va dire français, innovants,
10:20qui ont plein de choses à dire, sans pour autant aller chercher à l'étranger.
10:24Oui.
10:25Même s'il y a des choses intéressantes à l'étranger.
10:26Mais le fait de ne pas être aussi en Ile-de-France,
10:29d'être dans une collectivité, une agglomération...
10:32Alors Nantes, c'est une grosse agglomération, quand même.
10:33C'est une belle agglomération, oui.
10:34C'est parce que ça fait partie de vos premiers clients, ceux que vous adressez ?
10:37On a un historique qui a commencé avec DRI autour de l'hébergement associatif
10:43et autour des commerçants de la région.
10:48Donc on n'a fait que grandir.
10:49Et on a commencé à répondre aux appels d'offres publics.
10:53Donc là, cette fois-ci, sur le territoire national,
10:55et adresser des clients comme la CNIL, la région des Pays de la Loire,
10:59compagnie des transports strasbourgeois.
11:01Ça se fait des gros clients, ça ?
11:03Des gros clients, et l'ONF aussi, par exemple.
11:04Et comment on y arrive quand on est, au départ, une petite boîte, au Mans ?
11:09Comment on arrive à s'imposer, justement, dans des carnets de commandes publics ?
11:14Avec une belle équipe et un bel investissement collectif.
11:18Mais plus précisément, parce que ça, j'ai l'impression que tout le monde me le dit, vous savez.
11:23Mais plus précisément, qu'est-ce qui fait la différence ?
11:25Pourquoi en vient vous, cherchez-vous, plutôt qu'un autre ?
11:28On a deux facteurs différenciants.
11:29Le premier, ça va être l'éco-responsabilité.
11:33Dès 2010, on a mis en place un centre de données sans climatisation.
11:37Donc, on était vraiment précurseur.
11:39Avec un PUE de 1 à 13.
11:42Qu'est-ce que c'est, ça, un PUE ?
11:43Le PUE, en fait, c'est la consommation qui va être nécessaire
11:47pour maintenir en condition opérationnelle les serveurs dans un centre de données.
11:52Voilà, c'est un ratio.
11:54Plus ce ratio se rapproche de 1, plus effectivement, on est efficace.
11:59Ce qu'il faut savoir, dans les années 2010, on était plutôt à 2 ou à 3.
12:03Aujourd'hui, bien évidemment, l'émergence de l'éco-responsabilité,
12:06même s'il est relégué au second plan, comme on le disait,
12:09pour la souveraineté, veut des PUEs beaucoup plus bas.
12:13Mais nous, depuis 2010, on était le premier data center de France avec ce PUE.
12:17Donc, c'est inscrit, non pas dans une opportunité,
12:20mais dans une conviction collective.
12:22D'accord, oui, c'est important, ça.
12:24Et le deuxième facteur différenciant, c'est l'open source,
12:26c'est-à-dire l'utilisation de logiciels libres
12:28et de ne pas reverser des licences à des géants de la tech américaine, par exemple.
12:33Et donc, ça, ça résonne auprès de certains clients ?
12:37Ce sont des arguments qui comptent ?
12:38Ça résonne de plus en plus.
12:39Aujourd'hui, on voit les économies, on l'a vu dernièrement,
12:42par exemple, avec le logiciel VMware d'Hyperviseur,
12:45qui a été racheté par Broadcom,
12:48c'est un véritable ultimatum qui a été donné aujourd'hui aux entreprises françaises,
12:52avec des hausses de prix de plus de 30%.
12:55Or, qu'il y avait vraiment déjà des alternatives,
12:57parce que l'hébergement en open source et les hyperviseurs open source
13:01sont déjà disponibles depuis les années 2000.
13:04Vous lancez une plateforme IA Souveraine.
13:07Tout à fait, iasouveraine.fr.
13:10Alors, IA Souveraine, c'est quoi ?
13:11C'est un portail, une offre de services en mode SaaS,
13:16où vous allez pouvoir organiser l'entreprise et ses services
13:21autour de plus de 80 modèles de langage.
13:25En mode hybride, ça veut dire quoi ?
13:27Vous allez accéder à des modèles propriétaires,
13:30comme ChatGPT, Gemini, DeepSeek, etc.,
13:33mais aussi et surtout à des modèles open source,
13:36libres de droit, qui vont être 100% utilisés
13:38et hébergés dans nos data centers, justement, éco-conçus.
13:42Donc, tout n'est pas souverain, quand même, là, sur la plateforme ?
13:44On laisse l'opportunité, parce qu'on peut avoir, effectivement,
13:47des usagers ou des services d'une entreprise
13:50qui ont besoin de modèles de langage,
13:53propriétaires.
13:56On n'a pas les bridés, mais d'un autre côté,
13:58vous allez pouvoir créer des unités d'organisation
14:00avec des utilisateurs qui n'auront que des droits restreints
14:04sur des modèles open source,
14:06pour des données, par exemple, patrimoniales,
14:07à valeur probante ou R&D.
14:10Et alors, vous pourriez servir, par exemple,
14:12Sator à monter son oeuvre de masterclass
14:15avec une IA Souveraine ?
14:17On est très fiers, en tout cas, d'entendre des innovations.
14:19On en parlait juste avant, assurément.
14:22Et on a, si besoin, toute la puissance de calculs nécessaires,
14:25parce que ce sont nos propres infrastructures,
14:27du data center à nos lignes, à nos réseaux
14:30et à nos infrastructures sécurité,
14:32jusqu'aux applications qu'on héberge.
14:34C'est la même équipe, 100% souveraine.
14:38Moi, je suis très sensible à ça.
14:39Puis en plus, j'entends beaucoup de politiques gesticulées
14:43parce qu'on a besoin de cloud souverain,
14:44d'IA souveraine, etc.
14:45Je suis content de voir qu'il y en a qui font sur le terrain.
14:49Oui, mais c'est vrai qu'on ne les connaît pas assez.
14:51Et voilà, on est content qu'on peut participer à mettre en avant.
14:55Nicolas Turpeau, vous êtes, je le disais, fondateur de Soned,
14:58donc développé un nouveau standard des objets connectés
15:01pour la compréhension des sons avec des applications dans la téléassistance.
15:06Vous, vous avez fait une thèse à l'INRIA sur l'analyse des sons ambiants
15:09et aujourd'hui, la détection sonore dans un environnement réel,
15:15c'est vraiment votre domaine de spécialité, votre expertise.
15:19Votre actualité, c'est le lancement commercial en Europe en 2026
15:23d'un premier cas d'usage, donc de téléassistance,
15:26assistance à la personne avec cette technologie.
15:29Expliquez-nous ce que ça veut dire d'utiliser le son dans un objet connecté
15:34et en quoi s'est compliquée cette détection sonore.
15:38Il y a pas mal de choses, donc déjà, merci beaucoup pour l'invitation.
15:42La détection sonore, je vais la mettre en concurrence avec d'autres choses.
15:46C'est-à-dire que vous avez beaucoup maintenant l'habitude de détecter la parole.
15:50Vous allez parler à votre téléphone, il va transcrire.
15:52Donc ça, c'est un des cas d'usage.
15:54Ça pourrait faire partie du son, mais nous, on laisse complètement la parole de côté.
15:57On ne reconnaît pas la parole. Vous connaissez sûrement quelques applications.
16:01Je n'ai pas forcément ce télénon pour reconnaître une musique directement sur votre téléphone.
16:05Donc ça, c'est un autre champ d'application.
16:06Et après, vous avez tous les autres sons de la vie quotidienne.
16:09Celui-là.
16:09Voilà, celui-là.
16:11Je frappe sur la table.
16:13C'est ça, la sonnette de porte, le bébé qui pleure,
16:16une voiture qui passe, un avion, des oiseaux qui chantent.
16:19Vraiment, tout et n'importe quoi, votre voiture.
16:21Et donc nous, le but, c'est comment on fait pour comprendre ces sons-là
16:25et en faire des vraies applications derrière.
16:28Puisque, bon, comprendre les sons, c'est une chose, mais en fait, ça sert à quoi derrière ?
16:31Alors, la partie comprendre les sons, ça veut dire entraîner des intelligences artificielles
16:35sur un volume exceptionnel de sons.
16:38C'est ça ?
16:39Non.
16:39On peut collecter plein de sons et apprendre aux IA à reconnaître tous ces sons ?
16:43Sur le papier, oui.
16:44Donc en fait, sur le papier, oui, un géant comme Google va faire ça
16:47et il va y avoir un modèle open source qui va reconnaître 200 sons
16:50de façon pas forcément très fiable et même souvent pas très fiable sur des cas d'usage concret.
16:55Nous, notre approche et mon expertise de thèse, c'était de montrer qu'avec quelques centaines de sons,
17:00donc si par exemple, vous voulez qu'on reconnaisse des douches,
17:02vous me donnez 100 douches différentes chez 100 personnes différentes,
17:05et bien après, on va être capable de reconnaître toutes les douches.
17:06Toutes les douches.
17:07Et donc, grâce à ça, on va permettre de dire, cette IA qu'on a entraînée,
17:12on est très malin dans la façon de poser le problème,
17:15et grâce à ça, on a des IA qui sont petites, qu'on est capable de compresser,
17:18qu'on est capable d'embarquer dans les objets connectés.
17:21Donc en fait, on se focalise, nous, sur les cas d'usage.
17:23Donc on prend des cas d'usage, on va dire, il faut détecter trois types de sons.
17:27On va détecter ces trois types de sons pour un autre cas d'usage, pas besoin.
17:30Donc je vais en citer deux.
17:31Par exemple, la téléassistance, ça va être détecter quelqu'un qui appelle à l'aide,
17:35quelqu'un qui gémit de douleur, un cri de panique, une chute.
17:38Donc là, nous, comme je dis, on détecte pas la parole, c'est l'intonation dans la voix.
17:41Et l'autre qui va être...
17:43Et la chute, ça peut être plein de sons très différents ?
17:46Ça peut être plein de sons très différents.
17:47Ça va être un bruit percussif, par exemple, assez lourd.
17:50On le fait dans le cadre des EHPAD.
17:52À domicile, on le fait pas encore,
17:54parce que ça va permettre de couvrir une trop faible distance.
17:56Donc on se focalise d'abord sur, toujours pareil,
17:59comment on fait pour résoudre 95% du problème ?
18:02Une personne qui est au sol, il faut l'aider,
18:03et elle va être capable d'appeler à l'aide.
18:05Et un autre cas d'usage qui n'a rien à voir,
18:07ça serait, par exemple, pour des machines industrielles,
18:10faire de la qualité, par exemple, un bruit suspect,
18:13dire, ah, cette...
18:15Pour de la maintenance sur les machines ?
18:16Pour de la maintenance sur les machines, maintenance prédictive.
18:19Le cas grand public, c'est votre voiture, elle a un bruit de roulement.
18:21Vous l'entendez ?
18:22En fait, on pourrait très bien avoir une IA qui détecte ce bruit de roulement
18:25pour vous dire, il serait temps d'aller chez le mécano.
18:27Ça peut servir dans la sécurité, j'imagine aussi, en cas d'intrusion, je ne sais pas.
18:33Ça peut servir dans la sécurité, ça peut servir dans la défense.
18:36C'est justement les cas d'usage qui vont venir, normalement, d'ici 2022.
18:40Et ça peut s'implémenter dans n'importe quel objet connecté, cette technologie ?
18:43À partir du moment où il y a un microphone, oui.
18:45Et ça peut se mettre dans n'importe quel type d'objet connecté,
18:48Et ça ne demande pas d'aller appeler des grands volumes de données dans le cloud ?
18:53C'est là où toute notre grosse différence, c'est que tout est sur l'objet, rien sur le cloud.
18:58Donc, tout tourne directement dans votre...
19:00Si on prend votre téléphone, par exemple, votre téléphone pourrait être en mode avion,
19:03que ça comprend les sons.
19:05Après, on a besoin d'une connectivité pour envoyer l'alerte, dans le cas de la téléassistance.
19:09Mais ça, cette alerte peut être envoyée.
19:11Et vous, pour bien comprendre, vous fournissez l'algorithme ?
19:14C'est ça.
19:15Nous, on fournit l'algorithme.
19:16Et après, on charge au fabricant de l'objet de l'intégrer ?
19:20Oui, nous, on fournit le logiciel.
19:22Vous trouvez le service derrière.
19:23C'est ça. Nous, on fournit le logiciel et on fait une librairie.
19:26On appelle ça un package pour qu'il puisse le mettre très facilement
19:29et qu'il puisse être lié avec ses cas d'usage.
19:32Donc, s'il veut appeler un numéro de téléphone en cas d'alerte,
19:34s'il veut déclencher un autre device,
19:38parce que, par exemple, pour la maintenance prédictive,
19:41tout ça, on va l'aider.
19:42Ça fait partie du package.
19:43Mais nous, ce qu'on vend, c'est l'algorithme.
19:45Et donc, première application concrète, on va avoir ça au CES de Las Vegas.
19:48C'est exactement ça.
19:49On va avoir ça au CES de Las Vegas.
19:50Pas mal comme lancement.
19:52Vous avez des questions là-dessus ?
19:54C'est étonnant.
19:55Oui, non.
19:57Je trouve ça très cool que des Frenchies aïe.
20:00Bientôt une masterclass sur la détection du sang.
20:02Mais tout à l'heure, on parlait avant l'émission du cas d'usage des drones
20:05que j'ai trouvées hyper intéressantes.
20:07Peut-être que tu peux nous en dire un petit mot.
20:09Oui, par exemple, ça, c'est un des cas d'usage.
20:11Pour surveiller des sites.
20:13C'est ça.
20:13En fait, aujourd'hui, les drones sont très furtifs,
20:15donc très difficiles avec du visuel ou avec des capteurs radars de les détecter.
20:20Et donc, sur le terrain, beaucoup de gens entendent des drones arriver.
20:23Donc, on pourrait faire la même chose avec la détection sonore.
20:26Donc, ça, c'est un des multiples cas d'usage.
20:28Et c'est aussi ça que nous, on vend l'algorithme.
20:30Parce que notre but, c'est de faire pas mal de cas d'usage
20:32et de vraiment utiliser notre expertise.
20:34Et quand on est une start-up, je peux dire une start-up ?
20:37Oui, oui, c'est complètement une start-up.
20:38Quand on est une start-up, la difficulté, c'est effectivement,
20:41j'imagine, de ne pas trop s'éparpiller, de bien choisir ses marchés.
20:44Je ne sais pas, une start-up française comme ça,
20:46qui a une super technologie.
20:48Il faut faire attention à la diversification, effectivement, oui.
20:50Bien choisir ses chemins et ses voies de bataille aussi, également.
20:54C'est ça.
20:54Et peut-être pas dire oui à tout, je ne sais pas.
20:56C'est ce qu'on est changé.
20:58Et je pense que tu en as bien conscience, en tout cas.
21:02Oui, ça, c'est-à-dire les uns après les autres.
21:05C'est pour ça qu'on fait d'abord la téléassistance.
21:06Et nous, c'est très clair, on peut faire la même brique
21:09pour le travailleur isolé.
21:10Appel à l'aide, gémissement douleur, cri de panique.
21:13Dans les entreprises, il y a des travailleurs isolés.
21:14Des agents de sécurité peuvent avoir la même brique.
21:16Donc ça, c'était bien parce qu'elle était assez duplicable.
21:19Et après, il y a d'autres types de sons.
21:20Vous voyez, on a cité d'autres cas d'usage.
21:22C'est une stratégie d'aller là-dessus.
21:24Donc, on va justement lever des sons pour faire ça.
21:26On va passer par une levée de fonds, justement,
21:30pour aussi, on est en train de mettre en place cette stratégie
21:32de comment on arrive à ces différents cas d'usage.
21:35Super de découvrir vos projets à tous les trois.
21:39C'était vraiment très intéressant.
21:40Merci encore, Pierre Gilbert, cofondateur de Sator,
21:43d'avoir été avec nous dans les interviews de l'IA.
21:45Régis Jossot, président du groupe DRI.
21:49Merci aussi.
21:49Merci.
21:50Et Nicolas Turpeau, fondateur de Soned.
21:52Merci encore.
21:53Vous restez avec nous.
21:54On va parler d'égalité des chances dans la tech.
21:56On termine cette édition en beauté,
22:04puisqu'on va parler d'égalité des chances dans la tech.
22:07Et ça, c'est grâce à Chloé Sebag,
22:09qui est porte-parole de Diversity Days.
22:10Bonjour, Chloé.
22:11Bonjour, Delphine.
22:11Merci beaucoup d'être avec nous pour terminer cette édition.
22:14On va regarder quels sont les chiffres, déjà,
22:17de l'inclusion dans le numérique.
22:19Est-ce que ça progresse ?
22:20Qu'est-ce que vous avez comme données ?
22:21Si on regarde particulièrement l'écosystème start-up,
22:25on se rend compte qu'il y a un sujet plutôt positif.
22:28C'est que 81% des actifs français estiment que l'écosystème start-up
22:32ont une vision plutôt positive de cet écosystème.
22:35D'accord.
22:36Mais si on regarde qu'11 ans sont susceptibles d'aller vers ce domaine,
22:41seuls 20% envisagent de postuler dans l'écosystème start-up,
22:44qui est une belle part du monde du numérique.
22:47Quand on regarde aussi au niveau de l'entrepreneuriat,
22:51on se rend compte que c'est un écosystème qui reste quand même très homogène,
22:55puisque seuls 2% des personnes qui décident de fonder des start-up
23:00ont un père ouvrier,
23:02contre 61% qui ont un père qui est cadre.
23:06Donc voilà, il y a des choses encore à changer,
23:08une question de code à transformer, à acquérir.
23:13Parce que cet écosystème, il fait rêver,
23:17donc beaucoup ont envie de se lancer,
23:18mais finalement peu se l'autorise.
23:20Et quand c'est concrétisé,
23:21c'est une toute petite part de représentativité de la société.
23:25Exactement.
23:26En fait, quand on regarde sur le salariat, il y a une petite part.
23:28Et quand on regarde vraiment sur ceux qui décident de fonder des start-up,
23:31là c'est vraiment minime.
23:33quand on ne vient pas d'une famille où justement on a des modèles
23:37qui ont pu exercer des métiers cadres, etc.
23:39Est-ce que c'est lié aux formations peut-être ?
23:41Alors il y a une dimension formation,
23:42mais il y a aussi une dimension auto-censure et une dimension réseau.
23:46Parce que quand on a justement des profils qui travaillent dans le numérique autour de soi,
23:50évidemment ça change tout, on a de l'intérêt pour ces métiers.
23:53Mais quand on n'a pas ce type de profil autour de soi,
23:57c'est un petit peu plus compliqué de comprendre exactement ce que c'est.
23:59Et nous, au sein de l'association, c'est ce qu'on essaye justement de pallier,
24:03à la fois côté demandeur d'emploi,
24:04avec des programmes qui permettent de découvrir les métiers du numérique
24:07et de lever les obstacles qu'on peut avoir
24:09en ne comprenant pas forcément ce que sont ces métiers,
24:11parce qu'il y en a plein, c'est une jungle.
24:12Et puis, pour ce qui concerne l'entrepreneuriat,
24:15on a aussi différents programmes qui nous permettent d'aller voir
24:19comment on va pouvoir communiquer,
24:20comment on va pouvoir avoir une stratégie
24:22et comment on va pouvoir construire un réseau,
24:23ce qui est absolument essentiel quand on entreprend.
24:25Parce qu'on en reçoit régulièrement, grâce à vous d'ailleurs,
24:28des jeunes pousses qui se lancent
24:30et qui ne s'étaient pas forcément autorisés à le faire au début
24:33et qui sont accompagnés par vos programmes.
24:36Comment est-ce qu'on fait pour y postuler
24:37et quels sont les grands rendez-vous que vous pouvez donner pour 2026, déjà ?
24:42Alors, justement, on est en train de réformer nos programmes.
24:45Donc, il y a des dates, il va falloir,
24:46enfin, je vous conseille, si vous voulez sûr,
24:48de vous abonner à la newsletter de l'association.
24:51Il y a toutes les opportunités qui sont présentes.
24:52C'est évidemment des programmes qui sont gratuits.
24:54Pour ce qui est des demandeurs d'emploi,
24:55il y a des dates qui devraient arriver au premier trimestre
24:58avec des nouveaux programmes qui vont être assez centrés
24:59sur l'intelligence artificielle
25:01et l'accès au métier en lien avec l'intelligence artificielle,
25:04mais aussi toutes les compétences du numérique en général.
25:07Et pour ce qui est des entrepreneurs,
25:09on a quelque chose de très localisé.
25:11Et là, en ce moment, il y a des programmes
25:12qui sont ouverts à Marseille, à Montpellier,
25:14pour bénéficier d'un accompagnement 100% gratuit
25:17et, justement, aller rencontrer son réseau,
25:21aller avoir aussi des opportunités de mise en visibilité.
25:24Donc, voilà, il y a plein de choses qui vont se passer en 2026.
25:26On parle beaucoup de l'importance aussi des rôles modèles.
25:28Le mentorat, ça fait partie des sujets clés ?
25:30Absolument.
25:31Absolument, ça fait partie des sujets clés.
25:33C'est difficile de trouver des mentors ?
25:35Alors, c'est difficile et en même temps, il y a plein de gens qui ont envie de le faire.
25:37Il faut surtout trouver le moment où il y a des événements des IASA.
25:41On en a fait un pas plus tard qu'il y a quelques jours, justement,
25:43avec une trentaine d'entrepreneurs et de mentors.
25:46Et c'était vraiment génial.
25:47On avait des représentants de plein d'entreprises,
25:49que ce soit LinkedIn, EDF et bien d'autres encore,
25:52qui étaient là pour les accompagner.
25:54Et c'est ce qu'on veut aussi démultiplier à travers d'autres événements.
25:57Là, c'était un petit, mais à la rentrée,
25:59on organise un événement qui s'appelle UNIQ,
26:01qui est un grand festival pour l'égalité des chances,
26:04qui est 100% gratuit,
26:04qui va avoir lieu le 12 septembre à la Cité du Cinéma.
26:07Et dans ce cadre-là, il y aura justement des ateliers mentorat
26:09pour permettre aux entrepreneurs,
26:12mais aussi aux demandeurs d'emploi, d'être accompagnés.
26:13Et transformer ce visage de la tech.
26:16Exactement, on a besoin de transformer le visage de l'entrepreneuriat
26:19et de la tech en France.
26:20Merci beaucoup, Chloé Sebag, d'avoir été avec nous.
26:22et merci pour votre participation très régulière à Smartech.
26:26On soutient évidemment l'initiative UNIQ.
26:29BISMART, c'était partenaire l'année dernière.
26:32Chloé Sebag, je rappelle, vous êtes la porte-parole de DiversiDays.
26:34Merci à vous de nous avoir suivis.
26:36C'était Smartech avec une dernière édition,
26:39toute fraîche sortie avant les fêtes de fin d'année.
26:42Une émission qui a été préparée avec moi par Émilie Roche
26:45à la réalisation des équipes de BISMART.
26:48Merci à tous pour le travail que vous fournissez à mes côtés.
26:51Je vous donne rendez-vous à très bientôt en 2026
26:54pour de nouvelles discussions sur la tech.
Écris le tout premier commentaire
Ajoute ton commentaire

Recommandations