DeepTechs

Challenges
DeepTechs
Último episodio

99 episodios

  • DeepTechs

    Les bibliothèques européennes au secours des LLM

    05/04/2026 | 45 min
    Et si la qualité des données valait mieux que leur quantité ? C'est le pari audacieux que défend Rémi Daudin, directeur scientifique de Forvia, l'équipementier automobile né de la fusion de Faurecia et HELLA. Physicien de formation, passé par la physique des particules, l'industrie pétrolière et l'automobile, il porte un projet qui bouscule les fondements mêmes du développement des grands modèles de langage (LLM) : les entraîner sur les fonds des bibliothèques nationales plutôt que sur le web ouvert.
    « Les données du web, c'est de la soupe », résume-t-il sans détour. Publicités, opinions non sourcées, contenus dupliqués — les LLM actuels ingèrent en masse des informations de mauvaise qualité, ce qui les contraint à gonfler leurs paramètres pour absorber cette complexité. Résultat : des modèles lourds, coûteux, et potentiellement biaisés. « Si 10 % du corpus affirme que la Terre est plate, le modèle le répètera une fois sur dix », illustre-t-il. Sa solution ? Se tourner vers les bibliothèques. Un livre, contrairement à une page web, est un raisonnement construit, vérifié, légal. La Bibliothèque nationale de France, qui numérise ses collections depuis trente ans, compte dix millions d'œuvres. Selon Rémi Daudin, s'entraîner sur un tel corpus permettrait de produire des modèles 100 fois plus efficaces, plus petits, moins énergivores — et non biaisés.
    Le projet, baptisé Mirandola — en référence à Jean Pic de la Mirandole, l'humaniste italien qui aspirait à tout savoir — se veut aussi un acte de souveraineté culturelle. À l'heure où les algorithmes américains façonnent l'information mondiale, l'idée est de redonner à l'Europe la maîtrise de ses valeurs et de sa vérité. L'Académie française, la BNF et des décideurs politiques seraient déjà sensibles à la démarche. Encore en phase d'amorçage, Mirandola cherche ses partenaires techniques — possiblement un acteur européen du LLM — pour une première phase estimée entre six et douze mois.

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
  • DeepTechs

    Solocal mise sur l'IA pour ressusciter les Pages Jaunes

    29/03/2026 | 42 min
    Il fallait oser. En 2023, alors que Solocal — l'héritière des Pages Jaunes — était au bord du gouffre, grevée de 250 millions de dettes et incapable de faire face à ses obligations, Alain Lévy et son père Maurice ont décidé de racheter 65 % du capital. Un pari risqué sur une entreprise emblématique mais exsangue, dont le modèle avait été balayé par l'irruption de Google, puis de Meta.
    Deux ans plus tard, le bilan est encourageant. « Le carnet de commandes est en croissance de 17,5 %, l'EBITDA atteint 60 millions d'euros, en hausse de 40 % », détaille Alain Lévy, vice-président exécutif de Solocal, en charge de la tech et des produits. La dette a été assainie, la maison stabilisée. Mais le chiffre d'affaires continue de baisser. La course contre la montre est loin d'être gagnée.
    La transformation s'articule autour de trois axes — nettoyer, réparer, construire — et place l'intelligence artificielle au cœur du dispositif. Pages Jaunes, qui attire encore 15 millions de visiteurs uniques par mois, s'est dotée d'un moteur de recherche en langage naturel et d'un chatbot intégré aux fiches clients. Pour les TPE et PME, Solocal propose désormais de piloter automatiquement leur présence en ligne — avis, réseaux sociaux, référencement — grâce à l'IA. « Ce sont des gens qui n'ont ni le temps ni les moyens d'un community manager », rappelle Alain Lévy. L'IA fait le travail à leur place.
    Reste un défi de taille : l'essor de ChatGPT, qui capte un trafic croissant sans générer de clics vers les annonceurs. Pages Jaunes y apparaît bien référencée, mais sans retombées commerciales. « Ça nous rapporte zéro pour l'instant », admet Lévy. La monétisation de cette visibilité dans les LLM est le prochain chantier. Un de plus, dans une course où chaque semaine compte.

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
  • DeepTechs

    Palantir : le big data sans complexes

    22/03/2026 | 42 min
    Il limite les écrans de son fils à une heure par semaine — plus strict encore que Peter Thiel, cofondateur de sa propre entreprise. Pascal Tea, président de Palantir France, a le sens de la formule. Mais derrière l'anecdote, c'est un homme de vingt ans d'expérience dans la donnée qui pilote l'une des sociétés les plus scrutées de la tech mondiale.
    Fondé en 2003 après les attentats du 11 septembre, Palantir propose des plateformes logicielles — Gotham, Foundry, AIP — permettant aux organisations de connecter, structurer et exploiter leurs données pour éclairer leurs décisions. « Quand on se déploie chez un client, c'est une coquille vide », insiste Pascal Tea. Les données restent sur l'infrastructure du client, souveraine ou cloud public, au choix. En France, la société travaille avec Airbus — 55 000 utilisateurs, 140 compagnies aériennes connectées à la plateforme SkyWise — mais aussi Stellantis ou la Société Générale. Sa collaboration avec la DGSI, démarrée après les attentats du Bataclan, illustre une autre facette : aider les services de renseignement à exploiter des masses de données légalement collectées mais inexploitables sans outillage adapté.
    Face aux questions de souveraineté numérique, Pascal Tea est direct : « La souveraineté ne doit pas devenir une excuse à l'inaction. » Dans un contexte géopolitique tendu, ses clients s'interrogent davantage sur les risques de dépendance technologique. Sa réponse : mieux vaut être compétitif que souverain et immobile.
    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
  • DeepTechs

    Les mathématiques à l’épreuve de l’IA

    15/03/2026 | 52 min
    Pour les mathématiciens, l’intelligence artificielle n’est pas seulement un sujet d’étude : elle devient aussi un outil de recherche. Bienvenue dans le monde de Gérard Biau, professeur à Sorbonne Université, directeur du Sorbonne Center for Artificial Intelligence (Scai) et membre de Académie des sciences. Pour ce spécialiste du machine learning, les fondements mathématiques de l’IA reposent largement sur les statistiques et la théorie de l’apprentissage, disciplines qui cherchent à détecter des régularités dans de grandes masses de données.
    « L’apprentissage automatique consiste à construire des modèles capables d’extraire des règles à partir d’exemples », explique le chercheur. Concrètement, un algorithme est exposé à des milliers, voire des millions d’observations : images, textes ou signaux. Il ajuste alors ses paramètres pour prédire au mieux un résultat. Cette logique probabiliste, héritée de la statistique moderne, constitue aujourd’hui le socle des systèmes d’IA.
    Depuis quelques années, l’essor de l’IA générative change aussi la pratique scientifique. Les modèles de langage peuvent aider à explorer des hypothèses, résumer des publications ou assister dans l’écriture de code scientifique. « Ce sont des outils extrêmement puissants pour accélérer certaines tâches », reconnaît Gérard Biau. Mais ils restent loin d’une véritable créativité mathématique : démontrer un théorème ou concevoir une nouvelle théorie exige encore intuition, abstraction et rigueur formelle.
    À la tête du centre d’intelligence artificielle de Sorbonne Université, devenu en 2024 l’un des IA clusters français, le mathématicien mise sur l’interdisciplinarité. Médecins, physiciens ou chimistes collaborent désormais avec des spécialistes des algorithmes pour exploiter ces nouvelles méthodes. Pour lui, l’IA agit ainsi comme un catalyseur : moins une révolution solitaire qu’un moteur collectif de la recherche scientifique.

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
  • DeepTechs

    La révolution des modèles d'IA spécialisés

    08/03/2026 | 37 min
    Docteur en intelligence artificielle, Julien Launay a démarré sa carrière au sein de la startup française LightOn, pionnière du calcul photonique. À la fin des années 2010, alors que les premiers modèles Transformer émergent, il travaille sur l’entraînement de modèles de langage à l’aide de coprocesseurs optiques. Il contribue alors à des projets open source comme Bloom. En 2023, il cofonde Adaptive ML avec l'objectif de résoudre l’un des nouveaux défis de l’IA générative : l’adaptation des modèles aux besoins des entreprises. La jeune pousse développe une plateforme exploitant l’apprentissage par renforcement (« reinforcement learning ») pour spécialiser les modèles de langage. L’idée est simple : après une phase de pré-entraînement où le modèle apprend le langage à partir d’immenses corpus de textes, une phase dite de « post-training » permet de l’optimiser pour des tâches précises — par exemple le support client, la détection de fraude ou l’interaction avec des outils internes.
    Cette spécialisation présente un double avantage : améliorer la pertinence des réponses et surtout réduire drastiquement les coûts de calcul. Selon Julien Launay, les entreprises peuvent ainsi diminuer de 50 % à 90 % leurs dépenses liées à l’IA en remplaçant des modèles généralistes par des modèles plus petits et spécialisés. Basée entre Paris, New York et Toronto, Adaptive ML cible principalement de grandes entreprises nord-américaines — notamment dans les télécoms, l’assurance ou le transport aérien — où l’utilisation massive d’agents d’IA génère des volumes colossaux de données et donc des coûts élevés.
    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Más podcasts de Carrera

Acerca de DeepTechs

Bienvenue dans la saison 3 de DeepTechs, le podcast de Challenges. Un moment particulier pour l’équipe puisque nous avons la grande joie de vous annoncer l’arrivée de Mascaret, le conseil en communication des entreprises de Tech, comme partenaire de notre émission. Challenges et Mascaret ont régulièrement collaboré sur des dossiers divers comme le classement des influenceurs ou le baromètre des initiatives IA des grandes entreprises. Cette collaboration est donc, pour nous, une évolution naturelle. L’ouverture de cette nouvelle saison est aussi l’occasion de rappeler que DeepTechs, c’est d’abord une équipe : Flora Issingui, Maël Lorand, Charly Labyod, Guillaume Payan, et Gilles Fontaine.Avec Gilles Fontaine, rédacteur en chef à Challenges et Guillaume Payan, entrepreneur. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Sitio web del podcast

Escucha DeepTechs, План Б y muchos más podcasts de todo el mundo con la aplicación de radio.es

Descarga la app gratuita: radio.es

  • Añadir radios y podcasts a favoritos
  • Transmisión por Wi-Fi y Bluetooth
  • Carplay & Android Auto compatible
  • Muchas otras funciones de la app

DeepTechs: Podcasts del grupo

Aplicaciones
Redes sociales
v8.8.6| © 2007-2026 radio.de GmbH
Generated: 4/5/2026 - 3:04:06 PM