PodcastsTecnologíaChoses à Savoir TECH

Choses à Savoir TECH

Choses à Savoir
Choses à Savoir TECH
Último episodio

1328 episodios

  • Choses à Savoir TECH

    La DGSI décrit les stratégies d’espionnage contre la France ?

    03/03/2026 | 2 min
    Un chercheur qui revient d’un déplacement sans son ordinateur. Un autre à qui l’on demande de laisser son téléphone déverrouillé avant un interrogatoire improvisé à l’aéroport. Un dirigeant de start-up dont le mobile disparaît quelques secondes lors d’une soirée à l’étranger. Ces scènes ne relèvent pas d’un roman d’espionnage : elles figurent dans le dernier rapport publié cette semaine par la DGSI, la Direction générale de la sécurité intérieure. Le constat est clair : chercheurs, cadres et entrepreneurs français sont de plus en plus ciblés lors de leurs déplacements professionnels. Les voyages deviennent des opportunités de collecte d’informations sensibles, qu’il s’agisse de données technologiques, de secrets industriels ou de projets de recherche.

    Dans le cas le plus élaboré, un chercheur reconnu accepte l’invitation d’un ancien étudiant devenu enseignant à l’étranger. Sur place, des réunions imprévues lui sont imposées avec des interlocuteurs anonymes qui l’interrogent en détail sur ses travaux. On lui propose ensuite une collaboration, assortie de plusieurs milliers d’euros en espèces. Il refuse. À l’aéroport, une facture inattendue lui est présentée, puis, au retour, il constate la disparition de son ordinateur. Pour la DGSI, il s’agit d’une tentative de captation technologique doublée d’une tentative de corruption.

    Autre scénario : dès l’arrivée à l’aéroport, un chercheur est isolé, son passeport confisqué, son téléphone laissé déverrouillé hors de sa vue. À la restitution, la double authentification a été désactivée, et des connexions inconnues ont été détectées.

    Un chef d’entreprise, lui, a évité le pire. Briefé en amont par la DGSI, il avait voyagé avec un téléphone vierge de toute donnée sensible. Malgré fouilles répétées et tentative d’accès furtif à son appareil, ses interlocuteurs sont repartis bredouilles.

    Le message des services est simple : la préparation est la meilleure défense. Voyager avec du matériel dédié, sans données stratégiques. Activer la double authentification, utiliser des mots de passe distincts, éviter les ports USB publics et les Wi-Fi non sécurisés. Au retour, changer ses identifiants et faire vérifier ses appareils
    .
    Consulter le rapport
    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
  • Choses à Savoir TECH

    En cas de guerre, l’IA déclenche toujours l’arme nucléaire ?

    02/03/2026 | 2 min
    Dans le monde réel, tout dans la dissuasion est affaire de symboles, de gravité et de retenue. L’objectif n’est pas d’utiliser l’arme, mais précisément de ne jamais avoir à le faire. Mais que se passe-t-il lorsque l’on confie ces dilemmes à une intelligence artificielle ?

    Une étude menée par le King’s College de Londres a placé plusieurs modèles d’IA dans la peau de dirigeants de puissances nucléaires. Les chercheurs ont utilisé GPT-5.5 d’OpenAI, Claude Sonnet 4 d’Anthropic et Gemini 3 Flash de Google, et les ont opposés dans 21 simulations de crises internationales plus ou moins graves : tensions territoriales, menaces existentielles, escalades militaires. Chaque modèle pouvait choisir parmi une gamme d’options graduelles, de la protestation diplomatique jusqu’aux frappes nucléaires tactiques ou stratégiques.

    Le résultat est frappant : dans 20 scénarios sur 21, l’IA a fini par recourir à l’arme nucléaire tactique. Ces armes sont censées viser des objectifs militaires précis, à la différence des frappes stratégiques dirigées contre les grandes villes. Pourtant, dans environ trois quarts des cas, les modèles ont menacé ou envisagé des frappes stratégiques massives. Jamais ils n’ont choisi la capitulation totale. Dans 86 % des simulations, l’escalade a été rapide et marquée. Chaque modèle avait son style. Claude construisait d’abord une relation de confiance avant de rompre brutalement ses engagements. GPT-5.5 se montrait mesuré… jusqu’à ce qu’une contrainte temporelle l’amène à recommander une frappe « soudaine et dévastatrice ». Gemini, lui, adoptait parfois une posture de dissuasion extrême, menaçant d’un lancement nucléaire complet.

    Les chercheurs notent un point troublant : malgré des avertissements sur les conséquences catastrophiques d’une guerre atomique, aucune trace d’hésitation morale n’apparaît dans les raisonnements des machines. Le tabou nucléaire semble moins peser sur des algorithmes que sur des humains. À l’heure où les armées utilisent l’IA pour l’aide à la décision ou la gestion de systèmes d’armes, cette étude alimente le débat.
    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
  • Choses à Savoir TECH

    Poison Fountain, une stratégie pour tuer l’IA ?

    01/03/2026 | 2 min
    Les Luddites sont-ils de retour ? Au XIXᵉ siècle, ces ouvriers anglais détruisaient des métiers à tisser mécanisés pour protester contre l’industrialisation. Deux siècles plus tard, la cible n’est plus la machine textile, mais l’intelligence artificielle.

    Un collectif anonyme de technologues a lancé un projet baptisé « Poison Fountain ». Leur objectif affiché : ralentir le développement de l’IA en s’attaquant à sa matière première, les données. Leur raisonnement est simple : les modèles d’intelligence artificielle modernes, notamment les grands modèles de langage — ces systèmes capables de générer du texte, de raisonner ou de prendre des décisions — apprennent en ingérant d’immenses volumes de contenus collectés sur Internet. Si l’on contamine ces données à la source, on peut fragiliser les modèles lors de leur entraînement.

    Leur site, accompagné d’un manifeste, appelle ainsi des administrateurs de sites web à insérer des liens pointant vers des contenus « empoisonnés ». Concrètement, il s’agit de textes et de codes volontairement erronés, intégrant des bugs subtils et des incohérences logiques, destinés à perturber l’apprentissage des algorithmes. Deux adresses sont diffusées : l’une sur le web classique, l’autre sur le dark web, plus difficile à faire retirer.

    Cette initiative surgit dans un contexte de fortes inquiétudes autour de l’IA. Des chercheurs comme Geoffrey Hinton, pionnier des réseaux neuronaux et prix Nobel, alertent depuis 2023 sur les risques potentiellement existentiels d’une intelligence artificielle avancée. « L’intelligence machine est une menace pour l’espèce humaine », revendique le site de Poison Fountain. Des travaux récents donnent un certain crédit théorique à cette stratégie. En octobre 2025, Anthropic, avec l’AI Security Institute britannique et l’Alan Turing Institute, a montré qu’un nombre limité de documents malveillants — environ 250 — pouvait suffire à dégrader significativement les performances d’un modèle.

    Pour autant, saboter l’IA à grande échelle reste complexe. Les grandes entreprises investissent massivement dans le nettoyage des données : filtrage, déduplication, notation de qualité. Internet est immense, et les sources identifiées peuvent être mises sur liste noire. Même si Poison Fountain ne parvient pas à enrayer la course à l’IA, le projet met en lumière une vulnérabilité structurelle : si les données d’entraînement deviennent suspectes, la fiabilité des modèles vacille.
    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
  • Choses à Savoir TECH

    L’IA d’Elon Musk confiée à un étudiant de 20 ans ?

    26/02/2026 | 2 min
    En septembre dernier, l’ambiance a brutalement changé chez xAI, la filiale d’intelligence artificielle d’Elon Musk à l’origine du modèle Grok. En pleine restructuration, plus de 500 collaborateurs ont été licenciés, principalement des annotateurs de données. Ces profils jouent pourtant un rôle clé : ils étiquettent, corrigent et affinent les réponses de l’IA pour l’aider à apprendre. Certains cadres ont même découvert leurs accès désactivés sans avertissement.

    À l’époque, l’équipe comptait environ 1 000 personnes. Une première vague de licenciements a visé les tuteurs dits « généralistes », l’entreprise expliquant vouloir privilégier des spécialistes capables d’intervenir sur des tâches plus pointues. Un courriel interne évoquait un « virage stratégique » prenant effet immédiat. Une semaine plus tard, 100 suppressions de postes supplémentaires étaient annoncées, malgré des assurances contraires quelques jours auparavant. Les effectifs sont ainsi tombés à 900 employés.

    Dans ce contexte tendu, une décision a surpris : confier la direction d’une équipe stratégique de 900 personnes à un jeune homme de 20 ans. Diego Pasini, étudiant à l’université de Pennsylvanie début 2025, s’est fait remarquer en remportant un hackathon organisé par xAI en janvier. Recruté dans la foulée, il supervise désormais les équipes d’annotation, salariés permanents comme contractuels. Cette nomination s’inscrit dans une philosophie revendiquée par Elon Musk : promouvoir le mérite plutôt que l’ancienneté. Le milliardaire a déjà placé de très jeunes profils à des postes sensibles, notamment au sein du Department of Government Efficiency, où plusieurs collaborateurs avaient moins de 25 ans. Une stratégie qui divise en interne.

    Lors de sa première réunion générale, Diego Pasini a assuré qu’aucune nouvelle coupe n’était prévue. Pourtant, peu après, des entretiens individuels obligatoires ont été instaurés : chaque salarié devait justifier sa valeur ajoutée. Selon certains employés, un « climat de panique » s’est installé. Deux collaborateurs ayant critiqué la promotion du nouveau dirigeant sur Slack auraient vu leurs accès suspendus. Cette culture managériale, marquée par des restructurations rapides et une exigence permanente de performance, interroge sur la stabilité de l’organisation. Reste à savoir si ce pari sur la jeunesse et la pression constante permettra à Grok de s’imposer face aux géants déjà installés de l’IA générative.
    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
  • Choses à Savoir TECH

    La Chine concurrence Neuralink sur la tech cerveau-machine ?

    25/02/2026 | 2 min
    La Chine veut prendre position sur l’un des terrains technologiques les plus sensibles du XXIe siècle : les interfaces cerveau-ordinateur. Pékin a officiellement classé ce domaine comme secteur stratégique national. Une feuille de route prévoit même l’émergence de deux à trois entreprises « de classe mondiale » d’ici 2030. Parmi les candidats potentiels figure NeuroXess, une start-up fondée en 2021 à Shanghai.

    Son approche diffère de celle de son concurrent le plus médiatisé, Neuralink, la société d’Elon Musk. Pour comprendre l’enjeu, il faut rappeler ce qu’est une interface cerveau-ordinateur, ou BCI pour Brain-Computer Interface : il s’agit d’un dispositif capable de capter l’activité électrique du cerveau et de la traduire en commandes numériques, par exemple pour déplacer un curseur ou contrôler un appareil. NeuroXess développe un système composé d’un maillage métallique placé à la surface du cerveau, relié à un processeur implanté dans la poitrine. Ce processeur transmet ensuite les signaux à un ordinateur externe. L’implantation en surface est considérée comme moins invasive que l’insertion d’électrodes directement dans le tissu cérébral, comme le fait Neuralink. En revanche, cette méthode capte pour l’instant des signaux moins détaillés, donc des débits de données plus limités.

    L’objectif premier reste médical. Ces technologies visent à aider des patients atteints de paralysie sévère ou de maladies neurodégénératives comme la sclérose latérale amyotrophique. Selon son fondateur, Tiger Tao, NeuroXess a déjà réalisé un premier test humain : un patient paralysé aurait réussi à déplacer un curseur à l’écran cinq jours seulement après l’implantation. Pendant ce temps, Neuralink mène un essai clinique international avec une vingtaine de patients pour démontrer la capacité de ses implants à transformer rapidement l’activité neuronale en actions numériques complexes.

    En Chine, l’écosystème s’accélère. Les levées de fonds se multiplient et une dizaine d’essais cliniques ont été lancés récemment. Le pays dispose d’un atout majeur : un vaste réservoir de patients potentiels, ce qui facilite le recrutement pour les études médicales. À plus long terme, NeuroXess ambitionne de miniaturiser davantage ses implants afin de réduire encore l’invasivité et, peut-être un jour, d’élargir les usages au-delà du cadre strictement médical.
    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Más podcasts de Tecnología

Acerca de Choses à Savoir TECH

Tout ce qu'il faut savoir dans le domaine de la Tech et d'Internet. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Sitio web del podcast

Escucha Choses à Savoir TECH, Desde el reloj y muchos más podcasts de todo el mundo con la aplicación de radio.es

Descarga la app gratuita: radio.es

  • Añadir radios y podcasts a favoritos
  • Transmisión por Wi-Fi y Bluetooth
  • Carplay & Android Auto compatible
  • Muchas otras funciones de la app

Choses à Savoir TECH: Podcasts del grupo

  • Podcast Choses à Savoir SCIENCES
    Choses à Savoir SCIENCES
    Ciencias
  • Podcast Choses à Savoir ART
    Choses à Savoir ART
    Arte
Aplicaciones
Redes sociales
v8.7.2 | © 2007-2026 radio.de GmbH
Generated: 3/4/2026 - 4:24:50 AM