L'IA aujourd'hui épisode du 2025-09-16
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : Google intensifie sa lutte anti-spam et ajuste son “mode IA”, gros changements dans Google Ads et Search Console, hallucinations des modèles et nouvelles pistes d’évaluation, auto-prompting en progrès, mise en garde du monde académique, invasion des podcasts générés, et montée des deepfakes. Et un rappel pratique sur la mise à jour de votre navigateur.D’abord, un point d’usage: certains sites signalent que votre navigateur peut afficher des pages de manière dégradée. Mettre à jour vers la dernière version améliore sécurité, performance et compatibilité avec les sites modernes. Des liens utiles sont disponibles sur browsehappy.com. Sans mise à jour, attendez-vous à des fonctionnalités limitées.Côté Google, la mise à jour anti-spam d’août 2025 se poursuit et s’intensifie. En parallèle, une polémique a éclaté après l’affirmation selon laquelle “le web est en déclin rapide”. Autre chantier: le “mode IA” de la recherche. Annoncé comme futur mode par défaut, Google a nuancé cette position. Le mode IA s’étend au-delà de l’anglais au hindi, à l’indonésien, au japonais, au coréen et au portugais, et apparaît désormais jusque dans les suggestions de saisie automatique.Google a actualisé ses directives pour les évaluateurs de la qualité de la recherche, en ajoutant une vue d’ensemble de l’IA et des définitions affinées pour les contenus YMYL, ces sujets pouvant impacter santé, sécurité ou finances. Dans Search Console, six types de données structurées obsolètes ne sont plus pris en charge.Publicité: Google Ads déploie AI Max pour les campagnes de recherche à l’échelle mondiale. Au menu, de nouvelles fonctionnalités, des mises à jour du Merchant Center et des améliorations de l’Asset Studio AI. Des tests portent sur un mode promotionnel, des budgets totaux de campagne et d’autres options. Les nouvelles métriques AI Max incluent des correspondances élargies et des pages de destination étendues. Google renforce aussi le lien site–application pour un meilleur reporting. Côté SERP, des annonces sponsorisées avec raffinement de recherche sont testées, des alternatives à “Les gens recherchent aussi” sont explorées, et Google envisage de remplacer les étoiles d’avis d’hôtels par le numéro de téléphone et l’URL de l’établissement.Un rapport indique que presque tous les utilisateurs de ChatGPT utilisent également Google, mais l’inverse n’est pas vrai. Dans le même temps, l’Union européenne inflige 3,5 milliards de dollars d’amende et demande à Google de se séparer d’une partie de son activité technologique publicitaire.Passons aux modèles de langage. OpenAI rappelle que les “hallucinations” persistent: les modèles préfèrent deviner plutôt qu’admettre une incertitude, car les systèmes de notation valorisent la réponse même approximative. L’analogie du QCM est parlante: deviner peut rapporter, s’abstenir jamais. S’y ajoute la mécanique de prédiction du mot suivant sans vérification factuelle, surtout pour les faits rares. Même des modèles récents comme GPT-5 en produisent, moins souvent toutefois. OpenAI recommande d’ajuster les évaluations: pénaliser davantage les réponses fausses et accorder une note partielle aux réponses prudentes. Les tests montrent que s’abstenir quand on doute réduit les erreurs sans dégrader la précision globale.Autre tendance: les modèles sont de plus en plus compétents pour rédiger des invites, y compris pour eux-mêmes. Les familles Claude 4 et GPT-5, avec des dates de coupure d’entraînement récentes, auraient été exposées à plus de bons exemples, et Anthropic mobilise des sous-agents dans Claude Code, comme décrit dans une publication. Des retours de terrain font état de progrès tangibles en auto-prompting.Sur le front académique, un collectif de scientifiques cognitifs et de chercheurs en IA publie le 5 septembre un article de position appelant à refuser l’adoption non critique des outils d’IA dans les universités. Signataires venant des Pays-Bas, du Danemark, d’Allemagne et des États-Unis. Olivia Guest souligne l’urgence en ce début d’année universitaire et des signes de “déchargement cognitif” chez les étudiants. Le texte prolonge une lettre ouverte néerlandaise signée par plus de 1 100 universitaires, invitant notamment à reconsidérer les relations financières avec les entreprises d’IA. Les auteurs comparent ces déploiements à d’anciennes adoptions non critiques — tabac, moteurs à combustion, puis réseaux sociaux — et appellent à préserver enseignement supérieur, pensée critique, expertise, liberté académique et intégrité scientifique.Dans l’audio, lancement officiel d’Inception Point: un réseau de podcasts générés par IA. Sa PDG, Jeanine Wright, ex-Wondery jusqu’en mai 2024, revendique 3 000 épisodes par semaine, monétisés avec des publicités d’iHeart Media. L’entreprise affirme 10 millions de téléchargements depuis septembre 2023, soit environ 64 écoutes par podcast, pour des revenus limités. Les émissions, voix synthétiques et visuels générés à l’appui, sont critiquées comme du “spam audio”. Wright défend la qualité et tacle les détracteurs, tout en indiquant que la société est autofinancée, sans salariés rémunérés pour l’instant, et compte lever des fonds.Enfin, un rapport sur l’éducation prônant une IA éthique contient plus de 15 sources fictives, illustrant le risque de désinformation générée par IA. Newsguard observe une hausse de 1 150 % de sites et blogs diffusant de faux articles générés par IA depuis avril 2023. Le Forum économique mondial signale une croissance annuelle de 900 % des contenus deepfake en ligne. Des technologies de détection et de riposte deviennent nécessaires face à cette prolifération.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.