IA : WORK IN PROGRESS ? NON, WORK IN BORDEL !

En juillet 2025, les Stratèges présents à la Garden Party s’étaient vus offrir un exemplaire de COCOTTE, la revue de tendances réalisée par l’agence Magazine&Fils dans une édition digest de luxe. Cette année, notre partenariat avec l’agence se renforce : Tous les 2 mois, nous vous proposons de découvrir en avant première l’article que nous avons préféré du numéro de Cocotte à paraitre. Ici le N°8 de Cocotte à paraitre fin février.

Février 2026

L’IA générative était censée nous libérer. À la place, elle nous noie. Entre les emails qui explosent, le contenu creux qu’elle génère à la chaîne, et maintenant, l’intelligence artificielle qui s’entraîne même sur ses propres erreurs. Les travailleurs du savoir vivent une crise silencieuse et les plus grands esprits de la tech commencent à sonner l’alarme.

Le mensonge qu’on s’est raconté.

Pendant des années, on a cru à une promesse :  l’IA allait automatiser les tâches rébarbatives et libérer nos cerveaux pour la vraie création. Les dirigeants dormaient sur leurs deux oreilles en imaginant une productivité décuplée. Ce que personne n’a anticipé c’est quand on offre un outil puissant à 8 milliards d’individus en même temps, on ne crée pas de l’ordre, on crée du chaos.

Les chiffres racontent l’histoire d’une machine qui s’enraye. Un salarié moyen reçoit 117 emails par jour, dans un flux qui s’ajoute aux messages Slack, Teams, WhatsApp ou LinkedIn qui découpent la journée en micro-interruptions permanentes.

Les employés passent en moyenne 28% de leur semaine de travail sur leurs messageries, à lire, écrire, trier ou retrouver des emails, soit plus d’une journée entière capturée par l’inbox plutôt que par le travail réel. Le travailleur du savoir, ce terme que Peter Drucker a inventé en 1959 dans son livre Landmarks of tomorrow désigne quelqu’un dont la valeur réside dans la production de connaissance et non dans l’exécution de tâches manuelles, se retrouve piégé dans cette économie de l’attention fragmentée.

Quand l’IA remplace le travail… par du travail.

Depuis 2023, l’utilisation de l’IA générative dans le travail a explosé. Les entreprises pensaient enfin voir le Saint Graal. À la place, elles ont découvert un phénomène nouveau : le « workslop ».

Le terme a été forgé par une étude menée conjointement par le Stanford Social Media Lab et BetterUp Labs, publiée dans la Harvard Business Review en septembre 2025. C’est quoi ? Du contenu généré par IA qui ressemble à du vrai travail, mais qui manque de fond. Des emails maladroitement phrasés, des présentations sans détails clés, du code bâclé, des documents pleins de paragraphes verbeux quand une phrase aurait suffi. Du contenu creux généré en deux clics sans réfléchir.

Et c’est presque devenu une habitude. 41 % des employés américains déclarent avoir reçu du workslop le mois dernier. Parmi eux, on estime qu’en moyenne 15,4 % des contenus reçus au travail entrent dans cette catégorie. Chaque incident leur fait perdre près de 1h56 par cas à tenter de le comprendre, le corriger ou le réécrire. Pour une entreprise de 10 000 employés, cela représente 186 dollars par personne et par mois, soit plus de 9 millions de dollars de productivité envolés chaque année.

Mais ce n’est pas juste une question d’argent. 54% se sentent énervés d’avoir reçu du workslop. 38% sont confus. 22% sont offensés. Et surtout, 42% perdent confiance en ceux qui l’envoient. Ils les voient comme moins compétents, moins créatifs, moins fiables. La collaboration s’effondre. Le lien au travail se dégrade.

C’est le moment où tu commences à réaliser : on n’a pas automatisé le travail inutile. On a démocratisé la possibilité de faire du mauvais travail très vite. Avant, être fainéant demandait au moins… de la fainéantise. Du temps. De l’effort pour cacher l’effort. Maintenant, tu peux noyer ton équipe sous des tonnes de contenu creux en dix secondes.

Exergue : on n’a pas automatisé le travail inutile. On a démocratisé la possibilité de faire du mauvais travail très vite.

Manger son propre vomi ?

Les modèles ne se contentent pas de recycler de la donnée moyenne, ils inventent aussi des choses avec une assurance olympique. Une analyse menée par la startup française Giskard montre que toutes les IA génératives testées sont capables d’« halluciner », c’est‑à‑dire de produire des réponses factuellement fausses présentées comme fiables. Selon ce benchmark, certains modèles dépassent largement les autres en taux d’erreurs, mais aucun n’est épargné : même les meilleurs ne sont pas à 100% fiables, et les plus fragiles produisent régulièrement des affirmations inventées de toutes pièces.

Ces hallucinations ne sont pas des bugs isolés, mais un effet structurel : dès qu’un modèle sort de ce qu’il connaît vraiment, il comble les trous en produisant du langage plausible plutôt qu’en admettant « je ne sais pas ». Dans un contexte où ces outils sont utilisés pour rédiger des documents pros, résumer des rapports ou générer des contenus de référence, ces erreurs finissent mécaniquement par polluer les corpus… puis les futurs modèles.

Et on en arrive au point où l’IA générative commence à étudier ses propres contenus. Une étude d’Ahrefs sur 900 000 pages web créées en avril 2025 révèle que 74% des nouvelles pages incluent du contenu généré par l’IA. Seulement 25,8% sont catégorisées comme « pure human ». Ça signifie une chose : l’IA générative s’entraîne de plus en plus sur des données créées… par elle-même. Elle se nourrit de son propre vomi. En boucle.

Les chercheurs de l’Université d’Oxford, l’ont démontré dans une étude publiée dans Nature en juillet 2024. Quand on nourrit une IA avec son propre output, encore et encore, les résultats deviennent progressivement du charabia. La diversité disparaît. Les données intéressantes s’évanouissent. On se retrouve avec des modèles qui ne prédisent que la moyenne, sans nuance. Comme une photocopie d’une photocopie d’une photocopie. À la fin, on a une tache grise.

Exergue : 74% des nouvelles pages web incluent du contenu généré par l’IA.

Quand les plus grands esprits commencent à partir.

Ici, on atteint le moment où on doit vraiment se poser des questions. En novembre 2025, Yann LeCun, qui était Chief AI Scientist chez Meta depuis 12 ans, a officialisé son départ. Pas pour prendre sa retraite. Pour créer une startup et construire une alternative entièrement différente.

Son verdict sur les LLM (Large Language Models : une intelligence artificielle qui lit beaucoup de textes pour apprendre à comprendre et générer des phrases.) ? Ils sont « une impasse ». Il estime qu’ils ne pourront jamais atteindre une intelligence équivalente à l’intelligence humaine. Son argument est implacable : les LLM reposent sur la prédiction du langage humain. Donc ils héritent de tous les défauts des humains. Ils hallucinent. Ils confondent. Ils sont limités à ce qu’on peut exprimer en mots.

Les JEPA (Joint Embedding Predictive Architecture) qu’il développe maintenant apprennent à comprendre le monde en observant les vidéos, comme un bébé qui observe et prédit ce qui va se passer, pas en lisant des textes. C’est un changement paradigmatique. Sur Facebook, LeCun a expliqué : « Je crée une startup pour poursuivre le programme AMI (Advanced Machine Intelligence) que je mène depuis plusieurs années. L’objectif : des systèmes qui comprennent le monde physique, dotés d’une mémoire permanente, capables de raisonner et de planifier ».

Son départ fait suite à une réorganisation brutale chez Meta : 600 postes supprimés dans les équipes IA, et l’embauche d’Alexandr Wang, 28 ans, co-fondateur de Scale AI, pour diriger la nouvelle division « Superintelligence ». LeCun, pionnier de l’IA et Prix Turing 2018, s’est retrouvé… sous ses ordres. La divergence de vision était trop grande.

Le mensonge s’effondre.

Parce que si Yann LeCun a raison, ça signifie que la bulle IA financière commence à se fissurer. Pas aujourd’hui. Mais bientôt. Les investisseurs vont réaliser qu’ils ont financé une technologie qui s’entraîne sur ses propres erreurs, qui noie les entreprises en workslop, et qui ne peut pas vraiment comprendre, mais juste prédire statiquement.

Et pendant ce temps ? Les travailleurs du savoir, ceux dont le cerveau est l’outil principal, sont les plus atteints. Parce qu’on ne peut pas automatiser la vraie pensée. Et quand on essaie, on obtient du vomi d’IA.

Un rapport du MIT Media Lab révèle que 95% des organisations ne constatent aucun retour sur investissement dans l’IA. Le workslop pourrait en être l’une des raisons majeures.

Le vrai enjeu ? Trier l’information. Filtrer le signal du bruit. Quand 74% du web contient de l’IA générée, comment sais-tu ce qui est réel ? Comment entraînes-tu un modèle sur de la vraie connaissance si tout ce que tu trouves est du maquillage algorithmique ?

Donc on en est où ?

On est coincés entre deux mondes. Celui qu’on nous a promis, avec une IA libératrice et celui qu’on vit réellement, avec une IA qui crée plus de travail qu’elle n’en élimine. Les signaux deviennent impossibles à ignorer. Les plus grands esprits de la tech s’en vont construire autre chose. L’IA s’entraîne sur ses propres hallucinations. Et les travailleurs du savoir ont des cerveaux fragmentés par un déluge d’informations sans fin. Ce n’est pas un dysfonctionnement. C’est une crise architecturale silencieuse.

Mais l’IA n’est pourtant pas qu’un moteur à bullshit bien emballé. Dans certains domaines, elle fait exactement ce qu’on avait promis : augmenter la productivité humaine plutôt que la parasiter. Des modèles d’analyse d’images médicales détectent déjà des anomalies sur des radios ou des scanners avec une précision comparable, voire supérieure, à celle de radiologues humains sur certains types de lésions, à condition d’être encadrés par des équipes médicales qui valident et recadrent leurs résultats.

Même logique côté données : pour trier, classer, dédoublonner, repérer des patterns ou résumer de très gros volumes d’information, l’IA se révèle redoutablement efficace, là où un humain passerait des heures à faire du copier‑coller ou du filtrage manuel. Utilisée comme un outil de pré‑tri et non comme une vérité absolue, elle permet de dégager du temps de cerveau disponible pour des tâches à plus forte valeur ajoutée : analyser, décider, créer, arbitrer.


Le saviez-vous ?
Magazine&Fils, agence membre des Stratèges, réalise chaque trimestre pour ses clients une veille des tendances sociétales, de celles qui modifient en profondeur notre société, et dont s’inspirent les planneurs stratégiques pour imaginer des concepts qui nous apparaitront justes et impactant. Nous remercions Thomas Guedj et Sylvia Grandgirard pour ce précieux partage ainsi que leur équipe pour ce travail de fond qu’ils partagent avec la communauté. Pour

Pour lire les numéros précédents de Cocotte

Vous pourrez les retrouver lors du P’tit Dej Visio du 21 octobre 2026 où ils nous révèleront comment aborder en publicité les sujets les plus tabous tels que la mort, le sexe ou la misère…