Il y a 2400 ans, dans le Phèdre, Socrate raconte un mythe. Un dieu vient présenter son invention au pharaon. L’invention s’appelle l’écriture. Le pharaon refuse. Cette technique, dit-il, va affaiblir la mémoire au lieu de la renforcer. Elle donnera l’illusion du savoir. Elle produira des hommes superficiels qui croient comprendre ce qu’ils n’ont fait que recopier.
Aujourd’hui on dit la même chose de l’IA : elle va nous rendre paresseux, nous donner l’illusion de comprendre & produire des esprits superficiels.
Mot pour mot. Le même argument à 2400 ans d’écart. La technique change, mais la peur reste la même.
On peut s’arrêter à dire que les peurs se ressemblent. Et tomber dans une vulgaire opposition pro IA vs anti IA, comme on a pu le voir sur nombre de sujets. Les pros contre les antis. Je pense qu’on peut faire un pas de côté, prendre du recul. Surtout, regarder la complexité de l’enjeu, et analyser ce qu’on défend, et ce à quoi on s’oppose quand on est pro ou anti.
Parce que si l’argument est le même depuis 2400 ans, c’est qu’il y a un mécanisme qui se rejoue. Et le mécanisme dit quelque chose de plus profond que la peur du nouveau. Il dit qu’à chaque rupture technique, on s’oppose à ce qu’on finira par appeler un jour… “normal”.
Je pense que la vraie question est ailleurs : qu’est-ce qu’on a accepté comme normal aujourd’hui ? Et est-ce que ce qui nous parait “normal” aujourd’hui doit le rester demain ?
Tout est normal
Premier exemple. En 2026, trouver son chemin en ville, c’est sortir son téléphone, rentrer l’adresse, et suivre son GPS. Ça nous paraît complètement normal. Il y a 20 ans, c’était impensable. On regardait des plans de ville. On demandait son chemin à un passant. On apprenait les rues de sa ville par cœur. Mais aujourd’hui, on a accepté de ne plus savoir s’orienter sans assistance. La technologie a élargi ce que l’on peut faire, sa manière de nous assister, et c’est devenu normal. Le glissement s’est fait, en silence, à coup de mises à jour d’application, de réseaux toujours plus rapides, et d’interfaces de plus en plus intuitives.
Deuxième exemple. Avant la généralisation du frigo, dans les années 50-60, manger relevait d’un autre savoir-faire : on salait, on fumait, on séchait, on allait au marché tous les jours. On ne stockait pas, on conservait. Aujourd’hui ce mode de vie nous paraît exotique, presque touristique. Avant, c’était ça la norme. Pas pendant la préhistoire. Il y a 70 ans.
Quelque chose se joue dans ces déplacements. L’humain ne se contente pas d’utiliser ses outils, il se transforme avec. Bergson parlait de l’homo faber : l’homme qui fabrique. L’idée est simple. On ne juge jamais ses outils depuis un ailleurs neutre. On juge depuis ce que les outils ont déjà fait de nous. Quand on n’a plus de carte papier, on n’a plus le sens de l’orientation qui allait avec. Quand on n’a plus de garde-manger, on n’a plus le rapport au temps de la nourriture qui allait avec. La technique transforme à mesure qu’elle s’utilise. On finit par appeler normal ce qu’elle a sédimenté.
Dernier exemple. Pendant des dizaines d’années, ceux qui écrivent du logiciel apprennent des langages qui ne sont pas faits pour eux. Ils sont faits pour la machine. JavaScript, Python, Rust, Go : ce sont des conventions inventées pour qu’un compilateur puisse traduire des intentions humaines en instructions électriques. Personne ne parle Python avec ses enfants. Personne n’écrit Rust à un ami. Ces langages sont l’envers d’une langue : on s’y plie pour qu’une machine fasse ce qu’on veut. Vu de loin, c’est un peu absurde. On apprend une langue inverse pour parler à une chose qui n’a pas de langue. Mais encore une fois, c’est devenu normal.
Et le mouvement n’est pas isolé. Depuis 70 ans, l’informatique vit une montée d’abstraction continue. Au départ, les premiers programmeurs écrivaient en langage machine… pur, des suites de chiffres. Puis l’Assembleur est arrivé, plus lisible, et on a entendu : on s’éloigne de la machine. Puis le C, plus haut niveau, s’est imposé : on perd la rigueur. Puis Python et JavaScript ont éloigné encore l’humain du métal : ce n’est pas du vrai code. À chaque montée, on s’est rapproché un peu plus de la langue humaine. Et à chaque étape, levée de boucliers. Pourtant, personne ne lit le code binaire qui est généré par du Python…
On pourrait voir l’IA générative comme l’étape suivante de cette même chaîne. Pour la première fois, on peut parler avec une machine dans la langue qu’on parle déjà, et elle traduit. Karpathy a eu cette phrase : “The hottest new programming language is English.”
La force de l’habitude
Mais tout ça n’est pas nouveau, et a déjà été pensé. Au XVIᵉ siècle, un jeune homme de 18 ans appelé Étienne de La Boétie écrit un texte court : Discours de la servitude volontaire. Il y pose une question simple : pourquoi est-ce qu’une multitude obéit à un seul tyran ? Si c’était la force qui faisait tenir l’ordre, dit-il, le tyran n’aurait pas tenu : il est seul contre tous. C’est l’habitude qui le maintient. Les gens obéissent parce qu’ils ont vu leurs parents obéir, et que l’obéissance est devenue, à leurs yeux, la chose ordinaire. La première raison de la servitude volontaire, c’est la coutume.
La Boétie parlait de tyrannie politique. Le mécanisme s’applique à toute norme. Politique, sociale, technique. On se soumet à ce qu’on a vu autour de soi. On finit par défendre cet ordre comme s’il avait été choisi.
C’est ce qui se joue dans les exemples qui précèdent. Si on accepte sans broncher d’apprendre des langages faits pour des compilateurs, ce n’est pas parce qu’on a délibéré et décidé que c’était la meilleure chose à faire pour l’humanité. C’est parce que l’habitude a fait son travail. Elle a transformé une situation contingente en évidence indiscutée. On s’asservit à ce qu’on a fini par considérer comme normal, même quand ce normal a un coût. Coût en attention, en temps perdu, en aliénation à la machine, en inégalités d’accès.
Et c’est pour ça que l’IA dérange à ce point. Pas parce qu’elle remplace, comme on l’entend trop souvent. Parce qu’elle interrompt cette lente & confortable soumission à l’habitude. Elle remet la question de ce qui est normal dans le champ. Elle force la délibération sur des choses qu’on avait fini par cesser d’interroger.
Aussi, elle met un coup de pied dans la fourmilière de privilèges qui s’étaient forgés à coup de personnes qui étaient devenus les gagnants de cette norme. De personnes qui se sentent aujourd’hui menacées.
- Est-ce que c’est normal de remplir des fichiers Excel absurdes parce que c’est le process ?
- Est-ce que c’est normal de faire une réunion pour préparer la réunion de cadrage de la réunion de décision ?
- Est-ce que c’est normal de saisir 12 fois la même information dans 12 systèmes différents parce que les outils ne se parlent pas et que ça a été conçu comme ça ?
Est-ce que tout ce qu’on accepte est vraiment normal et légitime parce qu’à une époque ça a été fait comme ça ?
Le verrou n’était pas technique
Voici un cas plus serré. Plus récent, plus contestable, plus actuel.
En 2013, Marissa Mayer prend la tête de Yahoo et bannit le télétravail. Le mémo officiel est un classique : Speed and quality are often sacrificed when we work from home. We need to be one Yahoo!, and that starts with physically being together. À l’époque, moins de 2% des 12 000 salariés sont en télétravail full-time. Ils sont rappelés au bureau quand même. C’est une décision d’identité d’entreprise, pas de productivité. Travailler chez soi, ça ne fait pas un Yahoo.
En 2017, IBM rappelle 40% de ses non-traditional workers au bureau, pour favoriser la collaboration. Même grammaire.
À ce moment-là, la technologie du télétravail existe depuis 15 ans. Skype est sorti en 2003. Les outils collaboratifs sont là. Le haut débit est partout. Tout est là, sauf une chose : la croyance que ça marche. La culture managériale tient un bord clair. Un humain au bureau est un humain qui travaille. Un humain chez lui est un humain dont on doute.
Mars 2020. Tout ferme. Par la force des choses, il faut bien du jour au lendemain, faire confiance aux gens chez eux. La techno qui marchait depuis 15 ans est utilisée à grande échelle pour la première fois. Aux États-Unis, le télétravail passe de 5,7% des actifs en 2019 à environ 22% en 2025, après s’être stabilisé entre 18% et 24% depuis fin 2022.
Chez les knowledge workers, l’hybride est devenu le mode par défaut : 51% en hybride, 28% full-remote, 21% en présentiel total. Les chercheurs parlent du most drastic shift to the global workforce since World War II.
Et quelque chose s’est inversé qui ne reviendra pas tout à fait en arrière. Un glissement s’est opéré, et le paradigme a changé. Car même si en 2025-2026, beaucoup d’entreprises rappellent au bureau (Google, Apple, Amazon, JPMorgan), le télétravail effectif reste quatre fois supérieur à pré-COVID. Et surtout, il est devenu discutable. Le télétravail est une option qu’on négocie, qu’on retire, qu’on impose, qu’on aménage. Avant 2020, dans la grande majorité des entreprises, ce n’était pas dans le champ du discutable.
Le COVID a rendu le télétravail légitime. Le retour partiel au bureau ne l’a pas effacé. La transformation du normal, c’est l’extension du discutable.
Et le mécanisme qui se joue là est exactement celui des autres exemples. Une technique disponible attend pendant des années qu’une rencontre se fasse. Une rupture sociale arrive. Le verrou saute. Le normal se réorganise.
Alors vers quel nouveau normal va-t-on aujourd’hui ?
L’IA a une particularité par rapport à tout le reste.
Le frigo, le GPS, les langages de programmation, le télétravail : ces ruptures-là se sont faites lentement. Le frigo a mis 30 ans à devenir norme domestique en France. Les langages de programmation ont monté en abstraction sur 70 ans. Le télétravail a mûri 20 ans dans l’ombre avant d’être légitimé en deux ans pendant le COVID. Lentes, étalées, suffisamment douces pour qu’on glisse dedans sans rien questionner. Le mécanisme habituel, c’est le glissement silencieux.
L’IA, c’est l’inverse. Massif et court. Les capacités ont changé en trois ans, pas en trente. Et c’est précisément cette rapidité qui produit l’inconfort. Le lent développement de la technologie qui nous fait glisser dans l’habitude n’a pas eu le temps de se faire. En octobre 2024, 25% du code écrit chez Google était généré par IA. Dix-huit mois plus tard, c’est 75%. Sundar Pichai l’a annoncé lui-même. Et le mouvement n’a aucune raison de ralentir.
Alors c’est inconfortable, mais c’est rare. Les ruptures techniques visibles sont une chance philosophique. Pour une fois, on observe la fabrication du normal en train de se faire, à la place de la subir vingt ans plus tard en se demandant comment on en est arrivé là.
La question utile n’est plus “pour ou contre”. C’est : qu’est-ce qu’on accepte de construire comme nouveau normal, maintenant qu’on voit le mécanisme.
En 1811, près de Nottingham, des ouvriers du textile cassent des métiers à tisser au marteau, dans des raids nocturnes. On les appelle les Luddites, du nom d’un personnage fictif, le Général Ludd. Ils s’opposent à une certaine manière dont les machines les écrasent : salaires en baisse, produits de mauvaise qualité, apprentis non formés à leur place. Pas à l’idée de machine. L’État envoie 13 000 soldats. Le Parlement vote la peine de mort pour bris de machine. Dispersés. La technique passe.
L’histoire ne garde que la version courte. Et la version courte dit : ceux qui ont voulu casser les machines ont perdu.
Donc il y a deux trajectoires.
Première trajectoire. On défend l’ancien aussi longtemps qu’on peut. On s’oppose sans chercher à comprendre. On colle un flag rouge sur tout ce qui touche à l’IA. Rédiger avec l’IA, c’est mal. Faire une image avec l’IA, c’est mal. Coder avec l’IA, c’est mal. On rejette en bloc, sans regarder la différence entre les usages.
Le problème, c’est que pendant qu’on rejette, on n’apprend pas. Et si on n’apprend pas à utiliser ces outils, on devient incapable de les maîtriser. Si ce n’est pas nous qui les maîtrisons, c’est eux qui nous maîtrisent. Les paramètres par défaut s’imposent. Les choix des trois ou quatre plateformes qui dominent le marché s’imposent. Et nous, on suit.
C’est déjà ce qui se passe. En 2026, ChatGPT a plus de 900 millions d’utilisateurs hebdomadaires. Environ 95% sont en version gratuite. La version par défaut. Un modèle bridé, des règles qu’on subit, un system prompt qu’on ne choisit pas. C’est l’usage que la masse a aujourd’hui.
Le web a déjà raconté cette histoire. Il a commencé avec des idéaux de partage, de protocoles ouverts, d’utilisateurs souverains. Il a fini avec des géants technologiques et tout ce qu’on connaît : capture de l’attention, économie de l’extraction. Les normes se sont faites sans nous parce qu’on regardait ailleurs.
Deuxième trajectoire. On accepte que la rupture est là. On cesse de la combattre comme une nuisance. On choisit ce qu’on en fait.
L’IA est un nouveau normal à construire, à apprendre, à apprivoiser. Une chose à façonner, pas à recevoir. Bien travailler avec l’IA, c’est difficile. Ça demande du travail. Ça demande de remettre en question la manière dont on fonctionne aujourd’hui. Et d’accepter que beaucoup de ce qu’on faisait n’avait peut-être pas besoin d’être fait.
C’est aussi aller à contre-courant du discours majoritaire de l’IA qui nous vend des promesses de facilité. Que le prompt magique suffit, et qu’on peut devenir consultant senior du BCG en lançant un deep research sans réfléchir. Mais la réalité est tout autre. Tout travail de qualité est exigeant et difficile. Et l’IA n’échappe pas à la règle.
C’est dans cette trajectoire-là que se joue quelque chose. La possibilité de garder des systèmes ouverts. Que les gens utilisent l’IA pour leur compte, plutôt que pour celui de trois plateformes. D’en faire un outil de libération du travail absurde, plutôt qu’un accélérateur d’industrialisation du sens.
C’est inconfortable. Ça demande du travail collectif. Mais c’est le seul scénario où le prochain normal nous appartient un peu.
Et il y a déjà des terrains où ça se joue dans ce sens-là. Très peu de choses sont vraiment propriétaires en IA.
Les modèles open source les plus récents, comme DeepSeek V4 Pro, Llama 4 ou Kimi K2.6, suivent les plus gros modèles propriétaires de quelques mois en moyenne. Trois mois selon Epoch AI. Pour un coût d’entraînement qui reste une fraction de celui des modèles propriétaires.
Au-delà des modèles, les standards aussi sont ouverts. Le MCP, le protocole qui permet aux IA de se connecter à n’importe quel outil ou source de données, a été lancé par Anthropic en novembre 2024. En quelques mois, OpenAI, Google et Microsoft l’ont adopté. En décembre 2025, Anthropic l’a donné à la Linux Foundation. Aujourd’hui, plus de 10 000 serveurs MCP tournent en clair, partout, gratuitement.
Aucun acteur n’a vraiment le verrou. Les modèles propriétaires sont contrés en quelques mois. Les standards sont ouverts par construction. Les outils, les skills, les manières de faire se partagent.
Pour l’instant.
Il y a tout à inventer aujourd’hui avec l’IA. Alors inventons-le. Construisons l’IA qu’on sera fiers d’utiliser demain.
Le nouveau normal n’est pour l’instant qu’en puissance. Alors qu’est-ce qu’on veut en faire ?