L’IA, un ordinateur des années 90 ? L’illusion d’un futur tout tracé

L’IA, un ordinateur des années 90 ? L’illusion d’un futur tout tracé

« L’intelligence artificielle n’est ni intelligente ni artificielle. » Cette phrase, tirée de L’Antiatlas de l’IA, résume à elle seule l’un des plus grands malentendus autour de l’IA. Pourtant, nombreux sont ceux qui s’acharnent à voir dans cette technologie une suite logique aux avancées informatiques du XXe siècle, comme si l’IA suivait la même trajectoire que l’ordinateur personnel des années 90. Une telle analogie, séduisante en surface, est pourtant trompeuse. L’IA n’est ni un outil universel en voie de démocratisation ni une simple évolution des technologies existantes. Elle est autre chose : un objet mal compris, souvent fantasmé, dont l’impact dépasse largement le cadre technique.

L’ordinateur des années 90 : un succès prévisible

Replongeons-nous dans les années 90. Les ordinateurs personnels existaient déjà depuis plus d’une décennie, avec l’Apple II, le Commodore 64 et les premiers PC IBM. Ce qui change à cette époque, c’est la généralisation des interfaces graphiques (Windows 95 en tête), la démocratisation d’Internet et la chute des coûts matériels. L’ordinateur n’est plus réservé aux entreprises ou aux passionnés de programmation ; il devient un bien de consommation.

Derrière cette adoption massive, il y a un phénomène prévisible : l’ordinateur était un outil dont les usages étaient clairs. On savait qu’il servirait à écrire, calculer, jouer, stocker des données ou naviger sur le Web. Il ne faisait qu’exécuter des instructions, avec une logique déterministe et un niveau de transparence relativement élevé.

L’ordinateur des années 90 était un instrument puissant mais maîtrisable, une technologie dont l’évolution suivait une ligne claire : miniaturisation, augmentation des performances, réduction des coûts, et extension des usages.

L’IA : une révolution aux contours flous

L’IA, en revanche, ne suit aucune trajectoire aussi évidente. Contrairement à l’ordinateur, ce n’est pas un simple outil aux usages bien définis, mais un ensemble de techniques algorithmiques produisant des résultats souvent opaques. De plus, l’IA actuelle repose sur une ressource clé qui ne suit pas la logique du hardware : les données.

Prenons un exemple frappant : ChatGPT et les IA génératives. En apparence, elles produisent des réponses cohérentes, parfois brillantes. Pourtant, ces modèles ne « comprennent » rien au sens humain du terme. Ils prédisent des mots statistiquement probables sans conscience ni intention. C’est là que réside la supercherie : ce que nous percevons comme de l’intelligence n’est qu’une illusion cognitive, un effet d’imitation sophistiqué.

Dans L’Antiatlas de l’IA, les auteurs soulignent que l’IA est ni artificielle, ni intelligente. Elle n’est pas artificielle, car elle repose sur des infrastructures bien réelles, consommatrices d’énergie et dépendantes de ressources rares (puces, serveurs, data centers). Et elle n’est pas intelligente, car elle n’a aucune capacité de raisonnement autonome, de créativité intrinsèque ou de compréhension du monde.

Les promesses et les limites : une illusion entretenue

Si l’IA n’est pas une simple extension de l’informatique classique, pourquoi insiste-t-on autant sur son avenir radieux ? La réponse tient en trois illusions entretenues par les acteurs du secteur.

1. L’illusion du progrès linéaire

On aime penser que l’IA évoluera comme l’ordinateur : après une phase d’expérimentation, elle deviendra incontournable, accessible à tous et révolutionnera chaque domaine. Pourtant, cette vision oublie un facteur clé : les limites structurelles des modèles actuels.

Prenons l’exemple des assistants vocaux. En 2011, Apple lançait Siri, suivi par Alexa et Google Assistant. Beaucoup imaginaient que d’ici dix ans, nous parlerions naturellement à nos machines. Résultat ? Les assistants vocaux stagnent, peinant à dépasser la simple exécution d’ordres. Pourquoi ? Parce qu’ils ne « comprennent » pas vraiment les demandes, et que leurs capacités reposent sur une gestion massive de données, souvent inutilisables hors contexte.

De la même façon, l’IA générative est impressionnante, mais elle ne raisonne pas. Un modèle comme ChatGPT peut générer un texte convaincant sur un sujet donné, mais il ne sait pas si ce qu’il dit est vrai. Ce problème n’existe pas avec un ordinateur classique, qui exécute des instructions précises sans produire d’informations erronées par extrapolation.

2. L’illusion de l’automatisation totale

Autre grand mythe : l’IA va « remplacer » les humains dans de nombreux métiers, comme l’ordinateur a remplacé la machine à écrire. Pourtant, la réalité est plus nuancée.

Prenons l’exemple de la traduction automatique. Google Translate existe depuis plus de quinze ans, et DeepL a repoussé les limites de la qualité des traductions. Pourtant, les traducteurs humains sont toujours indispensables pour les contenus techniques, littéraires ou marketing. Pourquoi ? Parce que l’IA traduit des mots, mais pas le sens profond ni les subtilités culturelles d’un texte.

Dans de nombreux domaines, l’IA est un complément, non un substitut. Elle peut aider les avocats à trier des dossiers, mais pas à plaider en justice. Elle peut aider les journalistes à résumer des articles, mais pas à enquêter. Contrairement à l’ordinateur, qui a effectivement remplacé certaines tâches (ex. : la comptabilité sur papier), l’IA n’a pas la même autonomie et ne peut pas toujours se substituer à l’humain.

3. L’illusion de la démocratisation

Enfin, on nous vend une IA « accessible à tous », comme l’ordinateur l’est devenu. Mais en réalité, l’IA est contrôlée par une poignée d’acteurs ultra-puissants.

Les modèles d’IA actuels coûtent des centaines de millions de dollars à entraîner, nécessitent des infrastructures colossales, et sont détenus par une poignée d’entreprises (OpenAI, Google, Meta, Microsoft). Contrairement aux ordinateurs, que n’importe qui pouvait acheter et programmer dans les années 90, les IA d’aujourd’hui sont des boîtes noires centralisées.

Pire encore, elles sont dépendantes des données qu’on leur fournit, souvent biaisées ou incomplètes. Un modèle d’IA formé sur des données anglophones produira de mauvais résultats en arabe ou en mandarin. Un modèle entraîné sur des contenus issus d’une culture donnée aura du mal à comprendre les références d’une autre.

L’IA n’est pas le nouvel ordinateur, et c’est tant mieux

Assimiler l’IA à l’ordinateur des années 90, c’est nier sa complexité, ses limites et ses implications sociales. Loin d’être un simple outil en passe d’être maîtrisé, elle est une technologie radicalement différente, qui pose des problèmes éthiques, écologiques et économiques uniques.

L’histoire de l’informatique nous a habitués à des progrès linéaires, où chaque avancée prépare la suivante. L’IA, elle, suit une trajectoire chaotique, pleine de promesses et de désillusions. Loin d’être un futur certain, elle est une question ouverte, dont la réponse dépendra autant de la technique que des choix de société que nous ferons.

Alors, plutôt que de rêver d’une IA aussi simple que l’ordinateur personnel, peut-être devrions-nous d’abord nous poser la question essentielle : que voulons-nous vraiment en faire ?

Référence : Crawford, K. (2022). Contre-atlas de l’intelligence artificielle. Traduit de l’anglais par Laurent Bury. Éditions Zulma.

Laisser un commentaire

Votre adresse email ne sera pas publiée.