Pas un jour sans que nous arrive au journal un livre qui parle de l’intelligence artificielle. C’est LE sujet éditorial du moment (enfin, ça fait bien deux ans que ça dure, et ce n’est pas parti pour s’arrêter). L’encombrement est légitime, tant les enjeux sont énormes et multisectoriels. On peut être économiste et vouloir écrire sur l’IA et le travail. On peut être philosophe et vouloir écrire sur la nature de ces nouvelles entités qui peuplent nos vies. On peut être écrivain.e et raconter ce que ça fait à la langue. On peut être sociologue et analyser comment les machines reconfigurent nos émotions, etc.
Sauf qu’il y a un problème : à la louche, 90 % de ces ouvrages s’effraient de l’arrivée de l’IA dans nos vies et spéculent désespérément sur ses conséquences. Encore une fois, ce n’est pas complètement illégitime : il y a de quoi flipper. Par ailleurs, il est nécessaire de contrer les discours trop optimistes auxquels s’arriment les investissements et qui conditionnent une bonne part de leur développement (est-on si sûr que des robots dans les Ehpad régleront les problèmes de personnel ? Est-on certain que l’IA permettra de rationaliser la consommation énergétique au point de résoudre la crise climatique ? Est-il souhaitable que les cibles de missiles soient identifiées automatiquement ? Veut-on vraiment vivre plus longtemps, si tant que ce soit vraiment possible ? etc.)
Néanmoins, l’unanimisme finit par être contre-productif. D’abord parce que c’est tout simplement lassant de lire partout les mêmes arguments, les mêmes formules, les mêmes références (surtout quand elles datent d’une ère pré-IA… S’il vous plaît, arrêtez de citer les mêmes passages d’Ellul et d’Illitch !). Au bout d’un moment, cela devient des lieux communs, or on sait que le propre du lieu commun est qu’on oublie qu’il a été vrai un moment, voire épiphanique, pour n’en plus voir que sa triste banalité.
Ensuite, l’unanimisme est contre-productif parce qu’il est tellement excessif qu’il ne correspond pas à nos usages réels de l’IA, qui, la plupart du temps, sont encore assez inoffensifs. Ainsi est-ce difficile de se sentir concerné (nous apparaît alors l’analogie avec les campagnes de lutte contre la drogue qui n’insistent que sur le danger de la consommation des stupéfiants, sans expliquer que la drogue procure d’abord du plaisir, et que c’est bien ça le problème…). Enfin, peu parmi les auteurs et autrices de ces textes cherchent à comprendre vraiment comment fonctionnent les différents systèmes technologiques réunis sous le nom trompeur d’intelligence artificielle. Ils s’en tiennent souvent à la connaissance vague des grands principes et reprennent les critiques – fondées et documentées – comme si c’était des découvertes. Par exemple, les IA ont des « biais » ! OK. Dingue… Mais c’est quoi un biais exactement ? Parlons un peu des jeux de données qui servent à entraîner les IA. Scrutons-les. Parlons un peu des théories qui sont mises en statistiques. Parlons un peu de l’annotation, de l’alignement etc.
Qu’on s’entende bien, prendre ces précautions n’aboutirait pas à une critique plus tendre de l’IA. Au contraire même. Bien souvent, plonger dans le cœur de son fonctionnement met en avant ses limites et, en creux, les raisons profondes de ses prétentions. Mais à tous ces auteurs et autrices qui y vont de leur déploration anti-IA, on a juste envie de dire : si vous voulez être efficaces, bossez.
Aucun commentaire:
Enregistrer un commentaire