En 1970, Marvin Minsky annonce que " d'ici trois à huit ans, nous aurons une machine avec l'intelligence générale d'un être humain moyen ". Minsky était loin d'être un abruti. Il était alors l'expert mondial en intelligence artificielle. Cependant, sa prédiction était très -erronée. Depuis, il est devenu courant pour les critiques de moquer les -prédictions des experts, et pour les experts de ne pas se risquer à effectuer des prédictions.
Toutefois, depuis, les intelligences artificielles ont envahi nos vies. A l'échelle individuelle, elles gèrent nos spams, nous suggèrent des films, -répondent à nos questions sur le Web, organisent notre consommation de l'actualité et complètent nos messages WhatsApp. A l'échelle de la société, -elles aident les recruteurs à filtrer les CV des candidats, ajustent les productions et consommations énergétiques, ciblent les campagnes marketing des entreprises et des politiciens, calculent les prix des assurances et détectent les fraudes des utilisateurs.
Cette révolution semble nous avoir pris de court. Ce n'est souvent qu'après le déploiement de ces technologies qu'on s'est rendu compte qu'elles -posaient des problèmes de confidentialité des données privées, de biais discriminatoires et de bulles d'information. Il semble y avoir urgence à mieux anticiper ces conséquences préoccupantes des intelligences artificielles d'aujourd'hui, afin de mettre en place des régulations ou des garde-fous.
Cependant, il serait malencontreux de ne penser qu'aux intelligences -artificielles d'aujourd'hui, sachant la vitesse du progrès actuel de la recherche dans le domaine. L'année 2018 a ainsi vu l'émergence de technologies que les experts de 2017 auraient eu bien du mal à prédire, des prouesses en synthèse d'images de Nvidia à -celles de l'assistant téléphonique Google Duplex. Toute régulation se doit d'anticiper l'émergence des technologies des années à venir.
Dans ce contexte, il semble imprudent de ne pas essayer d'anticiper le progrès des intelligences artificielles pour empêcher leurs déviances potentielles, plutôt que de les corriger tant bien que mal après-coup. Il est temps pour les experts de se risquer à prédire les futurs probables des intelligences artificielles. Et pour les critiques, de cesser de les moquer.
La principale remarque à faire, c'est qu'il s'agit là d'une tâche incroyablement difficile. On l'a vu, même Marvin Minsky s'était complètement planté. Il a très largement surestimé le progrès. Cependant, il ne faudrait pas conclure de cet exemple que tous les experts -surestiment tout le temps le progrès.
En 2015, un sondage a demandé aux experts de prédire le temps qu'il faudrait encore aux intelligences artificielles pour atteindre un niveau -humain au jeu de go. L'expert médian a répondu douze ans. Mais quelques mois plus tard, l'intelligence artificielle AlphaGo réussit à battre Lee Sedol, l'une des pointures mondiales. Les experts s'étaient tous lamentablement trompés et avaient largement sous-estimé le progrès.
Bien entendu, cette critique des intuitions des experts ne doit pas être interprétée comme une défense des intuitions des non-experts, dont la compréhension des enjeux techniques est souvent limitée. Ce que cette analyse suggère vraiment, c'est qu'il nous faut tous prendre la mesure de l'étendue de notre ignorance sur le futur de l'intelligence artificielle. Ce futur est très incertain, et de nombreux scénarios très -différents demeurent plausibles.
De façon intrigante, dès 1950, Alan Turing proposa un argument plus quantitatif. Le cerveau possède environ 1 015 synapses. Les plus -grosses intelligences artificielles d'aujourd'hui, elles, sont d'une complexité d'environ 1 011 bits. Au rythme de la loi de Moore, les intelligences -artificielles pourraient alors atteindre la complexité du cerveau humain d'ici vingt ans. Cependant, comme l'explique Turing lui-même, toute la complexité du cerveau n'est sans doute pas indispensable à l'intelligence de niveau humain. Il demeure alors difficile d'exclure la possibilité d'une intelligence artificielle de niveau humain dans un avenir plus proche.
Cette incertitude peut sembler bien insatisfaisante. Elle a toutefois des conséquences majeures. En effet, elle nous pousse à ne pas entièrement -exclure la possibilité d'une intelligence artificielle en tout point supérieure à l'humain, disons d'ici à 2025. D'ailleurs, l'expert médian sondé en 2015 assigne une probabilité de 10 % à ce cas. Même s'il se trompe certainement, sachant le manque de fiabilité de notre intuition, il semble imprudent de conclure que cette probabilité est clairement inférieure à 1 %.
Voilà qui devrait paraître inquiétant. En termes de sécurité, comme le prétend Nick Bostrom dans son livre
-Superintelligence (Dunod, 2017), une intelligence artificielle de niveau -humain pose des risques majeurs, sans doute plus effrayants encore que ceux que posent les intelligences artificielles d'aujourd'hui.
Cela devrait nous inciter à cesser de moquer les discussions concernant le futur de l'intelligence artificielle.
Aucun commentaire:
Enregistrer un commentaire