Il est difficile de voir dans l’intelligence artificielle un progrès social

La technologie des neurones artificiels et de l’apprentissage automatique a commencé voici plus de soixante ans et rien de bien nouveau ne se profile en la matière. En revanche, on peut s’inquiéter de la « mainmise des Gafam sur ce champ disciplinaire », observe le chercheur en informatique Nouveaux marchés et gain de temps ou dérive consumériste et contrôle social renforcé… l’intelligence artificielle suscite autant de convoitises économiques que d’angoisses dystopiques

La « révolution des neurones artificiels et de l’apprentissage profond », vantée sur la couverture du dernier livre de Yann Le Cun (Quand la machine apprend, Odile Jacob, 394 p. 22,90 euros), est, rappelons-le, une technologie qui fête son soixante-troisième anniversaire : la première conférence sur l’intelligence artificielle, à l’université de Dartmouth, aux Etats-Unis, date de 1956. Il n’est nullement question ici de diminuer les mérites de son auteur [lauréat du prix Turing 2019], incontestablement un des meilleurs spécialistes, parmi beaucoup d’autres, dans l’univers des réseaux de neurones, mais juste de relativiser par quelques rappels l’aspect révolutionnaire de ses travaux.

Les premières publications sur les réseaux de neurones datent des années 1940. Lors de la fameuse conférence de Dartmouth, qui a donné naissance au nouveau champ disciplinaire appelé depuis « intelligence artificielle » (IA), on parla déjà abondamment d’apprentissage « machine » (automatique) et de réseaux de neurones. Lors de cette même conférence, Arthur Samuel [1901-1990, considéré comme l’un des pionniers de l’intelligence artificielle] proposa une méthodologie d’apprentissage dite par renforcement, qui permettait à un logiciel d’apprendre tout seul à jouer aux dames de façon optimale. AlphaGo (le meilleur logiciel actuel pour le jeu de go), une autre découverte prétendument révolutionnaire, reprend pour l’essentiel ces idées soixante ans plus tard. Le vénérable chercheur en IA que je suis a vécu de nombreux hivers et étés de cette discipline (au prix d’une certaine lassitude) et déjà, à l’orée des années 1980, on parlait de la revanche de ces grisonnants réseaux de neurones sur l’autre versant de l’IA, dit symbolique, plus ancré dans le raisonnement explicite, les inférences et la logique.

Par ailleurs, peut-on parler de révolution lorsque cette tradition de l’IA, entièrement dépendante de l’apprentissage machine, de la puissance de calcul de nos ordinateurs et de bases de données massives, permet de réaliser des traducteurs en se passant des linguistes (ce dont s’est très largement vanté Google), d’améliorer les systèmes de perception visuelle en faisant fi des spécialistes de ce secteur, de conduire des voitures autonomes par imitation des humains, dont la conduite est captée dans ces immenses bases de données, ou encore de condamner ou libérer un malfaiteur sur la base d’une prétendue jurisprudence enfouie dans des millions de connexions neuronales ?

Dans une interview au site The Atlantic, en 2012, Noam Chomsky, le grand-père de la linguistique computationnelle, qui, comme de nombreux véritables pionniers de l’IA, s’est ému de la régression conceptuelle de son domaine de prédilection, faisait ce parallèle : supposez une nouvelle branche de la physique dont le déroulement consisterait à installer des milliards et des milliards de caméras dans tous les recoins de la planète et de notre atmosphère. A l’aide de ces myriades d’enregistrements, il serait possible de nourrir de vastes réseaux de neurones profonds, capables de prédire l’évolution du monde, en extrayant les régularités statistiques dans les vidéos passées. Or, tous les physiciens le savent bien, prédire n’est pas comprendre ! Octroierait-on le prix Nobel au concepteur de cette nouvelle physique, et ce, malgré ses incroyables performances ? Une chose est de prédire qu’il fera beau demain, mais il est nettement plus important de savoir pourquoi !

Une chanson « façon » Beatles

On le sait, le Coréen Lee Sedol, l’un des meilleurs joueurs de go au monde, s’est incliné face à AlphaGo, surpris des coups portés par le logiciel sortant totalement des habitudes des joueurs humains. Il le dirait, nous vivons aujourd’hui une régression de la pratique de ce jeu, en attendant que les meilleurs joueurs puissent, dans l’avenir, comprendre et se réapproprier ces nouvelles façons de le pratiquer. Nous en sommes là en IA, comme un Lee Sedol décontenancé, et comme le démontrent à l’envi tous ces jeunes chercheurs qui s’empressent de faire tourner les logiciels opaques de réseaux de neurones profonds (du moins ceux que les Gafam – Google, Amazon, Facebook, Apple, Microsoft – ont rendus disponibles), pour des traitements du langage, des images, de la musique, des vidéos, sans se préoccuper outre mesure des connaissances scientifiques dont tous ces domaines ont fait et continuent de faire l’objet pour et par ceux qui cherchent à mettre des théories sur les faits.

Qu’est-ce que la chanson à la façon des Beatles, Daddy’s Car, vue des millions de fois sur YouTube, ou le Portrait d’Edmond de Belamy, vendu aux enchères, en octobre 2018, 432 500 dollars – tous deux issus d’un réseau de neurones obèse, copiste survitaminé qui a ingurgité jusqu’à l’indigestion toutes les chansons des Beatles et tous les tableaux des maîtres des XVIIIe, XIXe et XXe siècles – ont-ils de vraiment créatif ?

Finalement, l’autre sujet d’inquiétude est la mainmise des Gafam sur ce champ disciplinaire par la présence en leur sein des meilleurs chercheurs (dont l’auteur de l’ouvrage cité plus haut), des plus puissantes technologies et des bases de données les plus massives. L’histoire nous le dira, mais j’hésite à voir un véritable progrès social dans l’émergence de Google, Amazon, Facebook et autres plates-formes sur Internet : les plus populistes et les plus dangereux gouvernants de notre planète en crise en sont devenus complètement obsédés, la principale exploitation des algorithmes d’apprentissage et de prédiction consiste à maximiser les profits, à emprisonner les internautes dans un formatage cognitif, à privatiser nos biens publics et à provoquer une épidémie de narcissisme chez les jeunes. Décidément, l’IA mérite beaucoup, beaucoup mieux. Minsky, McCarthy (organisateurs de la conférence de Dartmouth), Newell, Simon, Turing, von Neumann, de grâce, retournez-vous dans vos tombes !

Hugues Bersini est codirecteur de l’Institut de recherches interdisciplinaires et de développement en intelligence artificielle (Iridia) à l’Université libre de Bruxelles. Il est l’auteur, notamment, de « Big Brother Is Driving You » (Académie royale de Belgique, 2017)

Le risque d’un « Netflix du droit »

L’ère de l’« open data judiciaire » représente une manne pour les intelligences artificielles et pour les géants du numérique. Mais aussi la menace d’un appauvrissement de la culture juridique française, s’inquiète le juriste

Si la justice est un des fondements de notre contrat social, son accessibilité est un enjeu majeur. Celle-ci questionne à la fois le justiciable, mais aussi ceux qui font et rendent la justice : législateurs, magistrats, avocats et professeurs qui forgent, discutent et interprètent les textes de loi. Mais, à l’heure où l’intelligence artificielle (IA) promet de révolutionner quasi tous les pans de notre économie, le corpus produit par ces professionnels du droit devient une mine d’or, et son importance éclate enfin au grand jour. L’émergence d’un « Netflix du droit », transnational, dopé au machine learning (l’apprentissage automatique) et aux recommandations algorithmiques, pourrait ne pas être forcément une bonne nouvelle pour le justiciable français. Pour défendre notre vision et notre conception du droit face à des acteurs mondialisés, devra-t-on plaider l’exception culturelle juridique ? En tout état de cause, l’Etat et les entrepreneurs français du droit doivent se mobiliser pour créer des alternatives locales.

Galvanisées par la démocratisation de l’IA, beaucoup de start-up juridiques (les legaltechs) rêvent de « disrupter » la justice en offrant un accès plus rapide et plus pertinent au corpus juridique pour les professionnels comme pour les justiciables profanes. Une (r) évolution en théorie permise par la loi Lemaire du 7 octobre 2016, qui dispose que la documentation juridique doit être « mise à disposition du public à titre gratuit ». Une véritable manne pour nourrir les intelligences artificielles et développer ces nouveaux outils. Cette promesse d’une justice « plus accessible, plus rapide, plus efficace et plus transparente » – selon les mots de la garde des sceaux, Nicole Belloubet – pourrait cependant se transformer en dystopie judiciaire, à l’image de la société dépeinte par Pierre Janot dans son roman Lex humanoïde (ThoT, 2017), qui met en scène une justice rendue par les seules machines.

L’entrée dans cette ère de l’open data judiciaire pose de façon cruciale la question de l’anonymisation des données juridiques, dont certaines sont éminemment personnelles. Utilisées par des entités étrangères, privées ou étatiques, les décisions de justice non anonymisées pourraient constituer une faille de sécurité majeure pour notre souveraineté nationale. Si, en France, toutes les parties prenantes mesurent cet enjeu, reste à transformer l’essai sur le plan politique et financier, notamment pour accélérer l’anonymisation des données et leur mise à disposition : actuellement, seules 5 % des décisions de justice sont accessibles au public !

Ensuite, l’irruption de nouveaux acteurs mondiaux issus du numérique dans le secteur du droit pose une autre question : celle de l’influence culturelle qu’ils pourraient exercer, notamment face à la culture juridique française dite de « droit continental ». S’appuyant sur un système complet de règles codifiées appliquées, et surtout interprétées, par des juges, cette tradition est substantiellement différente de la common law des pays anglo-saxons qui, elle, est essentiellement basée sur la jurisprudence. Les règles y étant principalement édictées par les tribunaux au fur et à mesure des décisions individuelles, le droit anglo-saxon contraint les juges à suivre les décisions antérieures des tribunaux.

Marge de manœuvre réduite

Si la common law se prête particulièrement aux promesses de la justice algorithmique, celle-ci pourrait en revanche induire un appauvrissement considérable de la culture juridique française et de la marge de manœuvre octroyée aux professionnels du droit français. En effet, sous ses abords très normés, le droit est et doit rester avant tout une pratique culturelle, indissociable des usages et des sensibilités propres à chaque pays. C’est un défi majeur pour l’intelligence artificielle, censée proposer des modèles prédictifs : il est en effet plus aisé aux algorithmes de disséquer chiffres, images, études et statistiques dans des domaines comme la médecine, qu’une langue et une culture dans un domaine comme le droit.

A l’image de la plate-forme de VOD californienne qui, à mesure qu’elle conquiert le monde, uniformise les cultures en véhiculant majoritairement ses propres codes nord-américains, l’émergence d’un Netflix du droit prédictif s’accompagnera inévitablement d’une normativité juridique. Autant de repères culturels qui influenceront notre culture du droit français et continental au détriment de notre souveraineté juridique. Une menace pas si saugrenue à l’heure où le géant Facebook annonce vouloir créer une « Cour suprême » internationale pour résoudre les litiges de modération sur ses plates-formes.

Il ne s’agit évidemment pas de nier, ni de retarder les formidables potentialités des technologies appliquées au droit dans lesquelles nous sommes déjà engagés. Mais gageons qu’après avoir porté haut les couleurs de la French Tech notre pays saura développer un vivier de champions tricolores véritablement ancrés dans le quotidien des barreaux français et promoteur d’un mariage mesuré et harmonieux entre l’humain et l’algorithme, mêlant le big data des textes, la doctrine des auteurs et la culture locale des professionnels. Que ce soit par la protection des données personnelles de nos concitoyens ou par des algorithmes entraînés sur des corpus de droit continental, c’est à ce prix que nous pourrons non seulement défendre notre souveraineté, mais aussi faire rayonner notre culture juridique à travers le monde. Alors seulement la France et l’Europe pourront échapper à la condition de « colonies numériques » des géants américains ou chinois de l’intelligence artificielle.

Fabrizio Papa Techera est juriste et directeur général délégué de Lexbase, moteur de recherche et éditeur juridique

Choisir l’« IA douce »

Le développement de l’intelligence artificielle exige, des chercheurs et des entreprises, le respect de principes d’éthique et d’utilité sociale

L’intelligence artificielle (IA) n’est qu’un outil, mais un outil très puissant, qu’il faudra apprendre à maîtriser. Les algorithmes excellent dans certaines tâches pour lesquelles les êtres humains ne sont pas performants, comme percevoir des « signaux » dans des milliards de données, mais l’IA est incapable de réaliser des tâches à plus haute valeur ajoutée : les décisions complexes, l’imagination, ou le bon sens, lui échapperont pour longtemps encore ! Mais elle reste un formidable potentiel au service de l’homme pour simplifier les usages et ainsi réduire la « fracture numérique ».

L’IA fascine, mais elle effraie aussi, projette des sur-promesses, parfois des peurs. S’il faut se défier de ces fantasmes (non, les IA qui échappent à leurs créateurs, ça n’existe pas ; les IA qui inventent des langages incompréhensibles pour les êtres humains, ça n’existe pas…), il est de notre responsabilité − en tant qu’entreprise qui porte une philosophie du numérique et de l’humain, ou en tant que chercheur responsable − de nous intéresser aux conséquences de l’algorithme qu’on est en train de mettre au point, et de faire en sorte qu’il corresponde à un besoin humain et non pas à un projet technologique incontrôlé.

Si les avantages de l’IA bien utilisée sont infiniment supérieurs aux risques, ces derniers doivent être écartés et contrôlés. Pour chacun des usages projetés, il est nécessaire de nous assurer de l’éthique des objectifs poursuivis, de bien cibler les données dont on a besoin, et de mettre en place une supervision permettant de recadrer le projet si nécessaire.

Cette centralité de l’humain n’est pas un souci dans certains pays, ni pour certains géants du monde numérique. Deux modèles s’opposent à l’échelle mondiale en la matière. D’une part, certains utilisent l’IA à des fins de contrôle social ou de consumérisme, avec une vision techniciste qui échappe de plus en plus aux citoyens comme aux consommateurs. D’autre part, en Europe, l’ambition d’une IA au service de l’humain, une « IA douce », mise à la main de l’homme, respectant des principes éthiques élaborés collectivement.

Technologies prédictives

En participant à un groupe d’experts de la Commission européenne sur le sujet, je me suis investie dans la construction d’un cadre éthique pour une IA de confiance, qui favoriserait cette « IA douce ». Nous avons défini sept exigences-clés : le contrôle humain, la robustesse, le respect de la vie privée, la transparence, la non-discrimination, le bien-être sociétal et environnemental, et le principe de responsabilité. Ces principes pourraient être résumés ainsi : « Je veux être aidé par l’IA, mais je veux garder mon libre arbitre ! » Des systèmes qui offriraient des réponses ou des assistances « standardisées » ne tiendraient pas compte de notre autonomie humaine.

Une « IA douce » est une IA qui développe l’intelligence collective et la diversité : elle favorise notre capacité à interagir, offre des avis variés, respecte les diversités en multipliant les sources d’informations et de connaissance…

C’est aussi une IA relocalisée et raisonnée. Aujourd’hui, les données sont majoritairement rapatriées dans des data centers, traitées par les algorithmes, et les résultats renvoyés vers les utilisateurs. Dans le futur, il est souhaitable que ce qui peut être fait localement le soit : c’est un moyen d’économiser l’énergie, mais aussi de respecter la vie privée. De même, il faut mettre « juste ce qu’il faut d’IA » par rapport à un besoin donné. Comme la nourriture ou le transport, elle doit être utilisée avec parcimonie.

Cette « IA douce » ouvre des perspectives nouvelles à l’homme, par exemple au service de la mobilité douce ou de l’économie frugale et circulaire.

Un des grands défis à relever est d’améliorer la sécurité des réseaux et de réduire leur empreinte énergétique. Dans ce domaine, nous imaginons des technologies prédictives pour anticiper des problèmes (comme une dégradation temporaire de la qualité du réseau) et les corriger avant même qu’ils ne se produisent. Un autre exemple est la reconnaissance faciale, qui fait l’objet de débats en France comme ailleurs. Car la même technologie peut permettre à des médecins d’évaluer la douleur ressentie par des patients incapables de communiquer : c’est ce que les chercheurs d’Orange sont en train de tester avec le CHU de Nice.

Le vrai combat de l’IA, c’est l’utilité. Mais pour atteindre cette exigence d’utilité, il faut aller plus loin que les nécessaires politiques européennes et la définition d’un cadre éthique : il faut aussi une ambition plus large, que l’on peut qualifier d’« intelligence ambiante », qui associe les objets et les capteurs qui nous entourent avec un système d’IA locale et de confiance, et une connectivité fiable et efficiente permettant de superviser et sécuriser ces IA locales, de les relier entre elles… et avec nous ! Une coopération centrée sur l’humain des écosystèmes de l’IA, de l’Internet des objets et des réseaux qui fera émerger cette « intelligence ambiante » agissant au plus proche de nos besoins collectifs et individuels.

La démarche d’Orange va dans le sens d’un développement de cette intelligence ambiante, en menant des réflexions et des recherches autour d’une utilisation raisonnée des données ; en respectant la sécurité des données et la vie privée des utilisateurs ; en participant à la construction d’un cadre éthique et législatif clair, partagé et évolutif ; en expérimentant sans cesse et en associant les utilisateurs finaux dès le début du projet. L’IA du futur ne peut que se concevoir ainsi.

Mari-Noëlle Jégo-Laveissière est directrice technologie et innovation chez Orange

La chronique

N’attendons plus notre salut de Francfort

Aurons-nous les moyens de répondre à la prochaine récession ? Si le ralentissement actuel européen se transforme en retournement, d’où pourra venir la réponse ? La menace n’est pas immédiate, mais le risque est désormais assez concret pour que la question se pose.

Entre 2015 et 2017, la croissance de la zone euro a été un peu supérieure à 2 % l’an. En 2019, elle sera sans doute moitié plus basse, et la Commission n’envisage plus de rebond en 2020-2021. Dans le langage codé des prévisionnistes, c’est la marque d’une vraie inquiétude, une manière de dire qu’en dépit des initiatives de la Banque centrale européenne (BCE) et de politiques budgétaires qui ne sont plus guère austères, il n’en faudrait pas beaucoup pour que l’économie européenne bascule dans la récession.

Ce tassement peut largement être attribué à l’épuisement d’un modèle trop centré sur l’exportation. De 2007 à 2017, le solde extérieur de la zone euro est passé de l’équilibre à un excédent de quatre points de produit intérieur brut (PIB). Mais le commerce international est aujourd’hui à l’arrêt. Protectionnisme américain, ralentissement chinois et crise automobile sonnent le glas du tout à l’exportation. Ce n’est pas de Francfort que viendra le salut. Pour stimuler une économie qui pique du nez, une banque centrale abaisse en moyenne son taux d’intérêt de cinq points sur la durée du cycle économique. Or le taux de la BCE est déjà nettement négatif. Quant à ses achats de titres, ils n’ont plus beaucoup d’effet sur les taux des emprunts publics. Nous touchons au bout des stratégies de soutien monétaire.

Peut-on alors compter sur le relais de la politique budgétaire ? Les Etats-Unis, dont la dette publique dépasse de vingt points celle de la zone euro, ne se privent pas de l’envisager, mais avec les règles européennes en vigueur, ni la France, ni l’Italie, ni l’Espagne, ni la Belgique ne disposent de marges d’action. Or ces pays comptent pour 52 % du PIB de la zone. L’Allemagne (qui pèse 28 %) pourrait agir, mais son propre frein constitutionnel à la dette ne lui laisse que très peu d’espace. Les Etats européens sont collectivement dans une situation de quasi-paralysie budgétaire.

Bien entendu, on peut ruser avec les règles, les Etats ne s’en privent pas. Mais cela ne suffira pas à doter la zone euro d’une capacité de réponse à la mesure des risques. Bien entendu aussi, des clauses de sauvegarde permettent de suspendre l’application des règles en cas de choc d’ampleur. Mais ces dispositions ne joueront qu’après l’enclenchement d’une récession prononcée, et pour une durée limitée. Il y a toutes chances que ce soit trop peu, trop tard.

Distribution de monnaie « par hélicoptère »

Alors que faire ? Emmanuel Macron propose d’en finir avec les débats « d’un autre siècle » autour des 3 %. Il n’a pas tort de penser, avec l’économiste Olivier Blanchard, que des normes conçues dans un environnement de taux d’intérêt élevés ne devraient pas s’appliquer quand ceux-ci sont négatifs. Mais il faudrait déjà commencer par faire subir ce sort au dogme de l’équilibre, qui a encore cours à Berlin. Et si les économistes sont presque tous d’accord pour réformer le Pacte de stabilité, les politiques trouvent avantage au maintien d’un système opaque, propice à des négociations au cas par cas sur les flexibilités à accorder à tel ou tel.

Une idée s’est fait jour : celle de confier la mise en œuvre d’une relance budgétaire à la BCE. Celle-ci pourrait adresser un chèque de 500 euros à chaque citoyen (ou les faire bénéficier d’un crédit perpétuel sans intérêt de 500 euros, ce qui revient au même). Elle pallierait ainsi l’absence de budget de la zone euro. Cette distribution de monnaie « par hélicoptère », pour reprendre l’expression de Milton Friedman, serait sans doute efficace. Le problème est qu’elle ne pourrait être mise en œuvre sans l’aval des gouvernements, et que celui-ci serait loin d’être acquis. En outre, des transferts de la banque centrale aux ménages seraient sans doute regardés comme anticonstitutionnels, parce que de telles politiques doivent rester sous le contrôle du parlement. Cela ne veut pas dire qu’une telle initiative soit exclue, mais que ses conditions politiques et juridiques ne sont pas aujourd’hui réunies.

Reste la piste d’une relance verte. Si elle n’est pas sans embûches, c’est sans doute la plus prometteuse. Les besoins d’investissement additionnels induits par la décarbonation sont de l’ordre de 2 % du PIB de la zone euro par an. Cela représente un effort d’ampleur. Or les règles européennes comportent déjà une clause d’exception – très restrictive – en faveur de l’investissement. Il faudrait l’élargir en faveur du soutien à la transition écologique, en privilégiant les actions concourant aux objectifs définis en commun. En contrepartie, les Etats devraient s’engager à ne pas consacrer les économies qu’offriront les taux bas sur les 200 milliards de charges d’intérêt dont ils s’acquittent chaque année au simple financement des dépenses courantes.

Cela ne suffira sans doute pas. En effet, la transition écologique ne fait pas que susciter de nouveaux investissements, elle en freine d’autres. Qui, aujourd’hui, va s’engager dans un projet industriel ou immobilier dont la rentabilité suppose un prix du carbone à 100 ou 200 euros par tonne ? Et depuis l’écotaxe et les « gilets jaunes », les politiques écologiques ne sont plus crédibles. Le grand frein au redéploiement vers l’économie « verte », c’est l’incertitude sur les actions publiques futures. S’ils veulent lever cette incertitude et contrer ses effets délétères sur l’investissement et l’emploi, il va falloir que les Etats assurent les investisseurs contre leur propre inconstance. Ce n’est pas usuel, ce ne sera pas facile, mais cela risque de se révéler très nécessaire…

Jean Pisani-Ferry est professeur d’économie à Sciences Po, à la Hertie School de Berlin et à l’Institut universitaire européen de Florence

Remettre à leur juste place les thèses apocalyptiques

La « controverse de Valladolid », en 1550, a opposé théologiens et juristes sur la légitimité morale de la conquête du Nouveau Monde. La capacité de l’IA à bouleverser la société doit faire l’objet de la même attention, plaide l’expert informatique

La Chine a accueilli du 29 au 31 août la seconde Conférence mondiale sur l’intelligence artificielle. Son point d’orgue a été le débat entre Jack Ma, fondateur d’Alibaba, et Elon Musk, patron de Tesla, pendant lequel les deux entrepreneurs ont confronté leur vision de l’IA. Si le premier s’est montré enthousiaste, le second n’a pas hésité à qualifier cette technologie de « menace ».

Par sa nature et son objet, cet événement semblait offrir une version technologique et aseptisée de la controverse de Valladolid – la confrontation historique entre théologiens, juristes et administrateurs du royaume d’Espagne sur les modalités de la conquête du Nouveau Monde – avec Jack Ma et Elon Musk en avatars modernes de Bartolomé de Las Casas et Juan de Sepulveda, les deux protagonistes de l’époque. Certes, le développement de l’IA ne possède pas la même charge dramatique, mais sa capacité à bouleverser les équilibres internationaux, reconfigurer le droit social, réévaluer le périmètre du salariat, catalyser l’innovation médicale – bref à transmuer le monde – l’impose comme un fait politique, social et économique total.

Malheureusement les débats dont elle fait l’objet tendent à emprunter au fantasme et à la science-fiction. Lors de sa confrontation avec Jack Ma, Elon Musk n’a pas hésité à évoquer un futur comparable au film Terminator, où les machines considéreront les humains comme « lents et stupides ». L’entrepreneur n’est pas le seul à recourir à cette rhétorique irrationnelle, qui se retrouve notamment dans les prises de parole de Ray Kurzweil, directeur de l’ingénierie de Google. Il y a deux ans, il fixait à 2029 le moment où l’intelligence artificielle dépassera l’intelligence humaine. La fameuse singularité.

Entre technologie et science-fiction

Quand on prend en compte l’histoire de l’IA, cette dialectique techno-fantastique n’a rien de surprenant. Dès les années 1950, parallèlement au développement de l’IA, le mathématicien John Von Neumann théorisait le concept de singularité. Une décennie plus tard, le statisticien Irving John Good surenchérissait en envisageant l’émergence d’une machine ultra-intelligente laissant loin derrière elle l’intelligence humaine. Finalement, c’est l’écrivain et professeur d’informatique Vernor Vinge qui opérera la jonction entre technologie et science-fiction grâce à ses trois romans – True Names (1981), La Captive du temps perdu (1986) et Un feu sur l’abîme (1992) – mettant en scène des individus face au spectre de la singularité. C’est dans cette filiation qu’Elon Musk, Ray Kurzweil, Laurent Alexandre et Huang Fengquan s’inscrivent. Ces vedettes de la tech parviennent à saturer l’espace médiatique, rendant peu audibles des experts comme Yann Le Cun et Luc Julia, pourtant au cœur des avancées qui bouleversent notre vie quotidienne.

Pour autant, faut-il les contraindre au silence ? Certainement pas. Le débat est consubstantiel à l’histoire de la science. C’est grâce à elle que Copernic a conduit les intellectuels de son temps à troquer le géocentrisme pour l’héliocentrisme, que Galilée, Pasteur ou Newton ont fait évoluer leur discipline. Aujourd’hui, à une époque où la discussion scientifique dépasse le périmètre des sachants pour intégrer le grand public, la confrontation de faits, d’idées et d’expériences doit prévaloir.

Les citoyens sont soumis à un large éventail d’articles et d’émissions concernant l’impact de l’IA sur leur quotidien. On y est optimiste – notamment dans le cas de la santé – ou inquiet – dans le domaine de l’emploi par exemple. Des préoccupations auxquelles, nous, spécialistes de l’IA, devons répondre. Pas seulement lors de colloques réservés à un cénacle, mais à l’occasion d’événements publics impliquant les citoyens. Comme l’expliquait le philosophe John Dewey (1859-1952), « le changement arrive par l’intelligence collective des publics ». C’est précisément dans cette perspective inclusive et horizontale que nous devons nous inscrire si nous souhaitons que les citoyens s’emparent de l’IA en renvoyant à leur juste place les thèses apocalyptiques émises par certains professionnels du buzz.

Christophe Bourguignat est PDG

et fondateur de Zelros, société de conseil en intelligence artificielle appliquée au secteur de l’assurance

Le Monde
Le Monde Epoque
Paramètres
Aide
1
38