Académique

Conseil

Libris

Manifeste pour une Intelligence Artificielle Comprise Et Responsable

Interview Bertrand Coty

Jean-Paul Aimetti, Olivier Coppet, Gilbert Saporta, vous publiez aux éditions CENT MILLE MILLIARDS, Manifeste pour une Intelligence Artificielle Comprise Et Responsable. L’IA et l’IA générative ne sont-elles pas accélératrices de dérives sociales et environnementales ?

À tous les stades de l’élaboration et de l’utilisation de l’IA, les risques de dérives irresponsables se multiplient, dans le sillage des développements permanents des technologies utilisées.
En premier, l’élaboration des logiciels d’IA générative s’accompagne de plusieurs entorses à la RSE, depuis l’emploi de milliers de collaborateurs du tiers monde, mal rémunérés, pour nettoyer des données jugées toxiques ou politiquement incorrects, jusqu’à la consommation colossale d’énergie régulièrement nécessaire dans les phases d’apprentissage et d’utilisation des logiciels.

Dans le maquis envahissant des utilisations désormais quotidiennes de l’IA, les risques sont innombrables, dont les suivants :

  • des décisions automatiquement prises sans intervention humaine conduisant au refus d’un prêt ou d’une assurance, au mépris du principe de mutualité en faveur des plus démunis,
  • des collaborateurs évoquant la complexité de certains logiciels (parfois volontairement non transparents) pour se dédouaner d’erreurs ou de décisions injustes : « Hier c’était la faute à l’informatique, aujourd’hui c’est la faute à l’IA »,
  • une amplification du harcèlement, des infox et des rumeurs complotistes, aux conséquences souvent dramatiques,
  • un accroissement de la fracture numérique entre ceux qui maitrisent et ceux qui subissent l’IA ainsi qu’entre les pays développés et le reste de la planète.

Face à ces dangers grandissants, les chartes et les réglementations nationales ou internationales, auront toujours leurs limites. Les contrefeux les plus efficaces consistent en une prise de conscience et une formation urgentes sur le bon usage et les limites de l’IA, dès le plus jeune âge, associées à des démarches collectives pouvant aller jusqu’au boycott d’acteurs numériques nocifs.

La crainte diffuse liée à l’IA ne vient-elle pas du fait que les algorithmes régulent et gouvernent progressivement les comportements des individus en remplaçant le jugement humain par des processus de décision automatisés ?


Pas un jour ne se passe sans qu’une avalanche d’informations ne nous annonce les dernières avancées de l’IA. Nouveautés plus ou moins fiables ou crédibles, certaines habillant d’un costume marketé à neuf un ancien produit ou service, d’autres, magiques, comme les interfaces connectant le cerveau directement à des organes déficients : les mal voyants voient, les mal entendants entendent, les paralysés marchent et les cancres dissertent comme Platon.Les miracles deviennent réalité et « l’IA est la meilleure des choses » dans tous les domaines où l’on dispose de grands ensembles de données numérisées :

  • la santé : une offre de soins meilleure et moins onéreuse,
  • la gestion de l’entreprise : l’optimisation et l’efficacité des relations humaines et commerciales,
  • la logistique de transports d’hommes et de marchandises,
  • la gestion des villes et des réseaux d’eau ou d’électricité,
  • la production agricole devenant plus rationnelle, équitable et bio,
  • l’industrie par l’introduction de robots de production,
  • l’enseignement mieux adapté à chaque élève.

Oui, mais pour nos contemporains, l’IA peut être « la pire des choses » quand elle accélère :

  • la mise sous surveillance de la population et le risque de dictature,
  • le piratage des systèmes informatiques gérant nos hôpitaux,
  • la position dominante de grands acteurs du numérique imposant des comportements d’achat à notre insu.

Dès aujourd’hui la liste des bienfaits et des dérives de l’IA pourrait s’allonger largement.

Quant au futur lointain, nos gourous et nos chers consultants décrivent un monde soit apocalyptique soit paradisiaque selon leur humeur, leurs croyances ou le niveau du Nasdaq.

Alors « Que faire ? », demandait Candide au derviche.

Les craintes des consommateurs et des citoyens dépendent essentiellement, d’une part, de leur degré de connaissance des méthodes d’IA et, d’autre part, de leur confiance envers les éditeurs et utilisateurs de logiciels.
Il est donc urgent que chacun se forme à l’IA et exige une plus grande transparence sur les algorithmes qui envahissent notre quotidien afin d’agir en individu conscient et responsable.
Ne soyons pas les esclaves des machines ou plutôt de ceux qui les fabriquent, les possèdent ou les utilisent.

Selon un des aphorismes de notre Manifeste : « Une humanité robotisée est plus à craindre que la multiplication de robots humanisés. »

Si l’on prend l’intelligence collective, n’est-elle pas déjà aux mains des algorithmes qui médiatisent les relations sociales, notamment par le biais des médias sociaux et des plateformes numériques ?

Peut-on parler d’intelligence collective alors que les algorithmes de gestion des réseaux sociaux et des plates-formes commerciales ne font que renforcer le comportement moutonnier de leurs utilisateurs ? Considérons, pour commencer, les systèmes de recommandation de livres, films et autres produits. Leur principe est de vous recommander ce qu’ont aimé des personnes qui vous ressemblent, c’est-à-dire aux comportements d’achat semblables au votre. Où est la surprise, le déclic que l’on peut avoir en feuilletant des livres dans une vraie librairie ? L’attrait de la nouveauté disparait au profit de l’uniformité qui, on le sait, engendre l’ennui.

De plus en plus de personnes croient s’informer en lisant ce qui se dit sur les réseaux sociaux et non auprès des médias classiques, souvent soupçonnés de partialité et d’élitisme. Là encore, les algorithmes les enferment à leur insu dans des « bulles » où ils retrouvent les opinions de leurs « amis », des influenceurs qu’ils suivent ainsi que des professionnels de la désinformation. Plus pervers encore, les algorithmes des réseaux sociaux cherchent à maximiser le temps de connexion pour pouvoir exposer leurs utilisateurs à plus de publicité. Quoi de mieux que des pseudo-informations racoleuses pour capter l’attention des naïfs ? Le journalisme de vérification (le fact-checking) tente d’y répondre mais il se diffuse par les canaux classiques délaissés par les moins instruits.

Comme on le sait depuis longtemps, les fausses nouvelles et les rumeurs se propagent plus vite que les vraies. On peut y voir une version moderne de la loi de Gresham (1519-1579) selon laquelle la mauvaise monnaie chasse la bonne.

Pour résister à ces dérives, se former et s’informer est indispensable mais insuffisant, car sans régulations les mêmes causes (économiques) produiront toujours les mêmes effets.

éditions Cent Mille Milliard

Jean-Paul Aimetti est diplômé de CentraleSupélec et docteur en mathématiques appliquées aux sciences humaines. Professeur émérite du CNAM, il est Président de l’Académie des sciences commerciales et de l’ISC, grande école de commerce.

Olivier Coppet est statisticien, diplômé de l’ISUP et titulaire d’un DEA de statistique mathématique de l’université de Paris. Cofondateur et président d’une société novatrice en analyse de données qui intégrera le groupe WWAV Rapp et Collins à Londres, il a enseigné à HEC.

Gilbert Saporta est professeur émérite de statistique appliquée au CNAM. Diplômé de CentraleSupélec et de l’ISUP, docteur es sciences en mathématiques, il est co-auteur du Que Sais-je Analyse des données (PUF, 9e édition, 2005) et auteur de Probabilités, analyse des données et statistique (Éditions Technip, 3e édition, 2011).

A lire aussi sur le sujet

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

Translate »