Bêtise naturelle de l’intelligence artificielle

Devant les progrès de l’intelligence artificielle, on trouve souvent deux réactions opposées. Premièrement, le rejet absolu qui relève de la technophobie et de la crainte irrationnelle. Deuxièmement, l’adhésion enthousiaste et absolue, qui relève du fétichisme irrationnel.

Il y aussi les ignorants naïfs qui croient que tout cela n’est que de la science-fiction et qui ne savent pas encore qu’on peut déjà créer des implants neuronaux permettant de commander la parole pour une personne qui n’a plus de voix, de permettre à une personne sourde d’entendre ou à une personne aveugle de voir, que les membres bioniques sont déjà très perfectionnés et que des puces augmentant la mémoire seront très bientôt choses possibles, qu’on peut commander par la pensée un objet à distance doté de senseurs si on a des capteurs neuronaux sur le crâne, de même qu’il est tout à fait possible de savoir avant même un sujet la décision qu’il va prendre sur une question très spécifique. On peut le prédire de manière très précise au moment même où cela se passe en étudiant les circuits neuronaux et les amorces de mouvement à l’aide de capteurs. On peut aussi le prédire de manière générale par corrélation en accumulant les données comportementales (aussi bêtes que son utilisation des cartes de crédit).

Ces trois attitudes, le rejet, la soumission de même que l’ignorance naïve, sont également inappropriées. La vertu n’est pas nécessairement dans le milieu, mais plutôt dans la réception critique et dans l’examen minutieux du pourquoi et du comment de cette technologie.

Comme le dit mon ami Alain Labonté, on ne devrait pas parler d’intelligence quand il s’agit de machines. Les machines ne réfléchissent pas, elles appliquent des algorithmes qui ne reflètent que l’intelligence des personnes qui les ont créés (les algorithmes). La puissance de calcul et de performance est grande, mais les bêtises sont aussi très grandes quand on ne prend pas la peine de s’assurer des conséquences. Par ailleurs, pour ce qui est de la mémoire, les données mémorielles biologiques sont très différentes des données d’un disque dur. En effet, un souvenir est un phénomène en perpétuelle évolution dans le cerveau humain, alors qu’une donnée de mémoire est présente ou pas, sans modification et sans lien avec des sentiments.

On lira pour ses bienfaits intellectuels Cerveau augmenté, homme diminué de Miguel Benasayag qui démontre de manière très accessible qu’on ne peut pas suppléer à la qualité par la quantité. Une bonne illustration que je pourrais donner de ce problème est l’arrivée de Google comme moteur de recherche à la fin des années 90. Prétendant ajouter la pertinence à la recherche, il l’en a totalement dépouillée. En effet, Google soumet les résultats les plus fréquents et les plus nombreux, donc les plus recherchés, donc prétendument les plus pertinents. Or, ce sont les résultats exacts qui sont les plus pertinents pas les plus fréquents.

Voici en clair comment ça se passe. Supposons un artisan qui fabrique des violons dans son petit village de Saint-Émile d’Auclair. Il a créé un petit site web artisanal lui aussi et donc non référencé. Il suffisait de taper dans un moteur de recherche luthier et Bas-Saint-Laurent pour trouver trois ou quatre résultats avec les noms des luthiers et le nom du village. Votre petit artisan s’y trouvait. Si on vous avait parlé du luthier en question mais que vous aviez oublié son nom, taper luthier et Saint-Émile d’Auclair vous donnait un seul résultat : le luthier en question. En tapant luthier et Bas-Saint-Laurent dans Google, vous avez des milliers de résultats contenant les mots choisis, mais votre luthier peut s’y retrouver très loin dans la liste ou pas du tout s’il n’est pas référencé.

Le moteur Google a plu au public qu’on a convaincu qu’il était mieux d’avoir dix mille résultats qu’un seul et qu’il était bon d’avoir dans ses résultats ceux des autres qui ont fait des recherches avec des mots semblables, quitte à avoir des résultats aberrants quand on est le seul à faire un type de recherche en particulier. Très vite Google est devenu le plus populaire, puis pratiquement le seul. Et les outils comme AltaVista, précis et efficaces, qui permettaient en deux secondes de trouver exactement une chaîne de caractères données, donc la source exacte de l’information recherchée, ont dû baisser pavillon.

Il est dommage que les enthousiastes naïfs nous traitent tout de suite de technophobes dès qu’on pointe le caractère approximatif de leurs réalisations ainsi que les risques qu’ils nous font courir. De même, la superfluité redondante de nombreux gadgets ne les empêche pas d’être extrêmement populaires. Je pense à OK Google et à Alexa, qui sont des gadgets certes amusants, mais qui vous obligent à rester connectés 24 heures sur 24. Pourquoi devrais-je perdre 30 secondes de mon temps pour parler à une machine dans le but d’éteindre les lumières alors qu’il me suffit de faire pivoter un interrupteur en une fraction de seconde et tout ça sans me détourner du chemin que je devrai prendre de toute façon pour me rendre à mon lit. Sans compter que toutes ces innovations liées à la consommation contribuent à ce que Shoshana Zuboff appelle le capitalisme de surveillance. En effet, ces machines accumulent des données sur tout ce que vous faites et dites. Vos conversations avec la machine sont relayées à une centrale d’où il est possible (pas obligatoire) de vous entendre et de vous enregistrer.

L’exemple le plus frappant de ce type de surveillance concerne l’automobile connectée dont le moteur peut être coupé à distance par la compagnie d’assurance si les algorithmes calculent que le comportement du conducteur ne respecte pas les paramètres de conduite ou tout simplement si le paiement retarde trop.

L’enregistrement des comportements et leur intégration à des algorithmes permettent des prédictions qui servent à la promotion de produits, mais aussi à la sanction des comportements. La prédiction des comportements se base sur les corrélations. Ces corrélations sont souvent exactes, mais elles ne tiennent aucunement compte des explications qui peuvent varier selon les individus, les groupes sociaux et les contextes. Contre-exemple : de nombreuses offres que les algorithmes me soumettent de façon spontanée ont le don de me stupéfier tellement elles détonnent par rapport à mes intérêts véritables.

En référence au titre de ce billet, ce qui est surtout bête, c’est le programmeur derrière l’algorithme qui ne songe jamais à la possibilité que les choix voulus par le destinataire  conçu comme un client au mieux et comme un consommateur facile au pire) ne correspondent pas aux choix offerts.

Voyons l’exemple des interfaces de chat web instaurées par les compagnies d’assurance, les institutions financières et les entreprises de communication. Les lettres ou courriels que vous écrivez de manière générale à votre banque ou à votre compagnie de crédit ne sont pas lues par une personne et n’ont pas de réponse de la part d’une personne à moins que vous n’ayez indiqué le nom d’une personne dans votre envoi. C’est pourquoi les réponses que vous obtenez ne sont pas souvent adéquates. De même, quand vous discutez en direct sur leur site web, c’est généralement un robot qui vous répond. La solution à votre problème n’arrive pas rapidement.

Essayez donc de soumettre un problème à Facebook ou à Twitter. Les choix de réponse étant fermés, il n’y a jamais la solution que vous cherchez. Les concepteurs de produits algorithmiques devraient toujours prévoir dans leur choix de réponse à chacune de leurs questions la case Autre (précisez). La majorité des cas soumis par les clients et l’absolue totalité des cas soumis par moi correspondent à ce choix.

Il est loin le temps où Macintosh faisait des tests pendant des mois et assujettissait ses produits aux règles de la localisation (1) avant de les soumettre aux clients. Aujourd’hui, avec la concurrence entre tous les fabricants de gadgets électroniques, on sort le produit le plus vite possible, on compte sur les clients pour rapporter les bogues et on ajuste à mesure. C’est l’externalisation des coûts de recherche.

La question environnementale se pose aussi, car ces avancées de la science (comme je l’expliquais dans le billet Le post-humanisme : fuite en avant de la grande bourgeoisie), pour ce qui est des prothèses neuronales ou du téléchargement du cerveau (au risque de rendre l’existence minérale et sans surprise), sont réservées aux plus riches d’entre les plus riches, qui n’ont donc aucun souci à se faire pour la qualité de l’air et de l’eau qu’ils laisseront au reste de l’humanité agonisante.

Autre question à se poser, celle du type de société que l’on veut, car modifier la mémoire ou corriger l’agressivité très tôt relèvent certes de bonnes intentions comme l’enfer en est toujours pavé, mais cela conduit aussi à prendre l’effet pour la cause. L’enfant qui a des comportements d’agressivité a peut-être des tendances à l’agressivité, mais il est peut-être aussi victime d’abus physiques et alors ce n’est pas son agressivité qu’il faut soigner.

Les philanthrocapitalistes cherchent à créer une société lisse, sans violence et sans délinquance  voir à ce sujet mon billet du 7 mars 2016 La chasse aux méchants). Des individus parfaitement prévisibles seront sans aucune menace, mais aussi sans créativité. Or, la délinquance est une contestation du pouvoir. Si toutes les délinquances ne sont pas bonnes, certaines sont absolument nécessaires (2). D’ailleurs, l’absence de délinquance ne se définit que par rapport au pouvoir. Le pouvoir, lui, pourra toujours exercer des abus s’il ne peut pas être contesté. Aucune société ne peut évoluer sans délinquance. Vouloir l’éliminer complètement, c’est tuer le patient pour liquider la maladie.

Dans le monde du travail, la gestion du personnel et la sanction du comportement des employé·e·s sont de plus en plus souvent déléguées à des algorithmes qui, sans aucune préoccupation pour le contexte ni pour les sentiments humains, dicteront le choix des candidatures de même que la façon de travailler de tout le personnel. La discussion sera impossible puisque les appels à la compréhension de situations particulières échapperont totalement à l’univers de référence intégré dans les logiciels de gestion. Comme le dit Éric Sadin dans la section « L’événement » du Monde diplomatique des vendredi, samedi et dimanche 6 janvier 2019 : « Nous serons moins appelés à donner des ordres aux machines qu’à en recevoir d’elles. » Encore une fois, ce n’est pas une fatalité. Rien ne nous oblige à nous y rendre, mais si aucun esprit critique ne sonde les programmes ainsi mis sur le marché et implantés en entreprise, c’est ce qui arrivera. Or, les affairistes adeptes de starteupes ont rarement l’esprit critique et n’ont pas l’habitude de remettre en question ce qui ne les affecte pas directement.

La mécanisation devait nous offrir plus de temps libre et moins d’efforts. Or, les capitalistes en ont complètement extorqué les bénéfices et n’ont pas redistribué ces gains de productivité en termes de temps et de revenus. On pouvait se consoler tant que les machines faisaient du sale travail et que les humains avaient la latitude de se consacrer à des travaux « nobles ». Maintenant, toutefois, de plus en plus de robots effectuent ces tâches « nobles » : correspondance, inscription, conseils en droit, en voyages ou en finances, diagnostics, services après vente, catalogage, etc. Et la semaine de travail est toujours de 40 heures alors que la productivité pourrait nous permettre d’en travailler beaucoup moins. Plus la robotisation avance, plus l’intelligence artificielle progresse, plus se pose la question de savoir à qui cela profite-t-il surtout ? Est-il normal que des personnes gagnent 200 fois le salaire des autres ?

Il ne s’agit pas d’être contre « l’intelligence artificielle ». Les avancées technologiques sont de puissants outils d’amélioration de nos conditions de vie. Il s’agit de réclamer des outils qui servent vraiment ce à quoi ils devraient servir. Il s’agit d’exiger que les outils soient à notre service et non l’inverse. Il s’agit aussi que nous jouions notre rôle de citoyen·ne·s et pas seulement de client·e·s, encore moins de consommatrices·consommateurs. Il s’agit au final d’une question d’humanité et de justice sociale.

Francis Lagacé

https://www.pressegauche.org/Betise-naturelle-de-l-intelligence-artificielle


Notes

(1) Dans les années 80, la localisation ne consistait pas à situer quelque chose grâce à ses coordonnées GPS, mais à soumettre pour les tester des produits dans un pays, une région ou un groupe culturel afin d’adapter le produit aux besoins exprimés et aux coutumes observées dans ce pays, cette région ou ce groupe culturel.

(2) Lire à ce sujet mon billet intitulé Du progrès social et de la légalité.


En complément possible :

Catherine Vidal : Nos cerveaux resteront-ils humains ?notre-futur-detre-humain-ne-peut-etre-predictible-par-des-statistiques/

Une réponse à “Bêtise naturelle de l’intelligence artificielle

  1. Le monde se transforme en une forme d’élevage d’humains en batterie, qui sont au service du 1% le plus riche, avec des gouvernements éleveurs qui surveille la rentabilité de l’élevage, en supprimant de plus en plus notre liberté à cause (ou grâce à) d’une technologie qui nous enchaîne et nous maintient captif (voiture obligatoire, internet aussi, téléphone, …), nous travaillons à fabriquer nos chaînes. Il serait temps qu’on ne travaille que pour l’essentiel.
    et qu’on passe plus de temps à vivre (avec la nature tant qu’elle est là)…

Répondre

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google

Vous commentez à l'aide de votre compte Google. Déconnexion /  Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.