Overblog
Editer l'article Suivre ce blog Administration + Créer mon blog

Blog d'étude critique et académique du fait maçonnique, complémentaire de la revue du même nom. Envisage la Franc-Maçonnerie comme un univers culturel dont l’étude nécessite d’employer les outils des sciences humaines, de procéder à une nette séparation du réel et du légendaire et de procéder à la prise en compte de ce légendaire comme un fait social et historique.

L’Éthique de l’I.A. : enquête de terrain. » - Revue Réseaux (juillet-septembre 2023)

    • Joël Jacques

Dès son titre, la revue Réseaux place le sujet dans toute son ambiguïté. En effet, l’éthique, du grec êthikos, « qui concerne les moeurs et la  morale » est un adjectif ou un substantif qui reste en relation avec la science morale et les mœurs. Par voie de conséquence, l’étude du sujet concerne les questions relatives à la finalité de l’existence, les conduites humaines et les valeurs qui en sont les fondements. De là, une question nécessaire semble s’imposer avant de lire le contenu de la revue : comment un calculateur, même évolué, une machine dont le fonctionnement, même en « apprentissage profond », repose sur l’assemblage de données peut elle présenter une quelconque forme d’analyse en lien avec l’éthique ? Par le choix des occurrences qu’on lui donne à analyser ? Dans ce cas, ce n’est pas la machine qui est en cause, mais l’humain qui a conçu le programme. Alors, on peut parler d’éthique. Ou bien, autre vision, on peut penser qu’un « grille-pain » soit doté d’un sens moral. Cela semble douteux, car comme on a créé ce dernier pour faire des tartines, de la même manière, on a créé les calculateurs pour assembler des datas et produire des résultats et des synthèses afin qu’ils soient, pour nous, une aide à la décision, plus fiable que l’aléatoire sentiment reposant sur la morale, la culture, la religion et l’environnement social, le politiquement correct et l’éducation.

La revue Réseaux est une publication académique périodique dont le contenu repose sur la Communication, la technologie et l’analyse sociétale. C’est une revue scientifique qui présente toutes les qualités du genre. Pour ce qui concerne l’analyse de l’I.A. et de ses « comportements », ce numéro présente une vision sociologique pointue et assez claire, mais aussi tous les défauts de ce genre d’exercice, et le premier est l’irrépressible conviction associée à l’Anthropocentrisme qui fait qu’on ne peut approcher l’étude des I.A. que par la certitude qu’une création humaine doit être jugée à l’aune de l’homme, de sa morale et de ses mœurs. Cela étant, comment peut-on penser qu’un objet que l’on dote volontairement d’une capacité réflexive limitée à la manipulation de chiffres, et qui ne peut produire que certaines formes d’analyses statistiques froides et dénuées de tout sentiment puisse être considéré à l’aune d’un jugement qui remette en cause les valeurs objectives qui sont la base de ses calculs ?

On admettra que cela est fondamentalement contraire aux motivations ayant présidé à la création de la machine. Cependant, cette création est si bien réussie qu’elle dépasse tout ce que l’on croyait possible. C’est pourquoi on l’aborde comme un deus ex machina. Sur ce point de l’anthropocentrisme, l’article de Valérie Beaudouin et Winston Maxwell, « La prédiction du risque en justice pénale aux États-Unis : l’affaire Propublica-Compas » est particulièrement symptomatique. Il s’agit d’aborder un débat autour d’un rapport relatif à la récidive de la délinquance. Je vous laisserai le lire, mais, sans en divulgâcher le contenu, je peux dire d’ores et déjà, qu’il s’agit de « contester » les résultats d’une étude produite par une « I.A. » portant sur les taux de récidive par catégories sociales et raciales à l’issue de laquelle il apparaît que le « grille-pain » est raciste. Jamais, dans l’article, il n’est fait mention que l’on attribue une capacité objective morale ou éthique à un ordinateur. Ce défaut relatif à l’idée d’anthropocentrisme semble, cependant, être pris en compte dans un autre article « Mais l’algo, là, va mimer nos erreurs ! » dans lequel il est souligné (p.141) que « l’annotation des données et la correction des résultats produits automatiquement » est supervisée en temps réel parallèlement au fonctionnement de l’algorithme. En langage clair, on corrige les résultats au fur et à mesure qu’ils semblent non conformes à ce que l’on souhaite.

Pour résumer l’ensemble, il devient clair, au fur et à mesure des articles que l’analyse scientifique des informations est rigoureuse, ce qui correspond bien à l’image de marque de la revue et ce, même si les présupposés philosophiques laissent à désirer. Mais, on le sait, la philosophie n’est pas une science. Alors, comme à l’habitude, on confond algorithme et Intelligence Artificielle, mais, depuis le temps, on peut se demander si cette « confusion » ne répond pas à une adhésion politique relative à la condamnation de l’innovation « numérique ». Sur ce dernier point, on se rappellera, à la suite de Schumpeter, que l’innovation est d’abord destructrice avant d’être créatrice et que rien ne peut l’arrêter. Il reste, bien sûr, la difficulté à gérer le syndrome de Frankenstein, c’est à dire la peur de la modernité. En effet, pour la première fois de son histoire, l’Homme a créé quelque chose qu’il ne maîtrise pas totalement et, pire encore, qui n’a pas vocation à l’être.

Retour à l'accueil
Partager cet article
Repost0
Pour être informé des derniers articles, inscrivez vous :
Commenter cet article