vendredi 3 mars 2017

"loyauté des algorithmes" , '"éthique des algorithmes" !

Je recopie ici un texte reçu via la SIF (Société Informatique de France).

Bonjour à tou/te/s,


Je souhaite vous faire part d'un point de sémantique
important. De plus en plus, dans le débat public, se
trouvent repris les termes de "loyauté des algorithmes"
ou d'"éthique des algorithmes". Comme nous avons pu
nous en accorder avec nos collègues juristes lors des
récents ateliers des "Convergences du droit et du
numérique", ces éléments de langage sont faux et
dangereux.

Ils sont faux parce que, comme nous le savons, les
algorithmes n'ont ni éthique ni loyauté. Ce sont des
constructions mathématiques purement abstraites.
Bien sûr, en tant qu'objets issus d'un contexte
socio-culturel, ils ont une portée éthique, comme
le fait de chercher sur la meilleure façon de faire
fissioner l'atome de façon incontrôlée traduit une
volonté d'en faire une arme. Pour autant, la question
la plus prégnante est autre.

Ce dont il est en fait question, ce sont de
*traitements de données* (majoritairement de données
personnelles) mis en oeuvre par les personnes
physiques ou morales, qui utilisent tel ou tel
algorithme. Ce sont ces personnes qui, en fonction de
leur mise en oeuvre logicielle et de leurs relations
avec des tiers, choisissent ou non de rendre un service
équitable ou inéquitable à leurs usagers (comme par
exemple de calculer un itinéraire passant devant
le plus de panneaux publicitaires possible).

Ces termes sont donc dangereux à plusieurs titres.
En premier lieu, sur le plan de l'apprentissage de
l'informatique, ils confondent les notions d'algorithme
(l'abstrait), de programme (ce dont on veut que ça tourne)
et de processus (ce qui tourne effectivement et peut être
soumis à des aléas et erreurs transitoires issues de
l'environnement).
Ensuite, ils font peser la responsabilité trop en amont
de l'exploitation, sur la conception, alors que ce sont
bien les relations contractuelles entre les usagers
et les responsables des plate-formes qu'il faut réguler,
ne serait-ce que par l'obligation pour l'exploitant
d'informer les usagers de la finalité du traitement et
des tiers concernés par les données collectées et/ou
injectées dans ledit traitement. On est au niveau
contractuel, celui des CGU. Il n'y a donc pas non plus
de "transparence des algorithmes", mais de "transparence
des traitements".

Cela n'empêche bien sûr pas les chercheurs de
s'interroger sur les questions éthiques, comme je l'ai
exposé ci-dessus avec l'exemple de la fission, mais la
réalité est celle de forcer/encourager les exploitants
à expliquer ce que leur *traitement* fait.

"Mal nommer les choses, c'est ajouter au malheur
de ce monde", disait Camus. N'y participons pas,
et parlons plutôt de "loyauté des traitements" et
d'"éthique des responsables de traitement". Ça
fait moins "flashy", mais nous sommes des
scientifiques, pas des vendeurs de rêve (quoique ! ;-) ).

Bien à vous,

                f.p.


P.S.: J'en profite pour vous faire de la retape sur
les "Convergences du droit et du numérique", dont les
ateliers de préfiguration ont été passionnants et
prometteurs. Des documents intermédiaires de synthèse
des ateliers seront bientôt publiés (reprenant ces
points pour l'un des thèmes), et je ferai bientôt un
nouvel appel à la communauté informaticienne pour
collaborer avec nos collègues juristes à des contributions
pour le colloque du 11 au 13 septembre (save the date !).
-- François PELLEGRINI

Vice-président délégué au numérique, Université de Bordeaux
Professeur en informatique
Chercheur au LaBRI et à Inria Bordeaux - Sud-Ouest

Aucun commentaire:

 
Site Meter