Le 16 juin 2014 Laura Boldrini, présidente de la Chambre des Députés italienne, a décidé de créer une Commission “d’étude sur les droits et devoirs sur Internet” pour marquer le semestre italien de la Présidence du Conseil de l’Union Européenne. La Commission, dirigée par Stefano Rodotà et composée de représentants des forces politiques en présence et de personnalités de la société civile, a eu comme mission de rédiger une ‘Magna Carta’ de l’Internet (je sais, c’est la lubie de Tim Berners-Lee, en bon anglais…).
Lundi 13 octobre la version 1.0 de ce document a été publiée par la Chambre des députés. Pour l’instant, je vous livre la version française du texte, telle quelle (les versions italienne et anglaise sont aussi disponibles) :
[pdfjs-viewer url=https://www.casilli.fr/wp-content/uploads/2014/10/declaration-des-droits-sur-internet.pdf viewer_width=450px viewer_height=550px fullscreen=true download=true print=true openfile=false]
- L’ambition déclarée de délimiter les droits et les libertés fondamentales sur Internet rapproche ce document de la récente Etude 2014 du Conseil d’Etant français. Malheureusement le titre choisi a provoqué quelques malentendu : la presse internationale a cherché à décrédibiliser cette déclaration en l’assimilant à des projet de lobbyistes des industries culturelles telle la “Déclaration des Droits de l’Homme numérique” issue du Forum d’Avignon.
- On voit très clairement l’empreinte de Stefano Rodotà, ses thèmes préférés, ses réflexes de militant de la première heure pour les libertés informationnelles ; on retrouve cette approche “historique” de la vie privée envisagée comme quelque chose à protéger sic et simpliciter (ce qui à mon sens fait fi des aspects de négociation collective de la privacy qui deviennent prédominants dans le contexte du numérique).
- Points forts : l’alignement de l’Italie sur les positions françaises et européennes sur “l’autodétermination informationnelle” et la neutralité du Net.
- Points “meh” : droit à l’oubli envisagé exclusivement comme un droit au déréférencement (quid des dimensions socio-techniques de l’oubli des données, et non seulement du filtrage des contenus par les moteurs de recherche ?), mais surtout toute la partie sur l’anonymat (à mon sens, fruit de compromissions qui ont complètement désamorcé la prise de position forte initialement envisagée : admettre le droit à la communication anonyme et pseudonyme comme vecteur de démocratie et non pas comme simple cible polémique permanente d’une croisade morale, dont nous connaissons par coeur les arguments de prédilection).
- Très intéressant, et à développer : le droit à l’éducation.
- Absences remarquables : zéro sur le digital labor,
zéropeu sur la gouvernementalité algorithmique 1.
A suivre, avec beaucoup d’intérêt parce que prometteur et encore incomplet. Justement, cette déclaration n’est que le kickoff d’un projet plus ambitieux. Dans les prochains jours, les membres des parlements de 27 États membres de l’UE vont se pencher sur ce draft pour le développer. Une consultation publique, proche de celle déjà lancée en France par le Conseil National du Numérique, va être ouverte le 27 octobre et restera en place pendant quatre mois.
- Federico Morando, directeur de la recherche au Nexa Center for Internet & Society du Politecnico de Turin, me signale que le passage sur les “Traitements automatisés” peut être à juste titre considéré comme pertinent à la gouvernementalité algorithmique : “Aucun acte, mesure judiciaire ou administrative, décision de toute manière destiné e à peser significativement sur la sphère personnelle , ne peut être basé uniquement sur un traitement automatisé des données à caractère personnel visant à définir le profil ou la personnalité de la personne concernée.” Je rejoins sa remarque, et j’ajoute que – pour compléter cette section – il serait envisageable de développer trois aspects : 1) étude de comment et dans quelle mesure les algorithmes tendent à remplacer des procédures consensuelles de prise de décision politique ; 2) modalités envisageables de réglementation des algorithmes ; 3) analyse des stratifications, au sein des procédures automatisées de calcul mêmes, de normes morales, culturelles et politiques des concepteurs de algorithmes mêmes. ↩