accueil actualité jurisprudence articles
 
 
 
Rubrique : professionnels / Branche : libertés individuelles et publiques / Domaine : nouvelles technologies et citoyen
Citation : Cormac Callanan, Marco Gercke, Estelle De Marco, Hein Dries-Ziekenheiner , Rapport ''Filtrage d’Internet - Equilibrer les réponses à la cybercriminalité dans une société démocratique'' , Juriscom.net, 20/05/2010
 
 
Rapport ''Filtrage d’Internet - Equilibrer les réponses à la cybercriminalité dans une société démocratique''

Cormac Callanan, Marco Gercke, Estelle De Marco, Hein Dries-Ziekenheiner

édité sur le site Juriscom.net le 20/05/2010
cette page a été visitée 7243 fois

Cette page présente le résumé du rapport « filtrage d’Internet – Equilibrer les réponses à la cybercriminalité dans une société démocratique » rédigé par une équipe de spécialistes des questions de régulation et d’application de la loi sur Internet (Cormac Callanan, Marco Gercke, Estelle De Marco et Hein Dries-Ziekenheiner, traduction française Estelle De Marco avec la contribution de Frédéric Nguyen).

Les auteurs y proposent (1) une analyse détaillée de la notion de filtrage et de ses implications. Ils mettent notamment en lumière la nécessité de préserver l’équilibre entre les libertés en présence lors de la mise en place de toute mesure de filtrage sur le réseau Internet.

Résumé : 


Le filtrage : un débat ancien dont la complexité reste souvent méconnue

La question du filtrage d’Internet est apparue avec le filtrage du spam il y a plus de vingt ans, avant de s’étendre au filtrage des virus et des logiciels malveillants. Toutefois, alors que ces mesures étaient principalement laissées au choix de l’internaute, un nombre croissant d’entités ou de pays envisagent ou pratiquent aujourd’hui un filtrage impératif, visant une variété de plus en plus large de contenus (pédopornographie, sujets politiques controversés et discours haineux, jeux d’argent, diffamation, terrorisme, violations de droits d’auteurs, érotisme et pornographie...).
 
Les motivations qui sous-tendent ces initiatives sont diverses. Au delà de la possibilité qu’offre le filtrage, à certains Etats, d’étendre à Internet leur pratique du contrôle de l’information, cette technologie peut notamment viser à pallier les lenteurs de la coopération internationale ou le manque d’instruments de contrôle d’Internet, dans un contexte ou les échanges de contenus sont internationaux et l’importance de la localisation de l’infrastructure d’hébergement est décroissante.

Le filtrage n’est toutefois pas une technologie aussi simple et anodine que la notion peut le laisser entendre. La question du filtrage est aussi complexe que le réseau Internet lui-même, dont l’architecture décentralisée est par ailleurs résistante aux tentatives de contrôle. Le filtrage soulève par conséquent des problématiques importantes en termes pratiques, techniques et juridiques.

Il est important que les acteurs qui débattent de la question du filtrage soient informés des propriétés et caractéristiques d’une telle mesure, des motivations qui peuvent la sous-tendre, des solutions techniques permettant sa mise en place, de l’efficacité de ces dernières et de leurs conséquences pratiques et juridiques. C’est à cette condition qu’une mesure de filtrage peut être transparente, responsable et respectueuse des droits de l’Homme, autrement dit légitime dans une société démocratique.


Les méthodes de filtrage et leur efficacité

D’un point de vue pratique, le filtrage d’Internet peut être mis en place à différents niveaux (poste client, entreprise, fournisseur d’accès à Internet, pays), et peut être décidé par l’internaute lui-même, une institution, le législateur ou une juridiction. Il peut encore concerner différents services (web, messagerie électronique ou instantanée, réseau Usenet ou de pair à pair). Lorsque le filtrage vise un ou plusieurs types de contenus déterminés, il est nécessaire d’en choisir les identificateurs (IP, noms de domaine, URL, signatures de contenu...) et plusieurs stratégies sont envisageables (listes noires ou listes blanches ; identification automatique ; classification des contenus). La mesure peut encore viser spécifiquement certains internautes ou les moteurs de recherche.

La question de l’efficacité de ces différentes stratégies de filtrage est cruciale. Si certaines données telles que le nombre des requêtes d’accès à des ressources filtrées ne constituent pas des instruments de mesure pertinents faute d’informations plus précises, par exemple sur l’origine de ces requêtes, l’efficacité d’une stratégie peut être mesurée au regard de trois autres éléments.

Le premier est le potentiel de la mesure en termes de sur-blocage (ou filtrage excessif) et de sous-blocage (ou filtrage insuffisant), faiblesses qu’aucune méthode de filtrage n’élimine complètement. Réduire le taux de sur-blocage suppose d’avoir recours à des méthodes très précises, qui sont le plus souvent particulièrement intrusives dans la vie privée des internautes. En revanche, les mesures les plus précises sont généralement celles qui entraînent le plus fort taux de sous-blocage, ce qui tend à réduire leur efficacité globale.

Le deuxième est la facilité de contourner le filtrage. Il est pourtant démontré que toute mesure de filtrage peut être contournée de manière plus ou moins facile selon la technologie utilisée, sans compter la disponibilité croissante de logiciels d’assistance au contournement. Plus la facilité de contourner le filtrage est grande et moins la mesure a d’effets sur la disponibilité de la ressource. Par ailleurs, les amateurs de contenus illégaux étant très habiles au contournement, une mesure contournable ne peut pas être considérée comme empêchant la commission d’infractions ou la revictimisation. Il est sur ce point important de noter que le système de filtrage le plus facilement contournable (le système DNS) est également celui qui a été choisi par le plus grand nombre de pays.

Le troisième est la disponibilité de méthodes alternatives d’accès au contenu filtré. Cette disponibilité est toutefois importante, plusieurs technologies permettant l’échange de contenus n’étant pas couvertes par les réflexions actuelles sur le filtrage. Dans ces circonstances, une mesure de filtrage n’empêche pas la mise à disposition des contenus ciblés, même lorsqu’elle est extrêmement efficace là où elle est mise en place.

La question de l’efficacité de chaque mesure de filtrage est cruciale. L’évaluation de cette efficacité doit être apportée en contribution lors de l’évaluation de l’équilibre des droits en présence.


Les avantages et les inconvénients du filtrage

Une mesure de filtrage est la plupart du temps mise en œuvre dans un objectif de protéger des droits fondamentaux que sont essentiellement le droit des enfants à être protégés contre la violence, le droit à la non-discrimination et les droits de propriété intellectuelle.

Dans ce cadre, une mesure de filtrage efficace pourrait rendre l’accès à des ressources illégales plus difficile et contribuer par là-même à la prévention de certaines infractions et/ou revictimisations, selon le contenu visé, la technologie utilisée et la motivation des personnes souhaitant accéder à ces ressources. L’ensemble, en palliant le manque de procédures de notification et de retrait adéquates dans certains pays hébergeurs ou la lenteur des procédures de la coopération internationale. Par ailleurs, les activités d’évasion de la mesure de filtrage par les producteurs de contenus pourraient conduire à des erreurs qui leur seraient fatales, et procurer des informations utiles aux enquêteurs.

Néanmoins, le filtrage, pour protéger certains droits et libertés, a un impact négatif sur d’autres droits et libertés. L’analyse détaillée de leur portée et de leur exercice électronique permet de constater que toute mesure de filtrage constitue a minima une ingérence dans le droit à la liberté d’expression et souvent une ingérence dans le droit à la vie privée, lorsque ne sont pas en cause certains droits spécifiques aux personnes handicapées.

L’impact de la mesure sur son environnement technique et juridique peut être plus ou moins important selon la technologie utilisée. Au delà du filtrage inévitable de contenus légaux et du caractère très intrusif de certaines initiatives, les mesures de filtrage les plus précises sont très coûteuses en termes de mise en place, de maintenance et de mise à jour. Toute mesure de filtrage a par ailleurs des effets sur la résilience d’Internet, peut interférer avec des éléments critiques de la connexion des utilisateurs et est donc susceptible de générer des pannes et des latences, l’ensemble pouvant avoir des conséquences sur la qualité de l’accès à Internet. Les listes noires présentent des risques en termes de sécurité et d’intégrité et le filtrage lui-même peut donner des informations utiles aux producteurs de contenus. Enfin, une mesure de filtrage peut conduire à la dépréciation de plusieurs droits des citoyens, dont leur droit à l’information, lorsqu’elle les conduit à penser qu’une réponse appropriée a été apportée à la présence de contenus illégaux sur Internet. Il en est de même lorsque la mesure est insuffisante ou contournée par inadvertance, puisqu’elle peut suggérer que le site accédé est de confiance. Il en est encore ainsi lorsque la mesure est susceptible de dérives, car mise en œuvre sans transparence ni garanties.

Une mesure de filtrage doit être équilibrée et entourée de garanties, afin de ne pas constituer une violation mais une limitation légitime de certaines libertés.


L’équilibre des droits en présence ou la légitimité d’une mesure de filtrage

Les arrêts de la Cour européenne des droits de l’Homme fournissent certaines lignes directrices sur la manière de déterminer la mesure dans laquelle une liberté peut être limitée au profit d’une autre. L’application de ces lignes directrices aux principales mesures de filtrage actuellement envisagées démontre que ces dernières ne répondent pas toujours aux exigences de protection des droits de l’Homme, à tout le moins en l’absence d’études plus précises.

Ces exigences impliquent que le filtrage soit prévu par la loi, qu’il réponde à un but légitime, et qu’il soit nécessaire dans une société démocratique.

En premier lieu, une loi est nécessaire, tant pour garantir les citoyens contre l’arbitraire, que pour prendre en compte les dispositions légales européennes et nationales pouvant se trouver en contradiction avec la mesure de filtrage. Il en est ainsi notamment des dispositions régissant les obligations de neutralité et de qualité de service des opérateurs de communications électroniques.

Ensuite, le ou les objectifs de la mesure doivent figurer parmi les buts légitimes prévus par la Convention européenne des droits de l’Homme. Pourtant, le but des mesures de filtrage visant certains contenus illégaux est parfois difficile à déterminer précisément.

Enfin, le principe de nécessité dans une société démocratique implique un besoin social impérieux et la proportionnalité de la mesure par rapport à l’objectif qu’elle poursuit.

L’initiative de filtrage doit répondre à un besoin réel de la société et être en mesure de satisfaire ce besoin utilement. Il semble pourtant que plusieurs initiatives de filtrage (dont celles qui ont pour objectif de préserver les droits des victimes, de protéger les personnes sensibles ou de prévenir des infractions) ne puissent pas être considérées comme répondant à ces critères, en l’absence de recherches complémentaires.

L’initiative de filtrage doit encore être proportionnée à son objectif. En conséquence, son effet général ne doit pas aller au delà de ce qui est nécessaire pour atteindre le résultat recherché et le bénéfice de la mesure doit être supérieur ou équivalent à l’ingérence. Ainsi, lorsqu’une mesure n’est pas ou peu efficace, l’ingérence doit elle-même être faible ou inexistante. Inversement, une mesure très intrusive dans la vie privée des internautes n’est justifiée que si elle démontre une efficacité d’ampleur au moins équivalente à protéger une autre liberté fondamentale, sans pouvoir conduire à la disparition de la vie privée sur le service concerné. Il est encore nécessaire que l’intérêt préservé par la mesure de filtrage soit réellement en péril et que l’effet de la mesure soit confronté à la proportionnalité du comportement qui se trouve limité.

Des garanties doivent également être prises afin que la mesure de filtrage ne conduise pas à des dérives ou à son utilisation dans une finalité qui n’aurait pas été spécifiquement évaluée.

L’une de ces garanties est l’intervention préalable du juge de l’ordre judiciaire, professionnellement entraîné à établir des équilibres complexes et dont l’office a lieu dans le cadre d’une institution garantissant le respect des règles attachées au procès pénal, dans les situations où il est nécessaire d’évaluer puis de constater l’illégalité d’un contenu ou d’une action et dans celles où il est nécessaire d’apprécier la proportionnalité de la réponse à apporter à une situation illégale.

Le rapport propose une série de 10 étapes permettant d’évaluer la légitimité de toute mesure de filtrage à la lumière de ces principes ainsi que la liste des études nécessaires, le cas échéant, à cette évaluation.


Conclusion

Le débat sur le filtrage doit avoir lieu dans la transparence, afin d’identifier les mesures de filtrage qui sont légitimes et acceptables dans une société démocratique.

Il est en effet constaté que les fournisseurs d’accès à Internet sont autorisés ou encouragés par de nombreux gouvernements à mettre en œuvre des mesures de filtrage sans surveillance particulière, sans responsabilité corrélative et sans transparence, alors même que ces gouvernements ne disposent pas d’un tel pouvoir de décision. Dans ces pays, les listes noires sont d’ailleurs parfois générées par des organisations soutenues par l’Etat, sans faire l’objet d’un audit indépendant.

Assurer l’équilibre des libertés implique pourtant que la décision de filtrer revienne au législateur, et que celui-ci en spécifie les cibles, les méthodes de mise en œuvre et d’audit et la manière dont il en sera répondu publiquement. Cet équilibre implique également de prendre en compte l’existence de méthodes de régulation alternatives qui pourraient s’avérer plus efficaces et moins coûteuses.

Il serait notamment nécessaire de travailler à la réduction du laps de temps qui s’écoule entre l’identification d’un contenu illégal et son retrait de ses serveurs ainsi qu’à l’harmonisation du droit et des procédures relatifs à la cybercriminalité. Dans ce cadre, il conviendrait que les Etats analysent la nature des échecs de la coopération internationale, et que sur la base de cette analyse les Etats parties à la Convention des Nations unies sur les droits de l’enfant produisent des rapports officiels sur les mesures qu’ils ont prises, sur les plans bilatéral et multinational, pour respecter leur obligation de protéger l’enfant contre toutes les formes d’exploitation sexuelle. Ceci, sauf à ce que le filtrage ne soit vu comme une alternative au respect des articles 34 et 44 de ce même instrument.

Ensuite, il semble impératif d’examiner l’impact pratique des mesures de filtrage envisagées, notamment sur les infractions qu’elles tentent de prévenir et sur les accès accidentels ou délibérés aux contenus filtrés. L’absence d’un tel examen, sans lequel la légalité d’une mesure de filtrage au regard des instruments fondamentaux de protection des droits de l’Homme paraît hautement discutable, poserait une interrogation à long terme sur l’engagement de certains Etats à respecter les principes clefs de l’Etat de droit.

Estelle De Marco

-------------------

(1) Les propos figurant dans ce rapport n'engagent que ses auteurs sans que l'OSI ou Juriscom.net ne puissent y être associés. 

 

 

 

 


Téléchargez le document au format PDF : lib20100520.pdf

[pour enregistrer le fichier, cliquez sur le bouton droit de la souris et sélectionnez "enregistrer la cible sous..."]

 

 

accueil :: actualité :: jurisprudence :: articles :: présentation :: newsletter ::
liens :: contact :: design

© juriscom.net 1997-2010
Directrice de la publication : Valérie-Laure Benabou
Rédacteurs en chef : Mélanie Clément-Fontaine et Ronan Hardouin
Fondateur : Lionel Thoumyre
design blookat studio