Overblog Suivre ce blog
Administration Créer mon blog

Loppsi 2: une censure utile?

Publié le par Frédéric Montagnon


J'ai longuement hésité avant de publier ce qui suit. Le sujet est tellement sensible et tellement complexe à la fois qu'il est dangereux de se prononcer: la pédopornographie est probablement ce qu'il y a de plus ignoble au monde. C'est justement parcequ'il est répugnant que le sujet est mal abordé. Trop stigmatisé, il devient dans le cas de Loppsi un alibi trop facile à mon goût. 
Ici, chaque mot compte et on n'a pas le droit faire de raccourci:


La lutte contre la pédopornographie


Loppsi 2 (loi d'orientation et de programmation pour la performance de la sécurité intérieure) est un projet de loi autour des moyens mis à la disposition de la police et de la gendarmerie à partir de 2009 et jusqu'à 2013 pour combattre nombre de crimes. Parmi eux la pédopornographie. On peut y lire:

"Lorsque les images ou représentations de mineurs à caractère pornographique sont hébergées en France, la législation permet actuellement au juge civil d’imposer à l’hébergeur la suppression du contenu ou la fermeture du site. Toutefois, la plupart des images de pornographie enfantine diffusées sur internet le sont via des sites hébergés hors de France."

En effet, le ménage est bien fait sur le territoire français, et les contenus sont ailleurs depuis longtemps. Pour autant, on n'a pas réglé le fond du problème puisque la localisation physique des fichiers n'a aucune importance.
Ainsi, le texte propose de se doter de "dispositifs techniques permettant de bloquer l’accès à ces sites depuis leur territoire national".
Si on survole le sujet, le blocage peut être vu comme la solution idéale parceque radicale. Des questions méritent néanmoins d'être posées: bloquer quoi, par qui, pour quelle raison et avec quelle efficacité?


Du filtrage à la censure. Du préventif à l'abusif.

Les choses deviennent délicates lorsque l'on aborde les modalités: Les "sites à caractère pédophiles" seront "répertoriés par les services de police". "En pratique, l’OCLCTIC transmettra au FAI les données utiles par voie dématérialisée". Le FAI devra se débrouiller comme il l'entend pour bloquer l'accès à ces sites.

On comprend qu'un organe va déterminer de façon autonome une liste de sites qui ne seront plus accessibles pour l'ensemble des personnes situées sur le territoire français. Peut on parler de présomption d'innocence pour un site? Je ne sais pas. Mais les lignes de cette liste ne seront pas soumises à un juge avant d'être transmises au FAI et filtrées. Tout à coup, on donne le pouvoir aux services de police de filtrer l'information sur le web sans que la justice ne soit consultée, à discretion.

Que se passe-t-il si un contenu est abusivement placé dans cette liste? Qu'est ce qui garantit que cette loi ne servira pas à pratiquer une véritable censure? La liberté d'expression et la démocratie risquent d'en prendre un coup.

Un autre point noir: on parle de filtrer l'accès à certains sites. Une page ou un ensemble de fichiers, je le conçois. Mais qu'est ce qu'un site? La notion me parait dangereusement flou. Imaginons qu'une vidéo soit pressentie comme pédopornographique sur Youtube, on coupe l'accès à Youtube? Est ce qu'on me coupe Overblog s'il y a un doute sur un contenu? Que font alors les gens à qui on supprime la parole par la même occasion?


Le filtrage va-t-il aider à régler le problème de la Pédopornographie?

Vous l'aurez compris, Loppsi ne me réjouit pas pour une question idéologique. Mais il faut parfois se priver de certaines libertés, et accepter certaines contraintes pour le bien de la société entière. La contrepartie de ce risque serait donc de permettre de régler l'épineux problème de la pédopornographie.

Commençons par définir le cadre. Quel problème pose la pédopornographie? Je suis papa, et lorsqu'on me parle de pédopornographie, je pense immédiatement aux enfants que l'on maltraite pour les filmer. Je me fiche finalement de savoir qui regarde ces films, ce qui m'importe, c'est de savoir comment le gouvernement travaille à éviter que des enfants soient des victimes de ce qui est, de toute évidence, un business.
Mais voilà ce que dit le texte: "L’article 4 protège les internautes contre les images de pornographie enfantine. Le nombre d’images de pornographie enfantine diffusées sur Internet est en augmentation constante depuis plusieurs années. La communauté internationale s’est progressivement mobilisée pour lutter contre ce phénomène préoccupant."

Finalement, ce ne sont pas les enfants maltraités derrières les caméras que l'on veut épargner, mais ceux qui tomberaient, par le plus grand des hasards, sur des contenus illégaux. J'aimerai qu'on me donne des exemples sur ce sujet: Est il vraiment possible de tomber sans le vouloir sur de tels contenus? Je vous laisse juger, mais je pense que pour trouver de tels contenus, il faut être un initié averti.
Je pense qu'on se trompe de guerre, et que le sujet est évidemment ailleurs.

Sur cette face du sujet, 2 articles sont à lire absolument : une étude incroyablement poussée sur le busines de la pédopornographie par Fabrice Epelboin et un témoignage rapporté par Guillaume Champeau.


Plus d'accès au contenu, plus de production de contenu?

On m'opposera probablement que si l'on ne peut plus regarder de tels contenus, ils ne seront plus produits et que le problème sera réglé. C'est évidemment une utopie. N'importe quel homme du métier le dira: rien ne peut éradiquer de manière certaine la circulation de ces contenus sur Internet.
Les consommateurs de contenus pédopornographiques savent que posséder, regarder, échanger ces contenus est illégal et conduit en prison. Il est bien évident qu'ils prennent un maximum de précautions pour ne pas être repérés. De leur coté, les producteurs et diffuseurs emploient des techniques de plus en plus sophistiqués pour garantir la discretion des échanges. On ne trouve pas ces contenus sur des sites. Les fichiers sont criptés, découpés, puis transmis depuis des serveurs différents et via des protocoles dont je n'ai probablement même pas connaissance pour être recomposés et cryptés à nouveau.

Combien y-a-t-il aujourd'hui de machines connectées à internet? Avec 1,7 milliards d'internautes, ces sont probablement 2,5 milliards machines qui sont sur le réseau et susceptibles d'héberger des fichiers illégaux. Un nombre déjà important en heberge sans le savoir ni le vouloir: pour du spam de mails, des relais, etc... Techniquement, je ne vois pas comment il est possible d'empecher ou même d'identifier ces transferts de fichiers.
La quantité de drogue écoulée tous les jours en France nous démontre que malgré les moyens mis en oeuvre pour contrer ce trafic physique, on ne l'élimine pas et on créée une économie parallèle. Qu'on ne se trompe pas, je ne suis pas pour la légalisation des drogues, mais je souligne juste la complexité de ces combats, surtout lorsque l'on quitte le monde physique: ces échanges de données représente une fraction invisible du trafic Internet. D'autre part, les technologies permettent un nombre de solutions de transmission infinie.


La volonté de maitriser l'information?

La lecture de Loppsi 2 m'amène à penser que soit ses auteurs maitrisent très mal le sujet de la pédopornographie, soit les applications visées par ce texte ne se limittent pas à ce seul sujet. Dans les deux cas, je suis très inquiet de voir pointer une menace de censure sans pour autant amener une réponse au problème qui est posé. Je suis d'autant plus inquiet de ne pas voir dans ce texte la volonté d'empêcher des enfants de se retrouver nus derrière des caméras. 
Loppsi sera débattue cette semaine à l'assemblée nationale.

Partager cet article

Repost 0

Lorsque la recommandation sociale restructure Internet

Publié le par Frédéric Montagnon

3876997563_62a7acf520.jpgTranshumance. Illustration laissée en libre interpretation.


L'utilisation des réseaux sociaux est en train de réorganiser Internet: en augmentant les usages, et probablement en appauvrissant la diversité des contenus exposés.


Les 3 grandes évolution dans la structuration du web


Au commencement du réseau, Internet était organisé selon la hiérarchie des annuaires: on accède aux contenus et services en descendant dans une arborescence contrainte par leurs éditeurs.

Puis les moteurs de recherche sont arrivés et ont permis un accès par mot clé, démultipliant les dimensions de recherche en réduisant dramatiquement les temps d'accès. On peut penser que l'histoire s'arrête là et que les moteurs de recherche seront seuls à organiser l'information du web. "organize the world's information" est d'ailleurs la mission de Google. Mais si nous avons besoin de chercher activement de l'information, la quantité d'information que l'on cherche n'est rien à coté de celle que l'on consomme de manière passive parcequ'elle nous est amenée. Lorsque le rapport interet/effort est important, on a tendance à poursuivre sa consomation d'information.

C'est justement une des forces et une raison du succès de Facebook, Twitter (ce dernier est loin d'être un succès en France, mais marche très bien aux US), et l'ensemble des outils de recommandation sociale. Ce qui nous est recommandé par des gens que l'on connait a de forte chance de capter notre attention. On peut voir dans ces outils une nouvelle forme d'organisation du web:  une structuration personnalisée de l'accès au travers des personnes auxquelles chacun est connecté. Lorsque l'on regarde internet au travers de ce filtre, on ne voit au premier niveau d'accès que les recommandations qui sont faites par nos contacts directes. C'est un mode de diffusion en Peer to Peer. Et parceque nous avons tous un réseau de contacts différents, chacun voit un Internet personnalisé différent autour de lui.

L'ère du web "en affinité" ou "personnalisé" grâce à la recommandation sociale

Cette nouvelle structuration amène beaucoup d'avantages et d'opportunités pour les utilisateurs comme pour les sociétés:

Une adhésion plus forte
La première conséquence est une augmentation remarquable du niveau d'interêt que l'on porte au service et contenu consommé, grace aux recommandations qui nous sont faites de la part de gens que l'on connait. Cela se mesure: la qualité du trafic généré par Facebook est plus de 2 fois supérieure (temps passé, taux de rebond) au trafic généré par Google. Ce qui signifie que les liens recommandés sont plus pertinents que ceux trouvés via Google.

Une consommation accrue

Pour "vivre" dans un réseau social, il faut laisser des traces de son activité. Chacun devient alors une source de recommandations pour les autres. Rapidement, la quantité d'information recommandée dépasse notre capacité de consommation. Cela se traduit par une augmentation très conséquente du temps passé sur Internet. Globalement, la "consommation d"internet" par personne va s'accroitre rapidement, probablement beaucoup plus rapidement que ce que nous connaissions jusqu'à maintenant pour cette raison. Le cercle est totalement vertueux pour les utilisateurs comme pour l'économie online. Les perdants sont les canaux offline.

La fin de l'hégémonie des moteurs de recherche

Si Google poursuit sa progression, il n'est plus la seule porte d'entrée du web. D'ailleurs Facebook fait parti des rares sites d'accès direct à 100%, et il est devenu un très gros apporteur de traffic pour l'écosystème. On parle d'ailleurs de SMO (social média optimization) en complément du SEO (search engine optimization).

Domaine Trafic en provenance
de Facebook
Trafic en provenance
de Twitter
Trafic en provenance des
moteurs de recherche
Myspace 14% 1,6% 15%
LeMonde 6,6% négligeable 20%
Blogger 5,22% 1,27% 24%
Wordpress 6,52% 1,96% 40%
Overblog 4,2% négligeable 41%

Les chiffres ci-dessus proviennent d'Alexa.com. La justesse d'Alexa est discutable en absolue, mais fiable en relatif.
LeMonde et Overblog ont un trafic presque exclusivement Français. Les autres plateformes sont internationales, centrées sur les USA, et représentent bien la tendance à venir en France.
De mémoire, les chiffres étaient deux fois moins élevés pour Facebook il y a 1 an.

Je suis persuadé que dans 2 ans, les moteurs de recherche seront globalement une source secondaire de trafic. Pour autant, celà ne signifie pas que Google va arréter de grossir, au contraire. Mais sa situation de monopole va s'estomper sur son activité moteur de recherche. Et pour une raison que j'évoque ici, il serait logique que Facebook devienne rapidement chalenger sur le marché de la vente de trafic.

Quelle est la meilleure source de diversité? Le moteur de recherche ou le réseau social?
Une question me semble importante: celle de la diversité. Un moteur comme Google a ses défauts, et en particulier il a celui de privilégier des sites, des portails et des plateformes qui possèdent un important volume de contenu et savent optimiser leur architecture pour permettre à Google de les indexer facilement. Le simple exemple de wikipedia suffira à convaincre tout le monde. Je ne vais pas m'en plaindre, puisque les blogs hébergés par Overblog profitent de cette concentration, mais cette selection n'est pas en relation avec la nature même des contenus, ni de leur pertinence, ni de leur qualité.
Certains contenus, qui ne sont pas exposés par les moteurs, ne mériteraient ils pas d'être plus visibles? Est-ce que les réseaux sociaux leur apportent cette exposition en augmentant la diversité des contenus et services consommés?
J'ai le mauvais sentiment que sur cette question, l'utilisation des réseaux sociaux va plutôt participer à réduire la diversité. C'est le revers de la médaille.


L'étape suivante

Je pense que la prochaine étape importante sur Internet consiste à rapprocher le "search" et de la recommandation social. C'est le social search. Pour tous les sujets qui impliquent le profil et les goûts d'un utilisateur, les moteurs de recherche classiques ne sont pas adaptés, et les contacts que l'on a dans son réseau sont rarement suffisants pour répondre aux questions que l'on se pose.

Par exemple, si vous cherchez un "film d'aventure", un "album de jazz", un "restaurant à Paris 12", un "concert ce soir", un moteur comme Google ne vous donnera rien de pertinent, ou plus exactement rien d'instantané comme il le fait pour des définitions. La preuve en est que la réponse à l'une de ces requêtes est la même pour tous les utilisateurs.
De la même façon, un réseau de 150 contacts (c'est la moyenne sur Facebook) ne sera pas suffisant pour couvrir les demandes précises que l'on peut avoir. Alors traiter les données issues des contributions d'utilisateur pour en faire un "moteur social" est la réponse à ce problème. C'est ce qu'ont commencé à faire Amazon sur les livres, Netflix pour les films, LastFM pour la musique, etc...
C'est évidemment cette conviction très forte qui me pousse à travailler sur le sujet au travers de Nomao pour ce qui touche à la recherche locale.

Partager cet article

Repost 0

Gîte Story: Une non-expérience sur le web depuis le Périgord

Publié le par Frédéric Montagnon

4050190362_f7bf9b09d0.jpg

Lu dans Libération cette semaine: «Gîte Story» pour journalistes, "Enfermés pendant cinq jours, ils n’auront que Twitter et Facebook pour s’informer."

"Cinq journalistes de radios francophones (Radio Canada, France Inter, France Info, la RTS et la RTBF), qui vont s’enfermer pendant cinq jours dans un gîte rural du Périgord (...) Ni télé, ni radio, ni journaux, ni dépêches d’agences. Seul accès à l’actu : le site de microblogging Twitter et le réseau social Facebook.
(...) L'expérience a pour but de mesurer la valeur des infos diffusées sur les réseaux sociaux.
Ils pourront cliquer sur les liens mis en ligne sur Twitter et Facebook (...) Et interdiction, bien sûr, de surfer sur le reste d’Internet."


On serait mieux informé en habitant à coté de la maison de la radio à Paris que dans un gîte rural dans le Périgors? Sourire. Tant mieux pour eux, c'est toujours sympa de se faire offrir des vacances.
Mais que vont ils observer? Simplement ce que leurs réseaux de contacts vont partager avec eux sur Facebook et Twitter. Le test qu'ils vont faire n'aura de valeur que pour eux, le résultat ne pourra pas être généralisé. Etre journaliste, c'est avoir le réseau de contacts d'un journaliste. On peut imaginer que la majeure partie de leurs contacts sont communs, ils vont donc tirer les mêmes conclusions. En revanche, un ado de 15 ans n'aura absolument pas le même type de contacts et les conclusions qu'ils vont faire de cette expérience ne les concernera pas.

En l'occurence, je prends le pari qu'ils ne vont rien manquer de l'actualité car ils sont entourés d'informateurs et d'autres pros de l'info, et ils pourront en conclure que Facebook et Twitter leur "suffisent" pour couvrir l'actualité. La réalité est que les contenus ne sont ni sur Twitter, ni sur Facebook qui ne sont que des canaux de diffusion.

La question qu'ils voulaient peut-être poser au travers de cette expérience est celle de la valeur de la séléction éditoriale d'un magazine par rapport aux recommandations faites sur les réseaux sociaux? Pour y répondre correctement, il faudrait prendre un large panel d'utilisateurs.
J'ai la conviction que globalement, les réseaux sociaux ne font qu'amplifier les mises en valeurs éditoriales. 

Je trouve dommageable la sur-médiatisation faite de Twitter en France. Twitter ne représente quasiment rien sur le térritoire alors que tous les médias en parlent sans arrêt depuis un an. Beaucoup d'autres entreprises mériteraient bien qu'on parle d'elles en attendant...

Partager cet article

Repost 0

Doit-on taxer Google en France?

Publié le par Frédéric Montagnon

1273462042_83ca96c583.jpg

La balance commerciale de la France sur le marche "internet" est une catastrophe

Bonne nouvelle, le gouvernement a pris conscience du déséquilibre incroyable qui existe sur le marché de l'internet français! Pour prendre les repères généralement utilisés dans l'économie traditionnelle, la balance commerciale de la France, qui établit le rapport entre l'importation et l'exportation, est celle d'un pays sans ressource. Nous importons presque toutes les technologies et services qui sont utilisés sur Internet d'aujourd'hui.
Mais lorsqu'il s'agit d'Internet, on peut difficilement évaluer l'importation dans la mesure où tout est immatériel. De ce fait, il est impossible de connaitre la valeur de ce qui rentre, et le prix qui est payé pour ces services et ces contenus. D'autant qu'ils sont en grande partie financés indirectement par de la publicité.

Dans ce domaine, un problème se pose aujourd'hui en France: jusqu'à présent les entreprises qui voulaient faire connaitre leurs services ou produits auprès des français dépensaient de l'argent sur des supports eux aussi français (télé, radio, presse, affichage). Avec Internet, le gros des budgets part sur des supports/plateformes étrangers comme Google, Yahoo, Microsoft, Facebook etc... tout simplement parce que leurs services sont massivement adoptés par les français. Or les bénéfices de ces sociétés sont taxés hors de France, et la création d'emplois ne se fait pas ici non plus. De cette mutation dans les usages, il résulte une perte de parts de marché pour l'écosystème des sociétés françaises et une perte de revenus pour l'état. Voilà ce dont le gouvernement se rend compte aujourd'hui. Mieux vaut tard que jamais!

Cyniquement, je dirai qu'on se retrouve un peu dans la situation de certains pays autrefois colonisés, qui ne captaient qu'une très faible partie de la valeur des ressources qui était (ou sont encore!) exploitées par des étrangers sur leur territoire (travail et matière premières).
La comparaison fonctionne bien lorsqu'on regarde ce qui se passe sur le marché de l'énergie. Avec Internet, c'est la France qui est dans la situation de faiblesse et de dépendance.


Ce déséquilibre va continuer à s'accentuer

Mais ce n'est pas tout. La question de la délocalisation du marché de la publicité n'est qu'une petite partie de ce que l'avenir réserve. Les applications, les contenus et les jeux vendus directement sur des plateformes comme l'iPhone, la Xbox, la Wii, sont payés depuis la France à des entreprises établies à l'étranger. Ces marchés vont vite représenter des sommes bien plus importantes que la pub.
Apple, qui est à peu près le seul à avoir réussi à créer une place de marché pour les contenus à destination des français, opère bien entendu depuis l'étranger. Savez vous combien de personnes travaillent pour Apple sur iTunes en France? A ma connaissance une seule. Sur cette activité de vente, la France ne touche quasiment rien.


Nos lois confortent malheureusement les industries en perte de vitesse dans leur immobilisme

Dans son coin, Hadopi semble donner un peu de temps au cinéma français. Inutile de travailler sur le problème de la VOD, puisque le cinéma sera sauvé par cette loi! Les "pirates" (qui sont aussi les plus fidèles consommateurs) n'ont qu'à bien se tenir! Malheureusement, la seule conséquence pour la France sera de subir le marché dans qq mois ou années avec des offres de VOD impeccables qui viendront de sociétés étrangères. Je suis prêt à prendre les paris: le futur montrera qu'Hadopi aura été le frein à l'innovation qui aura définitivement mis la France hors de la competition sur les sujets du cinéma et de la musique. D'autres s'en occuperont bien mieux que nous.
Je rappelle qu'aucune offre de VOD digne de ce nom n'existe en France! Les possesseurs de Mac en savent qq chose puisqu'il est tout simplement impossible d'acheter un film Français avec un Mac.

La musique, le cinéma, les jeux, les logiciels... voilà autant de sujets qui vont provoquer une fuite de valeur importante vers l'étranger, faute d'avoir construit des vraies places de marché en France.


Taxer serait déplacé et n'est techniquement pas possible

La réponse proposée par le gouvernement à ces deux problèmes est simple: il faut taxer les entreprises étrangères pour financer nos artistes. La tendance des recettes et dépenses de l'état explique très clairement la motivation à vouloir faire rentrer de l'argent à court terme. Mais ce réflexe protectionniste est bien trop primaire... et parfaitement déplacé. Pourquoi veut on taxer ces sociétés? Car Internet aurait détruit de bons modèles au détriment des artistes? En réalité, ce sont les modèles de revenus de l'industrie de la culture qui sont dépassés sur Internet. Cette industrie a pris l'habitude de vendre des supports et pas des contenus. Maintenant que les supports disparaissent, elle ne sait plus quoi vendre. Les artistes n'ont rien à voir la dedans! D'ailleurs eux sont bien contents que les cartes soient redistribuées. Ils ne touchaient de toutes façons plus grand chose dans cette chaine de valeur.
Comment peut on vouloir financer les artistes sur le dos de Google comme on a essayé de le faire avec la redevance pour la copie privée?? Ces sujets n'ont aucun rapport.

Bref, la solution qui pointe son nez, c'est à dire la taxation des revenus publicitaires, est sans issue pour 3 raisons:
- Il est impossible de tracer l'ensemble des revenus pub réalisés "sur" le territoire (quid d'Apple qui paie Google pour faire connaitre un nouveau produit auprès des Français? Qui va pouvoir tracer ce mouvement d'argent?).
- Il y aura toujours des parades pour requalifier ce que l'on appel aujourd'hui "pub" en d'autres services.
- Aucune société ne choisira la France pour y développer des activités internationnales, de peur d'être taxée à nouveau.


La question est bien entendu ailleurs

Ce n'est pas sur une machine à gaz fiscale sur laquelle il faut travailler, mais sur les questions essentielles:
- Pourquoi un projet comme Quaero est un bide?
- Pourquoi les entreprises du web réussissent mieux en Californie qu'en France?
- N'y a-t-il pas un problème de monopole de Google au niveau de l'Europe et certainement pas au niveau de la France?
- Pourquoi les médias français préfèrent parler en permanence depuis un an de Twitter qui n'a jamais séduit le grand public en france, plutôt que des start-up françaises qui ont une vraie proposition de valeur et qui ont besoin d'un support médiatique?

La seule solution est de jouer un rôle actif dans cette industrie mondiale. Donc de pousser les entreprises et les formations dans ce sens.

Le réflexe de la taxe serait un aveu d'impuissance, une façon de dire: comme on y peut rien, on installe un péage. C'est un très mauvais choix pour l'avenir. Remarquez, on a bien financé des retraites en taxant les automobilistes...


Partager cet article

Repost 0