« Nettoyage » des sites, les professionnels mitigés

Publié le mercredi 28 janvier 2015


Face à la recrudescence des commentaires à caractère insultant et parfois haineux sur les forums des sites internet du Sénégal, un centre ouvre ces portes à Rufisque pour en substance, filtrer les messages postés par les internautes.


Dans un article paru dans notre édition d'hier, intitulé « les commentaires sur le web sous surveillance : Rufisque espionne le Sénégal », le reporter de Wal Fadjri a notamment interrogé les jeunes qui travaillent pour ce centre de modération.


Pape Amadou Bitèye explique que le centre s'est doté de moyens humains et techniques pour modérer tous les commentaires des sites du Sénégal ainsi que des réseaux sociaux.


Interpellés sur la faisabilité de cette modération sur le plan national, quatre professionnels ont donné leurs avis sur le sujet. Pour les uns et les autres, c'est le travail énorme que cela représente de gérer cette modération qui a été souligné.


Président de l'Association de la presse en Ligne (Appel), Ibrahima Lissa Faye ne sait pas comment cela va être mis en pratique.


« Je ne vois pas comment ces jeunes peuvent s'y prendre pour modérer à temps réel des milliers de commentaires sur ces sites. Ni en termes de ressources humaines, ni en termes de solutions techniques », fait-il savoir.


Pour lui, il faudrait que les jeunes du Centre de modération de Rufisque possèdent des droits en tant qu'administrateurs de tous les sites du Sénégal ainsi que les réseaux sociaux, « sinon chacun à partir de chez lui, peut enlever des commentaires qui lui sont préjudiciables, ce qui techniquement n'est pas possible parce que l'on ne peut pas savoir de manière prémonitoire ce que les gens vont écrire ». Un projet presque « utopique », selon le journaliste.


Le professeur Modou Fall, technicien des Tic à l'Université Cheikh Anta Diop, est plus partagé sur le sujet. Même s'il reconnaît d'une part qu'une modération à l'échelle nationale constitue un travail de titan, il n'occulte pas la possibilité de filtrer des messages par le biais d'une machine, comme l'a fait, selon lui, des pays comme la Chine au niveau étatique.


Pour cela, préconise-t-il, il faudrait que le centre emploie des jeunes à temps plein. Ces derniers doivent se relayer toute la journée, comme dans les centres d'appels. « Une équipe du matin, une équipe de l'après-midi et une équipe de nuit », précise Fall.


Même avec ces ressources humaines, il rappelle par ailleurs que le serveur qui doit signaler des commentaires offensants, doit être « mapper avec des mots clés considérés comme indésirables et qu'une fois ces mots entrés dans la machine, cela le signalera à l'équipe de veille, qui se chargera de filtrer le message ».


Sur ce dernier point, l'informaticien administrateur de réseau du groupe Wal Fadjri, Daour Diène abonde dans le même sens.


Il maintient que l'équipe doit posséder une bonne application pour leur permettre de filtrer les commentaires en soulignant que « comme aucune application n'est parfaite, elle peut parfois laisser passer des mots répertoriés comme indésirables ».


En guise d'exemple, il faut souligner que même sur des sites comme Facebook, le processus de modération des messages n'est pas souvent automatique.


Il faut signaler un commentaire, considéré comme « un abus » à Facebook, celui-ci vérifie, parfois selon la législation en rigueur dans le pays concerné si c'est bien le cas.


Si Facebook juge le message abusif, il envoie un message à la personne l'ayant posté, lui demandant de le retirer, ou s'en occupe lui-même.


Scheina Adaya


(Source : Wal Fadjri, 27 janvier 2015)







via OSIRIS : Observatoire sur les Systèmes d'Information, les Réseaux et les Inforoutes au Sénégal http://ift.tt/1EPM4f3