Tech & internetMonde

Le logiciel anti-pédopornographie de la police de Londres confond les dunes avec des photos de nus

Repéré par Claire Levenson, mis à jour le 19.12.2017 à 11 h 29

Repéré sur Gizmodo

La Metropolitan Police espère améliorer l'efficacité de son intelligence artificielle détectrice d'images pornographiques d'ici deux à trois ans.

Dunes | JAMES MARVIN PHELPS via Flickr CC License by

Dunes | JAMES MARVIN PHELPS via Flickr CC License by

La police de Londres utilise une intelligence artificielle pour repérer des images de drogue, d'armes et d'argent dans les appareils électroniques qu'ils saisissent. Mais quand il s'agit de détecter des images pédopornographiques, le logiciel ne marche pas bien. Pour l'instant, le système ne fait pas la différence entre un corps nu et des dunes.

«Parfois, quand il y a un désert, le logiciel pense que c'est une image indécente ou de la pornographie, explique Mark Stokes, un directeur de la police scientifique de Londres au Telegraph. Pour une raison que j'ignore, de nombreuses personnes ont des fonds d'écrans de déserts et le système les détecte, pensant que c'est la couleur de la peau.»

Pour l'instant, ce sont surtout des policiers qui passent des heures à évaluer des images indécentes trouvées dans des smartphones et des ordinateurs, mais la Metropolitan Police espère que les machines pourront bientôt s'en charger afin d'éviter ce travail pénible à ses employés. 

Un donut?

 

En partenariat avec la Silicon Valley, la police de Londres raffine son intelligence artificielle anti-pédopornographie, qui pourrait être prête dans deux à trois ans.

Pourtant, comme le note Gizmodo, les géants de la Silicon Valley ne sont pour l'instant pas très doués en matière de détection de la nudité problématique, même lorsque des humains sont payés pour superviser les algorithmes. L'année dernière, la célèbre photo d'une fillette nue fuyant un bombardement au napalm pendant la guerre du Vietnam avait été censurée par Facebook, qui avait ensuite dû s'excuser de l'erreur. 

Plus récemment, des journalistes de Gizmodo avaient testé une nouvelle application censée identifier des images de nudité, et le système avait signalé un donut, un chien et une photo de Grace Kelly toute habillée.

En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour réaliser des statistiques de visites, vous proposer des publicités adaptées à vos centres d’intérêt et nous suivre sur les réseaux sociaux.
> Paramétrer > J'accepte