Des services secrets, nous ne savons que les échecs et rarement les succès. Si l'échec provoque l'anathème, l'ingratitude est fille de la victoire. Quand à la gloire, il faut l'oublier, elle est pour les autres...

dimanche 16 décembre 2018

Une IA « Minority Report » est testée pour arrêter les meurtriers, pédophiles, etc. avant leur crime




Les intelligences artificielles interviennent de plus en plus dans notre quotidien, et parfois dans des domaines insolites que nous n’aurions jamais soupçonnés. Ainsi, au Royaume-Uni, la police teste actuellement une IA qui calcule la probabilité qu’un citoyen commette un crime, ou en soit victime ! Confiantes, les forces de l’ordre espèrent pouvoir déployer leur prototype dans tout le pays dès le printemps 2019.

Les intelligences artificielles se développent à une vitesse incroyable et surpassent même nos experts dans différents domaines. Néanmoins, d’autres applications poussent à une réflexion plus profonde sur le développement des intelligences artificielles, leurs utilisations et leurs conséquences.

Ainsi, la police espagnole teste actuellement, et avec succès, une intelligence artificielle capable de détecter les mensonges dans les plaintes écrites pour vol. Ce qui semblait être un grand pas n’est finalement qu’une brindille à côté du NDAS (National Data Analytics Solution). Cette combinaison d’IA et de statistiques, actuellement testée par la police britannique, détermine la probabilité qu’une personne commette un crime ou en soit victime.

Pour fonctionner, le programme NDAS est basé sur plus d’un téraoctet de données des polices locales et nationales, y compris les dossiers des personnes arrêtées et fouillées et les registres des crimes commis. Avec ces informations, l’IA a pu déterminer près de 1 400 indicateurs pour prédire la criminalité. Alors, les personnes repérées par le système se voient attribuer une cote de risque, tandis qu’on leur propose des interventions, comme du conseil, pour éviter un comportement criminel potentiel.

Les responsables du projet ont jusqu’à la fin du mois de mars 2019 pour produire un prototype, qui pourra ensuite être étendu à tout le pays. Néanmoins, l’IA NDAS fait débat, notamment par les graves problèmes éthiques qu’elle soulève. Andrew Ferguson de l’Université de Columbia affirme qu’en fondant les prévisions sur les dossiers d’arrestations passées, « les outils d’analyse risquent de limiter les enquêtes policières à des endroits bien fréquentés et peuvent renforcer les préjugés ».

Il ajoute que « les arrestations sont liées à l’endroit où la police est déployée et non à l’endroit où se trouve le crime, ce qui a tendance à affecter de façon disproportionnée les personnes de couleur et les résidents des quartiers pauvres ». Martin Innes, directeur de l’institut de recherche sur la criminalité et la sécurité de l’Université de Cardiff, se dit « sceptique » quant à la fiabilité de la prévision des infractions au niveau individuel. Et vous, pensez-vous que cette solution à la Minority Report fonctionnera ?

Christelle Perret