Les nouveaux oracles. Comment les algorithmes prédisent le crime

Par : Vincent Berthet, Léo Amsellem

Formats :

Offrir maintenant
Ou planifier dans votre panier
Disponible dans votre compte client Decitre ou Furet du Nord dès validation de votre commande. Le format ePub est :
  • Compatible avec une lecture sur My Vivlio (smartphone, tablette, ordinateur)
  • Compatible avec une lecture sur liseuses Vivlio
  • Pour les liseuses autres que Vivlio, vous devez utiliser le logiciel Adobe Digital Edition. Non compatible avec la lecture sur les liseuses Kindle, Remarkable et Sony
Logo Vivlio, qui est-ce ?

Notre partenaire de plateforme de lecture numérique où vous retrouverez l'ensemble de vos ebooks gratuitement

Pour en savoir plus sur nos ebooks, consultez notre aide en ligne ici
C'est si simple ! Lisez votre ebook avec l'app Vivlio sur votre tablette, mobile ou ordinateur :
Google PlayApp Store
  • FormatePub
  • ISBN978-2-271-13795-1
  • EAN9782271137951
  • Date de parution09/09/2021
  • Copier Coller02 page(s) autorisée(s)
  • Protection num.Digital Watermarking
  • Taille2 Mo
  • Infos supplémentairesepub
  • ÉditeurCNRS EDITIONS
  • PréfacierPaul Duan

Résumé

Prédire l'avenir permet d'agir de façon optimale au présent. Aujourd'hui, les prédictions les plus précises proviennent d'algorithmes, qui permettent d'anticiper aussi bien une maladie que le départ d'un employé. Mais cette prédiction algorithmique atteint également l'État dans ses fonctions les plus régaliennes, comme la sécurité. Que ce soit en justice pénale (pour estimer le risque de récidive d'un détenu), au sein de la police (afin de connaître les probabilités d'occurrence d'un crime dans un certain lieu), ou dans la lutte contre le terrorisme (afin de détecter les menaces potentielles), les algorithmes prédictifs sont largement mobilisés en matière de sécurité intérieure et extérieure.
Ces nouveaux oracles marquent-ils l'avènement de Minority Report version 2.0 ?S'ils charrient la promesse d'une efficacité accrue, ces algorithmes pourraient aussi bien agir, en cas de biais importants, comme des "?armes de destruction massive?". Nos valeurs nous enjoignent à nous prémunir de l'émergence d'un Big Brother que nos moyens technologiques rendent désormais possible. Le panoptique à ciel ouvert, tel que déployé par la Chine, par exemple, en constitue un exemple inquiétant.
Il faut donc trouver la ligne de crête, le fragile équilibre qui doit permettre d'éviter le double écueil de l'impuissance publique et de la dystopie totalitaire. Au fond, les algorithmes sont solubles dans la démocratie s'ils la servent plutôt que s'y substituent.
Prédire l'avenir permet d'agir de façon optimale au présent. Aujourd'hui, les prédictions les plus précises proviennent d'algorithmes, qui permettent d'anticiper aussi bien une maladie que le départ d'un employé. Mais cette prédiction algorithmique atteint également l'État dans ses fonctions les plus régaliennes, comme la sécurité. Que ce soit en justice pénale (pour estimer le risque de récidive d'un détenu), au sein de la police (afin de connaître les probabilités d'occurrence d'un crime dans un certain lieu), ou dans la lutte contre le terrorisme (afin de détecter les menaces potentielles), les algorithmes prédictifs sont largement mobilisés en matière de sécurité intérieure et extérieure.
Ces nouveaux oracles marquent-ils l'avènement de Minority Report version 2.0 ?S'ils charrient la promesse d'une efficacité accrue, ces algorithmes pourraient aussi bien agir, en cas de biais importants, comme des "?armes de destruction massive?". Nos valeurs nous enjoignent à nous prémunir de l'émergence d'un Big Brother que nos moyens technologiques rendent désormais possible. Le panoptique à ciel ouvert, tel que déployé par la Chine, par exemple, en constitue un exemple inquiétant.
Il faut donc trouver la ligne de crête, le fragile équilibre qui doit permettre d'éviter le double écueil de l'impuissance publique et de la dystopie totalitaire. Au fond, les algorithmes sont solubles dans la démocratie s'ils la servent plutôt que s'y substituent.