La voiture qui en savait trop. L'intelligence artificielle a - t - elle une morale ?

Par : Jean-François Bonnefon
Offrir maintenant
Ou planifier dans votre panier
Disponible dans votre compte client Decitre ou Furet du Nord dès validation de votre commande. Le format ePub protégé est :
  • Compatible avec une lecture sur My Vivlio (smartphone, tablette, ordinateur)
  • Compatible avec une lecture sur liseuses Vivlio
  • Pour les liseuses autres que Vivlio, vous devez utiliser le logiciel Adobe Digital Edition. Non compatible avec la lecture sur les liseuses Kindle, Remarkable et Sony
  • Non compatible avec un achat hors France métropolitaine
Logo Vivlio, qui est-ce ?

Notre partenaire de plateforme de lecture numérique où vous retrouverez l'ensemble de vos ebooks gratuitement

Pour en savoir plus sur nos ebooks, consultez notre aide en ligne ici
C'est si simple ! Lisez votre ebook avec l'app Vivlio sur votre tablette, mobile ou ordinateur :
Google PlayApp Store
  • Nombre de pages192
  • FormatePub
  • ISBN978-2-37931-041-6
  • EAN9782379310416
  • Date de parution02/10/2019
  • Protection num.Adobe DRM
  • Taille5 Mo
  • Infos supplémentairesepub
  • ÉditeurHumenSciences

Résumé

Sur la route, si vous n'aviez pas le choix, préféreriez-vous sauver un homme ou une femme ? Un sans-abri ou un cadre supérieur ? Deux jeunes filles ou deux mamies ? Accepteriez-vous de vous sacrifier avec vos passagers pour éviter d'écraser des enfants ?  Les voitures sans conducteur rouleront bientôt dans nos villes. Pour la première fois dans l'histoire de l'humanité, une machine décidera seule qui sauver, sans que l'humain ait le temps de vérifier sa décision.
L'algorithme choisira en fonction des choix moraux que nous lui aurons inculqués. Mais sommes-nous sûrs de notre propre morale ?  Comme le montrent les études scientifiques, la valeur que nous accordons psychologiquement à telle ou telle vie diffère en fonction du sexe, de l'âge, de la condition sociale, de l'état de santé de la personne considérée. Nous sommes aussi conditionnés par notre culture.  Il n'existe pas de morale universelle.
Nous ignorons quelle sera celle des machines. Qui, de nous ou de la machine, prendra les commandes ?
Sur la route, si vous n'aviez pas le choix, préféreriez-vous sauver un homme ou une femme ? Un sans-abri ou un cadre supérieur ? Deux jeunes filles ou deux mamies ? Accepteriez-vous de vous sacrifier avec vos passagers pour éviter d'écraser des enfants ?  Les voitures sans conducteur rouleront bientôt dans nos villes. Pour la première fois dans l'histoire de l'humanité, une machine décidera seule qui sauver, sans que l'humain ait le temps de vérifier sa décision.
L'algorithme choisira en fonction des choix moraux que nous lui aurons inculqués. Mais sommes-nous sûrs de notre propre morale ?  Comme le montrent les études scientifiques, la valeur que nous accordons psychologiquement à telle ou telle vie diffère en fonction du sexe, de l'âge, de la condition sociale, de l'état de santé de la personne considérée. Nous sommes aussi conditionnés par notre culture.  Il n'existe pas de morale universelle.
Nous ignorons quelle sera celle des machines. Qui, de nous ou de la machine, prendra les commandes ?