Petite mathématique du cerveau. Une théorie de l'information mentale

Par : Claude Berrou, Vincent Gripon

Formats :

Offrir maintenant
Ou planifier dans votre panier
Disponible dans votre compte client Decitre ou Furet du Nord dès validation de votre commande. Le format PDF protégé est :
  • Compatible avec une lecture sur My Vivlio (smartphone, tablette, ordinateur)
  • Compatible avec une lecture sur liseuses Vivlio
  • Pour les liseuses autres que Vivlio, vous devez utiliser le logiciel Adobe Digital Edition. Non compatible avec la lecture sur les liseuses Kindle, Remarkable et Sony
  • Non compatible avec un achat hors France métropolitaine
Logo Vivlio, qui est-ce ?

Notre partenaire de plateforme de lecture numérique où vous retrouverez l'ensemble de vos ebooks gratuitement

Pour en savoir plus sur nos ebooks, consultez notre aide en ligne ici
C'est si simple ! Lisez votre ebook avec l'app Vivlio sur votre tablette, mobile ou ordinateur :
Google PlayApp Store
  • FormatPDF
  • ISBN978-2-7381-7861-9
  • EAN9782738178619
  • Date de parution13/09/2012
  • Copier CollerNon Autorisé
  • Protection num.Adobe DRM
  • Transferts max.Non Autorisé
  • ÉditeurOdile Jacob

Résumé

Du neurone, composant fondamental du cerveau, on sait à peu près tout. De l'information mentale qu'il traite, on ne sait presque rien. Sous quelle forme " matérielle " et selon quelle organisation interne notre cerveau range-t-il ses visages connus, ses poèmes préférés et ses numéros de téléphone ? De quelle manière les restitue-t-il à la demande ? Ces questions ayant trait à l'information mentale relèvent moins de la biologie et de la neuroanatomie que de la théorie de l'information, formulée à l'origine par des spécialistes des télécommunications et du codage.
Cet ouvrage très abordable apporte une première réponse concrète, mathématiquement cohérente et biologiquement plausible, sur la manière dont le réseau neural fixe et remémore ses éléments de connaissance. S'y mêlent, en une théorie originale, neurones et graphes, codes correcteurs d'erreurs et colonnes corticales, " cliques " neurales et autres " tournois ", en quête des algorithmes de notre cerveau.
Les perspectives de développement offertes par cette théorie et par le modèle de mémoire cérébrale entièrement numérique auquel elle conduit sont nombreuses et prometteuses, en neurosciences comme dans le champ de l'intelligence artificielle.
Du neurone, composant fondamental du cerveau, on sait à peu près tout. De l'information mentale qu'il traite, on ne sait presque rien. Sous quelle forme " matérielle " et selon quelle organisation interne notre cerveau range-t-il ses visages connus, ses poèmes préférés et ses numéros de téléphone ? De quelle manière les restitue-t-il à la demande ? Ces questions ayant trait à l'information mentale relèvent moins de la biologie et de la neuroanatomie que de la théorie de l'information, formulée à l'origine par des spécialistes des télécommunications et du codage.
Cet ouvrage très abordable apporte une première réponse concrète, mathématiquement cohérente et biologiquement plausible, sur la manière dont le réseau neural fixe et remémore ses éléments de connaissance. S'y mêlent, en une théorie originale, neurones et graphes, codes correcteurs d'erreurs et colonnes corticales, " cliques " neurales et autres " tournois ", en quête des algorithmes de notre cerveau.
Les perspectives de développement offertes par cette théorie et par le modèle de mémoire cérébrale entièrement numérique auquel elle conduit sont nombreuses et prometteuses, en neurosciences comme dans le champ de l'intelligence artificielle.