Petite mathématique du cerveau. Une théorie de l'information mentale
Par : ,Formats :
Disponible dans votre compte client Decitre ou Furet du Nord dès validation de votre commande. Le format PDF protégé est :
- Compatible avec une lecture sur My Vivlio (smartphone, tablette, ordinateur)
- Compatible avec une lecture sur liseuses Vivlio
- Pour les liseuses autres que Vivlio, vous devez utiliser le logiciel Adobe Digital Edition. Non compatible avec la lecture sur les liseuses Kindle, Remarkable et Sony
- Non compatible avec un achat hors France métropolitaine

Notre partenaire de plateforme de lecture numérique où vous retrouverez l'ensemble de vos ebooks gratuitement
Pour en savoir plus sur nos ebooks, consultez notre aide en ligne ici
- FormatPDF
- ISBN978-2-7381-7861-9
- EAN9782738178619
- Date de parution13/09/2012
- Copier CollerNon Autorisé
- Protection num.Adobe DRM
- Transferts max.Non Autorisé
- ÉditeurOdile Jacob
Résumé
Du neurone, composant fondamental du cerveau, on sait à peu près tout. De l'information mentale qu'il traite, on ne sait presque rien. Sous quelle forme " matérielle " et selon quelle organisation interne notre cerveau range-t-il ses visages connus, ses poèmes préférés et ses numéros de téléphone ? De quelle manière les restitue-t-il à la demande ? Ces questions ayant trait à l'information mentale relèvent moins de la biologie et de la neuroanatomie que de la théorie de l'information, formulée à l'origine par des spécialistes des télécommunications et du codage.
Cet ouvrage très abordable apporte une première réponse concrète, mathématiquement cohérente et biologiquement plausible, sur la manière dont le réseau neural fixe et remémore ses éléments de connaissance. S'y mêlent, en une théorie originale, neurones et graphes, codes correcteurs d'erreurs et colonnes corticales, " cliques " neurales et autres " tournois ", en quête des algorithmes de notre cerveau.
Les perspectives de développement offertes par cette théorie et par le modèle de mémoire cérébrale entièrement numérique auquel elle conduit sont nombreuses et prometteuses, en neurosciences comme dans le champ de l'intelligence artificielle.
Cet ouvrage très abordable apporte une première réponse concrète, mathématiquement cohérente et biologiquement plausible, sur la manière dont le réseau neural fixe et remémore ses éléments de connaissance. S'y mêlent, en une théorie originale, neurones et graphes, codes correcteurs d'erreurs et colonnes corticales, " cliques " neurales et autres " tournois ", en quête des algorithmes de notre cerveau.
Les perspectives de développement offertes par cette théorie et par le modèle de mémoire cérébrale entièrement numérique auquel elle conduit sont nombreuses et prometteuses, en neurosciences comme dans le champ de l'intelligence artificielle.
Du neurone, composant fondamental du cerveau, on sait à peu près tout. De l'information mentale qu'il traite, on ne sait presque rien. Sous quelle forme " matérielle " et selon quelle organisation interne notre cerveau range-t-il ses visages connus, ses poèmes préférés et ses numéros de téléphone ? De quelle manière les restitue-t-il à la demande ? Ces questions ayant trait à l'information mentale relèvent moins de la biologie et de la neuroanatomie que de la théorie de l'information, formulée à l'origine par des spécialistes des télécommunications et du codage.
Cet ouvrage très abordable apporte une première réponse concrète, mathématiquement cohérente et biologiquement plausible, sur la manière dont le réseau neural fixe et remémore ses éléments de connaissance. S'y mêlent, en une théorie originale, neurones et graphes, codes correcteurs d'erreurs et colonnes corticales, " cliques " neurales et autres " tournois ", en quête des algorithmes de notre cerveau.
Les perspectives de développement offertes par cette théorie et par le modèle de mémoire cérébrale entièrement numérique auquel elle conduit sont nombreuses et prometteuses, en neurosciences comme dans le champ de l'intelligence artificielle.
Cet ouvrage très abordable apporte une première réponse concrète, mathématiquement cohérente et biologiquement plausible, sur la manière dont le réseau neural fixe et remémore ses éléments de connaissance. S'y mêlent, en une théorie originale, neurones et graphes, codes correcteurs d'erreurs et colonnes corticales, " cliques " neurales et autres " tournois ", en quête des algorithmes de notre cerveau.
Les perspectives de développement offertes par cette théorie et par le modèle de mémoire cérébrale entièrement numérique auquel elle conduit sont nombreuses et prometteuses, en neurosciences comme dans le champ de l'intelligence artificielle.