Accueil · Blog · Recherche

Une nouvelle théorie quantifie les informations stockées dans les synapses

Une nouvelle théorie quantifie les informations stockées dans les synapses

Les synapses—les connexions entre les neurones—sont connues pour stocker les souvenirs, mais jusqu'à présent, nous n'avions aucun moyen clair de mesurer la quantité d'informations qu'elles contiennent. Une équipe dirigée par Xinhao Fan de l'Université Johns Hopkins a changé cela avec un cadre théorique qui quantifie les informations stockées dans la force synaptique, et non seulement dans les schémas de décharge neuronale. Publié dans Neural Computation, ces travaux offrent une perspective mathématique pour comprendre le stockage de la mémoire dans les réseaux biologiques et artificiels.

La Recherche

Fan et le co-auteur Shreesh Mysore ont étudié des réseaux hebbiens densément connectés effectuant des tâches de mémoire auto-associative, comme la reconstitution d'un motif à partir d'un indice partiel. Ils ont modélisé les motifs de données à stocker sous forme de distributions log-normales—une représentation réaliste des distributions de force synaptique. En utilisant la théorie de l'information de Shannon, ils ont dérivé des formules analytiques pour l'information mutuelle entre les données et une synapse unique, des paires, et des groupes arbitraires de synapses. Leur cadre a capturé comment chaque synapse contribue au stockage, et a révélé un effet frappant : l'information stockée par toutes les synapses ensemble est plus grande que la somme des informations de chacune prise individuellement. Cette « interaction synergique » signifie que le réseau neuronal encode collectivement plus d'informations qu'individuellement. La théorie correspond également aux résultats établis concernant la capacité de stockage des motifs et soutient l'idée d'un codage distribué, où l'information est répartie sur de nombreuses connexions.

Pourquoi C'est Important

Ce cadre formalise quelque chose d'intuitivement connu mais jamais mesuré avec précision : les synapses ne stockent pas des bits indépendamment—elles travaillent ensemble de manière synergique. Pour comprendre l'apprentissage et la mémoire, cela implique que nous devrions peut-être considérer les schémas de connectivité plutôt que les synapses individuelles. Pour les réseaux de neurones artificiels, cela pourrait inspirer des moyens plus efficaces de stocker l'information dans des connexions pondérées. Pour quiconque est curieux de son propre cerveau, cela met en lumière l'efficacité incroyable de la conception du cerveau : nos souvenirs sont distribués sur des milliards de connexions, chacune contribuant à un tout plus intelligent que ses parties.

Ce Que Vous Pouvez Faire

Bien que vous ne puissiez pas mesurer vos synapses chez vous, vous pouvez soutenir la santé cérébrale par une stimulation mentale régulière, de l'exercice physique, du sommeil et une alimentation équilibrée. Continuez à stimuler votre mémoire avec des puzzles et de nouvelles compétences—votre stockage synaptique bénéficie de la variété.

Source : arXiv q-bio.NC

Curieux de votre propre cerveau ? Passez notre test de QI adaptatif gratuit ou essayez 306 niveaux d'entraînement cérébral.

Curieux de connaître votre QI ?

Passez notre test adaptatif gratuit, scientifiquement conçu, sur 7 domaines cognitifs. Sans inscription.

Passer le test gratuit