As sinapses — as conexões entre neurônios — são conhecidas por armazenar memórias, mas até agora não tínhamos uma maneira clara de medir quanta informação elas retêm. Uma equipe liderada por Xinhao Fan, da Universidade Johns Hopkins, mudou isso com uma estrutura teórica que quantifica a informação armazenada nas forças sinápticas, não apenas nos padrões de disparo neural. Publicado em Neural Computation, o trabalho fornece uma lente matemática para entender o armazenamento de memória em redes biológicas e artificiais.
A Pesquisa
Fan e o coautor Shreesh Mysore estudaram redes Hebbianas densamente conectadas realizando tarefas de memória autoassociativa, como recordar um padrão a partir de uma pista parcial. Eles modelaram os padrões de dados a serem armazenados como distribuições log-normais — uma representação realista das distribuições de força sináptica. Usando a teoria da informação de Shannon, derivaram fórmulas analíticas para a informação mútua entre os dados e sinapses únicas, pares e grupos arbitrários de sinapses. Sua estrutura capturou como cada sinapse contribui para o armazenamento e revelou um efeito impressionante: a informação armazenada por todas as sinapses juntas é maior do que a soma da informação de cada uma individualmente. Essa "interação sinérgica" significa que a rede neural codifica mais informação coletivamente do que individualmente. A teoria também corresponde a descobertas estabelecidas sobre a capacidade de armazenamento de padrões e apoia a ideia de codificação distribuída, onde a informação está espalhada por muitas conexões.
Por Que Isso Importa
Esta estrutura formaliza algo intuitivamente conhecido, mas nunca medido com precisão: as sinapses não armazenam bits independentemente — elas trabalham juntas sinergicamente. Para entender o aprendizado e a memória, isso implica que talvez precisemos considerar padrões de conectividade em vez de apenas sinapses individuais. Para redes neurais artificiais, pode inspirar maneiras mais eficientes de armazenar informações em conexões ponderadas. Para quem está curioso sobre o próprio cérebro, destaca a incrível eficiência do design cerebral: nossas memórias estão distribuídas por bilhões de conexões, cada uma contribuindo para um todo que é mais inteligente que suas partes.
O Que Você Pode Fazer
Embora não possa medir suas sinapses em casa, você pode apoiar a saúde cerebral com estimulação mental regular, exercícios físicos, sono e uma dieta equilibrada. Continue desafiando sua memória com quebra-cabeças e novas habilidades — o armazenamento sináptico do seu cérebro se beneficia da variedade.
Fonte: arXiv q-bio.NC
Curioso sobre seu próprio cérebro? Faça nosso teste de QI adaptativo gratuito ou experimente 306 níveis de treinamento cerebral.