Физики разработали математическую «игрушечную модель», используя статистическую физику, чтобы объяснить одну из великих загадок глубокого обучения: почему массивные нейронные сети изучают закономерности, а не просто запоминают данные. Применяя теорию ренормализации, команда показала, как многомерные флуктуации стабилизируют обучение, открывая путь к более эффективному и предсказуемому искусственному интеллекту.
Исследование
Группа физиков из Гарвардского университета под руководством аспиранта Александра Атанасова и старшего автора Ченгиза Пехлевана опубликовала исследование в Journal of Statistical Mechanics: Theory and Experiment (JSTAT) 8 мая 2026 года. Они построили упрощённую «игрушечную модель» обучения нейронной сети с использованием гребневой регрессии — классического статистического метода — и проанализировали её инструментами статистической физики, в частности теорией ренормализации.
Ключевой вывод: в многомерных пространствах (с миллионами переменных) небольшие случайные флуктуации данных, ранее считавшиеся шумом, на самом деле стабилизируют процесс обучения. Вместо нестабильности или переобучения, эти флуктуации помогают нейронным сетям впитывать микроскопические детали в несколько ключевых параметров, позволяя системе демонстрировать простое, стабильное крупномасштабное поведение — подобно тому, как молекулы воды ведут себя индивидуально, но подчиняются гидродинамике как группа.
Это разрешает давний парадокс: почему такие огромные модели, как ChatGPT и Gemini, обобщают лучше по мере роста, в то время как традиционная мудрость гласит, что они должны переобучаться (запоминать обучающие данные) и плохо работать на новых данных? Ответ кроется в ренормализации — том же физическом принципе, который объясняет, как сложные системы от магнитов до галактик демонстрируют предсказуемые крупномасштабные закономерности.
Почему это важно
Понимание того, почему ИИ обобщает, может помочь в создании более эффективных и энергосберегающих систем. Но для вашего мозга это открытие не менее глубоко: подобно нейронным сетям, ваше собственное обучение опирается на способность извлекать закономерности из зашумлённых многомерных входных данных. Миллиарды нейронов вашего мозга постоянно проводят ренормализацию — отфильтровывают несущественные детали и фокусируются на стабильных паттернах, — благодаря чему вы можете узнать лицо друга в толпе, несмотря на изменения освещения, ракурса или выражения.
Это подчёркивает принцип, называемый «благословением размерности»: в сложных средах шум может на самом деле помогать обучению, вынуждая систему сосредотачиваться на надёжных, общих признаках, а не на хрупких конкретиках.
Что вы можете сделать
Примите запутанное многомерное обучение. Сталкивайтесь с разнообразными задачами, содержащими естественные вариации — например, решайте головоломки, учите новый язык или играйте в стратегические игры. Флуктуации, с которыми вы сталкиваетесь (неправильные ответы, запутанные примеры), — это не препятствия; это те самые механизмы, которые помогают вашему мозгу лучше обобщать. Практикуйте ренормализацию, резюмируя сложные темы одним предложением, заставляя свой разум выделить существенный паттерн.
Источник: Neuroscience News
Любопытно узнать свой мозг? Пройдите наш бесплатный адаптивный IQ-тест или попробуйте 306 уровней тренировки мозга.