Un equipo de investigadores ha descubierto una clave importante sobre por qué los modelos de IA entrenados para imitar el cerebro humano se vuelven más resistentes a ataques adversariales: esos pequeños ajustes imperceptibles en una imagen que pueden engañar a una IA estándar para que confunda una señal de pare con una de límite de velocidad. ¿La respuesta sorprendente? No se trata de enfocarse en frecuencias espaciales bajas como se pensaba anteriormente.
La investigación
Zhenan Shao y sus colegas de la Universidad de Illinois y la Universidad Johns Hopkins se propusieron probar una hipótesis principal: que la alineación neuronal —entrenar una red neuronal convolucional profunda (DCNN) para tener representaciones internas similares a las de la corteza visual humana— mejora la robustez adversarial al cambiar la dependencia del modelo de patrones frágiles de alta frecuencia a frecuencias espaciales bajas (LSF) más robustas.
En su estudio (arXiv:2605.04443, mayo de 2026), el equipo primero confirmó que las DCNN alineadas con regiones de orden superior de la vía visual ventral humana aumentaban la dependencia tanto de LSF como de una banda estrecha de frecuencia media conocida como el 'canal humano'. Pero cuando sesgaron directamente los modelos hacia estas bandas de frecuencia, encontraron una clara disociación: sesgar hacia el canal humano, solo o junto con LSF, no mejoró la robustez, sino que la perjudicó. El sesgo hacia LSF solo produjo ganancias modestas, aunque indujo cambios mucho mayores en la dependencia de frecuencias espaciales que la alineación neuronal. Críticamente, ninguno de los modelos sesgados por frecuencia mostró una mayor similitud con la geometría representacional neuronal humana.
Los resultados, basados en múltiples arquitecturas DCNN y modelos entrenados en ImageNet, sugieren que la alteración en la dependencia de frecuencias espaciales es una propiedad emergente de aprender representaciones más similares a las humanas, no el mecanismo principal detrás de la robustez.
Por qué es importante
Para cualquiera interesado en cómo funciona su propio cerebro —y cómo se puede hacer la IA más segura— este estudio apunta a principios más profundos. Nuestro sistema visual no está simplemente sintonizado a frecuencias bajas o medias; codifica objetos de una manera rica y relacional que los modelos actuales de IA apenas comienzan a capturar. Comprender qué hace robusta la visión humana podría llevar a sistemas de IA más resilientes en autos autónomos, imágenes médicas y seguridad.
Qué puedes hacer
Si bien no puedes ajustar directamente la sintonización de frecuencias espaciales de tu cerebro, puedes mantenerlo agudo. Participa en tareas visuales variadas —acertijos, arte, deportes— que desafíen tu reconocimiento de objetos. Entrena tu cerebro de manera integral con ejercicios cognitivos que enfaticen el reconocimiento de patrones y el razonamiento, no solo la discriminación de frecuencias.
Fuente: arXiv q-bio.NC
¿Sientes curiosidad por tu propio cerebro? Haz nuestro test de CI adaptativo gratuito o prueba 306 niveles de entrenamiento cerebral.