Voxiva

La sinergia entre Deep Learning y la Neurociencia

En la actualidad con la cada vez más popular área de Deep Learning, resulta importante reconocer los fundamentos que le dieron inicio y cómo ahora, en una mejor posición, es fuente de inspiración y confirmación para teorías en neurociencia. Deep Learning se trata de una rama específica de machine learning que utiliza distintos algoritmos en múltiples capas de proceso, de ahí el término “deep”, formando una arquitectura conocida como redes neuronales. Todo inició de la mano de Warren McCulloch y Walter Pitts en 1943, cuando por primera vez se creó un modelo computacional para redes neuronales artificiales basadas en las del cerebro a través de una técnica conocida como ULU (Unidad lógica con umbral).

Desde entonces, debido al desarrollo de tecnología de procesamiento y de acceso a mayor información o “data”, las redes neuronales resultan más efectivas, y su uso se ha diversificado según las problemáticas que deseen resolver. Redes convolucionales para procesamiento de imágenes, redes recurrentes para modelos secuenciales, procesamiento de sonido, textos, etc; y evolutivas, que aprenden a variar sus parámetros y se adaptan a la geometría del problema.

Sin embargo, pese a estos avances, su uso se restringe a actividades únicas en el ser humano, como la visión, reconocimiento de patrones, o su performance en juegos, como en DeepMind y Alphago en el famoso juego Go. El cerebro, por otra parte, pese a que sigue una lógica similar, divisa experimentos e interpreta resultados, toma decisiones y juicios en distintos aspectos, y aprende de una manera bastante efectiva, lo que es aún sujeto de hipótesis. Neurólogos coinciden en que no se sabe aún mucho sobre su funcionamiento como tal, pese a los importantes avances sobre teoría de aprendizaje y plasticidad cerebral. Existen modelos de alto nivel sobre el aprendizaje del lenguaje que van más allá de teorías psicolingüistas como las de Chomsky y Piaget *, así como modelos de bajo nivel que busquen explicar las reglas que rigen la forma en que las neuronas realizan sus sinapsis y crean el circuito neuronal para procesar nuevas entradas sensoriales, aprendizaje y comportamiento, y finalmente modelos que permitan explicar la base de la memoria y la fortaleza de dichas conexiones.

Estas investigaciones van estrechamente de la mano con investigaciones en Deep Learning. Quizás el ejemplo más claro de esta colaboración mutua sea con la teoría de Spike-timing-dependent plasticity (STDP). Geoffrey Hinton, un psicólogo de cognición y científico computacional reconocido por su contribución en redes neuronales artificiales, planteó, en el 2012, una teoría sobre cómo las neuronas se comunican por picos (spikes) de señales eléctricas en vez de entradas continuas análogas inspirado por una técnica de machine learning llamada Dropout, que evita el sobreentrenamiento liberando unidades y sus conexiones de una red neuronal durante su entrenamiento (Fuente: AI-Med). De muchas formas el éxito de redes con esta caracteristicas sirvió para confirmar la teoría STDP que discute que las redes en el cerebro siguen este mismo comportamiento por picos o spikes para evitar la sobreconfianza, dependencia y coadaptación en la toma de decisiones. Se trata de una teoría que supone ser la base de memoria y aprendizaje definido como un proceso biológico que ajusta la fortaleza de las conexiones entre neuronas en el cerebro. 

La relación entre Machine Learning y biología está dando frutos enormes para ambos, pero no es unidireccional, de la biología como inspiración para Machine Learning. Si no que esta, al tener una base matemática rígida y poseer una comunidad amplia que investiga de manera constante también aporta con teorías sobre las leyes que rigen nuestro aprendizaje. Al igual que la naturaleza inspiró el surgimiento de leyes que expliquen su funcionamiento y con ello la matemática y la física, y ahora explicamos muchas leyes de la naturaleza con la matemática. Así quizás suceda con la naturaleza del cerebro y las redes neuronales.

Fuentes:

Formal Models of Language Learning”, Pinker

Spike-Timing-Dependent Plasticity (STDP), Science Direct

¿Qué reto de negocios estás enfrentando?


¡Cuéntanos aquí!


Has un comentario

Newsletter

Ai en el corazón del conocimiento

Diseñamos algoritmos de inteligencia artificial para modelos correctivos, descriptivos, prescriptivos y predictivos. Nuestras soluciones le brindan conocimiento de alto valor que le permitirán obtener una importante ventaja competitiva en el mercado.

Artículos Recientes