Observar, entender, analizar e intentar reproducir: estos comportamientos humanos se repiten desde hace millones de años, cada vez que identificamos un fenómeno natural que creemos posible imitar. Lo hicimos con el fuego, cuando descubrimos que podíamos generar chispas frotando objetos. Lo hicimos con los aviones, al analizar la aerodinámica de las aves. Y lo hacemos con las redes neuronales artificiales, con la intención de reproducir la inteligencia natural: la humana.
Como mencionamos en el artículo anterior de este blog sobre inteligencia artificial, desde la invención de las computadoras los científicos creían que las máquinas serían capaces de emular el pensamiento humano. Sin embargo, ¿cómo podríamos imitarlo si no sabíamos realmente cómo ocurría?
Al analizar sobre el pensamiento —más específicamente, sobre el entendimiento, el conocimiento y el aprendizaje— nos damos cuenta que es una de las búsquedas más antiguas de la humanidad, atravesando diferentes ciencias.
En este texto explicaremos cómo se ha avanzado en la comprensión del funcionamiento de la mente y cómo esos descubrimientos hicieron posible la creación de las redes neuronales artificiales.
¿Qué es aprender?
Observar cómo funciona la mente fue una preocupación compartida por diferentes civilizaciones del mundo: Egipto, China, Grecia… El registro histórico más antiguo sobre este tema probablemente sea una colección de máximas o consejos elaboradas por Ptahhotep, visir del faraón Djedkare Isesi, hace unos 4.500 años. En una de esas máximas afirma: “si quien escucha oye plenamente, entonces se convierte en alguien que entiende”.
Los sentidos —en este caso, la audición— son una entrada (input) para el entendimiento. Dos mil años después de Ptahhotep, Teeteto, en un diálogo sobre el conocimiento con Sócrates y Teodoro, sugiere que conocer es percibir a través de los sentidos. En respuesta, Sócrates y Teodoro argumentan que la facilidad para aprender requiere entendimiento rápido y buena memoria.
Ptahhotep, Sócrates y otros filósofos, hace miles de años, ya asociaban el entendimiento y el aprendizaje con la percepción y la memoria. Estas líneas de pensamiento evolucionaron a lo largo de distintas ciencias hasta que comprendimos que los procesos mentales derivan de nuestra formación biológica.
Como mencionamos en otro artículo del blog, al estudiar la morfología del cerebro descubrimos las redes neuronales. A partir de ese avance comprendimos que el razonamiento ocurre gracias a las conexiones entre capas de neuronas. Sin embargo, las sinapsis explican solo una parte del funcionamiento de la inteligencia. ¿Cómo se genera el aprendizaje a partir de ellas?
La Psicología trajo esas respuestas, en particular con la teoría del psicólogo canadiense Donald Hebb, profesor de la Universidad McGill en Montreal. En su teoría, Hebb presenta el concepto de “asambleas celulares”: grupos de neuronas que trabajan conjuntamente como una unidad de procesamiento. Según Hebb, es en esas asambleas donde la percepción se transforma en “información”. Además, propone que las “asambleas” que se activan repetidamente generan cambios estructurales o metabólicos en ese conjunto de células, permitiendo que la memoria se almacene de forma estable.
Una vez almacenada la memoria, el aprendizaje es posible. De acuerdo con la teoría de Hebb, las actividades repetidas de manera persistente facilitan el crecimiento del volumen de conexiones y la formación de nuevas asambleas celulares más amplias. Así, el momento en que aprendemos es aquel en el que asociamos informaciones que inicialmente se habían memorizado en asambleas más pequeñas.
Redes neuronales artificiales: entendiendo sus estructuras
En el artículo sobre redes neuronales mencionamos que en 1958 Frank Rosenblatt creó el perceptrón —un clasificador lineal que asigna valores de entrada a un valor de salida—, considerado el “neurón artificial”.
El algoritmo del perceptrón calcula un valor de salida a partir de varios valores de entrada, cada uno con un peso que expresa su importancia. El cálculo consiste en una suma ponderada de los valores de entrada, considerando también un valor de sesgo (bias), un término constante independiente de las entradas.
El valor de salida de cada perceptrón pasa a ser una de las entradas de los perceptrones de la capa siguiente. En esta nueva capa, los perceptrones repiten el mismo proceso —una suma ponderada considerando el sesgo— y así sucesivamente, hasta llegar al valor final de la red neuronal artificial.
La red creada por Rosenblatt es un tipo de red neuronal feedforward de una sola capa. Aunque podía “tomar decisiones”, su capacidad de aprendizaje era limitada. Recordemos que para aprender, la inteligencia humana almacena de forma estable la memoria en asambleas celulares y, al repetir su activación, aumenta el número de conexiones y forma nuevas asambleas. Dicho de otro modo, para que las redes neuronales artificiales pudieran aprender más ampliamente, necesitaban repetir actividades y establecer nuevos conjuntos de conexiones. El flujo de cálculo no podía solo avanzar: debía también retroceder para repetirse, creando así nuevas conexiones y “asambleas”.
Ese fue el problema que resolvió el algoritmo de retropropagación (backpropagation), descrito en el artículo “Aprendizaje de representaciones mediante la retropropagación de errores” de David Rumelhart, Geoffrey Hinton y Ronald Williams. Este algoritmo permite que una señal sea enviada de vuelta a través de la red, informando cuánto y en qué dirección cada perceptrón contribuyó al error final. Esa señal indica la sensibilidad del error, es decir, cuánto cambiaría el resultado si se alteraran los valores de entrada o los pesos. Esta información se usa para ajustar los pesos de cada conexión.
Con el algoritmo de retropropagación, las redes neuronales artificiales de múltiples capas empezaron a ofrecer resultados mucho más confiables, ya que podían prever y corregir errores con mayor precisión, usando esa información para su propio beneficio. En consecuencia, podían aprender con más facilidad.
Así, mientras mayor sea la cantidad de capas y más profundas sean, mayor es la capacidad de aprendizaje de las redes neuronales artificiales. Las redes con cuatro o más capas pueden realizar aprendizaje profundo, conocido como deep learning.
Si quieres experimentar el poder de las redes neuronales artificiales en tus procesos empresariales, contáctanos para conocer LIEV, la inteligencia artificial integrada en todas nuestras soluciones.



