Quizás recientemente has escuchado hablar de redes neuronales artificiales o arquitecturas del tipo deep-learning. ¿Qué son y cómo surgieron? Bueno, hablaremos de esto comenzando desde la llamada investigación en redes neuronales, y rastreándola hasta donde ha llegado hoy. La investigación moderna de redes neuronales se remonta al sicólogo Donald Hebb en la década de 1940 Donald Hebb propuso que las redes de unidades simples, siguen simples reglas de aprendizaje, pueden aprender a entender y modelar complejos patrones, y la regla más simple que él propuso fue que si dos unidades están activas al mismo tiempo, hacen la conexión de la red un poco más fuerte, y si no están activas al mismo tiempo, la conexión será más debil, esto fue ampliamente inspirado por sus ideas sobre neuronas biológicas, y como estas pueden aprender patrones, y desde entonces nosotros hemos encontrado que las neuronas realizan algunas reglas simples. Estas reglas que Hebb propuso se llaman hoy 'heavy' y aprendizaje y son un poco distintas de lo que es usado en aprendizaje supervisado ellas juegan un rol mayor en aprendizaje no supervisado, por lo que no hablaremos en detalle de eso. Sin embargo, eso fue el inicio de la idea de redes neuronales como modelos de unidades simples que están conectadas a otras y que aprenden cambiando los pesos entre las unidades. Ahora, las redes neuronales actuales emergen con el trabajo de Frank Rosenblatt quién fue otro sicólogo y quien en los 50 inventó lo que llamó el 'Perceptron'. Esto fue un modelo computacional de aprendizaje y ya era una arquitectura de supervisor por lo que él pudo aprender a predecir patrones dados, y Frank Rosenblatt en los 50 demostró que él podía entrenar el 'Perceptron' para reconocer simples patrones, como letras. Esto generó mucha emoción en su momento porque fue un bonito sin precedentes para la investigación en IA. Entonces, ¿cómo el perceptron trabaja?, bueno, este consiste de varias unidades simples que son llamadas neuronas o nodos y en este diagrama vemos el esquema esencial, entonces aquí las llamadas 'neuronas input', que he etiquetado con 'x1' y 'x2'. Ahora, si recordamos nuestra discusión previa de clasificar algo como imágenes de perros y gatos, y las graficamos en dos dimensiones (2D), estas 2D podrían ser los números que alimentan 'x1' y 'x2'.