En este curso descubrirás los fundamentos de las redes neuronales de una forma práctica y accesible. El objetivo es que domines los conceptos esenciales a través de ejemplos claros y dinámicos, combinando ejercicios de programación en Python con actividades de análisis a lápiz y papel.
De esta manera, no solo comprenderás cómo funcionan las redes neuronales desde adentro, sino que también desarrollarás la intuición necesaria para, en una siguiente etapa, adentrarte en la implementación de arquitecturas modernas y de última generación.
Este curso está diseñado para que avances paso a paso: desde la teoría básica hasta la práctica aplicada, asegurando que construyas una base sólida que te permita crecer en el apasionante mundo del aprendizaje profundo.
Temario:
- Introducción
- Presentación del curso
- Motivación
- Las redes neuronales en la IA
- Aprendizaje automático
- Conceptos preeliminares
- Derivadas
- Álgebra Lineal
- Probabilidad
- Lógica
- Fundamentos de las redes neuronales
- Modelos paramétricos
- Regresión lineal
- Regresión logística
- Perceptrón
- Arquitectura
- Simple
- Pase frontal
- Funciones de activación
- Perceptrón multicapa
- Grafo de una red
- Entrenamiento
- Rendimiento
- Decenso por gradiente
- Retropropagación
- Problemas prácticos del entrenamiento
- Sobreajuste
- Regularización
- Optimizadores
- Normalización por lote
Bibliografía
- Norvig, P., & Russell, S. (2004). Inteligencia Artificial. Un Enfoque Moderno. Phh Pretice Hall, Mexico.
- Walpole, R. E., Myers, R. H., Myers, S. L., & Ye, K. (1993). Probability and statistics for engineers and scientists (Vol. 5). New York: Macmillan.
- Aggarwal, C. C. (2018). Neural networks and deep learning. Springer, 10, 978-3.
- Bishop, C. M., & Nasrabadi, N. M. (2006). Pattern recognition and machine learning (Vol. 4, No. 4, p. 738). New York: springer.
- Skansi, S. (2018). Introduction to Deep Learning: from logical calculus to artificial intelligence. Springer.
- Kohavi, R., & John, G. H. (1997). Wrappers for feature subset selection. Artificial intelligence, 97(1-2), 273-324.
- Marvin, M., & Seymour, A. P. (1969). Perceptrons. Cambridge, MA: MIT Press, 6, 318-362.
- Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep learning. MIT press.
Programa
- 5 secciones
- 28 lecciones
- 18 semanas
- IntroducciónPresentación del curso y establecimiento de algunos conceptos previos a el entendimiento de las redes neuronales.5
- PreeliminaresEn esta sección recordaremos algunos conceptos que son necesarios para comprender el resto del curso. Esta sección es opcional si consideras que ya tienes un dominio de los conceptos abordados.5
- Principios de las redes neuronalesEn esa sección estudiaremos varios tipos de redes neuronales que se han utilizado a lo largo de la historia de la ingeligencia artificial. Estos modelos son imprecindibles para comprender el funcionamiento de las redes neuronales modernas.4
- Red neuronal simpleUna red neuronal simple es una extensión del perceptrón de Rosenblatt la diferencia radica en que ésta utiliza una función de activación contínua y derivable que reemplaza a la funcion escalón. Esto permite entrenar de forma eficiente los pesos.14
- 4.1Red neuronal simple8 minutos
- 4.2Ejercicio: red neuronal simple15 minutos
- 4.3Solución: red neuronal simple5 minutos
- 4.4Funciones de activación15 minutos
- 4.5Implementar red neuronal simple (Python)15 minutos
- 4.6Descenso por gradiente30 minutos
- 4.7Ejercicio: descenso por gradiente20 minutos
- 4.8Solución: descenso por gradiente30 minutos
- 4.9Implementar gradiente (Python)30 minutos
- 4.10Implementar descenso por gradiente completo (Python)30 minutos
- 4.11Red simple con múltiples salidas13 minutos
- 4.12Ejercicio: red de múltiples salidas10 minutos
- 4.13Solución: red de múltiples salidas7 minutos
- 4.14Inicialización de los pesos5 minutos
- Redes neuronales multicapaUna red neuronal multicapa, a menudo denominada perceptrón multicapa (MLP), es un tipo de red neuronal artificial que consta de múltiples capas de neuronas interconectadas.0

