Revisión actual |
Tu texto |
Línea 13: |
Línea 13: |
|
| |
|
| '''Profesor:''' | | '''Profesor:''' |
| * Dr. Enrique Segura ''esegura'' (_at) ''dc.uba.ar'' | | * Dr. Enrique Seguraes egura(at)dc.uba.ar] |
|
| |
|
| = Programa de la materia = | | = Programa de la materia = |
| * Inspiración biológica de las RNA | | * Inspiración biológica de las RNA |
|
| |
| * Aprendizaje supervisado | | * Aprendizaje supervisado |
| ** Perceptrones
| | o Perceptrones |
| ** Backpropagation y otras estrategias de aprendizaje
| | o Backpropagation y otras estrategias de aprendizaje |
| | |
| * Aprendizaje no supervisado | | * Aprendizaje no supervisado |
| ** Modelo de Kohonen
| | o Modelo de Kohonen |
| ** Modelo de Fritzke
| | o Modelo de Fritzke |
| ** Aprendizaje Hebbiano no supervisado
| | o Aprendizaje Hebbiano no supervisado |
| | |
| * Memorias asociativas | | * Memorias asociativas |
| ** Modelo de Hopfield
| | o Modelo de Hopfield |
| ** Modelo ferromagnético o estocástico
| | o Modelo ferromagnético o estocástico |
| ** Otras variantes del modelo de Hopfield: continuo, pseudoinversa, BAM
| | o Otras variantes del modelo de Hopfield: continuo, pseudoinversa, BAM |
| | * Modelo Radial Basis Functions |
|
| |
|
| * Modelo Radial Basis Functions
| |
|
| |
|
| == Contenidos == | | == Contenidos == |
| | | '''TODO''' |
| === Inspiración biológica de las RNA ===
| | == Prácticas (Dpto. de Computación) == |
| * '''Modelo de McCulloch-Pitts'''
| | == Finales == |
| * '''Regla de Hebb'''
| | '''TODO''' |
| | | == Apuntes == |
| | | '''TODO''' |
| === Aprendizaje supervisado === | | == Curiosidades == |
| * '''Perceptrón simple''': unidades umbral, unidades lineales, unidades no lineales
| |
| * '''Regla delta'''
| |
| * '''Perceptrón multicapa'''
| |
| * '''Backpropagation''': asincrónico, sincrónico; mejoras (momento, parámetros adaptativos, y otras)
| |
| | |
| * '''Aplicaciones'''
| |
| | |
| | |
| === Aprendizaje no supervisado === | |
| * '''Aprendizaje Hebbiano no supervisado'''
| |
| ** Análisis de Componentes Principales (PCA)
| |
| ** Regla de Oja
| |
| ** Regla de Sanger (Aprendizaje Hebbiano Generalizado)
| |
| * '''Aprendizaje Competitivo no supervisado'''
| |
| ** Mapas Autoorganizados de Kohonen
| |
| * '''Aplicaciones'''
| |
| | |
| | |
| === Memorias asociativas === | |
| * '''Modelo de Hopfield'''
| |
| * '''Función de energía'''
| |
| * '''Extensiones'''
| |
| ** Estocástica
| |
| ** Continua
| |
| * '''Estabilidad'''
| |
| | |
| = Prácticas (Dpto. de Computación) = | |
| = Finales =
| |
| Desde 2020 suelen ser orales y virtuales.
| |
| | |
| = Apuntes = | |
| | |
| * [http://www-2.dc.uba.ar/materias/lrn/pautas%20de%20entrega.pdf Mini-apunte teórico] En la última sección se repasan algunos detalles importantes de cada arquitectura
| |
| * [https://marinomar.notion.site/Redes-Neuronales-e4c7ee505b0848bebe1a5891ae10ddb1?pvs=4 Apuntes de las teóricas + TPs] (1C 2023)
| |
| | |
| = Curiosidades =
| |
| [http://neil.fraser.name/writing/tank/ Detección de tanques] | | [http://neil.fraser.name/writing/tank/ Detección de tanques] |
|
| |
|
| = Bibliografía Recomendada = | | == Bibliografía Recomendada == |
| | | '''TODO''' |
| * John Hertz, Anders Krogh, & Richard Palmer. ''Introduction to the theory of neural computation'', Addison-Wesley, 1991
| | == Enlaces externos == |
| | | '''TODO''' |
| * Simon Haykin. ''Neural Networks - A Comprehensive Foundation (2E)'', Pearson Prentice Hall, 1998
| |
| | |
| = Enlaces externos = | |
| * [http://www-2.dc.uba.ar/materias/rn/apuntes/tp2/somtoolbox.zip SOM Toolbox (modificado por la cátedra)]
| |
| * [http://www-2.dc.uba.ar/materias/rn/apuntes/tp2/somtoolbox.pdf Apunte de SOMToolbox]
| |
| | |
| | |
| | |
| [[Category:Materias]] | | [[Category:Materias]] |
| [[Category:Computación]] | | [[Category:Computación]] |