Revisión actual |
Tu texto |
Línea 1: |
Línea 1: |
| Esta materia es de caracter optativo y de duración cuatrimestral. Se dicta los primeros cuatrimestres de cada año. Es correlativas con [[Probabilidades y Estadística]].
| | '''Redes Neuronales''' es una materia que ... |
|
| |
|
| | Esta materia se cursa ... |
|
| |
|
| = Información General sobre la Cursada = | | == Programa == |
| | | '''TODO''' |
| '''Cursada:'''
| | completar. |
| * Dos días de cursada por semana. Teórica y Práctica.
| |
| | |
| | |
| '''Criterios de aprobación:''' | |
| * Entrega de 3 Trabájos Prácticos aprobatorios.
| |
| * Final, en general oral.
| |
| | |
| '''Profesor:'''
| |
| * Dr. Enrique Segura ''esegura'' (_at) ''dc.uba.ar''
| |
| | |
| = Programa de la materia =
| |
| * Inspiración biológica de las RNA
| |
| | |
| * Aprendizaje supervisado
| |
| ** Perceptrones
| |
| ** Backpropagation y otras estrategias de aprendizaje
| |
| | |
| * Aprendizaje no supervisado
| |
| ** Modelo de Kohonen
| |
| ** Modelo de Fritzke
| |
| ** Aprendizaje Hebbiano no supervisado
| |
| | |
| * Memorias asociativas
| |
| ** Modelo de Hopfield
| |
| ** Modelo ferromagnético o estocástico
| |
| ** Otras variantes del modelo de Hopfield: continuo, pseudoinversa, BAM
| |
| | |
| * Modelo Radial Basis Functions
| |
|
| |
|
| == Contenidos == | | == Contenidos == |
| | | '''TODO''' |
| === Inspiración biológica de las RNA ===
| | == Prácticas (Dpto. de Computación) == |
| * '''Modelo de McCulloch-Pitts'''
| | == Finales == |
| * '''Regla de Hebb'''
| | '''TODO''' |
| | | == Apuntes == |
| | | '''TODO''' |
| === Aprendizaje supervisado === | | == Curiosidades == |
| * '''Perceptrón simple''': unidades umbral, unidades lineales, unidades no lineales
| |
| * '''Regla delta'''
| |
| * '''Perceptrón multicapa'''
| |
| * '''Backpropagation''': asincrónico, sincrónico; mejoras (momento, parámetros adaptativos, y otras)
| |
| | |
| * '''Aplicaciones'''
| |
| | |
| | |
| === Aprendizaje no supervisado === | |
| * '''Aprendizaje Hebbiano no supervisado'''
| |
| ** Análisis de Componentes Principales (PCA)
| |
| ** Regla de Oja
| |
| ** Regla de Sanger (Aprendizaje Hebbiano Generalizado)
| |
| * '''Aprendizaje Competitivo no supervisado'''
| |
| ** Mapas Autoorganizados de Kohonen
| |
| * '''Aplicaciones'''
| |
| | |
| | |
| === Memorias asociativas === | |
| * '''Modelo de Hopfield'''
| |
| * '''Función de energía'''
| |
| * '''Extensiones'''
| |
| ** Estocástica
| |
| ** Continua
| |
| * '''Estabilidad'''
| |
| | |
| = Prácticas (Dpto. de Computación) = | |
| = Finales =
| |
| Desde 2020 suelen ser orales y virtuales.
| |
| | |
| = Apuntes = | |
| | |
| * [http://www-2.dc.uba.ar/materias/lrn/pautas%20de%20entrega.pdf Mini-apunte teórico] En la última sección se repasan algunos detalles importantes de cada arquitectura
| |
| * [https://marinomar.notion.site/Redes-Neuronales-e4c7ee505b0848bebe1a5891ae10ddb1?pvs=4 Apuntes de las teóricas + TPs] (1C 2023)
| |
| | |
| = Curiosidades =
| |
| [http://neil.fraser.name/writing/tank/ Detección de tanques] | | [http://neil.fraser.name/writing/tank/ Detección de tanques] |
|
| |
|
| = Bibliografía Recomendada = | | == Bibliografía Recomendada == |
| | | '''TODO''' |
| * John Hertz, Anders Krogh, & Richard Palmer. ''Introduction to the theory of neural computation'', Addison-Wesley, 1991
| | == Enlaces externos == |
| | | '''TODO''' |
| * Simon Haykin. ''Neural Networks - A Comprehensive Foundation (2E)'', Pearson Prentice Hall, 1998
| |
| | |
| = Enlaces externos = | |
| * [http://www-2.dc.uba.ar/materias/rn/apuntes/tp2/somtoolbox.zip SOM Toolbox (modificado por la cátedra)]
| |
| * [http://www-2.dc.uba.ar/materias/rn/apuntes/tp2/somtoolbox.pdf Apunte de SOMToolbox]
| |
| | |
| | |
| | |
| [[Category:Materias]] | | [[Category:Materias]] |
| [[Category:Computación]] | | [[Category:Computación]] |