Diferencia entre revisiones de «Redes Neuronales»

De Cuba-Wiki
 
(No se muestran 8 ediciones intermedias de 4 usuarios)
Línea 13: Línea 13:


'''Profesor:'''
'''Profesor:'''
* Dr. Enrique Seguraes  egura(at)dc.uba.ar]
* Dr. Enrique Segura ''esegura'' (_at) ''dc.uba.ar''


= Programa de la materia =
= Programa de la materia =
*  Inspiración biológica de las RNA
*  Inspiración biológica de las RNA
* Aprendizaje supervisado
* Aprendizaje supervisado
  o Perceptrones
** Perceptrones
  o Backpropagation y otras estrategias de aprendizaje
** Backpropagation y otras estrategias de aprendizaje
 
* Aprendizaje no supervisado
* Aprendizaje no supervisado
  o Modelo de Kohonen
** Modelo de Kohonen
  o Modelo de Fritzke
** Modelo de Fritzke
  o Aprendizaje Hebbiano no supervisado
** Aprendizaje Hebbiano no supervisado
 
* Memorias asociativas
* Memorias asociativas
  o Modelo de Hopfield
** Modelo de Hopfield
  o Modelo ferromagnético o estocástico
** Modelo ferromagnético o estocástico
  o Otras variantes del modelo de Hopfield: continuo, pseudoinversa, BAM
** Otras variantes del modelo de Hopfield: continuo, pseudoinversa, BAM
 
* Modelo Radial Basis Functions
* Modelo Radial Basis Functions


== Contenidos ==


== Contenidos ==
=== Inspiración biológica de las RNA ===
'''TODO'''
* '''Modelo de McCulloch-Pitts'''
== Prácticas (Dpto. de Computación) ==
* '''Regla de Hebb'''
== Finales ==
 
'''TODO'''
 
== Apuntes ==
=== Aprendizaje supervisado ===
'''TODO'''
* '''Perceptrón simple''': unidades umbral, unidades lineales, unidades no lineales
== Curiosidades ==
* '''Regla delta'''
* '''Perceptrón multicapa'''
* '''Backpropagation''': asincrónico, sincrónico; mejoras (momento, parámetros adaptativos, y otras)
 
* '''Aplicaciones'''
 
 
=== Aprendizaje no supervisado ===
* '''Aprendizaje Hebbiano no supervisado'''
** Análisis de Componentes Principales (PCA)
** Regla de Oja
** Regla de Sanger (Aprendizaje Hebbiano Generalizado)
* '''Aprendizaje Competitivo no supervisado'''
** Mapas Autoorganizados de Kohonen
* '''Aplicaciones'''
 
 
=== Memorias asociativas ===
* '''Modelo de Hopfield'''
* '''Función de energía'''
* '''Extensiones'''
** Estocástica
** Continua
* '''Estabilidad'''
 
= Prácticas (Dpto. de Computación) =
= Finales =
Desde 2020 suelen ser orales y virtuales.
 
= Apuntes =
 
* [http://www-2.dc.uba.ar/materias/lrn/pautas%20de%20entrega.pdf Mini-apunte teórico] En la última sección se repasan algunos detalles importantes de cada arquitectura
* [https://marinomar.notion.site/Redes-Neuronales-e4c7ee505b0848bebe1a5891ae10ddb1?pvs=4 Apuntes de las teóricas + TPs] (1C 2023)
 
= Curiosidades =
[http://neil.fraser.name/writing/tank/ Detección de tanques]
[http://neil.fraser.name/writing/tank/ Detección de tanques]


== Bibliografía Recomendada ==
= Bibliografía Recomendada =


* John Hertz, Anders Krogh, & Richard Palmer. ''Introduction to the theory of neural computation'', Addison-Wesley, 1991
* John Hertz, Anders Krogh, & Richard Palmer. ''Introduction to the theory of neural computation'', Addison-Wesley, 1991
Línea 47: Línea 86:
* Simon Haykin. ''Neural Networks - A Comprehensive Foundation (2E)'', Pearson Prentice Hall, 1998
* Simon Haykin. ''Neural Networks - A Comprehensive Foundation (2E)'', Pearson Prentice Hall, 1998


== Enlaces externos ==
= Enlaces externos =
* [http://www-2.dc.uba.ar/materias/rn Página Oficial de la Materia]
* [http://www-2.dc.uba.ar/materias/rn/apuntes/tp2/somtoolbox.zip SOM Toolbox (modificado por la cátedra)]
* [http://www-2.dc.uba.ar/materias/rn/apuntes/tp2/somtoolbox.zip SOM Toolbox (modificado por la cátedra)]
* [http://www-2.dc.uba.ar/materias/rn/apuntes/tp2/somtoolbox.pdf Apunte de SOMToolbox]
* [http://www-2.dc.uba.ar/materias/rn/apuntes/tp2/somtoolbox.pdf Apunte de SOMToolbox]

Revisión actual - 21:53 23 jul 2023

Esta materia es de caracter optativo y de duración cuatrimestral. Se dicta los primeros cuatrimestres de cada año. Es correlativas con Probabilidades y Estadística.


Información General sobre la Cursada[editar]

Cursada:

  • Dos días de cursada por semana. Teórica y Práctica.


Criterios de aprobación:

  • Entrega de 3 Trabájos Prácticos aprobatorios.
  • Final, en general oral.

Profesor:

  • Dr. Enrique Segura esegura (_at) dc.uba.ar

Programa de la materia[editar]

  • Inspiración biológica de las RNA
  • Aprendizaje supervisado
    • Perceptrones
    • Backpropagation y otras estrategias de aprendizaje
  • Aprendizaje no supervisado
    • Modelo de Kohonen
    • Modelo de Fritzke
    • Aprendizaje Hebbiano no supervisado
  • Memorias asociativas
    • Modelo de Hopfield
    • Modelo ferromagnético o estocástico
    • Otras variantes del modelo de Hopfield: continuo, pseudoinversa, BAM
  • Modelo Radial Basis Functions

Contenidos[editar]

Inspiración biológica de las RNA[editar]

  • Modelo de McCulloch-Pitts
  • Regla de Hebb


Aprendizaje supervisado[editar]

  • Perceptrón simple: unidades umbral, unidades lineales, unidades no lineales
  • Regla delta
  • Perceptrón multicapa
  • Backpropagation: asincrónico, sincrónico; mejoras (momento, parámetros adaptativos, y otras)
  • Aplicaciones


Aprendizaje no supervisado[editar]

  • Aprendizaje Hebbiano no supervisado
    • Análisis de Componentes Principales (PCA)
    • Regla de Oja
    • Regla de Sanger (Aprendizaje Hebbiano Generalizado)
  • Aprendizaje Competitivo no supervisado
    • Mapas Autoorganizados de Kohonen
  • Aplicaciones


Memorias asociativas[editar]

  • Modelo de Hopfield
  • Función de energía
  • Extensiones
    • Estocástica
    • Continua
  • Estabilidad

Prácticas (Dpto. de Computación)[editar]

Finales[editar]

Desde 2020 suelen ser orales y virtuales.

Apuntes[editar]

Curiosidades[editar]

Detección de tanques

Bibliografía Recomendada[editar]

  • John Hertz, Anders Krogh, & Richard Palmer. Introduction to the theory of neural computation, Addison-Wesley, 1991
  • Simon Haykin. Neural Networks - A Comprehensive Foundation (2E), Pearson Prentice Hall, 1998

Enlaces externos[editar]