Optimización de Scaled Conjugate Gradient para Froog Neural Networks

El Scaled Conjugate Gradient es un algoritmo de aprendizaje iterativo para redes neuronales artificiales, destacándose por su velocidad de convergencia frente al Backpropagation. Esto se debe a que utiliza derivadas de segundo orden, lo que permite una convergencia más veloz. En este artículo, se de...

Descripción completa

Guardado en:
Detalles Bibliográficos
Autores principales: Roodschild, Matías, Gotay Sardiñas, Jorge, Will, Adrián E., Rodríguez, Sebastián A.
Formato: Objeto de conferencia
Lenguaje:Español
Publicado: 2019
Materias:
Acceso en línea:http://sedici.unlp.edu.ar/handle/10915/87937
Aporte de:
Descripción
Sumario:El Scaled Conjugate Gradient es un algoritmo de aprendizaje iterativo para redes neuronales artificiales, destacándose por su velocidad de convergencia frente al Backpropagation. Esto se debe a que utiliza derivadas de segundo orden, lo que permite una convergencia más veloz. En este artículo, se demuestra lo expuesto por Möller en su trabajo original, respecto a que una adecuada implementación del Scaled Conjugate Gradient puede reducir en un 50% el tiempo de ejecución. La implementación fue realizada en la herramienta gratuita "Froog Neural Networks" de redes neuronales y probada en 4 base de datos estándar, con diferentes cantidades de neuronas para probar la efectividad de los cambios realizados.