Complejidad en redes neuronales - retropropagación

Autores/as

  • German Gonzalo Vargas Sánchez Multiversidad Mundo Real Edgar Morin Mexico

DOI:

https://doi.org/10.18270/rt.v16i1.2312

Palabras clave:

Redes neuronales artificiales, redes neuronales artificiales, retropropagación, retropropagación, complegidad, complejidad

Resumen

Este artículo muestra una forma para aplicar el concepto de complejidad a redes neuronales artificiales, particularmente a las que utilizan el método backpropagation. Apoyados en el principio hologramático del pensamiento complejo se encontró un método para preparar los datos de entrada a la red neuronal de acuerdo con los valores esperados de las salidas, separando los datos en dos conjunto los cuales tienen como patrones de entrenamiento el promedio de cada conjunto de datos.

Descargas

Los datos de descargas todavía no están disponibles.

Biografía del autor/a

German Gonzalo Vargas Sánchez, Multiversidad Mundo Real Edgar Morin Mexico

Ingeniero de Sistemas Universidad Distrital Francisco José de Caldas. Especialista en Ingeniería de software. Especialista en Informática y Ciencias de la Computación. Magister en software Libre, Universidad Autónoma de Bucaramanga Colombia. Doctor en Pensamiento Complejo en la Multiversida Mundo Real Edgar Morín México.

Referencias bibliográficas

Luna, P. T., Eleuterio, R. A., Rosas, R. M. V., & Méndez, B. G. R. (2010). Optimización del entrenamiento para Redes Neuronales Artificiales. CIENCIA ergo-sum, 17(3), 313-317.

Marco Antonio Valencia Reyes1 Cornelio Yáñez Márquez2, & Fernández3, L. P. S. (2006). Algoritmo Backpropagation para Redes Neuronales : conceptos y aplicaciones. Thesis.

Izaurieta, F., & Saavedra, C. (1999). Redes Neuronales Artificiales. Charlas de Fisica, 1–15. doi:10.1016/S0210-5691(05)74198-X

Martinj Del Brio, B., & Serrano Cinca, C. (1995). Fundamentos De Las Redes Neuronales Artificiales: Hardware Y Software. Scire. Representación Y Organización Del Conocimiento, 1 , 103–125. Retrieved

from http://ibersid.eu/ojs/index.php/scire/article/ view/1036/1018

Montaño, J. J. (2002). Redes Neuronales Artificiales aplicadas al Análisis de Datos. Network, 275.

Palmer Pol, a, & Montaño Moreno, J. J. (1999). ¿ Qué son las redes neuronales artificiales? Aplicaciones realizadas en el ámbito de las adiciones. Adicciones, 11, 243–256. Retrieved from http://disi.unal.edu.

co/~lctorress/RedNeu/LiRna001.pdf

Phansalkar, V. V., & Sastry, P. S. (1994). Analysis of the backpropagation algorithm with momentum. IEEE Transactions on Neural Networks, 5, 505–506. doi:10.1109/72.286925

Flores Burgess, A., Prieto Riascos, L., & Llavero Bernal, F. (2011). Redes neuronales como sistemas complejos adaptativos.

Maldonado, C. E., & Cruz, N. A. G. (2011). El mundo de las ciencias de la complejidad: una investigación sobre qué son, su desarrollo y sus posibilidades. Editorial Universidad del Rosario, Universidad Colegio Mayor de Nuestra Señora del Rosario, Facultad de Administración.

Toribio, P., & Alejo, R. (2009). Complejidad de los datos en las Redes Neuronales Artificiales: Estado de la cuestión. In 7 Congreso Internacional de Cómputo en Optimización y Software, CICOS.

Zhang, H., Xu, D., & Zhang, Y. (2014). Boundedness and convergence of split-complex backpropagation algorithm with momentum and penalty. Neural Processing Letters, 39, 297–307. doi:10.1007/s11063-013-9305-x

Che, Z.-G., Chiang, T.-A., & Che, Z.-H. (2011). Feed-forward neural networks training: A comparison between genetic algorithm and backpropagation learning algorithm. International Journal of Innovative Computing, Information and Control, 7, 5839–5850.

Fahlman, S. E., & Fahlman, S. E. (1988). An empirical study of learning speed in backpropagation networks. Neural Networks, 6, 1–19. Retrieved from http://scholar.google.com/scholar?cluster=3383018529262918047&hl=en

Kolen, J. F., & Pollack, J. B. (1990). Backpropagation is Sensitive to Initial Conditions. Complex Systems, 4, 269–280.

Rehman, M. Z., & Nawi, N. M. (2011). Improving the Accuracy of Gradient Descent Backpropagation Algorithm (GDAM) on Classification Problems. International Journal on New Computer Architectures and Their Applications (IJNCAA) The Society of Digital Information and Wireless Communications, 1, 861–870.

Van Ooyen, a., & Nienhuis, B. (1992). Improving the convergence of the backpropagation algorithm. Neural Networks, 5, 465–471. doi:10.1016/0893-6080(92)90008-7

Descargas

Publicado

2018-05-15