Vol. 2 Núm. 1 (2020): Memorias Institucionales UIS
III congreso Colombiano de Investigación de Operaciones

63- #1106 MODELO DE REDES NEURONALES ARTIFICIALES Y METAHEURISTICO PARA LA OPTIMIZACIÓN DE FUNCIONES CONTINUAS DE ESTUDIO

Sonia Alexandra Jaimes Suarez
Departamento de Ingeniería Industrial, Escuela Colombiana de Ingeniería, Colombia

Publicado 2019-01-01

Palabras clave

  • Redes neuronales artificiales,
  • metaheurísticas,
  • optimización continua

Cómo citar

Jaimes Suarez, S. A. (2019). 63- #1106 MODELO DE REDES NEURONALES ARTIFICIALES Y METAHEURISTICO PARA LA OPTIMIZACIÓN DE FUNCIONES CONTINUAS DE ESTUDIO. Memorias Institucionales UIS, 2(1). Recuperado a partir de https://revistas.uis.edu.co/index.php/memoriasuis/article/view/10472

Resumen

El modelamiento y simulación de los factores que
afectan un sistema real, son clave para garantizar la
representatividad de un modelo computacional con el
que se busca encontrar soluciones a problemáticas que
no conviene estudiar a través de enfoques
convencionales (Wilson & Stein, 1995). Debido al 

avance en la capacidad de procesamiento de
información por medio de los computadores, se ha
despertado el interés por el modelado de diversos tipos
de sistemas y funciones empleando redes neuronales
(Misra & Saha, 2010). Además, los problemas de
optimización son de vital importancia dada la necesidad
de generar el mayor beneficio posible de la
maximización o minimización de variables específicas
bajo escenarios sensibles a su parametrización
(Floudas & Gounaris, 2009).

Dada la dificultad de encontrar representaciones
exactas a problemas particulares, se formula un
desarrollo por medio de redes neuronales para
ponderar las variables más importantes de un sistema
y de métodos metaheurísticos para optimizar los
parámetros asociados al modelo obtenido. Este estudio
utilizada funciones de prueba para optimización (Pan,
Sang, Duan, & Gao, 2014) con el fin de comparar
resultados con modelados y óptimos ya conocidos. El
primer enfoque se centra en la optimización de las
funciones exactas antes mencionadas, mientras el
segundo enfoque optimiza la representación obtenidas
por la red neuronal de estas. Se usaron dos
arquitecturas de redes: regresión general (GRNN) y
perceptrón multicapa (MLPNN) y dos metaheurísticas:
algoritmo genético (GA) y enjambre de partículas
(PSO).

Se puede observar en estos resultados que, con las
configuraciones en la arquitectura de la red neuronal y
la inicialización de parámetros metaheurísticos, se
logra modelar y optimizar sistemas teóricos con un
rendimiento similar o mejor a las respuestas conocidas
y se espera que este enfoque pueda ser implementado
para realizar predicciones en datos reales.

Descargas

Los datos de descargas todavía no están disponibles.

Referencias

Floudas, C. A., & Gounaris, C. E. (2009). A review of
recent advances in global optimization. Journal of
Global Optimization, 45(1), 3–38.
https://doi.org/10.1007/s10898-008-9332-8
Misra, J., & Saha, I. (2010). Artificial neural networks in
hardware: A survey of two decades of progress.
Neurocomputing, 74(1–3), 239–255.
https://doi.org/10.1016/J.NEUCOM.2010.03.021
69

Pan, Q. K., Sang, H. Y., Duan, J. H., & Gao, L. (2014).
An improved fruit fly optimization algorithm for
continuous function optimization problems. KnowledgeBased

Systems, 62, 69–83.
https://doi.org/10.1016/j.knosys.2014.02.021
Wilson, B. H., & Stein, J. L. (1995). An algorithm for
obtaining proper models of distributed and discrete
systems. Journal of Dynamic Systems, Measurement,
and Control, 117(4), 534–540.
https://doi.org/10.1115/1.2801111