banner

Blog

Aug 04, 2023

Un algoritmo de optimización planetaria eficiente para resolver problemas de ingeniería

Scientific Reports volumen 12, número de artículo: 8362 (2022) Citar este artículo

2232 Accesos

24 citas

3 altmétrico

Detalles de métricas

En este estudio, se propone un algoritmo metaheurístico, denominado Algoritmo de Optimización Planetaria (POA), inspirado en la ley gravitacional de Newton. POA simula el movimiento de los planetas del sistema solar. El Sol desempeña un papel clave en el algoritmo como centro del espacio de búsqueda. Se adoptan dos fases principales, búsqueda local y global, para aumentar la precisión y ampliar el espacio de búsqueda simultáneamente. Se emplea una función de distribución de Gauss como técnica para mejorar la precisión de este algoritmo. POA se evalúa utilizando 23 funciones de prueba conocidas, 38 funciones de prueba de referencia IEEE CEC (CEC 2017, CEC 2019) y tres problemas de ingeniería reales. Los resultados estadísticos de las funciones de referencia muestran que POA puede proporcionar resultados muy competitivos y prometedores. POA no sólo requiere un tiempo computacional relativamente corto para resolver problemas, sino que también muestra una precisión superior en términos de explotar lo óptimo.

En los últimos años se han propuesto muchos algoritmos de optimización inspirados en la naturaleza. Se aprecian algunos de los algoritmos inspirados en enjambres, como el algoritmo de optimización de enjambre de partículas (PSO)1, el algoritmo de luciérnaga (FA)2, el algoritmo de libélula (DA)3, el algoritmo de optimización de ballenas (WOA)4, el optimizador de lobo gris (GWO)5, Monarch Optimización de mariposas (MBO)6, Algoritmo de optimización de lombrices de tierra (EWA)7, Optimización de pastoreo de elefantes (EHO)8, Algoritmo de búsqueda de polillas (MS)9, Algoritmo de moho limoso (SMA)10, Algoritmo de depredación de colonias (CPA)10 y Optimización de Harris Hawks ( HHO)11. Además, un buen número de algoritmos inspirados en la física simularon leyes físicas en el universo o la naturaleza, como la optimización del espacio curvo (CSO)12, la optimización de las ondas de agua (WWO)13, etc. Además, algunos algoritmos basados ​​en fundamentos matemáticos también son enfoques creativos, por ejemplo, el optimizador Runge Kutta (RUN)14.

Por otro lado, algunos algoritmos simulan el comportamiento humano como la Optimización Basada en la Enseñanza-Aprendizaje (TLBO)15 y la Optimización Basada en el Comportamiento Humano (HBBO)16. Mientras tanto, el algoritmo genético (GA)17 está inspirado en la evolución y logra mucho éxito en la resolución de problemas de optimización en muchos campos. Con la creciente popularidad de GA, en la literatura se proponen muchos algoritmos basados ​​en evoluciones, incluida la Programación Evolutiva (EP)18 y las Estrategias Evolutivas (ES)19.

Hoy en día, los algoritmos metaheurísticos se convierten en una herramienta esencial para la resolución de problemas complejos de optimización en diversos campos. Muchos investigadores aplicaron estos algoritmos para intentar abordar cuestiones difíciles en biología20, economía21, ingeniería22,23, etc. Por lo tanto, construir nuevos algoritmos para cumplir con requisitos tan complejos tiene un mérito significativo.

En este estudio, se construye un algoritmo sólido para resolver problemas de optimización local y global. La idea surge del movimiento natural de los planetas de nuestro sistema solar y de las interacciones interplanetarias a lo largo de su ciclo de vida. La ley de gravedad de Newton refleja la interacción gravitacional del Sol con los planetas que orbitan para encontrar la posición optimizada a través de las características de los planetas individuales. Las características de estos planetas son sus masas y distancias.

En este artículo proponemos un algoritmo de optimización utilizando la ley de gravitación universal de Newton como base para su desarrollo. En este algoritmo, se consideran una serie de características destacadas, como la búsqueda local y la búsqueda global, para aumentar la capacidad de encontrar soluciones exactas integradas en la simulación del movimiento de los planetas en el universo.

Este trabajo de investigación está estructurado en varias secciones de la siguiente manera. En la siguiente sección se presenta la construcción de un algoritmo metaheurístico. El POA estructural se simula basándose en la ley de gravitación universal de Newton y fenómenos astronómicos. Luego, se utiliza una amplia gama de aplicaciones de diversos problemas de referencia para demostrar cuán efectivo es el POA. Al mismo tiempo, presentamos las aplicaciones del POA a problemas reales de ingeniería. Finalmente, a partir de los resultados presentados, en la última sección se reportan las conclusiones.

La física es una ciencia fundamental cuyas leyes lo gobiernan todo, desde los electrones, neutrones o protones de los objetos más pequeños hasta estrellas o galaxias extremadamente masivas (de unos cien mil años luz de diámetro). Las leyes de la física se aplican ampliamente en la vida cotidiana, desde el transporte hasta la medicina, desde la agricultura hasta la industria, etc. En ciencia, también son la base de muchas otras ciencias como la química, la biología e incluso las matemáticas. En el campo de la inteligencia artificial (IA), las leyes de la física son la inspiración para muchos algoritmos de optimización. En el estudio, también presentamos un algoritmo basado en dicha ley física.

Inspirándose en las leyes del movimiento en el universo, se propone un algoritmo a partir de la interacción gravitatoria mutua entre los planetas. En concreto, este algoritmo de optimización simula las leyes de gravitación universal de Isaac Newton. El núcleo de este algoritmo se proporciona de la siguiente manera:

donde \(\overrightarrow {F}\): La fuerza gravitacional que actúa entre dos planetas; \(G\) : La constante gravitacional; \(R\) : La distancia entre dos planetas; \(m_{1} ,m_{2}\): La masa de los dos planetas.

La gravitación de dos planetas (como se muestra en la Fig. 1) depende de la ecuación. (1). Sin embargo, en este estudio encontramos que el valor de la fuerza \(\overrightarrow {F}\) dará resultados menos efectivos que cuando se usa el momento \((M)\) como parámetro en el proceso de búsqueda del algoritmo.

La fuerza F que actúa entre dos planetas.

El universo es infinitamente grande y no tiene límites, y es un espacio gigante lleno de galaxias, estrellas, planetas y muchísimos objetos astrofísicos interesantes. Para simplificar y facilitar la visualización, utilizamos el sistema solar para realizar la representación de esta simulación de algoritmo.

En primer lugar, en este caso se considera un sistema que consta del Sol, la Tierra y la Luna (como se muestra en la Fig. 2). Por supuesto, todo el mundo entiende que el Sol mantiene su gravitación para que la Tierra siga moviéndose a su alrededor. Curiosamente, la masa del Sol es 330.000 veces mayor que la de la Tierra. Sin embargo, la Tierra también crea una fuerza gravitacional lo suficientemente grande como para mantener a la Luna en órbita alrededor de la Tierra. Esto demuestra que dos factores influyen en el movimiento de un planeta, no sólo la masa sino también la distancia entre los dos planetas. Por tanto, un algoritmo que simula la ley de la gravitación universal se presenta de la siguiente manera:

El Sol actuará como la mejor solución. En el espacio de búsqueda tendrá la mayor masa, lo que significa que tendrá un mayor momento gravitacional para los planetas que lo rodean y cerca de él.

Entre el Sol y otros planetas existe un momento de atracción gravitacional entre sí. Sin embargo, este momento depende tanto de la masa como de la distancia entre estos dos objetivos. Esto significa que, aunque el Sol tiene la mayor masa en comparación con otros planetas, su momento en los planetas demasiado distantes es insignificante. Esto ayuda al algoritmo a evitar la optimización local como se ilustra en la Fig. 3.

La fuerza gravitacional que actúa entre los planetas.

Optimización local y global: (a) vista 3D; (b) avión.

En la enésima iteración, la masa del planeta rojo (ver Fig. 3) es la más grande, por lo que representa al Sol. Como los planetas rosados ​​están cerca del Sol, se moverán a la ubicación del Sol debido a un momento de atracción gravitacional \((M_{p}^{t} )\) entre el Sol y los planetas.

Sin embargo, el planeta rojo (o el Sol) en la t-ésima iteración no tiene la posición deseada que buscamos, es decir, un mínimo óptimo. En otras palabras, si todos los planetas se mueven hacia el planeta rojo, el algoritmo se queda estancado en el espacio local. Por el contrario, el planeta azul es un lugar potencial y alejado del Sol. La interacción del Sol con el planeta azul \((M_{b}^{t} )\) es pequeña, porque está lejos del Sol en la t-ésima iteración. Por lo tanto, el planeta azul tiene bastante libertad para buscar una mejor ubicación en las próximas iteraciones.

El núcleo principal del algoritmo se basa en los 2 principios anteriores. Además, el Sol es el verdadero objetivo de la búsqueda y, por supuesto, no conocemos su ubicación exacta. En este caso, el planeta con mayor masa en la t-ésima iteración actuaría como Sol al mismo tiempo.

La implementación del algoritmo es la siguiente:

Idealmente, un buen algoritmo es aquel en el que la mejor solución final debería ser independiente de las posiciones iniciales. Sin embargo, la realidad es exactamente la contraria para casi todos los algoritmos estocásticos. Si la región objetivo es montañosa y el óptimo global está ubicado en un área menor aislada, una población inicial tiene un papel importante. Si una población aleatoria inicial no crea ninguna solución cercana al nivel de búsqueda global de la población original, la probabilidad de que la población se concentre en el verdadero óptimo puede ser muy baja.

Por el contrario, al construir soluciones iniciales cerca de la posición óptima global, la probabilidad de que la población converja hacia la ubicación óptima es muy alta. De hecho, la globalización es muy alta y, en consecuencia, la inicialización de la población juega un papel vital. Idealmente, la iniciación debería utilizar el método de muestreo crítico, como las técnicas aplicadas al método de Monte Carlo para muestrear las soluciones para un contexto objetivo. Sin embargo, esto requiere suficiente conocimiento del problema y no puede satisfacerse para la mayoría de los algoritmos.

De manera similar a elegir la población inicial, es importante elegir la mejor solución en la población original para el papel del Sol con respecto a todos los demás planetas que se mueven a esa posición. Esta selección determinará la velocidad de convergencia así como la precisión del algoritmo en el futuro.

Por lo tanto, el primer paso del algoritmo es encontrar una solución efectiva que desempeñe el papel de la mejor solución para aumentar la convergencia y precisión del problema de búsqueda en las primeras iteraciones.

En la ecuación. (3), se definen los siguientes parámetros:

La masa de los planetas:

donde \(a = 2\) es un parámetro constante y \(\alpha = \left| {\max (obj) - obj_{sun} } \right|\) . Esto significa que si el valor de la función objetivo de un planeta es menor, la masa de este planeta es mayor. \(obj_{i,j} ,\max (obj),obj_{sun}\) son los valores de la función objetivo del iésimo o jésimo planeta, el peor planeta y el Sol, respectivamente.

La distancia entre 2 objetos cualesquiera i y j con "Dim" como dimensiones, distancia cartesiana, se calcula mediante la ecuación. (5):

G es un parámetro y es igual a la unidad en este algoritmo.

De lo anterior, la ecuación. (6)

El lado izquierdo de la fórmula ilustra la posición actual de un planeta ith en la iteración (t + 1), mientras que el lado derecho consta de los elementos principales de la siguiente manera:

\(\overrightarrow {{X_{i}^{t} }}\) es la posición actual de un planeta ith en la iteración tth.

\(\beta = M_{i}^{t} /M_{{_{\max } }}^{t}\),\(r_{1} = rand(0,1),b\) es un parámetro constante.

\(\overrightarrow {{X_{Sun}^{t} }}\) es la posición actual del Sol en la iteración t-ésima.

donde \(\beta\) es un coeficiente que depende de M, como se muestra en la ecuación. (3), en la que \(M_{i}^{t}\) es la gravedad del Sol en un planeta ith en t iteración, y \(M_{\max }^{t}\) es el valor de \( \max (M_{i}^{t} )\) en t iteración. Por lo tanto, el coeficiente \(\beta\) contiene valores en el intervalo (0, 1).

En el proceso de búsqueda, la verdadera ubicación es siempre el objetivo deseado. Sin embargo, este objetivo será difícil o fácil de lograr en este proceso dependiendo de la complejidad del problema. En la mayoría de los casos, sólo es posible encontrar un valor aproximado que se ajuste al requisito original. Es decir, la verdadera ubicación del Sol aún se encuentra en el espacio entre las soluciones encontradas.

Curiosamente, aunque Júpiter es el planeta más masivo del sistema solar, Mercurio es el planeta más cercano al Sol. Esto significa que la mejor posición de la solución para la verdadera ubicación del Sol en la iteración puede no estar más cerca que la ubicación de algunas otras soluciones a la verdadera ubicación del Sol.

Cuando la distancia entre el Sol y los planetas es pequeña, se ejecuta el proceso de búsqueda local. Como se mencionó anteriormente, el planeta con mayor masa funcionará como el Sol, y en ese caso, es Júpiter. Los planetas cercanos al Sol irán a la ubicación del Sol. En otras palabras, los planetas se mueven una pequeña distancia entre él y el Sol en la iteración en lugar de ir directamente hacia el Sol. El objetivo de este paso es aumentar la precisión en un área estrecha del espacio de búsqueda. Ec. (7) indica el proceso de búsqueda local de la siguiente manera:

donde \(c = c_{0} - t/T\), t es la enésima iteración, T es el número máximo de iteraciones y c0 = 2. \(r_{2}\) es la función de distribución de Gauss ilustrada por la ecuación . (8).

Muchos algoritmos evolutivos también son aleatorios mediante la aplicación de procesos estocásticos comunes, como la distribución de ley de potencia y la distribución de Lévy. Sin embargo, la distribución gaussiana o distribución normal es la más popular ya que la gran cantidad de variables físicas (ver Fig. 4), incluida la intensidad de la luz, los errores/incertidumbre en las mediciones y muchos otros procesos, obedecen a esta distribución.

Distribución de Gauss.

El coeficiente \(r_{2}\) es la distribución gaussiana con valor medio \(\mu = 0.5\) y desviación estándar \(\sigma = 0.2\). Significa que el 68,2% de \(r_{2}\) está en la zona 1 aproximadamente \((\mu - \sigma ) = 0,3\) a \((\mu + \sigma ) = 0,7\), y el 27,2% de sus valores está en la zona 2 desde \((\mu \pm 2\sigma )\) hasta \((\mu \pm \sigma )\). En otras palabras, POA se moverá alrededor del Sol sin ignorar posibles soluciones en la búsqueda local.

La explotación emplea cualquier dato obtenido del tema de interés para crear nuevas soluciones, que son mejores que las soluciones existentes. Sin embargo, este proceso y esta información (por ejemplo, el gradiente) son normalmente locales. Por tanto, este procedimiento de búsqueda es local. El resultado del proceso de búsqueda suele conducir a altas tasas de convergencia y es el punto fuerte de la explotación (o búsqueda local). Sin embargo, la debilidad de la búsqueda local es que normalmente se queda atascada en modo local.

Por el contrario, la exploración puede explorar eficazmente el espacio de búsqueda y, por lo general, crea muchas soluciones diversas alejadas de las soluciones actuales. Por tanto, la exploración (o búsqueda global) normalmente se realiza a escala global. La gran ventaja de la búsqueda global es que rara vez se queda estancada en un espacio local. Sin embargo, la debilidad de la búsqueda global son las lentas tasas de convergencia. Además, en muchos casos, es una pérdida de esfuerzo y tiempo, ya que muchas soluciones nuevas pueden estar lejos de la solución global.

La Figura 5 muestra el funcionamiento de este algoritmo, en el que dos procesos de búsqueda local y global se rigen por el parámetro de distancia Rmin. Esto significa que un planeta alejado del Sol se moverá según la ley de Newton. Por el contrario, en los planetas muy cercanos al Sol, el efecto de la fuerza de Newton es muy grande. Por lo tanto, sólo se mueven alrededor del Sol. Un planeta que está cerca del Sol ayudará al Sol a explorar un espacio de búsqueda local, como se muestra en la ecuación. (7), mientras que el movimiento de los planetas alejados del Sol se ve menos afectado por esta estrella. Significa que tienen la oportunidad de encontrar nuevas estrellas potenciales. La búsqueda de espacios locales y globales se ejecuta simultáneamente. Esto garantiza la mejora de la precisión del proceso de búsqueda, pero este algoritmo no pasa por alto las ubicaciones potenciales.

Diagrama de flujo del POA propuesto.

El parámetro Rmin debe cumplir las dos condiciones siguientes:

Si Rmin es demasiado grande, el algoritmo se centrará en la búsqueda local en las primeras iteraciones. Por lo tanto, la probabilidad de encontrar una ubicación potencial alejada de la actual es difícil.

Por el contrario, si Rmin es demasiado pequeño, el algoritmo se centra en la búsqueda global. En otras palabras, la exploración del POA en la zona alrededor del Sol no es exhaustiva. En consecuencia, el mejor valor del proceso de búsqueda puede no satisfacer la condición.

En este estudio, Rmin se elige dividiendo el espacio de búsqueda en 1000 (R0 = 1000) zonas. Donde "bajo" y "arriba" son los límites inferior y superior de cada problema, respectivamente. Con una estructura explícita que consta de dos procesos de búsqueda local y global, POA ha satisfecho las dos cuestiones anteriores y promete ser eficaz y ahorrar tiempo en la resolución de problemas complejos.

En esta sección, POA se compara con una serie de algoritmos que utilizan problemas bien conocidos. Las investigaciones se ejecutan en el sistema operativo Windows 11.ª generación Intel(R) Core(TM) i7-1185G7 a 3,00 GHz 1,80 GHz con RAM 16,0 GB.

En esta subsección, POA se emplea para manejar una amplia gama de aplicaciones de diversos problemas de referencia. Comúnmente se emplea un conjunto de funciones matemáticas con óptimos globales conocidos para validar la efectividad de los algoritmos. También se sigue el mismo proceso, y para esta comparación se emplea un conjunto que incluye 23 funciones de referencia en la literatura como bancos de pruebas24,25,26. Estas funciones de prueba constan de funciones de referencia multimodales de 3 grupos, a saber, unimodales (F1-F7), multimodales (F8-F13) y de dimensión fija (F14-F23). POA se compara con siete algoritmos, a saber, PSO1, GWO5, GSA27, FA2 y ASO28, HHO11, HSG29 en un conjunto de 23 funciones de referencia, como se muestra en la Tabla 1.

Cada función de referencia se ejecuta 30 veces mediante el algoritmo POA. Se selecciona un tamaño de muestra de POA con 30 planetas para realizar 500 iteraciones. Los resultados estadísticos (promedio-Ave y desviación estándar-Std) se resumen en las Tablas 2, 3 y 4.

Los resultados de la comparación con F5 y F6 son bastante buenos para POA en comparación con los demás. Las funciones F1 a F4 y F7 atestiguan que la precisión del algoritmo POA es superior en comparación con todos los demás algoritmos.

En comparación con las funciones 7-unimodales, la mayoría de las funciones multimodales constan de muchas áreas de optimización local y el número aumenta exponencialmente con las dimensiones. Esto los convierte en buenas condiciones para evaluar la capacidad exploratoria de un algoritmo de optimización metaheurístico.

La Tabla 3 indica que POA supera en las funciones F10 y F11, y es bastante competitivo con el resto.

Al igual que las funciones unimodales, una vez más las funciones multimodales y multimodales de dimensión fija demuestran la competitividad de POA con otros algoritmos y muestran que los resultados obtenidos de F14 a F23 son prometedores.

La Figura 6 ilustra la convergencia de POA después de 100 iteraciones de 100 planetas. Las dos primeras métricas son métricas cualitativas que ilustran la historia de los planetas a lo largo de generaciones. Durante todo el proceso de optimización, los planetas se representan mediante puntos rojos como se muestra en la Fig. 6. La tendencia de los planetas explora zonas potenciales del espacio de búsqueda y explota con bastante precisión el óptimo global. Estas investigaciones demuestran que POA es capaz de obtener una alta efectividad en la aproximación del óptimo global de los problemas de optimización.

Nivel de convergencia de POA después de 100 iteraciones.

La tercera métrica presenta el movimiento del primer planeta en la primera dimensión durante la optimización. Esta métrica nos ayuda a monitorear si el primer planeta, que representa a todos los planetas, enfrenta movimientos repentinos en las generaciones iniciales y tiene más estabilidad en las generaciones finales. Este movimiento es capaz de garantizar la exploración de la región de búsqueda. Finalmente, el movimiento de los planetas es muy corto, lo que provoca la explotación de la región de búsqueda. Obviamente, POA demuestra que se trata de un algoritmo que cumple con un requisito de precisión, así como con un alto grado de convergencia.

La métrica cuantitativa final es el nivel de convergencia del algoritmo POA. Se almacena el mejor valor de todos los planetas en cada generación y las curvas de convergencia se muestran en la Fig. 6. La disminución de la aptitud a lo largo de las generaciones demuestra la convergencia del algoritmo POA.

Para validar el rendimiento de POA con respecto a problemas de optimización de alta dimensión, se emplean las primeras 13 funciones de referencia clásicas de las mencionadas anteriormente con Dim = 1000 para investigar POA. Para una comparación justa, siete de los algoritmos de optimización metaheurísticos mencionados anteriormente y POA con un tamaño de población N = 30 se ejecutan de forma independiente 30 veces. Además, el número máximo de iteraciones se fija en 500 para todas las funciones de prueba.

La prueba analizada en esta subsección demuestra que POA es prometedor para abordar 13 problemas de referencia clásicos. Entre las 23 funciones de referencia probadas, 13 funciones tenían Dim = 1000, como se presenta en la Tabla 5 y la Fig. 7. Esta subsección confirmó la capacidad de POA para abordar problemas de alta dimensión ya que la dimensión de esos 13 puntos de referencia clásicos se ha incrementado desde 30 a 1000.

Comparación de rendimiento de algoritmos.

En este experimento se realiza una comparación entre POA y los otros siete algoritmos en los largos experimentos de cálculo de las 13 funciones. El método de cálculo que requiere mucho tiempo es que cada función de referencia implementa de forma independiente 30 veces todos los algoritmos, luego los valores de la ejecución de 30 veces se guardan en la Tabla 6. Para Dim = 30, el cálculo de POA no solo supera a algunos algoritmos, mientras que toma menos tiempo, como GSA, ASO y FA, ​​pero también a veces es muy superior a GWO, incluso el cálculo de PSO que requiere mucho tiempo. Para Dim = 1000, POA siempre ocupa el primer lugar en tiempo de cálculo. Estos resultados muestran que el POA tiene mérito para problemas de optimización en problemas de alta dimensión.

Para aclarar aún más la eficiencia del algoritmo propuesto, POA se prueba en desafíos complejos, a saber, los Criterios de evaluación para CEC 201730 y CEC 201931. Sus resultados se comparan con los de algoritmos metaheurísticos modernos y conocidos: DA, WOA y el algoritmo de optimización aritmética (AOA)32. Estos algoritmos se seleccionan por las siguientes razones:

Todos ellos se basan en el principio de PSO al igual que POA.

Todos los algoritmos están bien citados en la literatura y AOA es un estudio publicado recientemente.

Se demostró que estos algoritmos tenían un rendimiento superior tanto en funciones de prueba de referencia como en problemas del mundo real.

Son proporcionados públicamente por sus autores.

Al igual que las 23 funciones de referencia clásicas, cada función de CEC Benchmark Suite se ejecuta 30 veces y a cada algoritmo se le permitió buscar en el panorama 500 iteraciones utilizando 30 agentes.

En esta subsección, se emplean los problemas de IEEE CEC 2017 para probar el rendimiento de POA. El conjunto de estándares CEC'17 consta de 28 problemas de referencia realmente desafiantes. La primera es la función unimodal, 2 a 7 son multimodales. Si bien las diez funciones siguientes son híbridas, el resto de CEC 2017 son 10 funciones de composición. El Cuadro 7 presenta una breve descripción de la CCA 2017.

Como se muestra en la Tabla 8, POA es altamente eficiente porque, en comparación con WOA, DA y AOA, supera a todos los algoritmos en 21/28 del conjunto de estándares CEC 2017. Además, en la Tabla 9 se muestra la prueba de rangos con signo de Wilcoxon con un nivel de significancia α = 0,05 para analizar las diferencias significativas entre los resultados de POA y otros algoritmos. Estos resultados han demostrado que POA proporciona un gran rendimiento en términos de calidad de la solución al manejar las funciones de CEC 2017.

La Tabla 10 presenta una breve descripción de CEC 2019. En la Tabla 11 se puede ver que POA supera a otros algoritmos de optimización en todas las funciones de CEC 2019. De hecho, los resultados en muchas funciones de prueba (por ejemplo, F52, F53, F56) muestran que POA es más potente que otros no sólo en el valor promedio de 30 ejecuciones, sino también en otros valores estadísticos, como el mejor, el peor y el valor estándar. . Una vez más, la prueba de rango con signo de Wilcoxon (como se muestra en la Tabla 12) demostró el desempeño superior de POA para resolver los problemas de CCA 2019.

En la siguiente sección, se emplean algunos problemas de diseño de ingeniería clásica para evaluar más a fondo el desempeño del POA. Además, POA también se compara con otras técnicas conocidas para confirmar sus resultados.

En este estudio, se utilizan tres problemas de diseño de ingeniería restringidos, a saber, diseños de resortes de tensión/compresión, vigas soldadas y recipientes a presión, para investigar la aplicabilidad de POA. Los problemas tienen algunas restricciones de igualdad y desigualdad. Por lo tanto, el POA debería estar equipado con una técnica de resolución de restricciones. Mientras tanto, POA también puede optimizar problemas restringidos al mismo tiempo. Cabe señalar que el tamaño de la población y el número de iteraciones se establecen, respectivamente, en 30 y 500 para 50 ejecuciones para encontrar los resultados de todos los problemas de esta sección.

El objetivo principal de este problema es minimizar el peso de un resorte de tensión/compresión. El problema de diseño está sujeto a tres restricciones: frecuencia de sobretensión, esfuerzo cortante y deflexión mínima. Este problema consta de tres variables: diámetro del alambre (d), diámetro medio de la bobina (D) y número de bobinas activas (N).

El problema de diseño de resortes de tensión/compresión ha sido resuelto tanto por matemáticos como por técnicas heurísticas. Algunos investigadores se han esforzado en emplear varios métodos para minimizar el peso de un resorte de tensión/compresión (Ha y Wang: PSO33; Coello y Montes: The Evolution Strategy (ES)34 y GA35; Mahdavi et al.: Harmony Search (HS) 36; Belegundu: optimización matemática37 y Arora: corrección de restricciones38; Huang et al.: Evolución diferencial (DE)39). Además, los algoritmos GWO5 y HHO11 también se han empleado como optimizadores heurísticos para este problema. La comparación de los resultados de estos métodos y POA se muestra en la Tabla 13.

El objetivo del problema de diseño de vigas soldadas es minimizar su costo de fabricación. Las restricciones del problema son esfuerzo cortante \((\tau )\), esfuerzo de flexión en la viga \((\theta )\), carga de pandeo de la barra \((P_{c} )\), deflexión final de la viga \((\delta )\) y las restricciones laterales. El problema de diseño de vigas soldadas tiene cuatro variables, a saber, el espesor de la soldadura \((h)\), la longitud de la parte unida de la barra \((l)\), la altura de la barra \((t)\) y el espesor de la la barra \((b)\). Este problema está ilustrado en la literatura5,40,41.

Lee y Geem40 emplearon HS para solucionar este problema, mientras que Deb42,43 y Coello44 utilizaron GA. Seyedali Mirjalili aplicó GWO5 para resolver este problema. El enfoque aleatorio de Richardson, Davidon-Fletcher-Powell, la técnica Simplex, la aproximación lineal sucesiva de Griffith y Stewart son los métodos matemáticos que han adoptado Ragsdell y Philips41 para este problema. Más recientemente, Heidari et al.11 y Yang et al.29 han utilizado HHO y HGS, respectivamente, para resolver el problema. La Tabla 14 muestra una comparación entre los diferentes métodos. Los resultados indican que POA logra un diseño con el mínimo costo en comparación con otras optimizaciones. El mejor resultado de la función de costos obtenido por el POA es 1,72564.

El problema del diseño de recipientes a presión es bien conocido, en el que se debe minimizar el costo de fabricación del costo total que consiste en material, conformación y soldadura de un recipiente cilíndrico. Hay cuatro variables, a saber, espesor de la carcasa \((T_{s} )\), espesor de la cabeza \((T_{h} )\), radio interior \((R)\) y longitud del cuerpo cilíndrico. sección sin considerar la cabeza \((L)\), y cuatro restricciones.

El problema del diseño de recipientes a presión también ha sido popular entre los estudios de optimización en diferentes investigaciones. Se han adoptado varias técnicas heurísticas, a saber, DE39, PSO33, GA35,45,46, ACO47, ES [59], GWO5, MFO48, HHO11 y SMA10, para la optimización de este problema. Los enfoques matemáticos empleados son el multiplicador lagrangiano aumentado49 y el de ramificación y límite50. Podemos ver que POA nuevamente puede buscar un diseño con el costo mínimo como se muestra en la Tabla 15.

En el artículo se propone un algoritmo metaheurístico, inspirado en la ley gravitacional de Newton. La estructura de POA en los procesos de búsqueda consta de 2 fases que buscan el equilibrio adecuado entre exploración y explotación. Varias características superiores se muestran a través de la precisión de 23 funciones de referencia clásicas y 38 funciones de prueba IEEE CEC (CEC2017, CEC 2019). En muchas funciones, POA demostró que los resultados obtenidos son muchas veces más precisos que los demás.

En la sección de evaluación final, se investiga a fondo un conjunto de casos de prueba bien conocidos, incluidos tres problemas de prueba de ingeniería, para examinar el funcionamiento de POA en la práctica. Cada problema es un tipo de ingeniería distinta, incluyendo espacios de búsqueda muy diversos. Por lo tanto, estos problemas de ingeniería se emplean para probar minuciosamente el POA. Los resultados obtenidos demuestran que POA es capaz de resolver eficazmente problemas reales y desafiantes con espacios de búsqueda desconocidos y un gran número de restricciones. Los resultados comparados con GSA, GWO, PSO, DE, ACO, MFO, SOS, CS, HHO, SMA, HGS, etc., sugieren que POA es superior.

La estructura de POA es simple y explícita, muy efectiva e incluso rápida. Los experimentos revelaron un tiempo de cálculo corto para manejar problemas de optimización complejos. Por lo tanto, autenticamos firmemente que POA es un algoritmo poderoso para resolver problemas de optimización.

Todos los datos generados o analizados durante este estudio se incluyen en este artículo publicado.

Kennedy, J. & Eberhart, R. En Actas de ICNN'95 - Conferencia internacional sobre redes neuronales. 1942-1948 vol.1944.

Yang, X.-S. En Algoritmos estocásticos: fundamentos y aplicaciones. (eds Osamu Watanabe y Thomas Zeugmann) 169–178 (Springer, Berlín) (2009).

Mirjalili, S. Algoritmo Dragonfly: una nueva técnica de optimización metaheurística para resolver problemas de objetivo único, discretos y multiobjetivo. Computación neuronal. Aplica. 27, 1053-1073 (2016).

Artículo de Google Scholar

Mirjalili, S. & Lewis, A. El algoritmo de optimización de ballenas. Adv. Ing. Software. Rev. 95, 51–67 (2016).

Artículo de Google Scholar

Mirjalili, S., Mirjalili, SM & Lewis, A. El optimizador del lobo gris. Adv. Ing. Software. 69, 46-6 https://doi.org/10.1016/j.advengsoft.2013.12.007 (2014).

Artículo de Google Scholar

Wang, G.-G., Deb, S. y Cui, Z. Optimización de la mariposa monarca. Computación neuronal. Aplica. 31, 1995-2014 (2019).

Artículo de Google Scholar

Wang, G.-G., Deb, S. & Coelho, LDS Algoritmo de optimización de gusanos de tierra: un algoritmo metaheurístico bioinspirado para problemas de optimización global. En t. J. Computación bioinspirada. 12, 1-22 (2018).

Artículo de Google Scholar

Wang, G.-G., Deb, S. & Coelho, LDS En 2015, 3er Simposio Internacional sobre Inteligencia Computacional y Empresarial (ISCBI). 1 a 5 (IEEE).

Wang, G.-G. Algoritmo de búsqueda de polilla: un algoritmo metaheurístico bioinspirado para problemas de optimización global. Computación memética. 10, 151-164 (2018).

Artículo de Google Scholar

Li, S., Chen, H., Wang, M., Heidari, AA y Mirjalili, S. Algoritmo del molde limo: un nuevo método para la optimización estocástica. Futuro. Genero. Computadora. Sistema. 111, 300–323 (2020).

Artículo de Google Scholar

Heidari, AA y cols. Optimización de Harris Hawks: algoritmo y aplicaciones. Futuro. Genero. Computadora. Sistema. 97, 849–872 (2019).

Artículo de Google Scholar

Moghaddam, FF, Moghaddam, RF y Cheriet, M. Optimización del espacio curvo: una búsqueda aleatoria basada en la teoría de la relatividad general. Preimpresión de arXiv arXiv:1208.2214 (2012).

Zheng, Y.-J. Optimización de las ondas de agua: una nueva metaheurística inspirada en la naturaleza. Computadora. Ópera. Res. 55, 1-11 (2015).

Artículo MathSciNet Google Scholar

Ahmadianfar, I., Heidari, AA, Gandomi, AH, Chu, X. & Chen, H. RUN más allá de la metáfora: un algoritmo de optimización eficiente basado en el método Runge Kutta. Sistema experto. Aplica. 181, 115079 (2021).

Artículo de Google Scholar

Rao, RV, Savsani, VJ y Vakharia, D. Optimización basada en la enseñanza-aprendizaje: un método novedoso para problemas de optimización de diseño mecánico restringido. Computadora. Des ayudado. 43, 303–315 (2011).

Artículo de Google Scholar

Ahmadi, S.-A. Optimización basada en el comportamiento humano: un enfoque metaheurístico novedoso para resolver problemas de optimización complejos. Computación neuronal. Aplica. 28, 233–244 (2017).

Artículo de Google Scholar

Goldberg, DE Algoritmos genéticos en búsqueda. Optimización y aprendizaje automático (1989).

Juste, K., Kita, H., Tanaka, E. y Hasegawa, J. Una solución de programación evolutiva al problema de compromiso de unidades. Traducción IEEE. Sistema de energía. 14, 1452-1459 (1999).

ADS del artículo Google Scholar

Holland, JH Esquema de una teoría lógica de sistemas adaptativos. J. ACM 9, 297–314 (1962).

Artículo de Google Scholar

Patro, SP, Nayak, GS y Padhy, N. Predicción de enfermedades cardíacas mediante el uso de un nuevo algoritmo de optimización: una perspectiva de aprendizaje supervisado. Informar. Medicina. Desbloqueado el 26, 100696, doi: https://doi.org/10.1016/j.imu.2021.100696 (2021)

Li, X. & Sun, Y. Estrategia de inversión inteligente en acciones basada en un algoritmo de optimización de parámetros de máquina de vectores de soporte. Computación neuronal. Aplica. 32, 1765-1775 (2020).

Artículo de Google Scholar

Sang-To, T. et al. Combinación de una estrategia de búsqueda intermitente y un algoritmo de optimización de enjambre de partículas (IPSO) mejorado para la actualización del modelo. Frattura ed Integrità Strutturale 59, 141-152 (2022).

Google Académico

Minh, H.-L. et al. En actas de la Segunda Conferencia Internacional sobre Modelización y Evaluación de Daños Estructurales. 13–26 (Springer).

Yao, X., Liu, Y. y Lin, G. La programación evolutiva se aceleró. Traducción IEEE. Evolución. Computadora. 3, 82–102, doi: https://doi.org/10.1109/4235.771163 (1999).

Digalakis, JG & Margaritis, KG Sobre funciones de evaluación comparativa para algoritmos genéticos. En t. J. Computación. Matemáticas. 77, 481–506 (2001).

Artículo MathSciNet Google Scholar

Yang, X.-S. Problemas de prueba en optimización. Preimpresión de arXiv arXiv:1008.0549 (2010).

Rashedi, E., Nezamabadi-Pour, H. & Saryazdi, S. GSA: un algoritmo de búsqueda gravitacional. inf. Ciencia. 179, 2232–2248 (2009).

Artículo de Google Scholar

Zhao, W., Wang, L. & Zhang, Z. Optimización de búsqueda atómica y su aplicación para resolver un problema de estimación de parámetros hidrogeológicos. Sistema basado en el conocimiento. 163, 283–304. https://doi.org/10.1016/j.knosys.2018.08.030 (2019).

Artículo de Google Scholar

Yang, Y., Chen, H., Heidari, AA & Gandomi, AH Búsqueda de juegos del hambre: visiones, concepción, implementación, análisis profundo, perspectivas y cambios en el desempeño. Sistema experto. Aplica. 177, 114864 (2021).

Artículo de Google Scholar

Wu, G., R. Mallipeddi y PN Suganthan. Definiciones de problemas y criterios de evaluación para el concurso CEC 2017 sobre optimización restringida de parámetros reales. (investigación, 2017).

Price, K., Awad, N., Ali, M. y Suganthan, P. El desafío de los 100 dígitos: definiciones de problemas y criterios de evaluación para la sesión especial del desafío de los 100 dígitos y la competencia sobre optimización numérica de un solo objetivo. Tecnología Nanyang. Univ. (2018).

Abualigah, L., Diabat, A., Mirjalili, S., Abd Elaziz, M. & Gandomi, AH El algoritmo de optimización aritmética. Computadora. Métodos de aplicación. Mec. Ing. 376, 113609 (2021).

Artículo MathSciNet ADS Google Scholar

He, Q. & Wang, L. Una optimización eficaz del enjambre de partículas coevolutivas para problemas de diseño de ingeniería restringidos. Ing. Aplica. Artif. Intel. 20, 89–99 (2007).

Artículo de Google Scholar

Mezura-Montes, E. & Coello, CAC Un estudio empírico sobre la utilidad de las estrategias de evolución para resolver problemas de optimización restringida. En t. J. Gen Syst 37, 443–473 (2008).

Artículo MathSciNet Google Scholar

Coello, CAC Uso de un enfoque de penalización autoadaptativo para problemas de optimización de ingeniería. Computadora. Indiana 41, 113-127 (2000).

Artículo de Google Scholar

Mahdavi, M., Fesanghary, M. y Damangir, E. Un algoritmo de búsqueda de armonía mejorado para resolver problemas de optimización. Aplica. Matemáticas. Computadora. 188, 1567-1579 (2007).

Artículo MathSciNet Google Scholar

Belegundu, AD & Arora, JS Un estudio de métodos de programación matemática para optimización estructural. Parte I: teoría. En t. J. Número. Métodos Ing. 21, 1583–1599, doi: https://doi.org/10.1002/nme.1620210904 (1985).

Arora, J. Introducción al diseño óptimo con MATLAB. Introducción al diseño óptimo, 413–432 (2004).

Huang, F.-Z., Wang, L. y He, Q. Una evolución diferencial coevolutiva eficaz para la optimización restringida. Aplica. Matemáticas. Computadora. 186, 340–356 (2007).

Artículo MathSciNet Google Scholar

Lee, KS & Geem, ZW Un nuevo algoritmo metaheurístico para la optimización continua de la ingeniería: teoría y práctica de la búsqueda de armonía. Computadora. Métodos de aplicación. Mec. Ing. 194, 3902–3933 (2005).

ADS del artículo Google Scholar

Ragsdell, KM & Phillips, DT Diseño óptimo de una clase de estructuras soldadas mediante programación geométrica. J. Ing. Indiana 98, 1021-1025. https://doi.org/10.1115/1.3438995 (1976).

Artículo de Google Scholar

Deb, K. Diseño óptimo de una viga soldada mediante algoritmos genéticos. AIAA J. 29, 2013-2015 (1991).

ADS del artículo Google Scholar

Deb, K. Un método eficiente de manejo de restricciones para algoritmos genéticos. Computadora. Métodos Appl Mech Eng 186, 311–338 (2000).

ADS del artículo Google Scholar

Coello Coello, CA Manejo de restricciones mediante una técnica de optimización evolutiva multiobjetivo. Civilización. Ing. Sistema. 17, 319–346 (2000).

Artículo de Google Scholar

Coello, CAC & Montes, EM Manejo de restricciones en algoritmos genéticos mediante el uso de selección de torneos basada en dominancia. Adv. Ing. Informar. 16, 193–203 (2002).

Artículo de Google Scholar

Deb, K. En Algoritmos evolutivos en aplicaciones de ingeniería 497–514 (Springer, 1997).

Kaveh, A. & Talatahari, S. Una optimización mejorada de colonias de hormigas para problemas de diseño de ingeniería restringidos. Ing. Computadora. (2010).

Mirjalili, S. Algoritmo de optimización de llama de polilla: un paradigma heurístico novedoso inspirado en la naturaleza. Sistema basado en el conocimiento. 89, 228–249 (2015).

Artículo de Google Scholar

Kannan, BK y Kramer, SN Un método basado en multiplicador de Lagrange aumentado para la optimización continua discreta de enteros mixtos y sus aplicaciones al diseño mecánico. J. Mech. Des. 116, 405–411. https://doi.org/10.1115/1.2919393 (1994).

Artículo de Google Scholar

Sandgren, E. Programación entera no lineal y discreta en la optimización del diseño mecánico. J. Mech. Des. 112, 223–229. https://doi.org/10.1115/1.2912596 (1990).

Artículo de Google Scholar

Descargar referencias

Los autores agradecen el apoyo financiero del proyecto VLIR-UOS TEAM, VN2018TEA479A103, 'Herramientas de evaluación de daños para el monitoreo de la salud estructural de las infraestructuras vietnamitas', financiado por el gobierno flamenco. Los autores desean agradecer el apoyo de la Universidad Abierta de la Ciudad de Ho Chi Minh en el marco del fondo de investigación básica (No. E2021.06.1). Los autores desean expresar su agradecimiento a la Universidad Van Lang, Vietnam, por el apoyo financiero para esta investigación.

Laboratorio Soete, Departamento de Ingeniería Electromecánica, de Sistemas y de Metales, Universidad de Gante, Parque Tecnológico Zwijnaarde 903, 9052, Zwijnaarde, Bélgica

Thanh Sang-To y Minh Hoang-Le

Facultad de Ingeniería Civil, Universidad Abierta de la Ciudad de Ho Chi Minh, Ciudad Ho Chi Minh, Vietnam

Thanh Sang-To, Minh Hoang-Le y Thanh Cuong-Le

Facultad de Ingeniería Mecánica - Eléctrica e Informática, Escuela de Ingeniería y Tecnología, Universidad Van Lang, Ciudad Ho Chi Minh, Vietnam

Magd Abdel Wahab

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

Conceptualización, Software, Metodología, Validación, Redacción de TST, MAW y TCL – Borrador original; Redacción de ML, análisis formal y curación de datos; Supervisión MAW y TCL.

Correspondencia a Magd Abdel Wahab o Thanh Cuong-Le.

Los autores declaran no tener conflictos de intereses.

Springer Nature se mantiene neutral con respecto a reclamos jurisdiccionales en mapas publicados y afiliaciones institucionales.

Acceso Abierto Este artículo está bajo una Licencia Internacional Creative Commons Attribution 4.0, que permite el uso, compartir, adaptación, distribución y reproducción en cualquier medio o formato, siempre y cuando se dé el crédito apropiado a los autores originales y a la fuente. proporcione un enlace a la licencia Creative Commons e indique si se realizaron cambios. Las imágenes u otro material de terceros en este artículo están incluidos en la licencia Creative Commons del artículo, a menos que se indique lo contrario en una línea de crédito al material. Si el material no está incluido en la licencia Creative Commons del artículo y su uso previsto no está permitido por la normativa legal o excede el uso permitido, deberá obtener permiso directamente del titular de los derechos de autor. Para ver una copia de esta licencia, visite http://creativecommons.org/licenses/by/4.0/.

Reimpresiones y permisos

Sang-To, T., Hoang-Le, M., Wahab, MA et al. Un algoritmo de optimización planetaria eficiente para resolver problemas de ingeniería. Representante científico 12, 8362 (2022). https://doi.org/10.1038/s41598-022-12030-w

Descargar cita

Recibido: 23 de marzo de 2022

Aceptado: 04 de mayo de 2022

Publicado: 19 de mayo de 2022

DOI: https://doi.org/10.1038/s41598-022-12030-w

Cualquier persona con la que comparta el siguiente enlace podrá leer este contenido:

Lo sentimos, actualmente no hay un enlace para compartir disponible para este artículo.

Proporcionado por la iniciativa de intercambio de contenidos Springer Nature SharedIt

Informes Científicos (2023)

Fronteras de la Ingeniería Estructural y Civil (2023)

Computación blanda (2023)

Revista Internacional de Mecánica y Materiales en Diseño (2023)

Dinámica no lineal (2023)

Al enviar un comentario, acepta cumplir con nuestros Términos y pautas de la comunidad. Si encuentra algo abusivo o que no cumple con nuestros términos o pautas, márquelo como inapropiado.

COMPARTIR