banner
Nachrichtenzentrum
Zuverlässiger und erfahrener Lieferant für alle Ihre Bedürfnisse

Eine neue Biografie

Jul 18, 2023

Scientific Reports Band 13, Artikelnummer: 8775 (2023) Diesen Artikel zitieren

2297 Zugriffe

Details zu den Metriken

In diesem Artikel wird ein neuer bioinspirierter metaheuristischer Algorithmus namens Walrus Optimization Algorithm (WaOA) vorgestellt, der das Verhalten von Walrossen in der Natur nachahmt. Die grundlegenden Inspirationen für das WaOA-Design sind der Prozess der Nahrungsaufnahme, Migration, Flucht und Bekämpfung von Raubtieren. Die WaOA-Implementierungsschritte werden mathematisch in drei Phasen: Exploration, Migration und Nutzung modelliert. 68 Standard-Benchmark-Funktionen, bestehend aus unimodalen, hochdimensionalen multimodalen, festdimensionalen multimodalen Funktionen, der CEC 2015-Testsuite und der CEC 2017-Testsuite, werden zur Bewertung der WaOA-Leistung in Optimierungsanwendungen eingesetzt. Die Optimierungsergebnisse unimodaler Funktionen zeigen die Ausbeutungsfähigkeit von WaOA an, die Optimierungsergebnisse multimodaler Funktionen zeigen die Explorationsfähigkeit von WaOA an und die Optimierungsergebnisse der CEC 2015- und CEC 2017-Testsuiten zeigen die hohe Fähigkeit von WaOA, Exploration und Ausbeutung währenddessen in Einklang zu bringen den Suchvorgang. Die Leistung von WaOA wird mit den Ergebnissen von zehn bekannten metaheuristischen Algorithmen verglichen. Die Ergebnisse der Simulationen zeigen, dass WaOA aufgrund seiner hervorragenden Fähigkeit, Exploration und Ausbeutung in Einklang zu bringen und überlegene Ergebnisse für die meisten Benchmark-Funktionen zu liefern, im Gegensatz zu anderen vergleichbaren Algorithmen eine bemerkenswert wettbewerbsfähige und überlegene Leistung gezeigt hat. Darüber hinaus demonstriert der Einsatz von WaOA bei der Lösung von vier Design-Engineering-Problemen und zweiundzwanzig realen Optimierungsproblemen aus der CEC 2011-Testsuite die offensichtliche Wirksamkeit von WaOA in realen Anwendungen. Die MATLAB-Codes von WaOA sind unter https://uk.mathworks.com/matlabcentral/profile/authors/13903104 verfügbar.

In letzter Zeit müssen viele Optimierungsprobleme in Wissenschaft, Technik, Industrie und Technologie mithilfe von Optimierungstechniken gelöst werden. Aus mathematischer Sicht sind Entscheidungsvariablen, Einschränkungen und Zielfunktionen die drei Hauptbestandteile der Modellierung eines Optimierungsproblems. Der Zweck der Optimierung besteht darin, die Entscheidungsvariablen des Problems so zu quantifizieren, dass sie unter Beachtung der Einschränkungen zum Erreichen des minimalen (Minimierungsprobleme) oder maximalen (Maximierungsprobleme) Werts für die Zielfunktion führt1. Angewandte Techniken zur Lösung von Optimierungsproblemen fallen in die deterministischen und stochastischen Ansätze. Um die geeignete Technik zur Lösung eines Optimierungsproblems auszuwählen, benötigt ein Benutzer umfassende Informationen zum Vergleich von Problemlösungstechniken. Im Gegensatz dazu werden oft mehr als die verfügbaren Informationen des Benutzers benötigt. Stochastische Ansätze, die hauptsächlich auf der Zufallssuche im Problemlösungsraum basieren, können Black-Box-Probleme einfacher lösen als viele deterministische Algorithmen. Diese Ansätze eignen sich auch für Probleme, bei denen die Auswertungen der Funktionen durch Rauschen verfälscht werden. Jeder deterministische und stochastische Ansatz hat verschiedene Vorteile und im Allgemeinen kann keiner als überlegen angesehen werden. Weitere Informationen und ein detaillierter Vergleich deterministischer und stochastischer Ansätze finden sich in Krasovs Buch2.

Als einer der am weitesten verbreiteten stochastischen Ansätze können metaheuristische Algorithmen, die stochastische Operatoren, Trial-and-Error-Konzepte und stochastische Suche verwenden, geeignete Lösungen für Optimierungsprobleme bereitstellen, ohne dass abgeleitete Informationen von der Zielfunktion erforderlich sind. Die Einfachheit der Ideen, die einfache Implementierung, die Unabhängigkeit von der Art des Problems und die fehlende Notwendigkeit eines Ableitungsprozesses gehören zu den Vorteilen, die zur Popularität und Verbreitung metaheuristischer Algorithmen unter Forschern geführt haben3. Der Optimierungsprozess in metaheuristischen Algorithmen beginnt mit der zufälligen Generierung mehrerer zunächst zulässiger Lösungen im Problemsuchraum. Anschließend werden diese Ausgangslösungen in einem iterativen Prozess, basierend auf der Wirksamkeit der Algorithmusschritte, verbessert. Abschließend wird die beste Lösung, die bei der Implementierung des Algorithmus gefunden wurde, als Lösung des Problems vorgestellt4. Allerdings garantiert keiner der metaheuristischen Algorithmen, dass er die optimale globale Lösung bereitstellen kann. Diese Unzulänglichkeit ist auf die Art der Zufallssuche bei solchen Optimierungsansätzen zurückzuführen. Daher werden die aus metaheuristischen Algorithmen abgeleiteten Lösungen als quasi-optimale Lösungen5 bezeichnet.

Explorations- und Ausbeutungsfähigkeiten ermöglichen es metaheuristischen Algorithmen, bessere quasi-optimale Lösungen bereitzustellen. Unter Exploration versteht man die Fähigkeit, global in verschiedenen Bereichen des Problemlösungsraums zu suchen, um den besten optimalen Bereich zu entdecken. Im Gegensatz dazu bezieht sich Ausbeutung auf die Fähigkeit, lokal nach verfügbaren Lösungen und vielversprechenden Bereichen zu suchen, um sich dem globalen Optimum anzunähern. Das Ausbalancieren von Exploration und Exploitation ist der Schlüssel zum Erfolg metaheuristischer Algorithmen bei der Erzielung effektiver Lösungen6. Das Erreichen besserer quasi-optimaler Lösungen war die größte Herausforderung und der Grund für die Entwicklung verschiedener metaheuristischer Algorithmen durch Forscher7,8.

Die zentrale Forschungsfrage lautet: Gibt es trotz der zahlreichen bisher eingeführten metaheuristischen Algorithmen immer noch Bedarf an der Entwicklung neuer Algorithmen? Das No Free Lunch (NFL)-Theorem9 beantwortet die Frage, dass die optimale Leistung eines Algorithmus bei der Lösung einer Reihe von Optimierungsproblemen keine Garantie für die ähnliche Leistung dieses Algorithmus bei der Lösung anderer Optimierungsprobleme bietet. Das NFL-Theorem-Konzept lehnt die Hypothese ab, dass ein bestimmter metaheuristischer Algorithmus der beste Optimierer für alle Optimierungsanwendungen über alle verschiedenen Algorithmen hinweg ist. Stattdessen ermutigt das NFL-Theorem Forscher, weiterhin neuere metaheuristische Algorithmen zu entwickeln, um bessere quasi-optimale Lösungen für Optimierungsprobleme zu erreichen. Dieses Theorem hat die Autoren dieses Artikels auch dazu motiviert, einen neuen metaheuristischen Algorithmus zu entwickeln, um Optimierungsherausforderungen anzugehen.

Die Neuheit und der Beitrag dieses Artikels bestehen in der Entwicklung eines neuen metaheuristischen Algorithmus namens Walrus Optimization Algorithm (WaOA), der auf der Simulation des Walrossverhaltens in der Natur basiert. Die Hauptbeiträge dieses Artikels sind wie folgt:

Das natürliche Verhalten von Walrossen inspiriert WaOAs Design bei der Nahrungsaufnahme auf der Wanderung, auf der Flucht und im Kampf gegen Raubtiere.

WaOA wird mathematisch in drei Phasen modelliert: Exploration, Ausbeutung und Migration.

Die Effizienz von WaOA bei der Handhabung von Optimierungsproblemen wird anhand von 68 Standardzielfunktionen verschiedener Arten von Unimodal und Multimodal sowie der CEC 2015-Testsuite und der CEC 2017-Testsuite getestet.

Die Leistung von WaOA wird mit der Leistung von zehn bekannten metaheuristischen Algorithmen verglichen.

Der Erfolg von WaOA in realen Anwendungen wird durch die Bewältigung von vier technischen Designproblemen und zweiundzwanzig realen Optimierungsproblemen aus der CEC 2011-Testsuite in Frage gestellt.

Der Rest des Papiers ist wie folgt. Die Literaturübersicht wird im Abschnitt „Literaturübersicht“ vorgestellt. Der vorgeschlagene WaOA-Ansatz wird im Abschnitt „Walross-Optimierungsalgorithmus“ vorgestellt und modelliert. Simulationsstudien werden im Abschnitt „Simulationsstudien und Ergebnisse“ vorgestellt. Die Effizienz von WaOA bei der Lösung technischer Designprobleme wird im Abschnitt „WaOA für reale Anwendungen“ bewertet. Schlussfolgerungen und zukünftige Forschungsrichtungen sind im Abschnitt „Schlussfolgerungen und zukünftige Arbeiten“ enthalten.

Metaheuristische Algorithmen basieren auf der Inspiration und Simulation verschiedener Naturphänomene, Strategien und Verhaltensweisen von Tieren, Konzepten der Biowissenschaften, Genetik, Physik, menschlichen Aktivitäten, Spielregeln und allen evolutionären Prozessen. Dementsprechend lassen sich metaheuristische Algorithmen im Hinblick auf die Hauptinspiration des Designs in fünf Gruppen einteilen: evolutionär, schwarmbasiert, physikbasiert, menschenbasiert und spielbasiert.

Evolutionsbasierte metaheuristische Algorithmen wurden unter Verwendung der Konzepte der Biologie, der Theorie der natürlichen Selektion und Zufallsoperatoren wie Selektion, Crossover und Mutation entwickelt. Der genetische Algorithmus (GA) ist einer der bekanntesten metaheuristischen Algorithmen, der vom Reproduktionsprozess, Darwins Evolutionstheorie, natürlicher Selektion und biologischen Konzepten inspiriert ist10. Differential Evolution (DE) ist eine weitere evolutionäre Berechnung, die zusätzlich zur Verwendung der Konzepte der Biologie, Zufallsoperatoren und natürlicher Selektion einen Differentialoperator verwendet, um neue Lösungen zu generieren11.

Schwarmbasierte metaheuristische Algorithmen wurden entwickelt, die auf der Modellierung natürlicher Phänomene, Schwarmphänomene und Verhaltensweisen von Tieren, Vögeln, Insekten und anderen Lebewesen basieren. Die Partikelschwarmoptimierung (PSO) ist eine der ersten eingeführten Metaheuristikmethoden und wurde in Optimierungsbereichen häufig eingesetzt. Die Hauptinspiration bei der Gestaltung von PSO ist das Suchverhalten von Vögeln und Fischen, um Nahrungsquellen zu entdecken12,13. Ant Colony Optimization (ACO) ist eine schwarmbasierte Methode, die von der Fähigkeit und Strategie einer Ameisenkolonie inspiriert ist, den kürzesten Weg zwischen der Kolonie und Nahrungsquellen zu ermitteln14. Grey Wolf Optimization (GWO) ist ein metaheuristischer Algorithmus, der von der hierarchischen Struktur und dem Sozialverhalten grauer Wölfe bei der Jagd inspiriert ist15. Der Marine Predator Algorithm (MPA) wurde in Anlehnung an die Raubtierstrategien des Ozeans und der Meere und deren Levy-Flugbewegungen zum Fangen von Beute16 entwickelt. Die Strategie der Manteltiere und ihr Suchmechanismus bei der Suche nach Nahrungsquellen und der Nahrungssuche waren die Hauptinspirationen für die Entwicklung des Tunicate Swarm Algorithm (TSA)17. Einige andere schwarmbasierte Methoden sind White Shark Optimizer (WSO)18, Reptile Search Algorithm (RSA)19, Raccoon Optimization Algorithm (ROA)20, African Vultures Optimization Algorithm (AVOA)21, Farmland Fertility Algorithm (FFA)22, Slime Mould Algorithmus (SMA)23, Mountain Gazelle Optimizer (MGO)24, Sparrow Search Algorithm (SSA)25, Whale Optimization Algorithm (WOA)26, Artificial Gorilla Troops Optimizer (GTO)27 und Pelican Optimization Algorithm (POA)28.

Physikbasierte metaheuristische Algorithmen wurden von Theorien, Konzepten, Gesetzen, Kräften und Phänomenen der Physik inspiriert. Simulated Annealing (SA) ist eine der bekanntesten physikalischen Methoden, deren Hauptinspiration der Prozess des Glühens von Metallen ist. Bei diesem physikalischen Vorgang wird ein Feststoff in ein Wärmebad gegeben und die Temperatur kontinuierlich erhöht, bis der Feststoff schmilzt. Die Feststoffpartikel sind physisch getrennt oder zufällig angeordnet. Von einem so hohen Energieniveau aus kühlt das Thermalbad mit abnehmender Temperatur langsam ab, sodass sich die Partikel in einer regelmäßigen Kristallgitterstruktur ausrichten können29. Der Gravitationssuchalgorithmus (GSA) ist eine physikbasierte Berechnungsmethode, die von der Simulation des Newtonschen Gesetzes der universellen Gravitation und der Newtonschen Bewegungsgesetze zwischen in einem System untergebrachten Massen30 inspiriert ist. Die Anwendung der drei Konzepte eines Schwarzen Lochs, eines Weißen Lochs und eines Wurmlochs in der kosmologischen Wissenschaft war die Inspiration für das Design des Multi-Verse Optimizer (MVO)31. Einige andere physikbasierte Methoden sind: Water Cycle Algorithm (WCA)32, Spring Search Algorithm (SSA)33, Atom Search Optimization (ASO)34, Quanten-inspirierte metaheuristische Algorithmen35, Momentum Search Algorithm (MSA)36 und Nuclear Reaction Optimization (NRO)37.

Auf Menschen basierende metaheuristische Algorithmen wurden entwickelt, die von menschlichen Aktivitäten, sozialen Beziehungen und Interaktionen inspiriert sind. Teaching Learning Based Optimization (TLBO) ist der am weitesten verbreitete menschenbasierte metaheuristische Algorithmus, bei dem die Interaktionen zwischen Lehrern und Schülern sowie den Schülern untereinander im Bildungsraum die Hauptinspirationsquelle sind38. Die Bemühungen zweier Teile der Gesellschaft, darunter der Armen und der Reichen, zur Verbesserung ihrer finanziellen Situation waren die Hauptidee bei der Entwicklung der Poor and Rich Optimization (PRO)39. Einige andere menschenbasierte Methoden sind der Bogenschießen-Algorithmus (AA)40, der Brain Storm Optimization-Algorithmus (BSO)41, der Chef Based Optimization Algorithm (CBOA)42, die War Strategy Optimization (WSO)43 und der Teamwork Optimization Algorithm (TOA)44.

Es wurden spielbasierte metaheuristische Algorithmen eingeführt, die auf der Simulation der Regeln verschiedener Einzel- und Gruppenspiele und der Nachahmung des Verhaltens von Spielern, Schiedsrichtern, Trainern und anderen effektiven Interaktionen basieren. Beispielsweise war der Wettbewerb der Spieler im Tauziehen nach den Regeln dieses Spiels die Hauptidee bei der Entwicklung des Tauziehen-Optimierungsalgorithmus (TWO)45. Der Algorithmus der Premier Volleyball League (PVL) wird basierend auf der mathematischen Modellierung von Spielerinteraktionen, Wettbewerben und Traineranweisungen während des Spiels eingeführt46. Der Puzzle-Optimierungsalgorithmus (POA) ist ein weiterer spielbasierter metaheuristischer Algorithmus, der darauf basiert, dass Spieler versuchen, Rätsel zu lösen und sich gegenseitig Hilfe zu holen, um Puzzleteile besser anzuordnen47. Einige andere spielbasierte Methoden sind Orientation Search Algorithm (OSA)48, Ring Toss Game-Based Optimization (RTGBO)49, Football Game Based Optimization (FGBO)50, Dice Game Optimization (DGO)51 und Orientation Search Algorithm (OSA). 48.

Basierend auf den besten Erkenntnissen aus der Literaturrecherche wurde kein metaheuristischer Algorithmus entwickelt, der auf der Simulation des Verhaltens und der Strategien von Walrossen basiert. Intelligente Walrossverhaltensweisen wie Nahrungssuche, Migration, Flucht und Kampf mit Raubtieren sind jedoch anfällig für die Entwicklung eines Optimierers. Im nächsten Abschnitt wird basierend auf der mathematischen Modellierung des natürlichen Verhaltens von Walrossen ein neuer metaheuristischer Algorithmus entwickelt, um Optimierungsanwendungen zu bewältigen und diese Forschungslücke zu schließen.

In diesem Abschnitt werden grundlegende Inspirationen und die Theorie des vorgeschlagenen Walross-Optimierungsalgorithmus (WaOA) dargelegt und anschließend seine verschiedenen Schritte mathematisch modelliert.

Walross ist ein großes Meeressäugetier mit Flossen und einer diskontinuierlichen Verbreitung im Arktischen Ozean und in den subarktischen Gewässern der nördlichen Hemisphäre rund um den Nordpol52. Ausgewachsene Walrosse sind leicht an ihren großen Schnurrhaaren und Stoßzähnen zu erkennen. Walrosse sind soziale Tiere, die die meiste Zeit auf dem Meereis verbringen und auf der Suche nach benthischen Muscheln als Nahrungsquelle sind. Das auffälligste Merkmal von Walrossen sind die langen Stoßzähne dieses Tieres. Hierbei handelt es sich um längliche Eckzähne, die sowohl bei männlichen als auch bei weiblichen Arten vorkommen und bis zu 5,4 kg wiegen und bis zu 1 m lang sein können. Die Stoßzähne der Männchen sind etwas dicker und länger und dienen der Dominanz, dem Kampf und der Zurschaustellung. Das muskulöseste Männchen mit den längsten Stoßzähnen dominiert die anderen Gruppenmitglieder und führt sie an53. Ein Bild eines Walrosses ist in Abb. 1 dargestellt. Wenn das Wetter wärmer wird und das Eis im Spätsommer schmilzt, ziehen Walrosse lieber zu Felsvorsprüngen oder felsigen Stränden. Diese Wanderungen sind sehr dramatisch und beinhalten massive Ansammlungen von Walrossen54. Das Walross hat aufgrund seiner Größe und seiner Stoßzähne nur zwei natürliche Feinde: den Eisbären und den Schwertwal (Orca). Beobachtungen zeigen, dass der Kampf zwischen einem Walross und einem Eisbären sehr langwierig und anstrengend ist und sich Eisbären normalerweise aus dem Kampf zurückziehen, nachdem sie das Walross verletzt haben. Allerdings verletzen Walrosse die Eisbären bei diesem Kampf mit ihren Stoßzähnen. Im Kampf gegen Walrosse können Killerwale sie erfolgreich jagen, mit minimalen oder sogar keinen Verletzungen55.

Walross (das Foto wurde von Wikimedia56 hochgeladen).

Das soziale Leben und die natürlichen Verhaltensweisen von Walrossen stellen einen intelligenten Prozess dar. Von diesen intelligenten Verhaltensweisen sind drei die offensichtlichsten:

(i) Anleiten von Individuen, unter der Anleitung eines Mitglieds mit den längsten Stoßzähnen zu fressen.

Durch die Verfolgung des besten Bevölkerungsmitglieds im Suchprozess wird der Algorithmus auf vielversprechende Gebiete ausgerichtet. Im sozialen Leben der Walrosse ist das stärkste Walross, das am längsten Stoßzahn erkennbar ist, für die Führung der anderen Walrosse verantwortlich. Das Bewegen von Walrossen führt dabei zu erheblichen Positionsänderungen. Die Simulation dieser großen Verschiebungen erhöht die Fähigkeit des Algorithmus zur globalen Suche und Erkundung.

(ii) Migration von Walrossen zu felsigen Stränden.

Eines der natürlichen Verhaltensweisen von Walrossen ist ihre Wanderung aufgrund des wärmeren Wetters im Sommer. Dabei verändern Walrosse ihre Position stark, indem sie sich auf Felsvorsprünge oder felsige Strände zubewegen. In der WaOA-Simulation für ein Walross werden die Positionen anderer Walrosse als Migrationsziele angenommen, eine dieser Positionen zufällig ausgewählt und das Walross bewegt sich darauf zu. Beim Entwurf von WaOA werden durch die Nachahmung dieser Strategie die globalen Such- und Entdeckungsmöglichkeiten verbessert. Der Unterschied zwischen der Migrationsstrategie und dem Nahrungssucheprozess unter der Führung des stärksten Walrosses besteht darin, dass bei diesem Prozess der Populationsaktualisierungsprozess daran gehindert wird, sich auf ein bestimmtes Mitglied, beispielsweise das beste Mitglied der Population, zu verlassen. Dieser Aktualisierungsprozess verhindert eine frühe Konvergenz und verhindert, dass der Algorithmus in lokalen Optima hängen bleibt.

(iii) Raubtiere bekämpfen oder ihnen entkommen.

Die Kampfstrategie von Walrossen gegen ihre Raubtiere wie den Eisbären und den Schwertwal ist ein langer Verfolgungsprozess. Dieser Verfolgungsprozess findet in einem kleinen Bereich rund um die Walrossposition statt und führt zu kleinen Veränderungen der Walrossposition. Daher führt die Simulation der kleinen Verschiebungen des Walrosses durch das Anstreben besserer Positionen während des Kampfes zu einer Verbesserung der Fähigkeit von WaOA, lokal zu suchen und diese zu nutzen, um zu besseren Lösungen zu gelangen.

Die mathematische Modellierung dieser Verhaltensweisen ist die Hauptinspiration für die Entwicklung des vorgeschlagenen WaOA-Ansatzes.

WaOA ist ein bevölkerungsbasierter metaheuristischer Algorithmus, bei dem die suchenden Mitglieder dieser Population Walrosse sind. In WaOA stellt jedes Walross einen Lösungskandidaten für das Optimierungsproblem dar. Somit bestimmt die Position jedes Walrosses im Suchraum die Kandidatenwerte für die Problemvariablen. Daher ist jedes Walross ein Vektor, und die Walrosspopulation kann mithilfe der sogenannten Populationsmatrix mathematisch modelliert werden. Zu Beginn der WaOA-Implementierung werden Walrosspopulationen zufällig initialisiert. Diese WaOA-Populationsmatrix wird unter Verwendung von (1) bestimmt.

Dabei ist \(X\) die Population der Walrosse, \({X}_{i}\) das \(i\)-te Walross (Kandidatenlösung), \({x}_{i,j}\) ist der Wert der \(j\)-ten Entscheidungsvariablen, die vom \(i\)-ten Walross vorgeschlagen wird, \(N\) ist die Anzahl der Walrosse und \(m\) ist die Anzahl der Entscheidungsvariablen.

Wie bereits erwähnt, ist jedes Walross ein Lösungskandidat für das Problem, und basierend auf den vorgeschlagenen Werten für die Entscheidungsvariablen kann die Zielfunktion des Problems bewertet werden. Die Schätzwerte für die aus Walrossen gewonnene Zielfunktion sind in (2) angegeben.

Dabei ist \(F\) der Zielfunktionsvektor und \({F}_{i}\) der Wert der Zielfunktion, die auf der Grundlage des \(i\)-ten Walrosses ausgewertet wird.

Zielfunktionswerte sind das beste Maß für die Qualität von Kandidatenlösungen. Die Kandidatenlösung, die zur Bewertung des besten Werts für die Zielfunktion führt, wird als bestes Mitglied bezeichnet. Andererseits wird die Kandidatenlösung, die den schlechtesten Wert für die Zielfunktion ergibt, als schlechtestes Mitglied bezeichnet. Entsprechend der Aktualisierung der Werte der Zielfunktion in jeder Iteration werden auch die besten und schlechtesten Mitglieder aktualisiert.

Der Prozess der Aktualisierung der Position von Walrossen im WaOA wird in drei verschiedenen Phasen modelliert, die auf dem natürlichen Verhalten dieses Tieres basieren.

Walrosse ernähren sich abwechslungsreich und ernähren sich von mehr als 60 Arten Meeresorganismen wie Seegurken, Manteltieren, Weichkorallen, Röhrenwürmern, Garnelen und verschiedenen Weichtieren57. Allerdings bevorzugt das Walross benthische Muscheln, insbesondere Muscheln, die es auf der Nahrungssuche auf dem Meeresboden abgrast und mit seinen energischen Flossenbewegungen und anfälligen Vibrissen nach Nahrung sucht und diese aufspürt58. Bei diesem Suchvorgang führt das stärkste Walross mit den höchsten Stoßzähnen das andere Walross in der Gruppe bei der Nahrungssuche an. Die Länge der Stoßzähne bei den Walrossen ist ähnlich der Qualität der Zielfunktionswerte der Kandidatenlösungen. Daher gilt die beste Kandidatenlösung mit dem besten Wert für die Zielfunktion als stärkstes Walross in der Gruppe. Dieses Suchverhalten der Walrosse führt zu unterschiedlichen Scanbereichen des Suchraums, was die Erkundungsleistung des WaOA bei der globalen Suche verbessert. Der Prozess der Aktualisierung der Position von Walrossen wird mathematisch auf der Grundlage des Fütterungsmechanismus unter Anleitung des wichtigsten Mitglieds der Gruppe unter Verwendung von (3) und (4) modelliert. Dabei wird zunächst gemäß (3) eine neue Position für das Walross generiert. Diese neue Position ersetzt die vorherige Position, wenn sie den Wert der Zielfunktion verbessert; Dieses Konzept ist in (4) modelliert.

wobei \({X}_{i}^{{P}_{1}}\) die neu generierte Position für das \(i\)te Walross basierend auf der 1. Phase ist, \({x}_{i ,j}^{{P}_{1}}\) ist seine \(j\)-te Dimension, \({F}_{i}^{{P}_{1}}\) ist seine Zielfunktion Wert, \({rand}_{i,j}\) sind Zufallszahlen aus dem Intervall \(\left[0, 1\right]\), \(SW\) ist die beste Kandidatenlösung, die als betrachtet wird stärkstes Walross und \({I}_{i,j}\) sind ganze Zahlen, die zufällig zwischen 1 und 2 ausgewählt werden. \({I}_{i,j}\) wird verwendet, um die Erkundungsfähigkeit des Algorithmus zu erhöhen, sodass if Wird er gleich 2 gewählt, führt er im Vergleich zum Wert 1, dem Normalzustand dieser Verschiebung, zu signifikanteren und umfassenderen Veränderungen in der Position der Walrosse. Diese Bedingungen tragen dazu bei, die globale Suche des Algorithmus zu verbessern, indem er den lokalen Optima entkommt und den ursprünglichen optimalen Bereich im Problemlösungsraum entdeckt.

Eines der natürlichen Verhaltensweisen von Walrossen ist ihre Wanderung zu Felsvorsprüngen oder felsigen Stränden aufgrund der Lufterwärmung im Spätsommer. Dieser Migrationsprozess wird im WaOA eingesetzt, um die Walrosse im Suchraum zu leiten, um geeignete Gebiete im Suchraum zu entdecken. Dieser Verhaltensmechanismus wird mithilfe von (5) und (6) mathematisch modelliert. Bei dieser Modellierung wird davon ausgegangen, dass jedes Walross zu einer anderen Walrossposition (zufällig ausgewählt) in einem anderen Bereich des Suchraums wandert. Daher wird die vorgeschlagene neue Position zunächst basierend auf (5) generiert. Wenn diese neue Position dann gemäß (6) den Wert der Zielfunktion verbessert, ersetzt sie die vorherige Position des Walrosses.

wobei \({X}_{i}^{{P}_{2}}\) die neu generierte Position für das \(i\)te Walross basierend auf der 2. Phase ist, \({x}_{i ,j}^{{P}_{2}}\) ist seine \(j\)-te Dimension, \({F}_{i}^{{P}_{2}}\) ist seine Zielfunktion Wert, \({X}_{k}, k\in \left\{\mathrm{1,2}, \dots ,N\right\} \, \mathrm{and} \, k\ne i,\ ) ist der Standort des ausgewählten Walrosses, um das \(i\)-te Walross dorthin zu migrieren, \({x}_{k,j}\) ist seine \(j\)-te Dimension und \({F}_ {k}\) ist sein Zielfunktionswert.

Walrosse sind immer Angriffen des Eisbären und des Schwertwals ausgesetzt. Die Strategie der Flucht und Bekämpfung dieser Raubtiere führt zu einer Veränderung der Position der Walrosse in der Nähe ihres Aufenthaltsortes. Die Simulation dieses natürlichen Verhaltens von Walrossen verbessert die WaOA-Ausbeutungskraft bei der lokalen Suche im Problemlösungsraum rund um mögliche Lösungen. Da dieser Prozess in der Nähe der Position jedes Walrosses stattfindet, wird im WaOA-Entwurf davon ausgegangen, dass dieser Bereich der Positionsänderung des Walrosses in einer entsprechenden walrosszentrierten Nachbarschaft mit einem bestimmten Radius auftritt. Da in den ersten Iterationen des Algorithmus der globalen Suche Vorrang eingeräumt wird, um den optimalen Bereich im Suchraum zu ermitteln, wird der Radius dieser Nachbarschaft als variabel betrachtet, sodass er zunächst auf den höchsten Wert gesetzt wird und dann kleiner wird während der Iterationen des Algorithmus. Aus diesem Grund wurden in dieser Phase von WaOA lokale Unter-/Obergrenzen verwendet, um einen variablen Radius mit Algorithmuswiederholungen zu erstellen. Zur Simulation dieses Phänomens in WaOA wird eine Nachbarschaft um jedes Walross angenommen, dem zunächst mithilfe von (7) und (8) zufällig eine neue Position in dieser Nachbarschaft generiert wird. Wenn sich dann der Wert der Zielfunktion verbessert, ersetzt diese neue Position die vorherige Position gemäß (9).

wobei \({X}_{i}^{{P}_{3}}\) die neu generierte Position für das \(i\)-te Walross basierend auf der 3. Phase ist, \({x}_{i ,j}^{{P}_{3}}\) ist seine \(j\)-te Dimension, \({F}_{i}^{{P}_{3}}\) ist seine Zielfunktion Wert, \(t\) ist die Iterationskontur, \(l{b}_{j}\) und \(u{b}_{j}\) sind die unteren und oberen Grenzen von \(j\) Die Variablen \(l{b}_{local,j}^{t}\) und \({ub}_{local,j}^{t}\) sind lokale Unter- und lokale Obergrenzen, für die zulässig sind jeweils die \(j\)-te Variable, um eine lokale Suche in der Nachbarschaft der Kandidatenlösungen zu simulieren.

Nach der Aktualisierung der Position der Walrosse basierend auf der Implementierung der ersten, zweiten und dritten Phase ist die erste WaOA-Iteration abgeschlossen und es werden neue Werte für die Position der Walrosse und die Zielfunktionen berechnet. Die Aktualisierung und Verbesserung der Kandidatenlösungen wird basierend auf den WaOA-Schritten gemäß den Gleichungen wiederholt. (3)–(9) bis zur letzten Iteration. Nach Abschluss der Ausführung des Algorithmus führt WaOA den besten Lösungskandidaten ein, der während der Ausführung gefunden wurde, als Lösung für das gegebene Problem. Das WaOA-Implementierungsflussdiagramm ist in Abb. 2 dargestellt und sein Pseudocode ist in Algorithmus 1 angegeben.

Flussdiagramm von WaOA.

In diesem Unterabschnitt wird die rechnerische Komplexität von WaOA untersucht. Die WaOA-Initialisierung, die die Bildung der Populationsmatrix und die Berechnung der Zielfunktion umfasst, hat die Komplexität \(O(Nm)\), wobei N die Anzahl der Walrosse und m die Anzahl der Problemvariablen ist. Der WaOA-Aktualisierungsprozess besteht aus drei verschiedenen Phasen, von denen jede eine Komplexität von \(O(NmT)\) aufweist, wobei T die Anzahl der Iterationen des Algorithmus ist. Somit ist die gesamte Rechenkomplexität von WaOA gleich \(O(Nm (1 + 3T))\).

In Bezug auf Konkurrenzalgorithmen haben GA, PSO, GSA, GWO, MVO, MPA, TSA, RSA und WSO eine zeitliche Komplexität von \(O(Nm (1 + T))\) und TLBO hat eine rechnerische Komplexität von zu \(O(Nm (1 + 2T))\). Daher ist klar, dass der vorgeschlagene WaOA-Ansatz eine höhere Rechenkomplexität aufweist als alle zum Vergleich verwendeten Algorithmen. Um jedoch einen fairen Vergleich zu ermöglichen, haben wir in der Simulationsanalyse die Populationsgröße jedes metaheuristischen Algorithmus verwendet, sodass die Gesamtzahl der Funktionsauswertungen für alle verwendeten Algorithmen gleich ist.

In diesem Abschnitt werden WaOA-Simulationsstudien zu Optimierungsanwendungen vorgestellt. Die Effizienz von WaOA bei der Bereitstellung der optimalen Lösung wurde an 68 Standardzielfunktionen getestet, darunter unimodal, hochdimensional multimodal, festdimensional multimodal, der CEC 2015-Testsuite und der CEC 2017-Testsuite. Die Informationen zu diesen Testfunktionen sind im Anhang und in den Tabellen A1 bis A5 aufgeführt.

Die Gründe für die Wahl dieser Benchmark-Funktionen sind folgende. Die unimodalen Funktionen F1 bis F7 eignen sich zur Bewertung der Ausnutzungsfähigkeit metaheuristischer Algorithmen bei der Konvergenz zum globalen Optimum, da sie kein lokales Optimum haben. Die multimodalen Funktionen F8 bis F23 sind aufgrund ihres mehrfachen lokalen Optimums geeignete Optionen zur Bewertung der Explorationsfähigkeit metaheuristischer Algorithmen. Die Testsuiten CEC 2015 und CEC 2017 verfügen über komplexe Benchmark-Funktionen, die sich zur Bewertung der Fähigkeit metaheuristischer Algorithmen eignen, Exploration und Exploitation während des Suchprozesses in Einklang zu bringen. Die WaOA-Leistung wird mit zehn bekannten GA-, PSO-, GSA-, TLBO-, GWO-, MVO-, MPA-, TSA-, RSA- und WSO-Algorithmen verglichen, um die Qualität der WaOA-Ergebnisse zu bestimmen. Die für die Steuerparameter der verwendeten Algorithmen festgelegten Werte sind in Tabelle 1 angegeben. Die WaOA- und die erwähnten Konkurrenzalgorithmen wurden auf F1 bis F23 implementiert, jeweils in zwanzig unabhängigen Läufen mit tausend Iterationen (d. h. \(T=1000\)) ). In dieser Studie wird der Parameter \(N\) für WaOA mit 20, für TLBO mit 30 und für andere Konkurrenzalgorithmen mit 60 angenommen, um die Anzahl der Funktionsauswertungen auszugleichen. In diesem Fall beträgt die Anzahl der Funktionsauswertungen für jeden metaheuristischen Algorithmus unter Berücksichtigung der Rechenkomplexität jedes Algorithmus 60.000.

Optimierungsergebnisse werden anhand von vier statistischen Indikatoren gemeldet: Mittelwert, Bestwert, Standardabweichung und Median. Darüber hinaus wird der Rang jedes Algorithmus bei der Handhabung jeder Zielfunktion auf der Grundlage des Durchschnittskriteriums bestimmt.

Unimodale Zielfunktionen wurden ausgewählt, um die WaOA-Ausnutzungsfähigkeit bei der lokalen Suche zu bewerten, da es nur eine optimale Hauptlösung gibt und daher lokale Lösungen fehlen. Die Ergebnisse der Optimierung der Funktionen F1 bis F7 mithilfe von WaOA und Konkurrenzalgorithmen werden in Tabelle 2 veröffentlicht. Die Simulationsergebnisse zeigen, dass WaOA die optimale globale Lösung für die Zielfunktionen F1, F3, F5 und F6 verfügbar gemacht hat. WaOA ist auch der beste Optimierer für die Optimierung von F2, F4 und F7. Ein Vergleich der Optimierungsergebnisse zeigt, dass WaOA den zehn verglichenen Algorithmen eine sehr wettbewerbsfähige und offensichtliche Überlegenheit aufweist.

Hochdimensionale multimodale Funktionen mit mehreren lokalen und global optimalen Lösungen wurden ausgewählt, um die WaOA-Explorationsfähigkeit in der globalen Suche zu bewerten. Die Optimierungsergebnisse der Funktionen F8 bis F13 unter Verwendung von WaOA und Konkurrenzalgorithmen sind in Tabelle 3 aufgeführt. Aus den Ergebnissen dieser Tabelle lässt sich ableiten, dass WaOA bei der Optimierung von F9 und F11 dem globalen Optimum angenähert ist. WaOA ist auch der beste Optimierer für die Optimierung von F10, F12 und F13. TSA ist der beste Optimierer für die F8-Zielfunktion, während WaOA der zweitbeste Optimierer für diese Zielfunktion ist. Die Analyse der Simulationsergebnisse zeigt, dass WaOA eine akzeptable Leistung bei der Optimierung hochdimensionaler multimodaler Zielfunktionen aufweist und im Vergleich zu zehn Konkurrenzalgorithmen ein überlegenes Ergebnis liefert.

Die festdimensionalen multimodalen Funktionen, die weniger lokale Lösungen haben als die Funktionen F8 bis F13, wurden ausgewählt, um die Fähigkeit von WaOA zu bewerten, Exploration und Ausbeutung in Einklang zu bringen. Die Optimierungsergebnisse der Funktionen F14 bis F23 sind in Tabelle 4 aufgeführt. Die Ergebnisse zeigen, dass WaOA als bester Optimierer bei der Verarbeitung aller Funktionen F14 bis F23 an erster Stelle steht. Darüber hinaus zeigt die Analyse der Simulationsergebnisse die Überlegenheit von WaOA gegenüber zehn verglichenen Algorithmen aufgrund der hohen Leistungsfähigkeit von WaOA beim Ausgleich von Exploration und Ausbeutung.

Die Leistungen von WaOA und Konkurrenzalgorithmen bei der Lösung der Funktionen F1 bis F23 werden in Form von Boxplot-Diagrammen in Abb. 3 dargestellt. Die intuitive Analyse dieser Boxplots zeigt, dass der vorgeschlagene WaOA-Ansatz eine überlegene und effektivere Leistung als Konkurrenzalgorithmen erbracht hat, indem er bessere statistische Ergebnisse lieferte Indikatoren in den meisten Benchmark-Funktionen.

Das Boxplot-Diagramm der Leistung von WaOA und Konkurrenzalgorithmen bei den Funktionen F1 bis F23.

In diesem Unterabschnitt wird die Überlegenheit von WaOA gegenüber Konkurrenzalgorithmen statistisch analysiert, um festzustellen, ob diese Überlegenheit signifikant ist oder nicht. Um eine statistische Analyse der erhaltenen Ergebnisse durchzuführen, wird der Wilcoxon-Signed-Rank-Test59 verwendet. Der Wilcoxon-Signed-Rank-Test ist ein nichtparametrischer Test, der verwendet wird, um signifikante Unterschiede zwischen zwei Datenproben zu erkennen. Die Ergebnisse der statistischen Analyse mit diesem Test sind in Tabelle 5 dargestellt. Aus der Untersuchung der Simulationsergebnisse geht hervor, dass WaOA in Fällen, in denen der \(p\)-Wert kleiner ist, eine signifikante statistische Überlegenheit gegenüber dem Konkurrenzalgorithmus aufweist als 0,05.

WaOA ist ein bevölkerungsbasierter Optimierer, der den Optimierungsprozess in einer repetitiven Berechnung durchführt. Dementsprechend wird erwartet, dass die Parameter \(N\) (die Anzahl der Mitglieder der Bevölkerung) und \(T\) (die Gesamtzahl der Iterationen des Algorithmus) die WaOA-Optimierungsleistung beeinflussen. Daher wird in diesem Unterabschnitt die Sensitivitätsanalyse von WaOA für die Parameter \(T\) und \(N\) vorgestellt.

Zur Analyse der Empfindlichkeit von WaOA gegenüber dem Parameter \(N\) wird der vorgeschlagene Algorithmus für verschiedene Werte des Parameters \(N\) gleich 20, 30, 50 und 100 verwendet, um die Funktionen von F1 bis F23 zu optimieren. Die Optimierungsergebnisse sind in Tabelle 6 aufgeführt, und die Konvergenzkurven von WaOA im Rahmen dieser Analyse sind in Abb. 4 dargestellt. Aus der Analyse der Empfindlichkeit von WaOA gegenüber dem Parameter \(N\) geht hervor, dass eine Erhöhung der Suchagenten die Suchfähigkeit von WaOA verbessert Scannen des Suchraums, was die Leistung des vorgeschlagenen Algorithmus verbessert und die Werte der Zielfunktion verringert.

Konvergenzkurven von WaOA bei der Untersuchung der Sensitivitätsanalyse für den Parameter \(N\).

Zur Analyse der Empfindlichkeit des vorgeschlagenen Algorithmus gegenüber dem Parameter \(T\) wird WaOA für verschiedene Werte des Parameters \(T\) gleich 200, 500, 800 und 1000 verwendet, um die Funktionen von F1 bis F23 zu optimieren. Die Optimierungsergebnisse sind in Tabelle 7 aufgeführt, und die Konvergenzkurven des WaOA im Rahmen dieser Analyse sind in Abb. 5 dargestellt. Basierend auf den erhaltenen Ergebnissen wird festgestellt, dass steigende Werte von \(T\) dem Algorithmus mehr Möglichkeiten bieten, zu besseren Lösungen zu konvergieren basierend auf der Ausbeutungsfähigkeit. Daher ist ersichtlich, dass mit zunehmenden Werten von \(T\) der Optimierungsprozess effizienter geworden ist und infolgedessen die Werte der Zielfunktion abgenommen haben.

Konvergenzkurven von WaOA bei der Untersuchung der Sensitivitätsanalyse für den Parameter \(T\).

Die Optimierungsergebnisse der CEC 2015-Testsuite, einschließlich C15–F1 bis C15–F15 unter Verwendung von WaOA und Konkurrenzalgorithmen, sind in Tabelle 8 veröffentlicht. Die Simulationsergebnisse zeigen, dass WaOA der beste Optimierer für C15–F1 bis C15–F8 und C15 ist –F10-, C15–F13- und C15–F14-Funktionen. Darüber hinaus ist der vorgeschlagene WaOA bei der Lösung von C15–F9 nach MVO, in C15–F11 nach WSO, C15–F12 und C15–F15 nach GSA der zweitbeste Optimierer. Die Analyse der Simulationsergebnisse zeigt, dass WaOA in den meisten Funktionen der CEC 2015-Testsuite bessere Ergebnisse liefert und insgesamt mit dem ersten Rang des besten Optimierers bei der Handhabung der CEC 2015-Testsuite im Vergleich zu Konkurrenzalgorithmen eine überlegene Leistung erbracht hat.

Die Einsatzergebnisse von WaOA und Konkurrenzalgorithmen in der CEC 2017-Testsuite einschließlich der Funktionen C17–F1 bis C17–F30 sind in Tabelle 9 dargestellt. Aus der Analyse der Simulationsergebnisse geht hervor, dass WaOA der beste Optimierer für C17 ist –F1 bis C17–F6, C17–F8 bis C17–F30 Funktionen. Bei der Lösung von C17–F7 ist das vorgeschlagene WaOA nach GSA der zweitbeste Optimierer. Ein Vergleich der Simulationsergebnisse zeigt, dass WaOA in den meisten Funktionen der CEC 2017-Testsuite bessere Ergebnisse geliefert hat und im Vergleich zu konkurrierenden Algorithmen eine überlegene Leistung bei der Lösung dieser Testsuite erbracht hat.

Eine Einverständniserklärung war nicht erforderlich, da weder Menschen noch Tiere beteiligt waren.

Dieser Artikel enthält keine von einem der Autoren durchgeführten Studien mit menschlichen Teilnehmern oder Tieren.

Metaheuristische Algorithmen sind eine der am weitesten verbreiteten Techniken im Umgang mit realen Anwendungen. In diesem Abschnitt wird die WaOA-Leistung bei der Optimierung von vier technischen Designherausforderungen und zweiundzwanzig eingeschränkten Optimierungsproblemen aus der CEC 2011-Testsuite getestet. Es ist zu beachten, dass zur Modellierung der Einschränkungen von Optimierungsproblemen die Straffunktion verwendet wurde. Wenn also eine Lösung keine der Einschränkungen des Problems erfüllt, wird ein Strafkoeffizient zum Wert ihrer Zielfunktion hinzugefügt, der jeder Nichteinhaltung der Einschränkung entspricht, und daher wird sie als ungeeignete Lösung bezeichnet .

Die Konstruktion von Zug-/Druckfedern ist in realen Anwendungen eine Herausforderung mit dem Ziel, das Gewicht der Zug-/Druckfeder zu minimieren. Eine schematische Darstellung dieser Konstruktion ist in Abb. 659 dargestellt. Die Formulierung des Zug-/Druckfederproblems lautet wie folgt:

Schematische Darstellung des Zug-/Druckfederproblems.

Betrachten Sie \(X=\left[{x}_{1}, {x}_{2}, {x}_{3} \right]=\left[d, D, P\right].\)

Minimiere \(f \left(X\right)=\left({x}_{3}+2\right){x}_{2}{x}_{1}^{2}.\)

Vorbehaltlich:

Mit.

\(0.05\le {x}_{1}\le 2, {0.25\le x}_{2}\le 1.3\mathrm{ und }2\le {x}_{3}\le 15\).

Die Ergebnisse der Verwendung von WaOA und konkurrierenden Algorithmen zur Optimierung der Zug-/Druckfeder-Designvariablen sind in Tabelle 10 dargestellt. Die Simulationsergebnisse zeigen, dass WaOA die optimale Lösung für dieses Problem bereitgestellt hat, wobei die Werte der Variablen gleich (0,0519693, 0,363467, 10,9084) und der entsprechende Zielfunktionswert gleich 0,012672. Die statistischen Ergebnisse aus der Leistung von WaOA und Konkurrenzalgorithmen sind in Tabelle 11 aufgeführt, die die Überlegenheit von WaOA bei der Bereitstellung besserer Werte für statistische Indikatoren zeigt. Die WaOA-Konvergenzkurve beim Erreichen der Lösung für Zug-/Druckfeder ist in Abb. 7 dargestellt.

Konvergenzanalyse des WaOA für das Optimierungsproblem der Zug-/Druckfederkonstruktion.

Die Konstruktion geschweißter Träger stellt eine echte globale Herausforderung in den Ingenieurwissenschaften dar, deren Hauptziel darin besteht, die Herstellungskosten der geschweißten Träger zu senken. Eine schematische Darstellung dieser Konstruktion ist in Abb. 860 dargestellt. Die Formulierung des Problems zur Konstruktion geschweißter Träger lautet wie folgt:

Schematische Darstellung des Problems der geschweißten Trägerkonstruktion.

Betrachten Sie \(X=\left[{x}_{1}, {x}_{2}, {x}_{3}, {x}_{4}\right]=\left[h, l, t, b\right]\).

Minimiere \(f (X)=1,10471{x}_{1}^{2}{x}_{2}+0,04811{x}_{3}{x}_{4} (14,0+{x}_ {2})\).

Vorbehaltlich:

Wo

Mit

WaOA und konkurrierende Algorithmen werden für das Problem der geschweißten Trägerkonstruktion implementiert, und die Ergebnisse sind in Tabelle 12 dargestellt. Basierend auf diesen Ergebnissen hat WaOA die optimale Lösung für dieses Problem mit den Werten der Variablen gleich (0,20573, 3,470489, 9,036624) bereitgestellt , 0,20573) und der entsprechende Zielfunktionswert gleich 1,724901. Statistische Ergebnisse zur Leistung von WaOA und Konkurrenzalgorithmen sind in Tabelle 13 aufgeführt. Diese Tabelle zeigt, dass WaOA in Bezug auf statistische Indikatoren besser abschneidet. Die Konvergenzkurve der WaOA-Implementierung für die geschweißte Trägerkonstruktion ist in Abb. 9 dargestellt.

Konvergenzanalyse des WaOA für das Optimierungsproblem der Schweißträgerkonstruktion.

Der Entwurf eines Geschwindigkeitsminderers ist eine reale technische Optimierungsherausforderung, die darauf abzielt, das Gewicht des Geschwindigkeitsminderers zu minimieren. Ein Schema dieses Entwurfs ist in Abb. 1061,62 dargestellt. Das Problem der Auslegung des Drehzahlminderers wird wie folgt formuliert:

Schematische Darstellung des Problems bei der Konstruktion von Drehzahlminderern.

Betrachten Sie \(X=\left[{x}_{1,} {x}_{2}, {x}_{3}, {x}_{4}, {x}_{5}{ ,x }_{6} ,{x}_{7}\right]=\left[b, m, p, {l}_{1}, {l}_{2}, {d}_{1}, {d}_{2}\right]\).

Minimiere \(f \left(X\right)=0.7854{x}_{1}{x}_{2}^{2}\left(3.3333{x}_{3}^{2}+14.9334{x }_{3}-43,0934\right)-1,508{x}_{1}\left({x}_{6}^{2}+{x}_{7}^{2}\right)+7,4777 \left({x}_{6}^{3}+{x}_{7}^{3}\right)+0,7854({x}_{4}{x}_{6}^{2} +{x}_{5}{x}_{7}^{2})\).

Vorbehaltlich:

Mit

Die Ergebnisse, die durch den Einsatz von WaOA und Konkurrenzalgorithmen bei der Optimierung des Geschwindigkeitsreduziererdesigns erzielt wurden, sind in Tabelle 14 aufgeführt. Die Ergebnisse zeigen, dass WaOA die optimale Lösung für dieses Problem mit den Werten der Variablen gleich (3,5, 0,7, 17, 7,3, 7,8, 3,35021, 5,28668) und der entsprechende Zielfunktionswert gleich 2996,3482. Die statistischen Ergebnisse aus WaOA und den in Tabelle 15 verglichenen Algorithmen werden veröffentlicht, was die Überlegenheit des vorgeschlagenen WaOA zeigt. Die WaOA-Konvergenzkurve zur Lösung des Problems der Geschwindigkeitsreduziererkonstruktion ist in Abb. 11 dargestellt.

Konvergenzanalyse des WaOA für das Optimierungsproblem des Geschwindigkeitsreduziererdesigns.

Die Konstruktion von Druckbehältern ist eine reale Optimierungsherausforderung, die darauf abzielt, die Konstruktionskosten zu senken. Ein Schema dieses Entwurfs ist in Abb. 1263 dargestellt. Die Formulierung des Druckbehälterentwurfsproblems lautet wie folgt:

Schematische Darstellung des Problems der Druckbehälterkonstruktion.

Betrachten Sie \(X=\left[{x}_{1}, {x}_{2}, {x}_{3}, {x}_{4}\right]=\left[{T}_ {s}, {T}_{h}, R, L\right]\).

Minimiere \(f \left(X\right)=0.6224{x}_{1}{x}_{3}{x}_{4}+1.778{x}_{2}{x}_{3} ^{2}+3,1661{x}_{1}^{2}{x}_{4}+19,84{x}_{1}^{2}{x}_{3}.\)

Vorbehaltlich:

Mit

WaOA- und Wettbewerbsalgorithmen werden zur Optimierung des Druckbehälterdesigns verwendet. Die für die Entwurfsvariablen dieses Themas erhaltenen Ergebnisse werden in Tabelle 16 veröffentlicht. Basierend auf dieser Tabelle liefert WaOA die optimalen Werte der Entwurfsvariablen gleich (0,7782641, 0,3847753, 40,32163, 199,8713), was zu einem Wert von 5883,9604 führt für die Zielfunktion. Die Ergebnisse der statistischen Indikatoren zur Leistung von WaOA und Konkurrenzalgorithmen sind in Tabelle 17 dargestellt. Die statistischen Ergebnisse zeigen, dass WaOA die Herausforderung bei der Konstruktion von Druckbehältern effektiv optimiert hat, indem günstigere Werte für statistische Indikatoren bereitgestellt wurden. Die WaOA-Konvergenzkurve zum Erreichen der optimalen Lösung ist in Abb. 13 dargestellt.

Konvergenzanalyse des WaOA für das Optimierungsproblem des Druckbehälterdesigns.

In diesem Unterabschnitt wird die Leistung von WaOA bei der Handhabung realer Anwendungen anhand von 22 eingeschränkten Optimierungsproblemen aus der CEC 2011-Testsuite geprüft. Diese Testsuite umfasst zweiundzwanzig Optimierungsprobleme, nämlich: Parameterschätzung für frequenzmodulierte (FM) Schallwellen, das Lennard-Jones-Potenzialproblem, das Problem der optimalen Steuerung der bifunktionalen Katalysatormischung, die optimale Steuerung eines nichtlinearen Rührkesselreaktors, das Tersoff-Problem Potenzial für Modell Si (B), das Tersoff-Potenzial für Modell Si (C), Spread-Spectrum-Radar-Mehrphasencode-Design, Problem der Übertragungsnetzerweiterungsplanung (TNEP), Problem der Preisgestaltung für groß angelegte Übertragungen, Problem beim Design kreisförmiger Antennenarrays und das ELD Probleme (die aus DED-Instanz 1, DED-Instanz 2, ELD-Instanz 1, ELD-Instanz 2, ELD-Instanz 3, ELD-Instanz 4, ELD-Instanz 5, hydrothermischer Planungsinstanz 1, hydrothermischer Planungsinstanz 2 und hydrothermischer Planungsinstanz 3 bestehen), das Problem der Flugbahnoptimierung des Raumfahrzeugs Messenger und das Problem der Flugbahnoptimierung des Raumfahrzeugs Cassini 2. Ausführliche Informationen und eine Beschreibung der CEC 2011-Testsuite finden Sie unter64. Die Ergebnisse des Einsatzes von WaOA und Konkurrenzalgorithmen bei diesen realen Optimierungsproblemen sind in Tabelle 18 dargestellt. Die Boxplot-Diagramme, die aus der Leistung metaheuristischer Algorithmen bei der Behandlung von CEC 2011-Testsuite-Optimierungsproblemen erhalten wurden, sind in Abb. 14 dargestellt. Basierend auf der Simulation Aufgrund der Ergebnisse ist WaOA der erste beste Optimierer, der alle Optimierungsprobleme von C11–F1 bis C11–F22 löst. Basierend auf den Simulationsergebnissen hat der vorgeschlagene WaOA-Ansatz bei den meisten Optimierungsproblemen bessere Ergebnisse geliefert und eine überlegene Leistung bei der Handhabung der CEC 2011-Testsuite im Wettbewerb mit konkurrierenden Algorithmen erbracht. Außerdem zeigen die Ergebnisse der statistischen Analyse für den \(p\)-Wert, dass WaOA im Vergleich zu Konkurrenzalgorithmen eine signifikante statistische Überlegenheit aufweist.

Boxplot-Diagramme der Leistung von WaOA und Konkurrenzalgorithmen in der CEC 2011-Testsuite.

In dieser Studie wurde ein neuer bioinspirierter metaheuristischer Algorithmus namens Walrus Optimization Algorithm (WaOA) basierend auf dem natürlichen Verhalten von Walrossen entwickelt. Nahrungsaufnahme, Flucht, Kampf gegen Raubtiere und Migration sind die wichtigsten Inspirationsquellen für die Gestaltung von WaOA. Daher wurde die WaOA-Theorie erklärt und ihre mathematische Modellierung in drei Phasen vorgestellt: (i) Fütterungsstrategie, (ii) Migration und (iii) Flucht und Kampf gegen Raubtiere. Zur Analyse der WaOA-Leistung bei der Bereitstellung von Lösungen wurden 68 Standard-Benchmark-Funktionen verschiedener Arten von Unimodal, Multimodal, der CEC 2015-Testsuite und der CEC 2017-Testsuite eingesetzt. Die Informationen zu diesen Testfunktionen sind im Anhang und in den Tabellen A1 bis A5 aufgeführt. Die Optimierungsergebnisse unimodaler Funktionen zeigten die hohe Fähigkeit der WaOA-Ausnutzung bei der lokalen Suche, in Richtung des globalen Optimums zu konvergieren. Die Optimierungsergebnisse multimodaler Funktionen zeigten die hohe Fähigkeit der WaOA-Exploration bei der globalen Suche und zeigten, dass sie nicht in lokal optimalen Lösungen gefangen ist. Die Leistungsergebnisse von WaOA wurden mit den zehn bekannten metaheuristischen Algorithmen verglichen. Die Simulations- und Vergleichsergebnisse zeigten, dass der vorgeschlagene WaOA-Ansatz eine hohe Fähigkeit zum Ausgleich von Exploration und Ausbeutung aufweist und zehn metaheuristischen Algorithmen der Konkurrenz weit überlegen und wettbewerbsfähiger ist. Darüber hinaus zeigen die Ergebnisse der WaOA-Implementierung bei der Behandlung der vier Designprobleme und zweiundzwanzig realen Optimierungsproblemen aus der CEC 2011-Testsuite die Wirksamkeit des vorgeschlagenen Ansatzes in realen Anwendungen.

Obwohl beobachtet wurde, dass WaOA bei den meisten Benchmark-Funktionen bessere Ergebnisse lieferte, weist der vorgeschlagene Ansatz einige Einschränkungen auf. Die erste Einschränkung aller metaheuristischen Algorithmen besteht darin, dass es immer möglich ist, neuere Algorithmen zu entwerfen, die bessere Ergebnisse liefern können als bestehende Algorithmen. Die zweite Einschränkung von WaOA besteht darin, dass die vorgeschlagene Methode in einigen Optimierungsanwendungen möglicherweise fehlschlägt. Die dritte Einschränkung von WaOA besteht darin, dass die Art der Zufallssuche in diesem Algorithmus dazu führt, dass es keine Garantie für das Erreichen des globalen Optimums gibt. Darüber hinaus behaupten die Autoren nicht, dass der vorgeschlagene WaOA-Ansatz der beste Optimierer für alle möglichen Optimierungsaufgaben ist. Diese Tatsache kann aufgrund der Gültigkeit des NFL-Theorems natürlich nicht von irgendeinem Optimierer behauptet werden.

Die Autoren bieten mehrere Studienrichtungen für zukünftige Forschungen an, darunter die Gestaltung der Multi-Ziel-Version von WaOA und der binären Version von WaOA. Darüber hinaus ist der Einsatz von WaOA zur Lösung von Optimierungsproblemen in realen Anwendungen ein möglicher Ansatzpunkt für weitere Forschung.

Alle während dieser Studie generierten oder analysierten Daten sind direkt in den Text dieses eingereichten Manuskripts eingebunden. Es gibt keine zusätzlichen externen Dateien mit Datensätzen.

Gill, PE, Murray, W. & Wright, MH Praktische Optimierung (SIAM, 2019).

Buchen Sie MATH Google Scholar

Kvasov, DE & Mukhametzhanov, MS Metaheuristische vs. deterministische globale Optimierungsalgorithmen: Der univariate Fall. Appl. Mathematik. Berechnen. 318, 245–259 (2018).

MathSciNet MATH Google Scholar

Cavazzuti, M. Optimierungsmethoden: Von der Theorie zum Design Wissenschaftliche und technologische Aspekte in der Mechanik 77–102 (Springer, 2013).

MATH Google Scholar

Dehghani, M., Hubálovský, Š. & Trojovský, P. Tasmanische Teufelsoptimierung: Ein neuer bioinspirierter Optimierungsalgorithmus zur Lösung von Optimierungsalgorithmen. IEEE-Zugriff (2022).

Cervone, G., Franzese, P. & Keesee, AP Der quasi-optimale (AQ) Lernalgorithmus. Wiley Interdisziplinär. Pfr. Fr. Computer. Stat. 2, 218–236 (2010).

Artikel Google Scholar

Osuna-Enciso, V., Cuevas, E. & Chestnut, BM Eine Diversitätsmetrik für bevölkerungsbasierte metaheuristische Algorithmen. Inf. Wissenschaft. Rev. 586, 192–208 (2022).

Artikel Google Scholar

Gharehchopogh, FS, Maleki, I. & Dizaji, ZA Chaotischer Wirbelsuchalgorithmus: metaheuristischer Algorithmus zur Merkmalsauswahl. Entwicklung Intel. 15, 1777–1808 (2022).

Artikel Google Scholar

Mohammadzadeh, H. & Gharehchopogh, FS Ein Multi-Agenten-System zur Lösung hochdimensionaler Optimierungsprobleme: Eine Fallstudie zur E-Mail-Spam-Erkennung. Int. J. Commun. Syst. 34, e4670 (2021).

Artikel Google Scholar

Wolpert, DH & Macready, WG Keine Free-Lunch-Theoreme zur Optimierung. IEEE Trans. Entwicklung Berechnen. 1, 67–82 (1997).

Artikel Google Scholar

Goldberg, DE & Holland, JH Genetische Algorithmen und maschinelles Lernen. Mach. Lernen. 3, 95–99. https://doi.org/10.1023/A:1022602019183 (1988).

Artikel Google Scholar

Storn, R. & Price, K. Differentialentwicklung: Eine einfache und effiziente Heuristik für die globale Optimierung über kontinuierliche Räume. J. Glob. Optim. 11, 341–359 (1997).

Artikel MathSciNet MATH Google Scholar

Kennedy, J. & Eberhart, R. in Proceedings of ICNN'95: International Conference on Neural Networks, Bd. 1944, 1942–1948 (IEEE, 2023).

Zaman, HRR & Gharehchopogh, FS Eine verbesserte Partikelschwarmoptimierung mit Backtracking-Suchoptimierungsalgorithmus zur Lösung kontinuierlicher Optimierungsprobleme. Ing. Berechnen. 1, 1–35 (2021).

Google Scholar

Dorigo, M., Maniezzo, V. & Colorni, A. Ameisensystem: Optimierung durch eine Kolonie kooperierender Agenten. IEEE Trans. Syst. Mann Cybern. B 26, 29–41 (1996).

Artikel CAS Google Scholar

Mirjalili, S., Mirjalili, SM & Lewis, A. Der Grey Wolf-Optimierer. Adv. Ing. Softw. 69, 46–61. https://doi.org/10.1016/j.advengsoft.2013.12.007 (2014).

Artikel Google Scholar

Faramarzi, A., Heidarinejad, M., Mirjalili, S. & Gandomi, AH Algorithmus für Meeresräuber: Eine von der Natur inspirierte Metaheuristik. Expertensystem. Appl. 152, 113377 (2020).

Artikel Google Scholar

Kaur, S., Awasthi, LK, Sangal, AL & Dhiman, G. Manteltier-Schwarmalgorithmus: Ein neues bioinspiriertes metaheuristisches Paradigma für die globale Optimierung. Ing. Appl. Artif. Intel. 90, 103541. https://doi.org/10.1016/j.engappai.2020.103541 (2020).

Artikel Google Scholar

Braik, M., Hammouri, A., Atwan, J., Al-Betar, MA & Awadallah, MA White Shark Optimizer: Ein neuartiger bioinspirierter metaheuristischer Algorithmus für globale Optimierungsprobleme. Wissen. Basierend auf Syst. 243, 108457 (2022).

Artikel Google Scholar

Abualigah, L., Abd Elaziz, M., Sumari, P., Geem, ZW & Gandomi, AH Reptile Search Algorithm (RSA): Ein von der Natur inspirierter metaheuristischer Optimierer. Expertensystem. Appl. 191, 116158 (2022).

Artikel Google Scholar

Koohi, SZ, Hamid, NAWA, Othman, M. & Ibragimov, G. Raccoon-Optimierungsalgorithmus. IEEE Access 7, 5383–5399 (2018).

Artikel Google Scholar

Abdollahzadeh, B., Gharehchopogh, FS & Mirjalili, S. Optimierungsalgorithmus für afrikanische Geier: Ein neuer, von der Natur inspirierter metaheuristischer Algorithmus für globale Optimierungsprobleme. Berechnen. Ind. Eng. 158, 107408 (2021).

Artikel Google Scholar

Shayanfar, H. & Gharehchopogh, FS Fruchtbarkeit landwirtschaftlicher Nutzflächen: Ein neuer metaheuristischer Algorithmus zur Lösung kontinuierlicher Optimierungsprobleme. Appl. Soft Comput. 71, 728–746 (2018).

Artikel Google Scholar

Gharehchopogh, FS, Ucan, A., Ibrikci, T., Arasteh, B. & Isik, G. Schleimpilzalgorithmus: Eine umfassende Übersicht über seine Varianten und Anwendungen. Bogen. Berechnen. Methoden Eng. 1, 1–41 (2023).

Google Scholar

Abdollahzadeh, B., Gharehchopogh, FS, Khodadadi, N. & Mirjalili, S. Berggazellen-Optimierer: Ein neuer, von der Natur inspirierter metaheuristischer Algorithmus für globale Optimierungsprobleme. Adv. Ing. Softw. 174, 103282 (2022).

Artikel Google Scholar

Gharehchopogh, FS, Namazi, M., Ebrahimi, L. & Abdollahzadeh, B. Fortschritte im Sparrow-Suchalgorithmus: Eine umfassende Umfrage. Bogen. Computat. Methoden Eng. 30, 427–455 (2023).

Artikel Google Scholar

Shen, Y., Zhang, C., Gharehchopogh, FS & Mirjalili, S. Ein verbesserter Waloptimierungsalgorithmus basierend auf der Evolution mehrerer Populationen für globale Optimierungs- und technische Designprobleme. Expertensystem. Appl. 215, 119269 (2023).

Artikel Google Scholar

Abdollahzadeh, B., Soleimanian Gharehchopogh, F. & Mirjalili, S. Optimierer für künstliche Gorillatruppen: Ein neuer, von der Natur inspirierter metaheuristischer Algorithmus für globale Optimierungsprobleme. Int. J. Intell. Syst. 36, 5887–5958 (2021).

Artikel Google Scholar

Trojovský, P. & Dehghani, M. Pelican-Optimierungsalgorithmus: Ein neuartiger, von der Natur inspirierter Algorithmus für technische Anwendungen. Sensoren 22, 855 (2022).

Artikel ADS PubMed PubMed Central Google Scholar

Kirkpatrick, S., Gelatt, CD & Vecchi, MP Optimierung durch simuliertes Tempern. Science 220, 671–680 (1983).

Artikel ADS MathSciNet CAS PubMed MATH Google Scholar

Rashedi, E., Nezamabadi-Pour, H. & Saryazdi, S. GSA: Ein Gravitationssuchalgorithmus. Inf. Wissenschaft. 179, 2232–2248 (2009).

Artikel MATH Google Scholar

Mirjalili, S., Mirjalili, SM & Hatamlou, A. Multiversum-Optimierer: Ein von der Natur inspirierter Algorithmus für die globale Optimierung. Neuronale Berechnung. Appl. 27, 495–513 (2016).

Artikel Google Scholar

Eskandar, H., Sadollah, A., Bahreininejad, A. & Hamdi, M. Wasserkreislaufalgorithmus: Eine neuartige metaheuristische Optimierungsmethode zur Lösung eingeschränkter technischer Optimierungsprobleme. Berechnen. Struktur. 110, 151–166 (2012).

Artikel Google Scholar

Dehghani, M. et al. Ein Federsuchalgorithmus, der auf technische Optimierungsprobleme angewendet wird. Appl. Wissenschaft. 10, 6173 (2020).

Artikel CAS Google Scholar

Zhao, W., Wang, L. & Zhang, Z. Optimierung der Atomsuche und ihre Anwendung zur Lösung eines hydrogeologischen Parameterschätzungsproblems. Wissen. Basierend auf Syst. 163, 283–304 (2019).

Artikel Google Scholar

Gharehchopogh, FS Quanteninspirierte metaheuristische Algorithmen: Umfassende Untersuchung und Klassifizierung. Artif. Intel. Rev. 56, 5479–5483 (2022).

Artikel Google Scholar

Dehghani, M. & Samet, H. Impulssuchalgorithmus: Ein neuer metaheuristischer Optimierungsalgorithmus, inspiriert vom Impulserhaltungsgesetz. SN Appl. Wissenschaft. 2, 1–15. https://doi.org/10.1007/s42452-020-03511-6 (2020).

Artikel Google Scholar

Wei, Z., Huang, C., Wang, X., Han, T. & Li, Y. Kernreaktionsoptimierung: Ein neuartiger und leistungsstarker physikbasierter Algorithmus für die globale Optimierung. IEEE Access 7, 66084–66109 (2019).

Artikel Google Scholar

Rao, RV, Savsani, VJ & Vakharia, D. Lehr-Lern-basierte Optimierung: Eine neuartige Methode für eingeschränkte mechanische Designoptimierungsprobleme. Berechnen. Unterstützte Des. 43, 303–315 (2011).

Artikel Google Scholar

Moosavi, SHS & Bardsiri, VK Schlechter und reicher Optimierungsalgorithmus: Ein neuer auf Menschen basierender Algorithmus für mehrere Populationen. Ing. Appl. Artif. Intel. 86, 165–181 (2019).

Artikel Google Scholar

Zeidabadi, F.-A. et al. Bogenschießen-Algorithmus: Ein neuartiger stochastischer Optimierungsalgorithmus zur Lösung von Optimierungsproblemen. Berechnen. Mater. Fortsetzung. 72, 399–416 (2022).

Google Scholar

Shi, Y. Brainstorm-Optimierungsalgorithmus. Internationale Konferenz für Schwarmintelligenz, 303–309 (Springer, 2011).

Dehghani, M. et al. Ein neuer Optimierungsalgorithmus für „Arzt und Patient“: Eine Anwendung auf das Problem der Energieverpflichtung. Appl. Wissenschaft. 10, 5791 (2020).

Artikel CAS Google Scholar

Ayyarao, TL et al. Algorithmus zur Optimierung der Kriegsstrategie: Ein neuer effektiver metaheuristischer Algorithmus zur globalen Optimierung. IEEE Access 10, 25073 (2022).

Artikel Google Scholar

Dehghani, M. & Trojovský, P. Teamwork-Optimierungsalgorithmus: Ein neuer Optimierungsansatz zur Funktionsminimierung/-maximierung. Sensoren 21, 4567 (2021).

Artikel ADS PubMed PubMed Central Google Scholar

Kaveh, A. & Zolghadr, A. Ein neuartiger metaheuristischer Algorithmus: Tauziehen-Optimierung. Iran-Universität Wissenschaft. Technol. 6, 469–492 (2016).

Google Scholar

Moghdani, R. & Salimifard, K. Volleyball-Premier-League-Algorithmus. Appl. Soft Comput. 64, 161–185 (2018).

Artikel Google Scholar

Zeidabadi, FA & Dehghani, M. POA: Puzzle-Optimierungsalgorithmus. Int. J. Intell. Ing. Syst. 15, 273–281 (2022).

Google Scholar

Dehghani, M., Montazeri, Z., Malik, OP, Ehsanifar, A. & Dehghani, A. OSA: Orientierungssuchalgorithmus. Int. J. Ind. Electron. Regelungsoptimum. 2, 99–112 (2019).

Google Scholar

Doumari, SA, Givi, H., Dehghani, M. & Malik, OP Ring werfen spielbasierten Optimierungsalgorithmus zur Lösung verschiedener Optimierungsprobleme. Int. J. Intell. Ing. Syst. 14, 545–554 (2021).

Google Scholar

Dehghani, M., Mardaneh, M., Guerrero, JM, Malik, O. & Kumar, V. Fußballspielbasierte Optimierung: Eine Anwendung zur Lösung des Energieverpflichtungsproblems. Int. J. Intell. Ing. Syst. 13, 514–523 (2020).

Google Scholar

Dehghani, M., Montazeri, Z. & Malik, OP DGO: Würfelspiel-Optimierer. Gazi Univ. J. Sci. 32, 871–882 (2019).

Artikel Google Scholar

Wilson, DE & Reeder, DM Säugetierarten der Welt: Eine taxonomische und geografische Referenz Bd. 1 (JHU press, 2005).

Buchen Sie Google Scholar

Fay, FH Die Ökologie und Biologie des Pazifischen Walrosses, Odobenus rosmarus Divergenz Illiger. N. Bin. Fauna 74, 1–279 (1982).

Artikel Google Scholar

Fischbach, AS, Kochnev, AA, Garlich-Miller, JL & Jay, CV Pacific Walrus Coastal Haulout Database, 1852–2016 – Hintergrundbericht. Bericht Nr. 2331-1258 (US Geological Survey, 2016).

Jefferson, TA, Stacey, PJ & Baird, RW Ein Überblick über die Interaktionen von Killerwalen mit anderen Meeressäugetieren: Raub zur Koexistenz. Mamm. Rev. 21, 151–180 (1991).

Artikel Google Scholar

Christman, B. NOAA Corps. https://www.upload.wikimedia.org/wikipedia/commons/c/ce/Noaa-walrus22.jpg.

Sheffield, G., Fay, FH, Feder, H. & Kelly, BP Laborverdauung von Beutetieren und Interpretation des Mageninhalts von Walrossen. Mar. Mamm. Wissenschaft. 17, 310–330 (2001).

Artikel Google Scholar

Levermann, N., Galatius, A., Ehlme, G., Rysgaard, S. & Born, EW Fressverhalten freilaufender Walrosse mit Anmerkungen zur scheinbaren Geschicklichkeit beim Flossengebrauch. BMC Ecol. 3, 1–13 (2003).

Artikel Google Scholar

Wilcoxon, F. Individuelle Vergleiche nach Ranking-Methoden. Biometr. Stier. 1, 80–83 (1945).

Artikel Google Scholar

Mirjalili, S. & Lewis, A. Der Waloptimierungsalgorithmus. Adv. Ing. Softw. Rev. 95, 51–67 (2016).

Artikel Google Scholar

Gandomi, AH & Yang, X.-S. Computeroptimierung, Methoden und Algorithmen 259–281 (Springer, London, 2011).

Buchen Sie MATH Google Scholar

Mezura-Montes, E. & Coello, CAC Mexican International Conference on Artificial Intelligence, 652–662 (Springer, 2023).

Kannan, B. & Kramer, SN Eine auf einem erweiterten Lagrange-Multiplikator basierende Methode zur gemischt-ganzzahligen diskreten kontinuierlichen Optimierung und ihre Anwendung auf das mechanische Design. J. Mech. Des. 116, 405–411 (1994).

Artikel Google Scholar

Das, S. & Suganthan, PN Problemdefinitionen und Bewertungskriterien für den CEC 2011-Wettbewerb zum Testen evolutionärer Algorithmen für reale Optimierungsprobleme 341–359 (Jadavpur University, 2010).

Google Scholar

Referenzen herunterladen

Diese Arbeit wurde vom Exzellenzprojekt der Fakultät für Naturwissenschaften der Universität Hradec Králové, Nr. 2210/2023-2024, unterstützt.

Fachbereich Mathematik, Fakultät für Naturwissenschaften, Universität Hradec Králové, Rokitanského 62, Hradec Králové, 500 03, Tschechische Republik

Pavel Trojovský & Mohammad Dehghani

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Konzeptualisierung, PT; Methodik, PT; Software, MD; Validierung, PT und MD; Formale Analyse, MD; Untersuchung, PT; Ressourcen, PT.; Datenkuration, PT und MD; Schreiben – Originalentwurfsvorbereitung, PT und MD; Schreiben – Überprüfung und Bearbeitung, PT und MD; Visualisierung, PT; Aufsicht, PT.; Projektverwaltung, MD; Finanzierungseinwerbung, PT

Korrespondenz mit Pavel Trojovský.

Die Autoren geben an, dass keine Interessenkonflikte bestehen.

Springer Nature bleibt neutral hinsichtlich der Zuständigkeitsansprüche in veröffentlichten Karten und institutionellen Zugehörigkeiten.

Open Access Dieser Artikel ist unter einer Creative Commons Attribution 4.0 International License lizenziert, die die Nutzung, Weitergabe, Anpassung, Verbreitung und Reproduktion in jedem Medium oder Format erlaubt, sofern Sie den/die Originalautor(en) und die Quelle angemessen angeben. Geben Sie einen Link zur Creative Commons-Lizenz an und geben Sie an, ob Änderungen vorgenommen wurden. Die Bilder oder anderes Material Dritter in diesem Artikel sind in der Creative Commons-Lizenz des Artikels enthalten, sofern in der Quellenangabe für das Material nichts anderes angegeben ist. Wenn Material nicht in der Creative-Commons-Lizenz des Artikels enthalten ist und Ihre beabsichtigte Nutzung nicht gesetzlich zulässig ist oder über die zulässige Nutzung hinausgeht, müssen Sie die Genehmigung direkt vom Urheberrechtsinhaber einholen. Um eine Kopie dieser Lizenz anzuzeigen, besuchen Sie http://creativecommons.org/licenses/by/4.0/.

Nachdrucke und Genehmigungen

Trojovský, P., Dehghani, M. Ein neuer bioinspirierter metaheuristischer Algorithmus zur Lösung von Optimierungsproblemen basierend auf dem Verhalten von Walrossen. Sci Rep 13, 8775 (2023). https://doi.org/10.1038/s41598-023-35863-5

Zitat herunterladen

Eingegangen: 17. Oktober 2022

Angenommen: 24. Mai 2023

Veröffentlicht: 31. Mai 2023

DOI: https://doi.org/10.1038/s41598-023-35863-5

Jeder, mit dem Sie den folgenden Link teilen, kann diesen Inhalt lesen:

Leider ist für diesen Artikel derzeit kein gemeinsam nutzbarer Link verfügbar.

Bereitgestellt von der Content-Sharing-Initiative Springer Nature SharedIt

Durch das Absenden eines Kommentars erklären Sie sich damit einverstanden, unsere Nutzungsbedingungen und Community-Richtlinien einzuhalten. Wenn Sie etwas als missbräuchlich empfinden oder etwas nicht unseren Bedingungen oder Richtlinien entspricht, kennzeichnen Sie es bitte als unangemessen.