Eine gewichtete

Blog

HeimHeim / Blog / Eine gewichtete

Oct 17, 2023

Eine gewichtete

Wissenschaftliche Berichte Band 13, Artikelnummer: 14061 (2023) Diesen Artikel zitieren Metrikdetails In der heutigen datengesteuerten digitalen Kultur besteht ein entscheidender Bedarf an optimierten Lösungen, die im Wesentlichen

Wissenschaftliche Berichte Band 13, Artikelnummer: 14061 (2023) Diesen Artikel zitieren

Details zu den Metriken

In der heutigen datengesteuerten digitalen Kultur besteht ein dringender Bedarf an optimierten Lösungen, die die Betriebskosten wesentlich senken und gleichzeitig die Produktivität steigern. Der Speicherumfang und die Verarbeitungszeit, die zur Verarbeitung enormer Datenmengen zur Verfügung stehen, unterliegen einer Reihe von Einschränkungen. Dies wäre zweifellos problematischer, wenn ein Datensatz redundante und uninteressante Informationen enthalten würde. Beispielsweise enthalten viele Datensätze eine Reihe nicht informativer Merkmale, die in erster Linie einen bestimmten Klassifizierungsalgorithmus täuschen. Um dieses Problem anzugehen, haben Forscher verschiedene Techniken zur Merkmalsauswahl (FS) entwickelt, die darauf abzielen, unnötige Informationen aus den Rohdatensätzen zu entfernen, bevor sie einem Algorithmus für maschinelles Lernen (ML) zugeführt werden. Metaheuristische Optimierungsalgorithmen sind oft eine gute Wahl, um NP-schwere Probleme wie FS zu lösen. In dieser Studie stellen wir eine Wrapper-FS-Technik vor, die auf dem Sparrow Search Algorithm (SSA), einer Art Metaheuristik, basiert. SSA ist eine Methode der Schwarmintelligenz (SI), die sich durch schnelle Konvergenz und verbesserte Stabilität auszeichnet. SSA hat einige Nachteile, wie z. B. eine geringere Schwarmvielfalt und eine schwache Erkundungsfähigkeit in späten Iterationen, wie die meisten SI-Algorithmen. Mithilfe von zehn chaotischen Karten versuchen wir, SSA auf drei Arten zu verbessern: (i) die anfängliche Schwarmgeneration; (ii) die Substitution zweier Zufallsvariablen in SSA; und (iii) Einklemmen der Spatzen, die das Suchgebiet überqueren. Als Ergebnis erhalten wir CSSA, eine chaotische Form von SSA. Umfangreiche Vergleiche zeigen, dass CSSA in Bezug auf Schwarmvielfalt und Konvergenzgeschwindigkeit bei der Lösung verschiedener repräsentativer Funktionen aus dem Benchmark-Set des Congress on Evolutionary Computation (CEC) des Institute of Electrical and Electronics Engineers (IEEE) überlegen ist. Darüber hinaus zeigt die experimentelle Analyse von CSSA an achtzehn interdisziplinären, mehrskaligen ML-Datensätzen aus dem Datenrepository der University of California Irvine (UCI) sowie an drei hochdimensionalen Microarray-Datensätzen, dass CSSA zwölf hochmoderne Algorithmen übertrifft in einer Klassifizierungsaufgabe basierend auf der FS-Disziplin. Schließlich bestätigt eine statistische Post-hoc-Analyse mit einem Signifikanzniveau von 5 %, die auf dem Signed-Rank-Test von Wilcoxon, dem Rangtest von Friedman und dem Test von Nemenyi basiert, die Signifikanz von CSSA in Bezug auf Gesamtfitness, Klassifizierungsgenauigkeit, ausgewählte Merkmalsgröße, Rechenzeit und Konvergenzspur und Stabilität.

Das 21. Jahrhundert ist zum Zeitalter der Daten geworden, wobei die Datenanalyse und -nutzung überall in allen Aspekten des Lebens sichtbar ist und diese Daten häufig hochdimensionalen Charakter haben1,2,3,4,5. Es ist jedoch unvermeidlich, dass diese Daten eine beträchtliche Anzahl redundanter und irrelevanter Merkmale enthalten, was den Rechenaufwand und das Risiko einer Überanpassung bei der Verarbeitung durch herkömmliche Algorithmen für maschinelles Lernen (ML) erhöht6,7,8. Um die Daten besser nutzen zu können, müssen daher effiziente Verfahren wie die Merkmalsauswahl (FS) entwickelt werden, um mit den wertlosen Merkmalen umzugehen9,10,11. Wrapper, Filter und eingebettete FS-Techniken werden häufig verwendet, um sie basierend auf ihrer Bewertung für Funktionsteilmengen zu unterscheiden12. Wrapper-basierte Ansätze stützen sich auf vordefinierte ML-Algorithmen, um eine höhere Klassifizierungsgenauigkeit zu erzielen, sind jedoch sehr teuer in der Berechnung, da die ML-Algorithmen mehrmals ausgeführt werden müssen13. Im Gegensatz dazu verwenden filterbasierte Ansätze bei der Bewertung von Merkmalsteilmengen keine ML-Algorithmen, was die Rechenkosten senkt, aber möglicherweise die Klassifizierungsgenauigkeit verringert14. Eingebettete Techniken integrieren FS in das Modelllernen, berücksichtigen den Einfluss des algorithmischen Modells und senken gleichzeitig den Rechenaufwand; Allerdings weisen diese Methoden eine schlechte Generalisierungsfähigkeit und einen erheblichen Rechenaufwand auf15.

Da die Anzahl der Merkmalsteilmengen aufgrund der Datendimensionalität geometrisch variiert, ist es schwierig, mit herkömmlichen Methoden angemessene Ergebnisse zu erzielen, insbesondere bei der Arbeit mit hochdimensionalen Daten. Um den hohen Rechenaufwand zu reduzieren, der durch den Fluch der Dimensionalität verursacht wird, können aufgrund ihrer Robustheit und Anpassbarkeit neuartige Ansätze zur Auswahl von Merkmalsteilmengen entwickelt werden, die auf Wrapper-Swarm-Intelligence-Algorithmen (SI) basieren16,17,18. SI-Algorithmen weisen drei wesentliche Eigenschaften auf: Flexibilität, Selbstorganisation und Belastbarkeit. Diese Algorithmen sind oft vom Gruppenverhalten in der Natur inspiriert, wie z. B. Nahrungssuche, Raubbekämpfung und Migration19. Typische SI-Algorithmen sind Ant Colony Optimization (ACO)20, Particle Swarm Optimization (PSO)21, Grey Wolf Optimizer (GWO)22, Artificial Bee Colony (ABC)23, Whale Optimization Algorithm (WOA)24, Grasshopper Optimization Algorithm (GOA). 25, Harris Hawks Optimization (HHO)26 und Bird Swarm Algorithm (BSA)27. Weitere Optimierungsalgorithmen sind der Fledermausalgorithmus (BA)28, die Atomsuchoptimierung (ASO)29 und die Henry-Gaslöslichkeitsoptimierung (HGSO)30. Im Allgemeinen können metaheuristische Algorithmen FS-Probleme effektiv bewältigen, indem sie die Rechenkomplexität verringern und gleichzeitig eine höhere Klassifizierungsgenauigkeit erreichen. Daher wurden SI-Ansätze konsequent auf FS-Probleme angewendet31,32,33,34. Beispielsweise haben Hussain et al.35 den Sinus-Cosinus-Algorithmus (SCA) in HHO integriert, um die Explorations- und Nutzungsfähigkeiten von HHO auszugleichen, und experimentelle Ergebnisse zu mehreren numerischen Optimierungs- und FS-Problemen zeigten den Wettbewerbsvorteil des vorgeschlagenen Algorithmus gegenüber andere SI-Algorithmen. Neggaz et al.36 wendeten HGSO erstmals zur Lösung von FS-Problemen an. Experimentelle Ergebnisse an Datensätzen mit unterschiedlichen Merkmalsgrößen (von 13 bis 15009) zeigten, dass HGSO die Merkmalsgröße effektiv minimiert, insbesondere bei hochdimensionalen Daten, und gleichzeitig die maximale Klassifizierungsgenauigkeit beibehält.

Dennoch tendieren SI-Algorithmen dazu, in die lokale Optimierung zu fallen, und zwar aus folgenden Gründen: (i) dem Ungleichgewicht zwischen Exploration und Exploitation; und (ii) Super-Stochastizität37,38. Zahlreiche Studien haben gezeigt, dass die Chaostheorie ein solches Problem aufgrund ihrer Merkmale der Halbstochastik, der Ergodizität und der Sensibilität gegenüber dem anfänglichen Schwarm lösen kann39,40. Khosravi et al.41 haben eine neue lokale Suchstrategie und die Piecewise Chaotic Map integriert, um ihren Lehroptimierungsalgorithmus in die Lage zu versetzen, hochdimensionale FS-Probleme zu lösen. Zhang et al.42 integrierten die Gaußsche Mutation und die logistische chaotische Karte in den Fruchtfliegenalgorithmus (FFA), um vorzeitige Konvergenz zu vermeiden und somit die Explorationsfähigkeit zu stärken. Sayed et al.43 optimierten den Crow-Search-Algorithmus (CSA) mithilfe von zehn chaotischen Karten, um seine Leistung bei der Bewältigung von FS-Problemen im Hinblick auf Klassifizierungsgenauigkeit, Anzahl ausgewählter Features und Konvergenzgeschwindigkeit zu verbessern. Altay et al.44 ersetzten die Zufallsparameter in BSA durch zehn chaotische Karten, um die Erkundungsfähigkeit zu steigern.

Der Sparrow Search Algorithmus (SSA) ist einer von vielen kürzlich entwickelten SI-Algorithmen. Darin ist der Spatz eine geschickte Art, die durch kollektive Zusammenarbeit nach Nahrung sucht und natürlichen Raubtieren effektiv entkommen kann. SSA wurde von Xue et al.45 durch Nachahmung solcher Eigenschaften vorgeschlagen. Im Vergleich zu seinen Gegenstücken hat SSA aufgrund seiner schnellen Konvergenz, großen Sucheffizienz und Stabilität viel Aufmerksamkeit auf sich gezogen46,47,48,49,50,51. SSA weist jedoch die gleichen Mängel wie andere SI-Algorithmen auf, da die Schwarmvielfalt und die Erkundungsfähigkeiten mit fortschreitendem Algorithmus abnehmen47,52. Infolgedessen wurden erhebliche Verbesserungen an SSA vorgenommen. Um SSA bei der Untersuchung des Lösungsraums gründlicher zu machen, verwendeten Xue et al.53 einen neuen Ansatz zur Nachbarsuche. Gao et al.52 fügten SSA eine chaotische Karte und eine Mutationsevolutionstechnik hinzu, um dessen Robustheit und Konvergenzgeschwindigkeit zu verbessern. Gad et al.54 haben SSA mithilfe von S- und V-förmigen Funktionen binarisiert und einen Zufallsverlagerungsansatz für transgressive Spatzen sowie eine neue lokale Suchstrategie integriert, um die Erkundungs- und Ausbeutungsfähigkeiten auszubalancieren. Lyu et al.55 nutzten die chaotische Karte von Tent und die Gaußsche Mutationstechnik, um die SSA zu verbessern und sie auf einfache Bildsegmentierungsherausforderungen anzuwenden. Darüber hinaus verbesserten Yang et al.56 die SSA mithilfe der chaotischen Sinuskarte, eines adaptiven Gewichtungsansatzes und eines adaptiven T-Verteilungs-Mutationsoperators und wandten die vorgeschlagene Technik dann auf numerische Optimierungsprobleme an. Allerdings hat noch niemand eine durch Chaos verbesserte SSA zur Lösung von FS-Problemen eingesetzt. Die Leistung von SI-Algorithmen kann im Allgemeinen auf drei Arten verbessert werden: (i) Anpassen ihrer Parameter; (ii) Veränderung ihrer Mechanismen; und (iii) sie mit anderen Algorithmen kombinieren57. Vor diesem Hintergrund zielt diese Arbeit darauf ab, SSA zu verbessern, indem ihre Zufallsparameter und -verfahren mithilfe einer chaotischen Karte neu definiert werden. Im Folgenden sind die Hauptbeiträge aufgeführt:

Der anfängliche Schwarm, die transgressiven Positionen und die Zufallsvariablen in SSA werden mithilfe chaotischer Karten verarbeitet, um gleichzeitig die Schwarmvielfalt zu steigern und einen guten Kompromiss zwischen Erkundung und Ausbeutung zu erzielen. Der Vergleich von zwanzig verschiedenen durch Chaos verbesserten SSA-Varianten ergibt die beste chaotische SSA (CSSA).

CSSA wird mit zwölf Peer-Algorithmen verglichen, darunter SSA, ABC, PSO, BA, WOA, GOA, HHO, BSA, ASO, HGSO, erfolgshistorienbasierte adaptive differenzielle Evolution mit linearer Populationsgrößenreduktion (LSHADE)58 und Evolutionsstrategie mit Kovarianz Matrixanpassung (CMAES)59, auf einigen repräsentativen Funktionen des Congress on Evolutionary Computation (CEC) des Institute of Electrical and Electronics Engineers (IEEE) und achtzehn Multiskalen-Datensätzen aus dem Datenrepository der University of California Irvine (UCI) als Gerüst seine Wettbewerbsfähigkeit überprüfen. Darüber hinaus wählt diese Studie auch sieben kürzlich vorgeschlagene FS-Methoden aus der Literatur aus, um zu verifizieren, dass CSSA immer noch Vorteile gegenüber mehreren hochmodernen Algorithmen hat.

Die Leistungsfähigkeit von CSSA wird weiter an drei hochdimensionalen Microarray-Datensätzen mit einer Anzahl von Merkmalen/Genen (Dimensionen) von bis zu 12500 getestet.

Wir messen empirisch und theoretisch die Stärken und Schwächen von CSSA im Vergleich zu verschiedenen Algorithmen, um FS-Probleme anhand von Bewertungsmetriken wie Gesamtfitness, Klassifizierungsgenauigkeit, ausgewählte Merkmalsgröße, Konvergenz und Stabilität zu lösen.

Eine statistische Post-hoc-Analyse, einschließlich Wilcoxons Signed-Rank-Test, Friedmans Rangtest und Nemenyi-Test, wird mit einem Signifikanzniveau von 5 % durchgeführt, um die statistische Signifikanz von CSSA gegenüber seinen Mitbewerbern zu überprüfen.

Anschließend ist dieser Artikel wie folgt aufgebaut. Der Abschnitt „Vorbereitungen“ stellt das SSA-Prinzip und die zehn damit getesteten chaotischen Karten vor, während Abschn. Der vorgeschlagene chaotische Sparrow-Suchalgorithmus (CSSA) stellt den vorgeschlagenen CSSA vor. Der Abschnitt „Experimentelle Ergebnisse und Diskussion“ vergleicht CSSA mit zwölf Peer-Algorithmen und sieben beliebten FS-Ansätzen in der Literatur. Außerdem werden experimentelle Daten zu achtzehn UCI-Datensätzen und drei hochdimensionalen Microarray-Datensätzen bereitgestellt und analysiert. Im Abschnitt „Diskussion“ werden die Stärken und Grenzen der CSSA erörtert. Abschn. Mit der Schlussfolgerung wird die Arbeit abgeschlossen.

In diesem Abschnitt wird eine kurze Geschichte der SSA und ihrer mathematischen Formulierung vorgestellt. SSA ist ein kürzlich entwickelter SI-Algorithmus, der in einer mathematischen Sprache die Nahrungssuche und das Anti-Raubtier-Verhalten von Spatzen nachahmt. Im Allgemeinen werden Spatzen aufgrund ihrer Fitnesswerte, die regelmäßig anhand der aktuellen Position der Individuen bewertet werden, als Produzenten oder Schnorrer eingestuft. Die Produzenten sind größtenteils für die Nahrungsversorgung des Schwarms verantwortlich, während Schnorrer die Produzenten oft als Mittel nutzen, um an eine Nahrungsquelle zu gelangen. Wenn Raubtiere sich dem Schwarm nähern, ändern einige Späher außerdem ihre Position, um sich und den gesamten Schwarm zu schützen. Dadurch kann der Spatzenschwarm kontinuierlich Nahrung sammeln und gleichzeitig die Sicherheit für die Fortpflanzung des Schwarms unter verschiedenen Strategien gewährleisten. Verschiedene Spatzenarten spielen unterschiedliche Rollen. Im Folgenden sind die Komponenten von SSA und seinem algorithmischen Prozess aufgeführt.

Der Schwarm wird initialisiert. SSA generiert zunächst zufällig die Anfangspositionen einer Gruppe von Spatzen als

wobei N die Anzahl der Individuen im Schwarm bezeichnet, D die Dimensionalität eines Entscheidungsvektors darstellt (oder die Anzahl der Merkmale in einem Datensatz, der im Fall von FS-Problemen verarbeitet wird) und \(x_{i,j}\) bezeichnet ein Wert, der von einem Spatz i in einer Dimension j angenommen wird. SSA beurteilt die Qualität der erhaltenen Lösungen anhand einer Fitnessfunktion

wobei eine Fitnessfunktion f(.) verwendet wird, um die Qualität einer gegebenen Lösung \({\textbf{x}}_i\) zu bewerten.

Der Produzent ist hauptsächlich dafür verantwortlich, Nahrungsquellen zu finden, und seine Positionsaktualisierungsregeln sind dies

SSA verbessert die Qualität seiner Lösungen durch den Informationsaustausch zwischen seinen aufeinanderfolgenden Iterationen. Gl. (3) wird verwendet, um die Art und Weise zu beschreiben, wie Informationen zwischen Produzenten mit zunehmender Anzahl von Iterationen ausgetauscht werden. t bezeichnet die Nummer der aktuellen Iteration. Da SSA nicht dazu dient, die global optimale Lösung zu finden, sondern eine relativ bessere Lösung bereitzustellen, wird üblicherweise die maximale Anzahl von Iterationen T als Bedingung für die Beendigung des Algorithmus verwendet. \(\alpha \) hat normalerweise einen Zufallswert im Bereich [0, 1]. Der Warnwert \(R_2 \sim U{(0,1)}\) gibt den Gefahrengrad eines Herstellerstandorts an, während der Sicherheitswert \(ST \in [0,5,1]\) ein Schwellenwert zur Bestimmung ist ob der Standort eines Produzenten sicher ist. \(R_2

Der Schwarm in SSA kann in Produzenten und Schnorrer unterteilt werden. Die Schnorrer erneuern sich als

wobei \({\mathbf{g}}_{worst}\) und \({\mathbf{g}}_{best}\) die aktuellen globalen schlechtesten bzw. besten Positionen bezeichnen, mit deren Hilfe die Entdecker kann die Konvergenzgeschwindigkeit des Algorithmus verbessern, erhöht jedoch das Risiko, in ein lokales Optimum zu fallen. \(A^+=A^T(AA^T)^{-1}\), wobei A eine \(1 \times D\)-Matrix bezeichnet, in der jedes Element einen zufällig auf 1 oder \( -1\). Gl. (4) zeigt, dass \(i>N/2\) anzeigt, dass Schnorrer woanders hinfliegen müssen, um an Nahrung zu kommen; andernfalls besorgen sich Schmarotzer Nahrung aus der Nähe der Produzenten.

Scouter werden zufällig aus dem Schwarm ausgewählt, typischerweise 10–20 % der gesamten Schwarmgröße, und sie werden entsprechend aktualisiert

wobei \(\beta \) einen Zufallswert mit Normalverteilungseigenschaften annimmt, K ein Parameter ist, der einen Zufallswert zwischen \(-1\) und 1 annimmt, \(\sigma \) eine Konstante ist, um das Auftreten von an zu vermeiden Fehler, wenn der Nenner 0 ist, und \(f({\mathbf{g}}_{best}^{t})\) und \(f({\mathbf{g}}_{schlechteste}^{t} )\) sind Fitnesswerte der derzeit weltweit besten bzw. schlechtesten Personen. Die Scouter ermitteln ihre Fitness anhand eines Aktualisierungskriteriums, d. h. \(f({\textbf{x}}_i^{t})>f({\mathbf{g}}_{best}^{t})\) zeigt an, dass der Spatz einem Raubtierrisiko ausgesetzt ist und seinen Standort entsprechend dem aktuell besten Individuum ändern muss, während \(f({\textbf{x}}_i^{t})=f({\mathbf{g} }_{best}^{t})\), muss ein Spatz strategisch näher an andere sichere Individuen heranrücken, um seinen Sicherheitsindex zu verbessern.

Es werden Aktualisierungs- und Stopprichtlinien angewendet. Die aktuelle Position eines Spatzen wird nur dann aktualisiert, wenn seine entsprechende Fitness besser ist als die der vorherigen Position. Wenn die maximale Anzahl der aktuellen Iterationen nicht erreicht ist, kehren Sie zu Schritt 2 zurück. ansonsten Ausgangsposition und Fitness des besten Individuums.

Somit wird das Grundgerüst von SSA in Algorithmus 1 realisiert.

Chaos wird als ein Phänomen definiert, das mithilfe einer Evolutionsfunktion eine Art chaotisches Verhalten zeigt und drei Hauptmerkmale aufweist: i) quasi-stochastisch; ii) Ergodizität; und iii) Empfindlichkeit gegenüber Anfangsbedingungen60. Wenn sich sein Anfangszustand ändert, kann dies zu einer nichtlinearen Änderung seines zukünftigen Verhaltens führen. Somit können stochastische Parameter in den meisten Algorithmen durch die Verwendung der Chaostheorie gestärkt werden, da die Ergodizität des Chaos dabei helfen kann, den Lösungsraum umfassender zu erkunden. Tabelle 1 präsentiert die mathematischen Ausdrücke für die zehn in dieser Studie verwendeten chaotischen Karten44, wobei \({\tilde{x}}\) die Zufallszahl darstellt, die aus einer eindimensionalen chaotischen Karte generiert wird. Abbildung 1 zeigt auch ihre eigenen Visualisierungen.

Visualisierungen der zehn chaotischen Karten, die in dieser Studie verwendet und mit Matplotlib 3.5.261 in Python 3.9.1262 generiert wurden.

In dieser Studie wird CSSA erstellt, indem die Mängel von SSA durch chaotische Karten in drei Aspekten gemildert werden: i) anfänglicher Schwarm; ii) zwei Zufallsparameter; und iii) Einklemmen der Spatzen, die den Suchraum überqueren. Der anfängliche SSA-Schwarm wird normalerweise zufällig generiert, und die Schwarmvielfalt geht daher mit der Zeit leicht verloren, was dazu führt, dass der Lösungsraum nicht umfassend erkundet wird. Dies kann im Laufe des iterativen Prozesses regelmäßig geändert werden, indem die ergodische Natur des Chaos genutzt wird. Für die beiden Zufallsparameter berücksichtigt diese Studie \(\alpha \) im Produzenten (Gl. (3)) und K im Scouter (Gl. (5)). Da \(\alpha \in [0,1]\) wird es eindeutig durch eine der zehn chaotischen Karten ersetzt, vorausgesetzt, dass die chaotischen Karten von Chebyshev und Iterative absolute Werte annehmen. Auch \(K \in [-1,1]\), sodass diese Studie endlich die Ersetzung durch die Tschebyscheff-Karte regelt. Schließlich wird auch die Position von Spatzen, die sich außerhalb des Suchbereichs befinden, mit Hilfe chaotischer Karten geklemmt, indem sie als neu definiert werden

wobei \(x_{i,j}^{t}\) und \({\tilde{x}}_{i,j}^{t}\) jeweils die ursprüngliche und chaotische Position eines Spatzes i darstellen bei einer Dimension j und einer Iteration t. Durch die Analyse der experimentellen Ergebnisse im Abschnitt „Vergleichende Analyse“ wird schließlich die endgültige Version von CSSA mit der folgenden endgültigen Konfiguration veröffentlicht: (i) Die Kreiskarte wird verwendet, um den anfänglichen Schwarm zu erzeugen, ersetzen Sie \(\alpha \) in Gleichung. (3) und verlagern Sie die Spatzen, die den Suchbereich überqueren, mithilfe von Gl. (6); und (ii) die Chebyshev-Karte ersetzt K in Gleichung. (5).

Nur die Verwendung der besten Individuen in SSA zur Steuerung der Entwicklungsrichtung seines Schwarms verbessert seine Konvergenzgeschwindigkeit, erhöht aber auch das Risiko, in ein lokales Optimum zu fallen. Um dieses Problem zu beheben, setzt SSA einige Zufallszahlen im Algorithmus, aber der verwendete Zufallszahlengenerator ist bei aufeinanderfolgenden Aufrufen nicht ohne sequentielle Korrelation, sodass die Schwarmvielfalt in der späten Iteration des Algorithmus immer noch abnimmt. Die Zufälligkeit und Unvorhersehbarkeit chaotischer Sequenzen kann dann bei der Generierung von Zufallszahlen genutzt werden, um die Schwarmvielfalt von SSA zu verbessern und so seine Erkundungsfähigkeit zu erhöhen, um den Suchraum umfassender zu untersuchen63,64. Daher verwendet diese Arbeit chaotische Karten, um den anfänglichen SSA-Schwarm zu erzeugen, und ersetzt darin einige Zufallszahlen.

Nach unserem Kenntnisstand sind binäre Vektoren65 von wesentlicher Bedeutung für die Codierung von Merkmalen in FS-Problemen, und ein unterstützendes Schema (z. B. Übertragungsfunktionen) kann verwendet werden, um den kontinuierlichen Suchraum in einen binären Raum66 umzuwandeln, in dem Nullen und Einsen zur Organisation der Position verwendet werden von Einzelpersonen. Zunächst werden alle Features ausgewählt. Bei nachfolgenden Iterationen wird ein Feature mit 1 gekennzeichnet, wenn es ausgewählt ist. Andernfalls wird es als 0 dargestellt. In dieser Studie wird CSSA zur Konstruktion des binären Suchraums mithilfe einer V-förmigen Übertragungsfunktion67 diskretisiert

Somit setzen sich die Standorte der SSA-Individuen aus binären Vektoren68 zusammen

wobei \(r \sim U{(0,1)}\). \(r < V(\cdot)\) bedeutet, dass ein zuvor ausgewähltes Feature jetzt verworfen wird und umgekehrt; Andernfalls bleibt der Auswahlstatus eines Features erhalten.

CSSA baut zunächst einen ersten Schwarm mithilfe chaotischer Karten auf. Abhängig vom Bereich der chaotischen Karten kann der Anfangspunkt der chaotischen Karten einen beliebigen Wert zwischen 0 und 1 annehmen, beispielsweise kann der Anfangspunkt der chaotischen Karten Tschebyscheff und Iterativ einen Wert zwischen −1 und 1 annehmen. Ein Anfang Der Wert \({\tilde{x}}^{0}\) für eine chaotische Karte kann einen erheblichen Einfluss von Fluktuationsmustern darauf haben. Mit Ausnahme der chaotischen Zeltkarte, bei der \({\tilde{x}}^{0}=0,6\) ist, verwenden wir also \({\tilde{x}}^{0}= 0,7\)43,69 für Alles chaotische Karten. Jeder Ort eines Spatzen stellt eine möglicherweise praktikable Lösung dar, die durch die Festlegung innerhalb des Bereichs [0, 1] für jede seiner Dimensionen bedingt ist.

Zweitens ist eine Determinante erforderlich, um die Qualität jeder von uns erhaltenen binarisierten Lösung zu bewerten. FS-Probleme umfassen typischerweise zwei sich gegenseitig ausschließende Optimierungsziele, nämlich die Maximierung der Klassifizierungsgenauigkeit und die Verringerung der ausgewählten Merkmalsgröße. Gewichtete-Summen-Methoden werden bei dieser Art von Problemen häufig eingesetzt, da sie unkompliziert und einfach zu implementieren sind70. Wir verwenden den gewichteten Summenansatz in der Fitnessfunktion, um einen guten Kompromiss zwischen den beiden Zielen zu erreichen

Dabei stellen k-Nearest Neighbor (k-NN, \(k=5\)31,54) und \(Err_i\) den Klassifizierungsalgorithmus dar, der für ausgewählte Features in einer Lösung i ausgeführt wird, bzw. die entsprechende Klassifizierungsfehlerrate. k-NN wird aufgrund seiner Recheneffizienz häufig in Kombination mit Metaheuristiken in Klassifizierungsaufgaben zur Lösung von FS-Problemen verwendet54. \(\vert S_i\vert \) stellt die Anzahl nützlicher Funktionen dar, die CSSA in i ausgewählt hat. Ein kleineres Feature-Auswahlverhältnis zeigt an, dass der Algorithmus nützliche Features effektiver ausgewählt hat. \(\gamma \) stellt einen Gewichtungskoeffizienten dar, der nach vorliegenden Studien auf 0,99 festgelegt ist54,71.

Als nächstes wird die Position der Spatzen gemäß den Gleichungen aktualisiert. (3), (4) und (5), vorausgesetzt, dass \(\alpha \) und K durch unabhängige Zufallswerte ersetzt werden, die von einer gegebenen chaotischen Karte generiert werden. Dies unterstützt die Suchagenten von CCSA in hohem Maße dabei, jeden potenziellen Bereich des Suchraums effektiver zu erkunden und zu nutzen.

Schließlich wird CSSA auf der Grundlage einer vordefinierten Beendigungsbedingung beendet. Für Optimierungsprobleme gibt es typischerweise drei Abbruchbedingungen: (i) die maximale Anzahl von Iterationen ist erreicht; (ii) eine anständige Lösung erhalten wird; und (iii) ein vorgegebenes Zeitfenster. Die erste Bedingung wird in dieser Studie als Abbruchbedingung verwendet. Insgesamt wird CSSA im Algorithmus 2 realisiert. Der Einfachheit halber ist in Abb. 2 auch dessen Flussdiagramm dargestellt.

Flussdiagramm der CSSA.

Bei der auf Wrapper-Methoden basierenden Merkmalsauswahl werden die Kandidatenteilmengen im Prozess der Suche nach der optimalen Merkmalsteilmenge mehrmals ausgewertet, was die Komplexität des Algorithmus erhöht. Daher analysiert dieser Abschnitt die Gesamtkomplexität von CSSA im schlimmsten Fall.

Um die Analyse der zeitlichen Komplexität von CSSA zu erleichtern, wird Algorithmus 2 Schritt für Schritt überprüft. In der Initialisierungsphase (Zeile 2) wird die Position von N Spatzen mit \(\mathcal{O}\)(N) Zeitkomplexität initialisiert. In der Hauptschleifenphase beträgt die zeitliche Komplexität der Binarisierung (Zeile 5), der Lösungsauswertung (Zeile 6) sowie der Aktualisierung von Positionen und der Neudefinition von Variablen außerhalb der Grenzen (Zeilen 10–21) \(\mathcal{O}\)( N), \(\mathcal{O}(N+N \log {N}+1)\) bzw. \(\mathcal{O}\)(2N). Schließlich hat das Finden des global besten Individuums (Zeile 6) eine zeitliche Komplexität von \(\mathcal{O}(\log {N})\). Somit kann die schlechteste Zeitkomplexität von CSSA als \(\mathcal{O}(N)+\mathcal{O}(T((N+N+N \log {N}+1)+2N))+ definiert werden \mathcal{O}(\log {N})=\mathcal{O}(N)+\mathcal{O}(T(4N+N \log {N}+1))+\mathcal{O}(\ log {N})=\mathcal{O}(TN \log {N})\). Andererseits wird die räumliche Komplexität von CSSA am Overhead gemessen, den es dem Speicher auferlegt, also \(\mathcal{O}\)(ND).

In dieser Studie werden Experimente mit achtzehn in Tabelle 2 aufgeführten UCI-Datensätzen durchgeführt, die verschiedene Themenbereiche abdecken, darunter Physik, Chemie, Biologie, Medizin usw.72. Interdisziplinäre Datensätze bieten Vorteile bei der Bewertung der Anwendbarkeit von CSSA in mehreren Disziplinen.

Wir verwenden hauptsächlich vier Metriken, um die Gesamtleistung von Wettbewerbern zu bewerten, nämlich mittlere Fitness (\(Mean_{Fit}\)), mittlere Genauigkeit (\(Mean_{Acc}\)), mittlere Anzahl ausgewählter Merkmale (\(Mean_ {Feat}\)) und mittlere Rechenzeit (\(Mean_{Time}\)) definiert als

wobei \(M=30\) die maximale Anzahl unabhängiger Läufe ist. \(f_*^{k}\), \(Acc_*^{k}\), \(\vert S_*^{k}\vert \) und \(Time_*^{k}\) bezeichnen die Werte für Fitness, Genauigkeit, ausgewählte Merkmalsgröße und Rechenzeit (gemessen in Millisekunden) für die weltweit beste Lösung, die bei Lauf k erhalten wurde.

Je kleiner die Werte von \(Mean_{Fit}\), \(Mean_{Feat}\) und \(Mean_{Time}\) sind, desto besser ist die Leistung des CSSA. Im Gegensatz dazu ist die Leistung des CSSA umso höher, je höher der Wert von \(Mean_{Acc}\) ist. Die Optimalität der Ergebnisse wird mithilfe der Hold-out-Strategie validiert, bei der die Trainings- und Testsätze durch zufällige Aufteilung jedes Datensatzes in zwei Teile realisiert werden, wobei die Trainingsphase 80 % des Datensatzes und die Testphase 80 % des Datensatzes einnimmt die restlichen 20 %73. Aufgrund der stochastischen Natur metaheuristischer Algorithmen können diese nicht vollständig repliziert werden, und die durchschnittlichen Ergebnisse für jeden Algorithmus und jeden einzelnen Datensatz werden daher über 30 unabhängige Durchläufe ermittelt und als Endwerte für alle Metriken realisiert. Darüber hinaus verwenden wir W, T und L, um die Anzahl der Siege, Unentschieden und Niederlagen für CSSA im Vergleich zu seinen Konkurrenten in allen untersuchten Datensätzen darzustellen. Obwohl dies die Wirksamkeit der vorgeschlagenen Methode angemessen messen kann, sind auch nichtparametrische statistische Tests wie der Signed-Rank-Test von Wilcoxon, der Rangtest von Friedman und der Test von Nemenyi erforderlich, um die statistische Signifikanz der CSSA gegenüber ihren Konkurrenten zu bestimmen. Sie sind geeigneter und sicherer als parametrische Tests, da sie eine gewisse, wenn auch eingeschränkte Vergleichbarkeit voraussetzen und keine Normalverteilungen oder Varianzhomogenität erfordern74. Die besten Gesamtleistungen sind fett markiert.

In diesem Abschnitt wird der \(Mean_{Fit}\) von CSSA mit den zehn verschiedenen chaotischen Karten verglichen und untersucht, die in Tabelle 1 aufgeführt sind, um die beste CSSA-Version aller Zeiten zu erhalten. Anschließend werden \(Mean_{Fit}\), \(Mean_{Acc}\), \(Mean_{Feat}\) und \(Mean_{Time}\) berechnet und eine statistische Post-hoc-Analyse durchgeführt die achtzehn UCI-Datensätze und drei hochdimensionale Microarray-Datensätze, die in den Tabellen 2 bzw. 21 aufgeführt sind, um festzustellen, ob CSSA einen Wettbewerbsvorteil gegenüber seinen bekannten Konkurrenten hat. CSSA wird auch mit mehreren aktuellen, relevanten FS-Methoden in der Literatur verglichen, um die gewonnenen Ergebnisse in einen Kontext zu bringen. Darüber hinaus wird eine Ablationsstudie verwendet, um Konvergenzanalysen und Explorations-Ausbeutungs-Kompromissanalysen durchzuführen. Die Versuchsumgebung hat Einfluss auf die Endergebnisse und Tabelle 3 fasst die Umstände für alle Experimente zusammen. In metaheuristischen Algorithmen gibt es häufig mehrere Hyperparameter, und ihre Werte haben bis zu einem gewissen Grad großen Einfluss auf die Leistung der Endergebnisse. In dieser Arbeit stimmen die algorithmusspezifischen Parametereinstellungen aller Wettbewerber mit den Empfehlungen in ihren jeweiligen Artikeln überein, ohne dass eine Parameteroptimierung vorgenommen wurde75. Tabelle 4 enthält nur die Parameter, die allen Algorithmen gemeinsam sind.

In diesem Abschnitt wird die Wirksamkeit von CSSA unter verschiedenen chaotischen Karten untersucht, die in Tabelle 1 aufgeführt sind, mit einem Anfangspunkt \({\tilde{x}}^{0}=0,7\) für alle chaotischen Karten, um Fluktuationsmustern zu gehorchen43,69 und ausnahmsweise \({\tilde{x}}^{0}=0,6\) für die Zeltkarte, die ihrer Beurteilungsbedingung unterliegt. Somit kann die beste Version von CSSA veröffentlicht werden. K in Gl. (5) nimmt einen Zufallswert im Bereich \([-1,1]\) an und nur die Tschebyscheff- und die iterative Karte können unter den zehn chaotischen Karten einen Wert in einem solchen Bereich liefern. Daher wird CSSA separat experimentiert und die Ergebnisse werden für die Chebyshev-Karte anstelle von K und die iterative Karte anstelle von K in den Tabellen 5 bzw. 6 aufgezeichnet. Da die anderen drei Verbesserungen, d. h. die Erzeugung des anfänglichen Schwarms, das Ersetzen von \(\alpha \) in Gl. (3) und die Umsiedlung transgressiver Spatzen können alle durch die Verwendung von Zufallswerten im Bereich [0, 1] geändert werden. Sie können eindeutig mit den zehn chaotischen Karten getestet werden, vorausgesetzt, dass die Tschebyscheff- und iterativen Karten absolute Werte annehmen. Der \(Mean_{Fit}\) in Gl. (10) wird in diesem Experiment als Schlüsselmetrik verwendet, um die Unterscheidung zwischen verschiedenen Versionen von CSSA basierend auf den zehn chaotischen Karten zu messen. Wir verwenden außerdem W*, T* und L*, um die Vor- und Nachteile der zwanzig CSSA-Varianten im unabhängigen Vergleich mit SSA darzustellen.

Aus den Tabellen 5 und 13 in Kombination geht hervor, dass bei Verwendung der Sinus-Karte beispielsweise als Ersatz für \(\alpha \) die experimentellen Ergebnisse zeigen, dass CSSA mit den Chebyshev- und Iterative-Karten anstelle von K keine effektive Leistung erbringt und bessere Ergebnisse als SSA liefert nur 5 bzw. 4 Datensätze, was darauf hinweist, dass die Sinus-Karte die Leistung von SSA nicht verbessern kann. Darüber hinaus zeigt „W|T|L“, dass die Sinus-Karte im Vergleich zu anderen Karten weder Siege noch Unentschieden in den achtzehn Datensätzen aufweist. Die experimentellen Ergebnisse von CSSA unter anderen Karten sind in den meisten Datensätzen relativ besser als die von SSA. Insgesamt werden die besten Ergebnisse erzielt, wenn CSSA bei insgesamt 17 Datensätzen besser abschneidet als SSA, wie in Tabelle 5 gezeigt. Da wir also versuchen, die Leistung von SSA zu maximieren, verwendet diese Studie die Chebyshev-Karte anstelle von K und dem Kreis Karte für die anderen drei Verbesserungen, um die beste CSSA-Variante aller Zeiten basierend auf chaotischen Karten zu veröffentlichen.

Tabelle 7 vergleicht die vorgeschlagene CSSA mit der SSA basierend auf \(Mean_{Fit}\), \(Mean_{Acc}\), \(Mean_{Feat}\) und \(Mean_{Time}\). CSSA erzielt einen herausragenden \(Mean_{Fit}\)-Vorteil für insgesamt 17 Datensätze und schneidet nur beim WineEW-Datensatz schlechter ab als SSA. In Bezug auf \(Mean_{Acc}\) erreicht CSSA die höchste Genauigkeit bei 14 Datensätzen und ähnlich auch bei den anderen 4 Datensätzen. In Bezug auf \(Mean_{Feat}\) übertrifft CSSA auch SSA bei den meisten Datensätzen. Was \(Mean_{Time}\) betrifft, hat CSSA bei den meisten Datensätzen relativ weniger Rechenzeit. Dies impliziert einerseits, dass die gewählte Fitnessfunktion in der Lage ist, die Rolle der Genauigkeit und der ausgewählten Merkmalsgröße in Klassifizierungsaufgaben zu integrieren. Darüber hinaus zeigt es, dass CSSA die Explorations- und Ausbeutungskapazitäten ausgleichen kann und so verhindert, dass SSA in das lokale Optimum fällt.

In diesem Abschnitt wird CSSA mit zwölf bekannten Algorithmen verglichen, darunter SSA, ABC, PSO, BA, WOA, GOA, HHO, BSA, ASO, HGSO, LSHADE und CMAES, um festzustellen, ob CSSA ihnen gegenüber einen Wettbewerbsvorteil hat. Eine kurze Beschreibung der verglichenen Algorithmen finden Sie in Tabelle 8.

Tabelle 9 vergleicht den \(Mean_{Fit}\) von CSSA mit dem seiner Mitbewerber. Die Ergebnisse zeigen, dass CSSA bei 13 Datensätzen den kleinsten \(Mean_{Fit}\) erhält und dass ABC, SSA und CMAES bei den übrigen Datensätzen relativ besser abschneiden. Somit zeigen die \(Mean_{Fit}\)-Ergebnisse, dass CSSA für die meisten Datensätze seine eigenen Vorzüge hat und im Vergleich zu anderen Konkurrenten die beste Leistung erbringen kann, indem es sich an Klassifizierungsaufgaben anpasst.

Tabelle 10 vergleicht CSSA mit anderen Algorithmen im Hinblick auf \(Mean_{Acc}\). Die Vergleichsergebnisse verdeutlichen, dass CSSA bei 9 Datensätzen den höchsten \(Mean_{Acc}\) erzielt, bei 6 Datensätzen den höchsten erreicht und somit bei insgesamt 15 Datensätzen eine herausragende Leistung aufweist, während ABC lediglich einen höheren \(Mean_{ Acc}\) als CSSA bei nur drei Datensätzen: CongressEW, Exactly2 und Tic-tac-toe. Andererseits schneidet CMAES nur beim Tic-Tac-Toe besser ab als CSSA. Dies kann auf die komplexe Natur der Daten in diesen Datensätzen zurückgeführt werden.

Tabelle 11 vergleicht CSSA mit seinen Mitbewerbern hinsichtlich \(Mean_{Feat}\). CSSA hat die geringste Anzahl ausgewählter Features bei 9 Datensätzen, während die anderen 12 Algorithmen nur bei 9 Datensätzen gewonnen haben. Bemerkenswert ist, dass ABC nur in Bezug auf \(Mean_{Fit}\) und \(Mean_{Acc}\) nach CSSA an zweiter Stelle steht, aber in Bezug auf \(Mean_{Feat}\) keine Vorteile hat.

Tabelle 12 vergleicht \(Mean_{Time}\) von CSSA mit anderen Algorithmen. LSHADE hat die niedrigste \(Mean_{Time}\) unter allen Algorithmen, aber der Algorithmus schneidet in anderen Aspekten wie \(Mean_{Fit}\), \(Mean_{Acc}\) und \(Mean_{Feat }\). Obwohl ABC bei diesen Kennzahlen etwas besser abschneidet, hat es die längste Laufzeit und erreicht fast das Dreifache der Dauer von CSSA. Darüber hinaus liegt der \(Mean_{Time}\) von CSSA zwar im Mittelfeld aller verglichenen Algorithmen, hat aber einen geringeren Zeitaufwand als Standard-SSA, wie in Tabelle 7 gezeigt. Dies zeigt, dass CSSA die Leistung von SSA erheblich verbessert, ohne die zeitliche Komplexität des Algorithmus zu erhöhen oder sogar zu verringern. Dies ist ein weiterer Aspekt, der den Vorteil von CSSA gegenüber dem Standard verdeutlicht.

Darüber hinaus sind Abb. 3 und 4 beweisen die Stabilität von CSSA in Bezug auf \(Mean_{Acc}\) und \(Mean_{Feat}\) mittels Boxplots. Wie aus Abb. 3 ersichtlich ist, erzielte CSSA bei allen Datensätzen außer Exactly2 höhere Boxplots. Andererseits weist CSSA in allen Datensätzen mit Ausnahme von PenglungEW, SonarEW und SpectEW kleinere Boxgrößen auf, was darauf hindeutet, dass CSSA im Vergleich zu seinen Mitbewerbern stabiler in Bezug auf \(Mean_{Acc}\) ist. Abbildung 4 zeigt auch, dass CSSA bei den meisten Datensätzen einen niedrigeren \(Mean_{Feat}\) erreichen kann, was eine geringere Größe der Boxplots garantiert. Abbildung 5 zeigt \(Mean_{Acc}\) und \(Mean_{Feat}\) aller Konkurrenten. Es ist ersichtlich, dass CSSA den höchsten \(Mean_{Acc}\) erreicht, begleitet von dem niedrigsten \(Mean_{Feat}\).

Boxplot von \(Mean_{Acc}\).

Boxplot von \(Mean_{Feat}\).

Balkendiagramm von \(Mean_{Acc}\) und \(Mean_{Feat}\).

Die oben genannten experimentellen Ergebnisse können die subtilen Unterschiede zwischen konkurrierenden Algorithmen effektiv beschreiben, aber wir müssen auch den Algorithmus als Ganzes kontrollieren. Das Konvergenzverhalten aller Wettbewerber wird weiter analysiert. Abbildung 6 vergleicht visuell die \(Mean_{Fit}\)-Spur aller Konkurrenten für die achtzehn Datensätze, wobei alle Ergebnisse der Mittelwert von 30 unabhängigen Läufen pro Iteration sind. Es ist klar, dass CSSA bei fast allen Datensätzen effektiver ist als SSA, was zeigt, dass die Konvergenz von CSSA schneller ist als die seiner Mitbewerber. Bei den meisten Datensätzen liegt CSSA am unteren Ende der Konvergenzspuren aller anderen elf Algorithmen, was darauf hindeutet, dass CSSA gegenüber seinen Konkurrenten einen Wettbewerbsvorteil in Bezug auf schnelle Konvergenz beim Herausspringen aus den lokalen Optima hat. Dies kann auf die besonderen Merkmale (insbesondere Ergodizität) chaotischer Karten zurückzuführen sein, die dazu beitragen, den gesamten Suchraum bequemer abzudecken. Dadurch erreicht CSSA ein besseres exploratives und ausbeuterisches Verhalten als seine Kollegen.

Konvergenzkurven von CSSA und seinen Kollegen.

Obwohl aus der vorherigen Analyse hervorgeht, dass CSSA erhebliche Vorteile gegenüber seinen Mitbewerbern hat, sind weitere statistische Tests der experimentellen Ergebnisse erforderlich, um die Stabilitäts- und Zuverlässigkeitsanalysen strenger zu gestalten. In dieser Studie analysieren wir, ob CSSA einen statistisch signifikanten Vorteil gegenüber seinen Mitbewerbern hat, basierend auf einem p-Wert, indem wir den Wilcoxon-Signed-Rank-Test mit einem Signifikanzniveau von 5 %76 verwenden. Wenn p<0,05, deutet dies auf einen erheblichen Vorteil von CSSA im Vergleich zu seinen Mitbewerbern hin; Ansonsten weist CSSA im Vergleich zu allen Wettbewerbern eine vergleichbare Wirksamkeit auf.

Tabelle 13 zeigt die Ergebnisse des Wilcoxon-Signed-Rank-Tests für CSSA gegenüber anderen Wettbewerbern in Bezug auf \(Mean_{Fit}\), wobei „+“ die Anzahl der Datensätze darstellt, bei denen CSSA einen erheblichen Vorteil gegenüber seinen Mitbewerbern hat, „ „\(\ approx \)“ gibt an, dass CSSA mit dem entsprechenden konkurrierenden Algorithmus vergleichbar ist, und „−“ stellt die Anzahl der Datensätze dar, bei denen CSSA schlechter funktioniert als der Algorithmus, mit dem es verglichen wird. Aus Tabelle 13 geht klar hervor, dass CSSA bei allen achtzehn Datensätzen herausragende Vorteile gegenüber PSO, BA, HHO und ASO sowie bei 7, 17 gegenüber SSA, HGSO, LSHADE, CMAES, GOA, BSA, WOA und ABC aufweist. 17, 16, 16, 16, 15, 14 bzw. 12 Datensätze. Somit übertrifft CSSA seine Mitbewerber bei den meisten Datensätzen deutlich.

Darüber hinaus messen wir die statistische Signifikanz von CSSA im Vergleich zu anderen Algorithmen im Hinblick auf \(Mean_{Fit}\) durch Friedmans Rangtest77. Unter der Annahme, dass wir ein Signifikanzniveau \(\alpha =0,05\) annehmen, wird der Friedman-Rangtest wie folgt gemessen:

Dies ist unerwünscht konservativ und eine bessere Statistik wird daher als78 abgeleitet

Dabei ist \(N_{D}\) die Anzahl der Datensätze, \(N_{A}\) die Anzahl der Vergleichsalgorithmen und \(R_{k}\) die durchschnittliche Rangfolge eines Algorithmus k. Somit haben wir \(N_{D} = 18\), \(N_{A} = 13\) und \(R_{k}\), berechnet aus den Tabellen 9, 10, 11 und 12. Tabelle 14 zeigt \(R_{k}\), \(\chi _{F}^{2}\) und \(F_{F}\) für alle Algorithmen unter unseren vier Bewertungsmetriken. \(F_{F}\) gehorcht der F-Verteilung mit den Freiheitsgraden \(N_{A}-1\) und \((N_{A}-1)(N_{D}-1)\). Die Berechnung ergibt \(F(12,204)=1,80\), und da alle \(F_{F}\) größer als dieser Wert sind, gibt es einen signifikanten Unterschied zwischen den Algorithmen zugunsten von CSSA.

Friedmans Rangtest allein ist in der Regel nicht in der Lage, die Signifikanz der Algorithmen miteinander zu vergleichen. Daher wird auch Nemenyis Test durchgeführt74. Dieser Test vergleicht im Wesentlichen die Differenz zwischen der durchschnittlichen Rangfolge jedes Algorithmus mit einer kritischen Differenz-CD. Wenn die Differenz größer als CD ist, bedeutet dies, dass der Algorithmus mit der niedrigeren Rangfolge überlegen ist. Ansonsten gibt es keinen statistischen Unterschied zwischen den Algorithmen. CD wird berechnet als

wobei \(q_{\alpha }\) als 3,31 berechnet wird, vorausgesetzt, dass \(N_{A}=13\) und das Konfidenzniveau \(\alpha =0,05\). Somit gilt \(CD = 4,30\) und signifikante Unterschiede zwischen zwei Algorithmen gelten, wenn der Unterschied zwischen ihrer durchschnittlichen Rangfolge größer als dieser Wert ist.

Abbildung 7 zeigt die CD-Ergebnisse für alle Teilnehmer. Vertikale Punkte geben die durchschnittliche Rangfolge der Algorithmen an und das horizontale Liniensegment, das mit dem Punkt beginnt, zeigt den kritischen Unterschied an. Ein wesentlicher Unterschied zwischen den Algorithmen besteht darin, dass es keinen Schnittpunkt der horizontalen Liniensegmente der Algorithmen gibt. Wie gezeigt, schneidet CSSA in Bezug auf \(Mean_{Fit}\), \(Mean_{Acc}\) und \(Mean_{Feat}\) am besten ab, schneidet jedoch in Bezug auf \(Mean_{Time}\) weniger gut ab. ). CSSA schneidet nur SSA, ABC und WOA in Bezug auf \(Mean_{Fit}\) und nur SSA, WOA und HHO in Bezug auf \(Mean_{Feat}\), was darauf hinweist, dass sich CSSA in Bezug auf die Begriffe erheblich von den meisten verglichenen Algorithmen unterscheidet von \(Mean_{Fit}\) und \(Mean_{Feat}\). Andererseits zeigt Abb. 7b, dass sich CSSA hinsichtlich \(Mean_{Acc}\) deutlich von PSO, BA, HHO, ASO, HGSO und LSHADE unterscheidet, und Abb. 7d zeigt, dass es keinen signifikanten Vorteil gibt \(Mean_{Time}\) für CSSA, aber eher ein erheblicher Vorteil für LSHADE. Darüber hinaus gibt es einen Unterschied zwischen CSSA und SSA, der jedoch nicht signifikant ist. Da der \(Mean_{Fit}\) unter allen Bewertungsmetriken die Fähigkeit des Algorithmus zur Bewältigung von FS-Problemen synthetisieren kann, zeigen der Signed-Rank-Test von Wilcoxon, der Rangtest von Friedman und der Test von Nemenyi insgesamt, dass CSSA über eine zufriedenstellend signifikante Leistung verfügt seine Kollegen.

Nemenyis Test von CSSA im Vergleich zu seinen Mitbewerbern in Bezug auf \(Mean_{Fit}\), \(Mean_{Acc}\), \(Mean_{Feat}\) und \(Mean_{Time}\).

In diesem Experiment werden fünf repräsentative kontinuierliche Benchmark-Funktionen aus der CEC-Benchmark-Suite ausgewählt, um die Auswirkungen der verschiedenen in CSSA eingebetteten Verbesserungen im Hinblick auf Schwarmdiversität und Konvergenzverfolgung zu untersuchen. Ihre Eigenschaften und mathematischen Definitionen sind in Tabelle 15 aufgeführt.

Da CSSA speziell für FS-Probleme vorgeschlagen wird, ist sein Suchraum aufgrund der Existenz chaotischer Karten auf [0, 1] beschränkt. Um jedoch die Vorteile seiner Hauptkomponenten vollständig zu demonstrieren, sollte CSSA in verschiedenen Suchräumen für verschiedene Benchmark-Funktionen getestet werden. Daher analysieren wir CSSA weiter im Vergleich zu CSSA ohne chaotischen Anfangsschwarm (NINICSSA), CSSA ohne chaotische Zufallsparameter (NPARCSSA) und CSSA ohne chaotische Aktualisierung transgressiver Positionen (NPOSCSSA). Wir definieren die Parametereinstellungen in diesem Experiment für alle Algorithmen wie folgt: Die maximale Anzahl von Iterationen beträgt 100, die Schwarmgröße beträgt 30 und \(D=50\) für Rosenbock-, Ackley- und Rastrigin-Funktionen. Alle Ergebnisse werden als Mittelwert aus 30 unabhängigen Läufen aufgezeichnet.

Die Tabellen 16, 17 und 18 stellen die experimentellen Ergebnisse von CSSA gegenüber NINICSSA, NPARCSSA und NPOSCSSA für die achtzehn UCI-Datensätze dar. Im Allgemeinen übertrifft CSSA andere Versionen von CSSA in Bezug auf \(Mean_{Fit}\), \(Mean_{Acc}\) und \(Mean_{Feat}\), und es ist auch klar, dass CSSA eine signifikante Bedeutung hat Vorteil gegenüber NPOSCSSA, der jeweils 16, 11 und 15 Mal in \(Mean_{Fit}\), \(Mean_{Acc}\) und \(Mean_{Feat}\) gewann. Andererseits ist ersichtlich, dass CSSA in Bezug auf \(Mean_{Time}\) im Vergleich zu NINICSSA, NPARCSSA und NPOSCSSACSSA einen geringeren Rechenaufwand hat, da chaotische Karten einfacher und einfacher Zufallssequenzen generieren können effizient. Kurz gesagt, es ist klar, dass die drei in dieser Studie vorgeschlagenen Verbesserungen unverzichtbar sind, um die Gesamtleistung von CSSA zu steigern, und die Neudefinition der transgressiven Position durch eine chaotische Karte ist besonders wichtig.

Darüber hinaus untersuchen wir die Explorationsvorteile, die CSSA dank seiner Hauptkomponenten bietet. Als Maß für die Schwarmdiversität79 nehmen wir daher den durchschnittlichen Abstand aller Spatzen vom Schwarmzentrum

wobei \(\dot{{\textbf{x}}}_{j}\) der Wert in der j-ten Dimension des Schwarmzentrums \(\dot{{\textbf{x}}}\ ist. Ein größerer \({\mathscr {D}}\) zeigt an, dass die Schwarmdiversität umso höher und umgekehrt umso geringer ist, je größer die Streuung der Individuen im Schwarm ist.

Folglich vergleicht Abb. 8 CSSA mit seinen abgetragenen Varianten hinsichtlich der Schwarmvielfalt. Während der Algorithmus allmählich konvergiert, erreichen die Individuen einen ähnlichen Zustand, was im Verlauf der Iterationen zu einer Konvergenz des Schwarms auf das Minimum führt79. Aus Abb. 8 ist ersichtlich, dass SSA und NINICSSA immer die gleiche Schwarmdiversität auf der Schekelfunktion beibehalten, was darauf hindeutet, dass sich der Algorithmus nicht weiterentwickelt und in ein lokales Optimum fällt, während die anderen CSSA-Varianten mit chaotischem Anfangsschwarm allmählich konvergieren, was dies zeigt Die Initialisierung des Schwarms durch eine chaotische Karte erleichtert es dem Algorithmus, aus dem lokalen Optimum herauszuspringen. Die Diversitätskurven der verbleibenden Funktionen zeigen, dass die Diversität von NPOSCSSA im Wesentlichen die gleiche bleibt wie die von SSA, und es ist ersichtlich, dass die Schwarmdiversität von NPOSCSSA und SSA aufgrund der Anwesenheit transgressiver Individuen hoch ist. Allerdings hat NPOSCSSA gegenüber SSA immer noch seine eigenen Vorteile. Beispielsweise konvergiert NPOSCSSA normal mit der Schekel-Funktion, was darauf hinweist, dass NPOSCSSA zwar keine Aktualisierungen an transgressiven Sparrows in dieser Version vorgenommen hat, aber immer noch in der Lage ist, chaotische Karten im anfänglichen Schwarm und zufällige Parameter zu verwenden, um CSSA zu ermöglichen, lokalen Optima zu entkommen. Andererseits konvergierte die Schwarmvielfalt von NPARCSSA ähnlich wie bei SSA reibungslos auf den Minimalpunkt. Es ist möglich, dass, wie bei SSA für die Shekel-Funktion, eine ähnliche Situation auftritt, wenn NPARCSSA mit komplexeren Funktionen arbeitet, aber nur, weil NPARCSSA chaotische anfängliche Schwarm- und chaotische Positionsaktualisierungen beibehält, d Der Funktionsumfang, der optimiert werden soll, ist begrenzt. Im Gegensatz dazu gibt es einen klaren Trend in der Schwarmvielfalt für CSSA, wenn der anfängliche Schwarm, der Überschreitungsort und die Zufallsparameter alle durch chaotische Karten geändert werden. Zusammenfassend lässt sich sagen, dass jede einzelne in CSSA eingebettete Verbesserung ihren eigenen Wert hat und für die Schwarmvielfalt und die Vermeidung des Abrutschens in lokale Optima unverzichtbar ist.

Schwarmdiversitätskurven.

Aus Abbildung 9 geht hervor, dass CSSA die Fähigkeit einer hohen Erkundung und einer geringen Ausnutzung aufweist, um den Lösungsraum zunächst umfassend zu erforschen. Mit zunehmender Iteration nimmt die Erkundungsfähigkeit des Algorithmus allmählich ab, während die Ausbeutungsfähigkeit zunimmt, um sich anzunähern schneller zur global optimalen Lösung. Wie man sieht, nimmt die Erkundungsfähigkeit aller Algorithmen außer CSSA in der Anfangsphase aller fünf Benchmark-Funktionen stark ab, während die Ausbeutungsfähigkeit stark zunimmt. Im Gegenteil, CSSA ist in der Lage, einen angemessenen Kompromiss aufrechtzuerhalten, indem es eine hohe Explorationskapazität in der Anfangsphase und eine spätere Ausbeutungsfähigkeit aufrechterhält, wodurch der Algorithmus den Lösungsraum umfassender erkunden und mögliche Regionen durchsuchen kann, um die globale optimale Lösung zu finden.

Kompromisskurven zwischen Exploration und Ausbeutung.

Insgesamt sind Abb. 8 und 9 zeigen, dass: (i) NPOSCSSA eine ähnliche Leistung wie SSA aufweist, jedoch lokale Optima vermeiden kann, wie in den Testergebnissen der Ackley- und Shekel-Funktionen gezeigt; (ii) bei NINICSSA besteht das Risiko einer vorzeitigen Konvergenz, der Konvergenztrend schwankt jedoch; (iii) NPARCSSA hat einen glatten Konvergenztrend wie SSA, was dazu führt, dass der Algorithmus bei der Behandlung komplexerer Probleme in ein lokales Optimum fällt; und (iv) CSSA behält die oben genannten Vorteile bei und vermeidet gleichzeitig die Mängel, sodass der Algorithmus die besten Ergebnisse in Bezug auf die Schwarmvielfalt und das Gleichgewicht zwischen Explorations- und Ausbeutungsfähigkeiten liefern kann.

Tabelle 19 vergleicht CSSA mit anderen Algorithmen in der Literatur, einschließlich hybrider evolutionärer Populationsdynamik und GOA (BGOA-EPD-Tour)80, hybridem Gravitationssuchalgorithmus (HGSA)81, verbessertem HHO (IHHO)82, einem selbstadaptiven Quantengleichgewichtsoptimierer mit ABC (SQEOABC)83, Binary Coyote Optimization Algorithm (BCOA)84, Chaotic Binary Group Search Optimizer (CGSO5)85 und Chaos Embed Marine Predator Algorithm (CMPA)86.

Um zu überprüfen, ob CSSA einen Wettbewerbsvorteil gegenüber ähnlichen Algorithmen hat, werden zwei kürzlich vorgeschlagene chaotische Algorithmen, nämlich CGSO5 und CMPA, unter den verglichenen Algorithmen ausgewählt. Aus Tabelle 19 geht hervor, dass \(Mean_{Acc}\) von CSSA in allen Datensätzen höher ist als der von CGSO5 und CMPA, mit Ausnahme des CongressEW-Datensatzes, wo er schlechter als CMPA ist. Darüber hinaus zeigen auch die Vergleichsergebnisse mit anderen nicht-chaotischen Algorithmen, dass CSSA herausragende Vorteile aufweist. Zusammenfassend zeigt ein Vergleich mit FS-Literaturarbeiten die Nützlichkeit und Überlegenheit von CSSA gegenüber verschiedenen anderen Methoden auf dem neuesten Stand der Technik.

Um die Skalierbarkeit und Robustheit von CSSA zur Bewältigung von FS-Problemen zu überprüfen, testen wir außerdem drei hochdimensionale Microarray-Datensätze mit bis zu 12.000 Merkmalen, nämlich 11_Tumors, Brain_Tumor2 und Leukemia2. Sie weisen alle eine hohe Merkmalsgröße und eine geringe Stichprobengröße auf, wie in Tabelle 21 angegeben. Da hochdimensionale Daten einen erheblichen Zeitaufwand verursachen können, bevorzugen wir die Verwendung der experimentellen Einstellungen in Tabelle 20. Die Tabellen 22, 23, 24 und 25 zeigen die experimentellen Ergebnisse in Bezug auf \(Mean_{Fit}\), \(Mean_{Acc}\), \(Mean_{Feat}\) und \(Mean_{Time}\). Es ist offensichtlich, dass CSSA in Bezug auf \(Mean_{Fit}\) und \(Mean_{Acc}\) herausragende Vorteile gegenüber anderen Algorithmen hat, seine Leistung in Bezug auf \(Mean_{Feat}\) jedoch relativ schlecht ist. was durch den hohen erhaltenen \(Mean_{Acc}\) gerechtfertigt werden kann. Andererseits haben alle Algorithmen einen enormen Overhead in Bezug auf \(Mean_{Time}\), der normalerweise durch die Einschränkungen der Wrapper-basierten Methoden selbst verursacht wird. Dies kann durch die Kombination anderer Methoden (z. B. filterbasierter Methoden) verbessert werden.

Um Probleme zu bewältigen, die bei Standard-SSA auftreten, wie z. B. der frühe Verlust der Schwarmvielfalt und das damit verbundene leichte Fallen in lokale Optima, integriert diese Studie chaotische Karten in SSA, um CSSA zu erstellen. Die Wirksamkeit von CSSA wurde durch viele vergleichende und analytische Studien nachgewiesen. Der Hauptzweck dieses Abschnitts besteht darin, eine kurze Zusammenfassung der Stärken und Schwächen von CSSA zu geben.

CSSA bietet folgende Vorteile:

Der Verbesserungseffekt von zehn chaotischen Karten auf SSA wird in dieser Arbeit vollständig untersucht und somit der Grad des Beitrags verschiedener chaotischer Karten aus einer globalen Perspektive untersucht. Der auf diese Weise ermittelte beste CSSA kann die Einseitigkeit einer einzelnen chaotischen Karte vermeiden und als Referenz für nachfolgende Forschungen dienen.

CSSA verbessert die Leistung von SSA und reduziert gleichzeitig den Rechenaufwand. Aus Tabelle 7 ist ersichtlich, dass CSSA die Leistung des Algorithmus in Bezug auf \(Mean_{Fit}\), \(Mean_{Acc}\), \(Mean_{Feat}\) und \( Mean_{Time}\), ohne den Rechenaufwand stark zu erhöhen.

Die Tabellen 9, 10, 11 und 12 beschreiben detailliert die Ergebnisse von CSSA im Vergleich zu zwölf bekannten Algorithmen in Bezug auf \(Mean_{Fit}\), \(Mean_{Acc}\), \(Mean_{Feat} \) und \(Mean_{Time}\). Die Abbildungen 3, 4 und 5 veranschaulichen die Klassifizierungsgenauigkeit und die Leistung der Merkmalsreduktionsrate aller Wettbewerber. Es ist ersichtlich, dass CSSA den \(Mean_{Feat}\) (0,4399) effektiv reduziert und gleichzeitig den höchsten \(Mean_{Acc}\) (0,9216) erreicht. Darüber hinaus wurde die Fähigkeit von CSSA, wirklich hochdimensionale Daten zu verarbeiten, durch Experimente mit drei Microarray-Datensätzen mit bis zu 12.000 Merkmalen demonstriert.

Darüber hinaus werden sieben kürzlich aus der Literatur ausgewählte Methoden mit CSSA verglichen, und die Vergleichsstudie zeigt, dass unsere vorgeschlagene Methode nicht nur andere nicht-chaotische Algorithmen übertrifft, sondern auch herausragende Vorteile gegenüber ähnlichen chaotischen Algorithmen aufweist.

Darüber hinaus hat CSSA seine eigenen Einschränkungen:

Tabelle 12 zeigt, dass CSSA im Hinblick auf \(Mean_{Time}\) nicht optimal ist, was möglicherweise daran liegt, dass SSA ursprünglich für den kontinuierlichen Suchraum entwickelt wurde. Obwohl die V-förmige Funktion in Gl. (7) ermöglicht der CSSA die Behandlung diskreter Probleme, ihr Wesen entwickelt sich jedoch immer noch durch einen kontinuierlichen Ansatz weiter. Um die Gesamtleistung zu verbessern und die Rechenkosten zu senken, kann daher eine effizientere SSA-Variante für diskrete Probleme entworfen werden.

Es ist wichtig zu beachten, dass CSSA den \(Mean_{Feat}\) beim Umgang mit extrem hochdimensionalen Daten nicht erfolgreich minimieren kann. Tabelle 24 zeigt, dass CSSA mehr als 5000 Features (eine Reduzierung um fast 50 %) in allen drei Datensätzen auswählt, was darauf hinweist, dass der Algorithmus die Größe ausgewählter Features nicht erfolgreich reduzieren kann und der Analyse und Extraktion wertvoller Features nicht förderlich ist. Dieses Problem kann durch die Kombination von Filtern (die zum Reduzieren und Auswählen hochwertiger Features verwendet werden) und Wrappern (die zur Verbesserung der Leistung des Algorithmus verwendet werden) gelöst werden. CSSA hingegen erreicht überlegene überlegene \(Mean_{Fit}\) und \(Mean_{Acc}\), wie in den Tabellen 22 bzw. 23 zu sehen ist.

In diesem Artikel wird ein neuer Chaotic-Sparrow-Suchalgorithmus (CSSA) vorgeschlagen und für FS-Probleme verwendet. Der Großteil der Literatur konzentriert sich auf den Einfluss einer einzelnen chaotischen Karte auf einen Algorithmus. Zehn chaotische Karten werden in dieser Studie umfassend untersucht. Basierend auf unseren Erkenntnissen liefert CSSA mit darin eingebetteten chaotischen Karten von Chebyshev und Circle die besten Ergebnisse unter den bewerteten Systemen, indem es einen guten Kompromiss zwischen Exploration und Ausbeutung in CSSA herstellt. Laut vergleichender Forschung bietet CSSA einen Wettbewerbsvorteil bei der globalen Optimierung und der Bewältigung von FS-Problemen im Vergleich zu zwölf hochmodernen Algorithmen, darunter LSHADE und CMAES, sowie sieben kürzlich vorgeschlagenen, relevanten Ansätzen in der Literatur. Darüber hinaus bestätigt eine statistische Post-hoc-Analyse die Bedeutung von CSSA für die meisten UCI-Datensätze und hochdimensionalen Microarray-Datensätze und zeigt, dass CSSA über eine außergewöhnliche Fähigkeit verfügt, günstige Merkmale auszuwählen und gleichzeitig eine hohe Klassifizierungsgenauigkeit zu erreichen.

Beim Umgang mit hochdimensionalen Datensätzen ist der Zeitaufwand von CSSA jedoch im Vergleich zu seinen Mitbewerbern nicht zufriedenstellend, und das Merkmalsauswahlverhältnis kann nicht erfolgreich reduziert werden. Um diese Bedenken auszuräumen, schlagen wir vor, die Filter und Wrapper in zukünftige Arbeiten zu integrieren, um ihre jeweiligen Vorteile beim Aufbau einer neuen binären SSA-Version zu nutzen, die besser für hochdimensionale FS-Probleme geeignet ist.

Die während der aktuellen Studie generierten und/oder analysierten Datensätze sind auf begründete Anfrage beim entsprechenden Autor erhältlich.

Raja, JB & Pandian, SC Pso-fcm-basiertes Data-Mining-Modell zur Vorhersage diabetischer Erkrankungen. Berechnen. Methoden Progr. Biomed. 196, 105659 (2020).

Artikel Google Scholar

Dhiman, G. & Kumar, V. Seagull-Optimierungsalgorithmus: Theorie und ihre Anwendungen für große industrielle Ingenieurprobleme. Wissen. Syst. 165, 169–196 (2019).

Artikel Google Scholar

Singh, P. & Dhiman, G. Unsicherheitsdarstellung mit Fuzzy-Entropie-Ansatz: Spezielle Anwendung in fernerkundten hochauflösenden Satellitenbildern (rshrsis). Appl. Soft Comput. 72, 121–139 (2018).

Artikel Google Scholar

Zhao, L. & Dong, X. Eine Methode zur Funktionsauswahl im industriellen Internet der Dinge basierend auf potenziellen Entropiebewertungskriterien. IEEE Access 6, 4608–4617 (2018).

Artikel Google Scholar

Habib, M., Aljarah, I., Faris, H. & Mirjalili, S. Multiobjektive Partikelschwarmoptimierung: Theorie, Literaturübersicht und Anwendung bei der Merkmalsauswahl für die medizinische Diagnose. Entwicklung Mach. Lernen. Technik. 58, 175–201 (2020).

Google Scholar

Abdel-Basset, M., Ding, W. & El-Shahat, D. Ein hybrider Harris-Hawks-Optimierungsalgorithmus mit simuliertem Tempern zur Merkmalsauswahl. Artif. Intel. Rev. 54, 593–637 (2021).

Artikel Google Scholar

Song, X.-F., Zhang, Y., Gong, D.-W. & Gao, X.-Z. Eine schnelle Hybrid-Feature-Auswahl basierend auf korrelationsgesteuertem Clustering und Partikelschwarmoptimierung für hochdimensionale Daten. IEEE Trans. Cybern. 52(9), 9573–9586 (2021).

Artikel Google Scholar

Abdelkader, HE, Gad, AG, Abohany, AA & Sorour, SE Eine effiziente Data-Mining-Technik zur Bewertung der Zufriedenheit von Hochschulstudenten mit Online-Lernen während der Covid-19-Krise. IEEE Access 10, 6286–6303 (2022).

Artikel Google Scholar

Blum, AL & Langley, P. Auswahl relevanter Funktionen und Beispiele im maschinellen Lernen. Artif. Intel. 97, 245–271 (1997).

Artikel MathSciNet MATH Google Scholar

Xu, J., Tang, B., He, H. & Man, H. Halbüberwachte Funktionsauswahl basierend auf Relevanz- und Redundanzkriterien. IEEE Trans. Neuronales Netz. Lernen. Syst. 28, 1974–1984 (2016).

Artikel MathSciNet PubMed Google Scholar

Liu, H., Motoda, H. & Yu, L. Ein selektiver Sampling-Ansatz zur aktiven Merkmalsauswahl. Artif. Intel. 159, 49–74 (2004).

Artikel MathSciNet MATH Google Scholar

Chandrashekar, G. & Sahin, F. Eine Umfrage zu Methoden zur Merkmalsauswahl. Berechnen. Elektr. Ing. 40, 16–28 (2014).

Artikel Google Scholar

Li, A.-D., Xue, B. & Zhang, M. Verbesserte binäre Partikelschwarmoptimierung für die Merkmalsauswahl mit neuen Initialisierungs- und Suchraumreduzierungsstrategien. Appl. Soft Comput. 106, 107302 (2021).

Artikel Google Scholar

Lazar, C. et al. Eine Umfrage zu Filtertechniken zur Merkmalsauswahl in der Genexpressions-Microarray-Analyse. IEEE/ACM-Trans. Berechnen. Biol. Bioinf. 9, 1106–1119 (2012).

Artikel Google Scholar

Li, Z. Ein lokaler oppositionslernender Golden-Sine-Gray-Wolf-Optimierungsalgorithmus für die Merkmalsauswahl bei der Datenklassifizierung SSRN. Appl. Soft Comput. 142, 110319 (2022).

Artikel Google Scholar

Dhiman, G. et al. Bepo: Ein neuartiger binärer Kaiserpinguin-Optimierer für die automatische Funktionsauswahl. Wissen. Syst. 211, 106560 (2021).

Artikel Google Scholar

Song, X.-F., Zhang, Y., Gong, D.-W. & Sun, X.-Y. Merkmalsauswahl mithilfe einfacher Partikelschwarmoptimierung mit gegenseitiger Information. Mustererkennung 112, 107804 (2021).

Artikel Google Scholar

Dokeroglu, T., Deniz, A. & Kiziloz, HE Eine umfassende Übersicht über aktuelle Metaheuristiken zur Merkmalsauswahl. Neurocomputing 548, 963–569 (2022).

Google Scholar

Bonabeau, E. & Meyer, C. Schwarmintelligenz: Eine völlig neue Art, über das Geschäft nachzudenken. Harv. Buss. Rev. 79, 106–115 (2001).

CAS Google Scholar

Dorigo, M., Birattari, M. & Stutzle, T. Optimierung von Ameisenkolonien. IEEE Comput. Intel. Mag. 1, 28–39 (2006).

Artikel Google Scholar

Eberhart, R. & Kennedy, J. Ein neuer Optimierer, der die Partikelschwarmtheorie verwendet. In MHS'95. Vorträge des sechsten internationalen Symposiums zu Mikromaschinen und Humanwissenschaften, 39–43 (IEEE, 1995).

Mirjalili, S., Mirjalili, SM & Lewis, A. Der Grey-Wolf-Optimierer. Adv. Ing. Softw. Rev. 69, 46–61 (2014).

Artikel Google Scholar

Karaboga, D. et al. Eine Idee basierend auf einem Honigbienenschwarm zur numerischen Optimierung. Technik. Rep., Technischer Bericht-tr06, Erciyes-Universität. Fakultät für Ingenieurwissenschaften, Computer\(\ldots \)(2005).

Mirjalili, S. & Lewis, A. Der Waloptimierungsalgorithmus. Adv. Ing. Softw. Rev. 95, 51–67 (2016).

Artikel Google Scholar

Saremi, S., Mirjalili, S. & Lewis, A. Grasshopper-Optimierungsalgorithmus: Theorie und Anwendung. Adv. Ing. Softw. 105, 30–47 (2017).

Artikel Google Scholar

Heidari, AA et al. Harris Hawks-Optimierung: Algorithmus und Anwendungen. Zukunft. Gener. Berechnen. Syst. 97, 849–872 (2019).

Artikel Google Scholar

Meng, X.-B., Gao, X. Z., Lu, L., Liu, Y. & Zhang, H. Ein neuer bioinspirierter Optimierungsalgorithmus: Vogelschwarmalgorithmus. J. Exp. Theor. Artif. Intel. 28, 673–687 (2016).

Artikel Google Scholar

Yang, X.-S. Ein neuer metaheuristischer, von Fledermäusen inspirierter Algorithmus. Von der Natur inspirierte kooperative Strategien zur Optimierung (NICSO 2010) 65–74 (2010).

Zhao, W., Wang, L. & Zhang, Z. Optimierung der Atomsuche und ihre Anwendung zur Lösung eines hydrogeologischen Parameterschätzungsproblems. Wissen. Syst. 163, 283–304 (2019).

Artikel Google Scholar

Hashim, FA, Houssein, EH, Mabrouk, MS, Al-Atabany, W. & Mirjalili, S. Henry Gaslöslichkeitsoptimierung: Ein neuartiger physikbasierter Algorithmus. Zukunft. Gener. Berechnen. Syst. 101, 646–667 (2019).

Artikel Google Scholar

Abd El-Mageed, AA, Gad, AG, Sallam, KM, Munasinghe, K. & Abohany, AA Verbesserte binäre adaptive windgetriebene Optimierungsalgorithmus-basierte Dimensionsreduktion für die überwachte Klassifizierung. Berechnen. Industrie. Ing. 167, 107904 (2022).

Artikel Google Scholar

Tarkhaneh, O., Nguyen, TT & Mazaheri, S. Eine neuartige Wrapper-basierte Methode zur Auswahl von Merkmalsteilmengen unter Verwendung eines modifizierten binären Differentialentwicklungsalgorithmus. Inf. Wissenschaft. 565, 278–305 (2021).

Artikel MathSciNet Google Scholar

Hammouri, AI, Mafarja, M., Al-Betar, MA, Awadallah, MA und Abu-Doush, I. Ein verbesserter Libellen-Algorithmus für die Merkmalsauswahl. Wissen. Syst. 203, 106131 (2020).

Artikel Google Scholar

Nguyen, BH, Xue, B. & Zhang, M. Eine Umfrage zu Schwarmintelligenz-Ansätzen zur Merkmalsauswahl im Data Mining. Schwarm-Evol. Berechnen. 54, 100663 (2020).

Artikel Google Scholar

Hussain, K., Neggaz, N., Zhu, W. & Houssein, EH Eine effiziente hybride Sinus-Cosinus-Harris-Hawks-Optimierung für die Auswahl niedrig- und hochdimensionaler Merkmale. Exp. Syst. Appl. 176, 114778 (2021).

Artikel Google Scholar

Neggaz, N., Houssein, EH & Hussain, K. Eine effiziente Optimierung der Henry-Gaslöslichkeit für die Merkmalsauswahl. Exp. Syst. Appl. 152, 113364 (2020).

Artikel Google Scholar

Yang, X.-S. Effizienzanalyse von Schwarmintelligenz und Randomisierungstechniken. J. Comput. Theor. Nanowissenschaften. 9, 189–198 (2012).

Artikel CAS Google Scholar

Pardalos, PM & Rebennack, S. Experimentelle Algorithmen: 10. Internationales Symposium, SEA 2011, Kolimpari, Chania, Kreta, Griechenland, 5.–7. Mai 2011, Proceedings, vol. 6630 (Springer, 2011).

Tubishat, M. et al. Dynamischer Salp-Schwarm-Algorithmus zur Merkmalsauswahl. Exp. Syst. Appl. 164, 113873 (2021).

Artikel Google Scholar

Mirjalili, S. & Gandomi, AH Chaotische Gravitationskonstanten für den Gravitationssuchalgorithmus. Appl. Soft Comput. 53, 407–419 (2017).

Artikel Google Scholar

Khosravi, H., Amiri, B., Yazdanjue, N. & Babaiyan, V. Ein verbesserter Gruppenunterrichtsoptimierungsalgorithmus basierend auf lokaler Suche und chaotischer Karte für die Merkmalsauswahl in hochdimensionalen Daten. Exp. Syst. Appl. 117493 (2022).

Zhang, X. et al. Gaußsche Mutation, chaotische Fruchtfliegenoptimierung und Funktionsauswahl. Exp. Syst. Appl. 141, 112976 (2020).

Artikel Google Scholar

Sayed, GI, Hassanien, AE & Azar, AT Merkmalsauswahl über einen neuartigen chaotischen Krähensuchalgorithmus. Neuronale Berechnung. Appl. 31, 171–188 (2019).

Artikel Google Scholar

Varol Altay, E. & Alatas, B. Vogelschwarmalgorithmen mit chaotischer Kartierung. Artif. Intel. Rev. 53, 1373–1414 (2020).

Artikel Google Scholar

Xue, J. & Shen, B. Ein neuartiger Ansatz zur Optimierung der Schwarmintelligenz: Sparrow-Suchalgorithmus. Syst. Wissenschaft. Kontroll-Ing. 8, 22–34 (2020).

Artikel Google Scholar

Awadallah, MA, Al-Betar, MA, Doush, IA, Makhadmeh, SN & Al-Naymat, G. Aktuelle Versionen und Anwendungen des Sparrow-Suchalgorithmus. Bogen. Berechnen. Methoden Eng. 456, 1–28 (2023).

Google Scholar

Zhang, C. & Ding, S. Ein stochastisches Konfigurationsnetzwerk basierend auf einem chaotischen Sparrow-Suchalgorithmus. Wissen. Syst. 220, 106924 (2021).

Artikel Google Scholar

Liu, G., Shu, C., Liang, Z., Peng, B. & Cheng, L. Ein modifizierter Sparrow-Suchalgorithmus mit Anwendung in der 3D-Routenplanung für UAV. Sensoren 21, 1224 (2021).

Artikel ADS CAS PubMed PubMed Central Google Scholar

Wang, P., Zhang, Y. & Yang, H. Forschung zur wirtschaftlichen Optimierung von Mikronetzclustern basierend auf dem Chaos-Sparrow-Suchalgorithmus. Berechnen. Intel. Neurosci. 2021, 369–421 (2021).

Google Scholar

Zhang, Z. & Han, Y. Diskreter Sparrow-Suchalgorithmus für das symmetrische Problem des Handlungsreisenden. Appl. Soft Comput. 118, 108469 (2022).

Artikel Google Scholar

Zhu, Y. & Yousefi, N. Optimale Parameteridentifizierung von Pemfc-Stacks mithilfe des adaptiven Sparrow-Suchalgorithmus. Int. J. Hydrogen Energy 46, 9541–9552 (2021).

Artikel CAS Google Scholar

Gao, B., Shen, W., Guan, H., Zheng, L. & Zhang, W. Forschung zu Multistrategien verbesserte den evolutionären Sparrow-Suchalgorithmus und seine Anwendung. IEEE Access 10, 62520–62534 (2022).

Artikel Google Scholar

Xue, J., Shen, B. & Pan, A. Ein intensivierter Sparrow-Suchalgorithmus zur Lösung von Optimierungsproblemen. J. Ambient Intell. Summen. Berechnen. 54, 1–17 (2022).

Google Scholar

Gad, AG, Sallam, KM, Chakrabortty, RK, Ryan, MJ & Abohany, AA Ein verbesserter binärer Sparrow-Suchalgorithmus für die Merkmalsauswahl bei der Datenklassifizierung. Neuronale Berechnung. Appl. 486, 1–49 (2022).

Google Scholar

Xin, L., Xiaodong, M., Jun, Z. & Zhen, W. Chaos-Sparrow-Suchoptimierungsalgorithmus. J. Beijing Univ. Aeronaut. Astronaut. 47, 1712–1720 (2021).

Google Scholar

Yang, X. et al. Ein neuartiger adaptiver Sparrow-Suchalgorithmus, der auf chaotischer Kartierung und T-Verteilungsmutation basiert. Appl. Wissenschaft. 11, 11192 (2021).

Artikel CAS Google Scholar

Wang, X., Hu, H., Liang, Y. & Zhou, L. Über die mathematischen Modelle und Anwendungen von schwarmintelligenten Optimierungsalgorithmen. Bogen. Berechnen. Methoden Eng. 4123, 1–28 (2022).

MathSciNet Google Scholar

Tanabe, R. & Fukunaga, AS Verbesserung der Suchleistung von Schatten durch lineare Reduzierung der Populationsgröße. Im Jahr 2014 IEEE-Kongress zum Thema Evolutionsberechnung (CEC), 1658–1665 (IEEE, 2014).

Hansen, N., Müller, SD & Koumoutsakos, P. Reduzierung der zeitlichen Komplexität der derandomisierten Evolutionsstrategie mit Kovarianzmatrixanpassung (cma-es). Entwicklung Berechnen. 11, 1–18 (2003).

Artikel PubMed Google Scholar

Tavazoei, MS & Haeri, M. Vergleich verschiedener eindimensionaler Karten als chaotisches Suchmuster in Chaosoptimierungsalgorithmen. Appl. Mathematik. Berechnen. 187, 1076–1085 (2007).

MathSciNet MATH Google Scholar

Matplotlib. https://matplotlib.org/3.5.2/index.html.

Python. https://www.python.org/downloads/release/python-3912/.

Naskar, A., Pramanik, R., Hossain, SS, Mirjalili, S. & Sarkar, R. Bergsteigen mit später Akzeptanz unterstützte die chaotische Harmoniesuche bei der Merkmalsauswahl: Eine empirische Analyse medizinischer Daten. Exp. Syst. Appl. 221, 119745 (2023).

Artikel Google Scholar

Caponetto, R., Fortuna, L., Fazzino, S. & Xibilia, MG Chaotische Sequenzen zur Verbesserung der Leistung evolutionärer Algorithmen. IEEE Trans. Entwicklung Berechnen. 7, 289–304 (2003).

Artikel Google Scholar

Sadeghian, Z., Akbari, E. & Nematzadeh, H. Eine hybride Merkmalsauswahlmethode basierend auf Informationstheorie und binärem Butterfly-Optimierungsalgorithmus. Ing. Appl. Artif. Intel. 97, 104079 (2021).

Artikel Google Scholar

Sayed, GI, Khoriba, G. & Haggag, MH Ein neuartiger chaotischer Gleichgewichtsoptimiereralgorithmus mit s-förmigen und v-förmigen Übertragungsfunktionen für die Merkmalsauswahl. J. Ambient Intell. Summen. Berechnen. 741, 1–26 (2022).

Google Scholar

Mirjalili, S. & Lewis, A. S-förmige versus v-förmige Übertragungsfunktionen für die Schwarmoptimierung binärer Teilchen. Schwarm-Evol. Berechnen. 9, 1–14 (2013).

Artikel Google Scholar

Mafarja, M. et al. Ansätze für binäre Grasshopper-Optimierungsalgorithmen für Merkmalsauswahlprobleme. Exp. Syst. Appl. 117, 267–286 (2019).

Artikel Google Scholar

Saremi, S., Mirjalili, S. & Lewis, A. Biogeographiebasierte Optimierung mit Chaos. Neuronale Berechnung. Appl. 25, 1077–1097 (2014).

Artikel Google Scholar

Yang, X.-S. Von der Natur inspirierte Optimierungsalgorithmen (Academic Press, 2020).

Gao, Y., Zhou, Y. & Luo, Q. Ein effizienter binärer Gleichgewichtsoptimiereralgorithmus für die Merkmalsauswahl. IEEE Access 8, 140936–140963 (2020).

Artikel Google Scholar

Frank, A. Uci-Repository für maschinelles Lernen. https://archive.ics.uci.edu/ml (2010).

Mafarja, M. & Mirjalili, S. Whale-Optimierungsansätze für die Auswahl von Wrapper-Features. Appl. Soft Comput. 62, 441–453 (2018).

Artikel Google Scholar

Demšar, J. Statistische Vergleiche von Klassifikatoren über mehrere Datensätze. J. Mach. Lernen. Res. 7, 1–30 (2006).

MathSciNet MATH Google Scholar

Fister, I., Brest, J., Iglesias, A., Galvez, A. & Deb, S. Zur Auswahl eines Benchmarks durch Bestimmung der Qualitäten der Algorithmen. IEEE Access 9, 51166–51178 (2021).

Artikel Google Scholar

Carrasco, J., García, S., Rueda, M., Das, S. & Herrera, F. Aktuelle Trends bei der Verwendung statistischer Tests zum Vergleich von Schwarm- und Evolutionscomputeralgorithmen: Praktische Richtlinien und eine kritische Überprüfung. Schwarm-Evol. Berechnen. 54, 100665 (2020).

Artikel Google Scholar

Friedman, M. Ein Vergleich alternativer Signifikanztests für das Problem der m-Rankings. Ann. Mathematik. Stat. 11, 86–92 (1940).

Artikel MathSciNet MATH Google Scholar

Iman, RL & Davenport, JM Annäherungen an den kritischen Bereich der Fbietkan-Statistik. Komm. Stat. Theory Methods 9, 571–595 (1980).

Artikel MATH Google Scholar

Olorunda, O. & Engelbrecht, AP Messung der Exploration/Ausbeutung in Partikelschwärmen mithilfe der Schwarmvielfalt. Im Jahr 2008 IEEE-Kongress zum Thema Evolutionsberechnung (IEEE-Weltkongress zu Computational Intelligence), 1128–1134 (IEEE, 2008).

Mafarja, M. et al. Evolutionäre Populationsdynamik und Heuschreckenoptimierungsansätze für Merkmalsauswahlprobleme. Wissen. Syst. 145, 25–45 (2018).

Artikel Google Scholar

Taradeh, M. et al. Eine auf der evolutionären Gravitationssuche basierende Merkmalsauswahl. Inf. Wissenschaft. 497, 219–239 (2019).

Artikel Google Scholar

Zhong, C., Li, G., Meng, Z., Li, H. & He, W. Ein selbstadaptiver Quantengleichgewichtsoptimierer mit künstlichem Bienenvolk zur Merkmalsauswahl. Berechnen. Biol. Med. 528, 106520 (2023).

Artikel Google Scholar

Alzaqebah, A., Al-Kadi, O. & Aljarah, I. Ein verbesserter Harris-Hawk-Optimierer, der auf einer extrem lernenden Maschine für die Funktionsauswahl basiert. Progr. Artif. Intel. 638, 1–21 (2023).

Google Scholar

de Souza, RCT, de Macedo, CA, dos Santos Coelho, L., Pierezan, J. & Mariani, VC Binärer Kojoten-Optimierungsalgorithmus für die Merkmalsauswahl. Mustererkennung. 107, 107470 (2020).

Artikel Google Scholar

Abualigah, L. & Diabat, A. Chaotischer Binärgruppen-Suchoptimierer für die Feature-Auswahl. Exp. Syst. Appl. 192, 116368 (2022).

Artikel Google Scholar

Alrasheedi, AF, Alnowibet, KA, Saxena, A., Sallam, KM & Mohamed, AW Chaos Embed Marine Predator (CMPA)-Algorithmus zur Merkmalsauswahl. Mathematik 10, 1411 (2022).

Artikel Google Scholar

Python. https://www.python.org/downloads/release/python-397/.

Referenzen herunterladen

Diese Forschung wurde vom High Performance Computing Center der Hebei University of Architecture, Zhangjiakou, China, unterstützt. Wir danken ihnen für die notwendigen instrumentellen Einrichtungen und Unterstützung bei hochdimensionalen Datenexperimenten.

Diese Arbeit wurde teilweise vom Wissenschafts- und Technologieprojekt der Bildungsabteilung von Hebei unter der Fördernummer ZD2021040 unterstützt.

Fakultät für Mathematik und Physik, Hebei University of Architecture, Zhangjiakou, 075000, China

LiYun Jia & Tao Wang

Fakultät für Computer und Information, Kafrelsheikh-Universität, Kafrelsheikh, 33516, Ägypten

Ahmed G. Gad

Hochschule für Informatik und Informationstechnologie, Arabische Akademie für Wissenschaft, Technologie und Seeverkehr (AASTMT), Kairo, Ägypten

Ahmed Salem

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

TW und AGG konzipierten die Studie, implementierten das Modell und analysierten und interpretierten die Ergebnisse. TW hat den Hauptmanuskripttext geschrieben. LJ, AS und AGG überprüften und überarbeiteten das Manuskript. LJ leistete finanzielle Unterstützung. Alle Autoren stimmten dem endgültigen Manuskript zu.

Korrespondenz mit Ahmed G. Gad.

Die Autoren geben an, dass keine Interessenkonflikte bestehen.

Springer Nature bleibt neutral hinsichtlich der Zuständigkeitsansprüche in veröffentlichten Karten und institutionellen Zugehörigkeiten.

Open Access Dieser Artikel ist unter einer Creative Commons Attribution 4.0 International License lizenziert, die die Nutzung, Weitergabe, Anpassung, Verbreitung und Reproduktion in jedem Medium oder Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle angemessen angeben. Geben Sie einen Link zur Creative Commons-Lizenz an und geben Sie an, ob Änderungen vorgenommen wurden. Die Bilder oder anderes Material Dritter in diesem Artikel sind in der Creative-Commons-Lizenz des Artikels enthalten, sofern in der Quellenangabe für das Material nichts anderes angegeben ist. Wenn Material nicht in der Creative-Commons-Lizenz des Artikels enthalten ist und Ihre beabsichtigte Nutzung nicht durch gesetzliche Vorschriften zulässig ist oder über die zulässige Nutzung hinausgeht, müssen Sie die Genehmigung direkt vom Urheberrechtsinhaber einholen. Um eine Kopie dieser Lizenz anzuzeigen, besuchen Sie http://creativecommons.org/licenses/by/4.0/.

Nachdrucke und Genehmigungen

Jia, L., Wang, T., Gad, AG et al. Ein chaotischer Sparrow-Suchalgorithmus mit gewichteter Summe für die interdisziplinäre Merkmalsauswahl und Datenklassifizierung. Sci Rep 13, 14061 (2023). https://doi.org/10.1038/s41598-023-38252-0

Zitat herunterladen

Eingegangen: 25. Februar 2023

Angenommen: 05. Juli 2023

Veröffentlicht: 28. August 2023

DOI: https://doi.org/10.1038/s41598-023-38252-0

Jeder, mit dem Sie den folgenden Link teilen, kann diesen Inhalt lesen:

Leider ist für diesen Artikel derzeit kein Link zum Teilen verfügbar.

Bereitgestellt von der Content-Sharing-Initiative Springer Nature SharedIt

Durch das Absenden eines Kommentars erklären Sie sich damit einverstanden, unsere Nutzungsbedingungen und Community-Richtlinien einzuhalten. Wenn Sie etwas als missbräuchlich empfinden oder etwas nicht unseren Bedingungen oder Richtlinien entspricht, kennzeichnen Sie es bitte als unangemessen.