Abstrakt

Leistungsanalyse von Backpropagation-Künstlichen Neuronalen Netzwerken mit verschiedenen Aktivierungsfunktionen und Netzwerkgrößen

Hamed Hosseinzadeh*

In diesem Artikel wird eine umfassende Leistungsanalyse von Back-Propagation-Künstlichen Neuronalen Netzwerken (BP-ANNs) unter Verwendung verschiedener Aktivierungsfunktionen durchgeführt. Aktivierungsfunktionen spielen eine entscheidende Rolle bei der Gestaltung des Verhaltens und der Lernfähigkeit neuronaler Netzwerke. Durch systematische Auswertung über verschiedene Netzwerkgrößen (Anzahl der verborgenen Schichten und Neuronen) hinweg untersucht diese Studie die Auswirkungen häufig verwendeter Aktivierungsfunktionen – wie Sigmoidal, Tanh, Clog-Log, Aranda und andere – auf die Konvergenzgeschwindigkeit und Genauigkeit von BP-ANNs. Die Ergebnisse liefern empirische Erkenntnisse, die für die Optimierung von Architekturen neuronaler künstlicher Intelligenz für bestimmte Anwendungen und Datensätze unerlässlich sind.

Haftungsausschluss: Dieser Abstract wurde mit Hilfe von Künstlicher Intelligenz übersetzt und wurde noch nicht überprüft oder verifiziert.