Hamed Hosseinzadeh*
In diesem Artikel wird eine umfassende Leistungsanalyse von Back-Propagation-Künstlichen Neuronalen Netzwerken (BP-ANNs) unter Verwendung verschiedener Aktivierungsfunktionen durchgeführt. Aktivierungsfunktionen spielen eine entscheidende Rolle bei der Gestaltung des Verhaltens und der Lernfähigkeit neuronaler Netzwerke. Durch systematische Auswertung über verschiedene Netzwerkgrößen (Anzahl der verborgenen Schichten und Neuronen) hinweg untersucht diese Studie die Auswirkungen häufig verwendeter Aktivierungsfunktionen – wie Sigmoidal, Tanh, Clog-Log, Aranda und andere – auf die Konvergenzgeschwindigkeit und Genauigkeit von BP-ANNs. Die Ergebnisse liefern empirische Erkenntnisse, die für die Optimierung von Architekturen neuronaler künstlicher Intelligenz für bestimmte Anwendungen und Datensätze unerlässlich sind.