Abstrakt

Falsche Positivmeldungen über die Entstehung von KI-Robotern

Abdullah Al Zakwani

Stellen Sie sich vor, Sie sitzen in einem autonomen Auto und sind auf die Richtungsweisung durch intelligente Verkehrssignale angewiesen. Bei 200 km/h wird Ihnen klar, dass der eigentliche Lernmechanismus von Falschmeldungen gesteuert wird und die tatsächlichen Entscheidungen Ihrer KI-Roboter zufällig sind. Der Mensch hat sich immer mit Angst vor dem entwickelt, was er schafft. Im sozialen Leben, seit der Erfindung des Rades bis hin zum modernen Computer, fürchten die Menschen immer, dass die Maschine uns alle Jobs wegnimmt. Wir vergessen immer, dass diese Technologien uns Zeit geben, uns besser mit Dingen zu beschäftigen, die wichtiger sind, wie unserer Gesundheit und unserem Komfort. Derzeit fällt der Boom der KI in dieselbe Kategorie: positiv als Plattform für Chancen und negativ, dass „SIE DIE WELT ÜBERNEHMEN WERDEN“, nicht nur unsere Jobs. Abgesehen von der Angst muss man nicht darauf achten, Roboter intelligent zu machen „und die Welt zu übernehmen“, sondern vor allem auf die Entwicklung von Informationen und Fähigkeiten der Macher. Die Minimierung von Falschmeldungen und erzwungenen Lernraten von KI-Algorithmen muss eindeutig eliminiert werden, während der richtige (vielleicht beste) Algorithmus gefördert werden muss, der von wirklich fähigen Datenwissenschaftlern entwickelt wird, die in der Lage sind, die von ihnen implementierten Konzepte zu lesen und zu verstehen. Es besteht Bedarf für ein Projekt wie die Kristel Clear Engine und ihre Unterstützung zur Fokussierung auf das aufkommende Problem von falsch-positiven Ergebnissen und emotionaler Intelligenz und deren Zusammenhang.

Haftungsausschluss: Dieser Abstract wurde mit Hilfe von Künstlicher Intelligenz übersetzt und wurde noch nicht überprüft oder verifiziert.