Neuronale Netze

Terminus aus der künstlichen Intelligenz. Wie jede Datenverarbeitung akzeptieren neuronale Netze verschiedene Eingabewerte (Inputs), unterwerfen diese bestimmten mathematischen Operationen und geben einen oder mehrere Ausgabewerte (Outputs) zurück. Da diese Ausgabewerte ständig mit den tatsächlichen Zielwerten verglichen werden, sind neuronale Netze lernfähig.

Ein neuronales Netz besteht in Grundzügen aus drei Schichten (siehe Abb.):

  • Neuronales NetzEiner Inputschicht (grün in Abb.), die dem neuronalen Netz die zu verwendenden (techn.) Daten vorgibt.
  • Einer Hiddenschicht („verdeckte Schicht“) (gelb in Abb.), dem Kern jedes neuronalen Netzes. Hier werden die Daten verarbeitet und analysiert.
  • Eine Outputschicht (rot in Abb.), die, wie der Name schon sagt, das Ergebnis ausgibt.Das ist im Regelfall ein oszillierender Wert zwischen -1 und 1.

Weitere denkbare Schichten (wie z. B. Reduktionsschichten) werden hier der Einfachheit halber weggelassen. Die eingesetzten neuronalen Netze werden ständig weiterentwickelt und optimiert, um evtl. Verbesserungen und neue Erkenntnisse sofort zu nutzen.

Ein neuronales Netz ist in der Lage, komplexeste Zusammenhänge einer Aufgabenstellung selbständig zu erlernen. Der Lernprozess ist dabei auf die (technischen) Daten beschränkt, welche dem neuronalem Netz vorgegeben werden. Das neuronale Netz benötigt kein Vorwissen, was den Vorteil hat, dass emotionale Aspekte des Handelnden (Wünsche, Vorurteile…) nicht berücksichtigt werden, aber z. B. das Marktsentiment durchaus erfasst werden kann.

Der entscheidende Unterschied zwischen herkömmlichen Handelssystemen und neuronalen Netz besteht darin, dass bei einem herkömmlichen System eine oder mehrere Handelsregel(n) fest vorgegeben werden, und diese dann evtl. optimiert werden.

Bei einem neuronalen Netz gibt man keine feste Regel vor, das neuronale Netz sucht selbst nach der optimalen Regel. Dies kann das neuronale Netz aufgrund der Fähigkeit der Muster- oder Strukturerkennung. Dabei ist die Hiddenschicht der Kern des neuronalen Netzes, denn in dieser Schicht wird die eigentliche Arbeit gemacht, aus den verschiedenen Inputs einen sinnvollen Output zu erstellen.

Allerdings hat der Einsatz von NN auch seine Schwierigkeiten: Ein neuronales Netz kann nur gute Prognosen abgeben, wenn die Inputdaten das auch zulassen bzw. in den Daten eine wahrscheinliche Entwicklung ablesbar ist.

Außerdem besteht immer die Gefahr des „overfitting“, eines „Übertrainierens“ des neuronalen Netzes. Dieses Problem kann durch die Architektur des neuronalen Netzes entstehen. Ist diese zu mächtig oder schlecht dimensioniert (z. B. zuviel Hiddenunits im Verhältnis zu den Inputs), lernt das neuronale Netz nicht das Prinzip dahinter, sondern einfach das Wissen auswendig. Im Trainingszeitraum werden dann hervorragende Ergebnisse erzielt, aber bei der Kontrolle des neuronalen Netz mit unbekannten Daten bricht dann die Prognosequalität ein. In diesem Zusammenhang wird immer die „Generalisierung“ genannt, also möglichst allgemeingültige Regeln finden, die eine zukünftige Prognose des Basiswertes erlauben.

Neuronale Netze sind keine Wundermittel, und schon gar kein 100% System, was es unter realistischen Bedingungen auch nicht geben kann. Im übrigen ist die weit verbreitete Meinung, Trefferquote sei gleich Systemqualität, nicht haltbar. Tatsächlich ist die Trefferquote nur ein Kriterium unter vielen, welches isoliert betrachtet wenig über die tatsächliche Performance aussagt.

Bewerte diesen Artikel
1 Stern2 Sterne3 Stars4 Sterne5 Sterne


Bis jetzt keine Bewertung
Loading...