Algorithmus-Prognosen für Finanzmärkte

Aktiencheck. Im Aktiencheck von I Know First sehen wir uns täglich die tatsächliche Entwicklung von Aktienkursen im Verhältnis zur Prognose des I Know First.

Auch Probleme wie Oszillationen können hervorgerufen oder vermieden werden. Einen anderen Ansatzpunkt bildet die Fehlerfunktion, die durch eine nichtlineare Fehlerfunktion ersetzt werden kann, so dass auftretende Fehler überproportional bestraft werden.

Aktiencheck

Aktiencheck. Im Aktiencheck von I Know First sehen wir uns täglich die tatsächliche Entwicklung von Aktienkursen im Verhältnis zur Prognose des I Know First.

Beide Indikatoren sollten sich im nächsten Quartal verbessern und somit auch den Aktienkurs wieder stärker anschieben. Under Armour sponsort wichtige Spieler in verschiedensten Sportarten. Dieses Quartal dürfte durch die Erfolge der gesponsorten Stars beflügelt werden.

Die international steigende Beliebtheit der Marke dürfte den Absatz weiter erhöhen. Analysten erwarten weiterhin Zuwachszahlen für Under Armour. Der Algorithmus greift auf eine Datenbank mit über Finanzwerten und deren Kursentwicklungen der letzten 15 Jahre zu.

Der Algorithmus gibt zwei Werte aus. Für den Zeitraum über 3 Monate, bis zum 9. Juni hat der Algorithmus bullishe Signale für Under Armour errechnet. May und die Performance über den Prognosezeitraum von einem Jahr.

Falls Sie Interesse an unseren Prognosen oder Fragen zum Algorithmus haben kontaktieren Sie uns gerne unter support iknowfirst. Top 10 Aktien Prognosezeitraum: Teslas Verluste sind im letzten Quartal auf Grund von steigenden Investitionen gewachsen. Tesla plant mindestens genauso viele Fahrzeuge im gerade begonnen Quartal abzusetzten. Weit bedeutender wird der Absatz von Um dieses Ziel zu erreichen muss jedoch das Model X pünktlich im 3.

Quartal vom Band rollen. Während pessimistische Analysten die gestiegenen Kosten Teslas nennen, sind Investitionen in Produktionsstätten für das Model X erhebliche Ursache dafür. Musk deutete auf einen Verkaufsstart des Model X im 4. Quartal hin, als er andeutete das sich dann die Produktionszahlen verdoppeln würden.

Desweiteren kündigte er die Präsentation des Models 3 für März nächsten Jahres an bevor dieses dann verkauft werden soll. Diese Ankündigung erregte jedoch nicht weiter aufsehen. Musk addressierte dieses Problem. Er kündigt an das der Cash Flow im 4. Quartal positiv sein wird. Schlüsselrolle wird dabei der Verkauf des Model X übernehmen. Selbst wenn bis Ende des 1. Quartals kein positiver Cash Flow erreicht werden sollte, können die Wachstumspläne durch die Verkäufe weiterer Aktien und Bonds finanziert werden, bis das Model X vom Band läuft.

Dieses neue Geschäftsfeld läuft hervorragend für Tesla. Auf der rechten Seite sehen Sie wie sich die Werte in den folgenden 3 Monaten entwickelt haben. Performance der IKF Algorithmusprognose vom 1. Tesla hatte das drittstärkste Signal in dieser Prognose ,41 und einen Berechenbarkeitswert von 0, Für den Zeitraum über 14 Tage, bis zum Die nachfolgenden Masken sind nicht mehr aktuell, da zugunsten von H2o die internen Funktionen zurückgebaut worden sind.

Es muss hier dann lediglich das Neuronale Netz ausgewählt werden und die Berechnung mit Starten begonnen werden. Die Berechnung erfolgt im Hintergrund über Threads und das Ergebnis wird bei Fertigstellung wie hier zu sehen gezeigt. Als Basisinformationen sind neben der Stopspalte hierzu der Prognosewert und eine Auswertungsspalte inkl.

Sie bekommen somit eine Möglichkeit übersichtlich und schnell die Prognosewerte darzustellen und mit einem Blick statistisch in Ihrer Prognosequalität einzuordnen. Der einfache Vergleich zwischen heutiger Tagesentwicklung und der vorhergesagten fokusiert nun auf die letzte Qualitätsbeurteilung hilft eigentlich nicht weiter.

Aus diesem Grunde stehen zum einen die Korrelationsanalyse für die Bewertung der Qualität in der Prognoserichtung und -höhe, als auch die Bewertung der Wegstrecke für die Einordnung der gesamten Vorhersagequalität der Kursrichtung zur Verfügung. Informationseinheiten der Prognoseauswertung Als Informationblock finden sich hier im Uhrzeigersinn links oben beginnend:.

Bei der Modellierung des Netzes wäre es möglich gewesen, auf bereits vorhandene Entwicklungsumgebungen für Neuronale Kursprognose-Netze zurückzugreifen. Da weitestgehend auf eine Eigenentwicklung zurückgegriffen wurde, soll das 5. Kapitel zur Darstellung des entwickelten Modells genutzt werden.

Der Anwender ist in der Wahl der Netz-Struktur eingeschränkt, da ein Feedforward- Netzwerk mit kontinuierlichen unbeschränkten Aktivierungszuständen und einem Ausgabeneuron erwartet wird. Die Setzung des Verbindungsnetzwerkes ist hingegen frei.

Die Darstellung erfolgt in Matrixschreibweise komplette Strukturansicht. Die Beschriftungen sind entsprechend der verbundenen Zellen farblich strukturiert.

Ausgabeneuronen haben die Farbe rot, Eingabeneuronen die Farbe grün. Einstellung für ein Neuron. Da jedes Neuron, als kleinste Einheit eines Neuronalen Kursprognose-Netzes, spezifische Attribute aufweist, werden diese in einem eigenen Formular erfasst. Einstellbar sind hierbei jedoch nur die verwendete Position Schicht , Verwendung eines Schwellwertes, Aktivierungsfunktion und der Name des Neurons.

Eingabeneuronen können aus diesem Formular nur theoretisch ergänzt werden, da praktisch die Möglichkeit zur Zuordnung von Eingabedaten Indikatorenwerte usw. Die möglichen Indikatoren sind hier in einem Katalog, entsprechend der Clusterzugehörigkeit bzw.

Im Programm können die selben Indikatoren mehrfach genutzt werden, wenn diese in unterschiedlichen Indikatorengruppen organisiert sind. Sinn der Indikatorengruppen ist die Gruppierung der Indikatoren nach zeitlichen Aspekten. Hierzu werden die Parameter jedes Indikators separat gespeichert und können vom Chartmodul aus verändert werden. Sehr zeitaufwendig gestaltet sich die Datenvorverarbeitung. Um die Übersicht zu bewahren, werden die Indikatoren grafisch aufbereitet in einem Diagramm dargestellt.

Für die Datenvorverarbeitung gibt es vom Anwender folgende Einstellungsmöglichkeiten:. Während der Datenvorverarbeitung werden im Einzelschrittmodus die erzeugten Daten im Chart dargestellt.

Der Fortschritt wird mit Unterstützung der Aufbau-Grafik angezeigt. Die Validierungs- und Generalisierungsmenge werden zum Test der Prognosegüte herangezogen und im Rahmen der Fehlerrückberechnung nicht verwendet. Ein chronologische Reihenfolge der Validierungs- und Trainingsmenge wird zugunsten einer zufallsgesteuerten Reihenfolge verworfen. Die Speicherung der nicht linearen Reihenfolge muss für die Vergleichbarkeit der Ergebnisse, nach Neustarts des Trainings, bereits während der Datenvorverarbeitung erfolgen.

Die einseitige Anpassung der Gewichte in starken Trendphasen kann durch die zufällige Streuung ebenso vermieden werden. Dadurch, dass nur jedes 6. Beispiel für die Validierungsmenge verwendet und aus der Trainingsdatenmenge herausgenommen wird, wird vermieden in die Analyse unbeabsichtigt einen eventuell vorhandenen statistischen Zusammenhang zum Wochentag der Kursentwicklung hineinzunehmen. Wird zum Beispiel eine Auftrennung jedes 5.

Beispiels zur Anwendung kommen, so würde die Validierungsmenge nur aus Testdaten eines Wochentages bestehen. Beginnt die Analyse damit an einem Montag, sind alle Testdaten vom Montag. Der Wochentag der Validierungstestmuster verschiebt sich um genau einen Tag nach vorne bei Nutzung eines 6. Korrelationsanalyse Im Rahmen der statistischen Vorauswahl kann auch eine Korrelationsanalyse auf Redundanzen der Inputzeitreihen durchgeführt werden.

Inputreihen der selben Clustergruppe, die Korrelationen über 0. Diese Vorauswahl ist allerdings problematisch, da nach der Feststellung einer hohen Korrelation die Entscheidung auf eine der Kursreihen vom Anwender getroffen wird und hierbei eine Fehlerfunktion des Netzes überhaupt nicht zur Beachtung kommen kann.

Eine Netzausdünnung im Verlauf der Lernphase ist wesentlich intelligenter; auch wenn der Rechenaufwand vor allem in den ersten Evolutionsstufen sehr hoch sein kann. Den Anwender interessiert vor allem die Bereitstellung der Indikatorendaten.

Dies baut auf mehrere Einzelschritte auf. Am Anfang aller Berechnungen steht die Berechnung der eigentlichen Indikatorwerte. Erst dann werden mit Hilfe dieser Daten entsprechende zusätzliche Informationen extrahiert wie die Zonenlage-, Divergenzen-, Kauf- und Verkaufsignale.

Die Normalisierungswerte fassen keine Zusatzinformationen gegenüber den ursprünglichen Indikatorwerten. Sie enthalten allein die für das Netz benötigte transformierte normalisierte Datenmenge. Zweck der Datennormalisierung ist es, eine möglichst gleichförmige statistische Verteilung der Werte für jeden Nerzwerkinput und -output zu erreichen.

Auch sollten die Werte so skaliert werden, dass sie in den Wirkungsbereich der Inputneuronen fallen. Die liegen entsprechend der gewählten Aktivierungsfunktionen in einer Spanne von 0 bis 1 Log oder -1 bis 1 TanH. Für das überwachte Lernen sind neben den Inputdaten, die Kursprognosezielwerte bereitzustellen.

Das Lernverfahren erhält somit qualitative Fehler- Angaben durch den Vergleich der aktuellen Netzausgabe mit dem erwarteten Wert. In den Kursdaten ist ein sehr hoher Rauschanteil vorhanden, der so vom Netz durch die vielen kurzfristigen hohen Ausschläge Tagesschwankungen nicht nachgebildet werden soll.

Nachzubilden ist allein die deterministische Komponente in den Kursdaten. Die Zielwerte der Kursprognose werden kurzfristig geglättet mit einem 3-Tages- Durchschnitt. Neben der Glättung werden die Daten nach der Berechnung per Zufall gespeichert. Der Typ der Netzinitialisierung ist nicht verhandelbar und wird vorgegeben. Dieses kann auch automatisch nach jedem Trainingsvorgang erzeugt werden und umfasst die Netztopologie, Trainingseinstellungen und die Testergebnisse.

Bitte lesen Sie die Bedeutungen der Einzelbegriffe in den theoretischen Betrachtungen auf dieser Seite weiter unten nach! Wenn die Topologie, die Datenvorbereitung und die Festlegungen für die Trainingseinstellungen abgeschlossen worden sein, kann das eigentliche Training des Neuronalen Netzes erfolgen. Das Training wird über den Button "Netztraining" gestartet. Das Lernen des Netzes verläuft eigenständig ohne Eingriff des Anwenders, wenn nicht der Einzelschrittmodus aktiviert wird.

Die Überwachung des Fortschrittes ist jederzeit mit Auswertung der Testergebnisse möglich. Neben der Teststrategie sind die dynamischen Bereiche des Neuronalen Kursprognose-Netzes in einem Histogramm dargestellt. In diesem sind die Schwellwerte und die Verbindungsgewichte fortlaufend abzulesen. Neben dem Lernprozess des Neuronalen Kursprognose-Netzes hat auch die bisher noch wenig beachtete Teststrategie eine bedeutende Rolle für den Erfolg eines Kursprognosesystems.

Die möglichen zum objektiven Test des Neuronalen Netzwerkes zu nutzenden Strategien stammen dabei zumeist aus der Statistik. Nachfolgend werden einige Varianten beschrieben ohne Anspruch auf Vollständigkeit. Bei der Veranschaulichung bleibt es bei der bisher genutzten Variabelenzuordnung von ti für den Erwartungswert Teaching Value des Musters i und von oi für die tatsächliche Ausprägung für das Muster i. Die Betrachtung erfolgt dabei für n-Beobachtungszeitpunkte.

Die Suche nach redundanten Informationen in den Eingabedaten gestaltat sich sehr einfach mit entsprechenden Korrelationsanalysen. Hierzu ist unter dem gleichnamigen Reiter die Analyse der Abhängigkeiten von normalisierten Indikatorwerten und auch der Signalmuster möglich.

Die Auswertung erfolgt auf Basis eines Indikators zu einem anderen Indikator oder auch spezifisch von einem Indikator zu allen anderen bereits verwendeten Indikatoren des Netzes. Das Weight-Prunning konzentriert sich allein auf die Ausdünnung von Verbindungen, die nur wenig zur Netzeingabe der verbundenen Neuronen beitragen durch ihr geringes Verbindungsgewicht.

Die Sortierung der Verbindungsgewichte erfolgt entsprechend der Verbindungsgewichte. Wird die Netzausdünnung systematisch eingesetzt, führt dies zwangsläufig zu einem Wechselspiel zwischen Netzausdünnung und Training bis ein offensichtlicher Gleichgewichtszustand erreicht wird.

Diese Methoden sind nicht integraler Bestandteil des Algorithmus, sondern kommen während Lernunterbrechnungsphasen zum Einsatz. Als Folge der Verwendung der Optimierungsverfahren wird die Zahl der Inputneuronen als Maximalmalbeschreibung vorgegeben. Zahl, Anordnung und Verbindungsgefüge der Neuronen, zu beantworten. Ausgehend von einer Maximaltopologie Hidden, Inputneuronen und deren Verbindungen wird in Richtung der Modellverbesserung modifiziert.

Die Anwendung der drei Grundverfahren erfolgt in der hier vorgestellten Reihenfolge. Als Folge wird eine generelle Reduktion der Freiheitsgerade innerhalb des Netzwerkes sowie eine Minderung der Anzahl der benötigten Trainingsdatensätze für das Netztraining erreicht.

Problematisch bleibt aber die Wahl der Zeitpunkte für die Netzausdünnung. Eine mögliche Variante wäre eine Kreuzvalidierungsmethode der Trainings- und Validierungsdatensätze. Die Prüfung erfolgt auf Basis der errechneten Netzfehler. Ablaufsequenz zwischen Training und Optimierung. Während der Trainingsphase haben sich folgende Methoden für die Netzwerkoptimierung als sehr nützlich erwiesen und sind entsprechend im praktischen Modell umgesetzt:.

Im Programm kann mehr als ein Netz verwaltet werden. Ist ein neues Netz erstellt, beginnt der Anwender mit der Basisstruktur eines Feedforward -Netzwerkes 0,6,3,1. Die Strukturfestlegung erfolgt über ein Texteingabefeld im unteren rechten Bildbereich. Durch Komma getrennt, wird die Anzahl der Neuronen in der chronologisch zugehörigen Schicht festgelegt. Der nachfolgende Text dient nur der theoretischen Darstellung. Basis der Arbeit ist meine damalige Diplomarbeit gewesen.

Die Texte sind entsprechend hieraus entnommen, aber teilweise gekürzt! Neuronale Netzwerke entstanden aus Versuchen, das Verhalten von lebenden Nervengeweben am Computer mit simulierten Neuronen und Synapsen Nervenverbindungen nachzuahmen. Das Ziel ist, die Art der Informationsverarbeitung und Beschlussfassung von Lebewesen zu modellieren. Neuronalnetzwerke existieren in einer Vielzahl von Architekturen.

Die Architektur ist die besondere Art, in der die simulierten Neuronen untereinander verbunden sind, sowie ihr internes Verhalten, d. Die künstlichen Neuro-Netze stellen stark schematisierte informationstechnische Modelle des Gehirns dar. Dessen Nervenzellen werden durch Speicherzellen Neuronen repräsentiert.

In vager Anlehnung zu natürlichen kognitiven Prozessen besitzen NNs eine gewisse Lernfähigkeit und lassen die Abbildung nichtlinearer Beziehungen zu. Wegen dieser Eigenschaft auch chaotische oder fraktale Zeitreihen abzubilden und vorhersagen zu können, verkörpern Neuronale Kursprognose-Netze ein leistungsstarkes Werkzeug in der Hand des Anwenders.

Das Neuronale Kursprognose-Netz wird dabei nicht programmiert, sondern mit den Vergangenheitsdaten trainiert. Während der Trainingsphase verändern sich die Neuronenverbindungen so lange, bis das NN die Zusammenhänge der Einflussfaktoren, deren Gewichtung sowie interne Strukturen der Zeitreihen über ein nichtlineares mathematische Gleichungssystem ziemlich genau nachvollziehen kann.

Diese Lernfähigkeit und die Fähigkeit auch mit verrauschten Daten umgehen zu können, machen sie für den Anwendungsbereich der Finanzprognose interessant. Neuronale Kursprognose-Netze gehören zu den adaptiven Systemen innerhalb der Analyseverfahren, neben den genetischen Algorithmen und der Chaostheorie. Es erfolgt die Simulation von Lernprozessen am Markt.

Sie leiten kontinuierlich und adaptiv aus den Daten der Vergangenheit ein Erklärungsmuster ab. Zellen eines künstlichen Neuronalen Prognose-Netzwerkes sind stark idealisierte Neuronen. Diese Synapsen haben dabei hemmende oder verstärkende Wirkung. Programmiertechnisch werden die Synapsen als Verbindungsgewicht dargestellt. Aktivierungszustand 'aj t ' , welcher den Aktivierungsgrad des Neurons beschreibt. Die Funktion hat als Parameter die alte Aktivierung aj t , die Netzeingabe netj t sowie den Schwellwert, ab dem das Neuron überhaupt feuert.

Die Aktivierungsfunktion beeinflusst dabei wesentlich die Performance und die Eigenschaften des Netzes.

In der Regel wird zwischen folgenden Aktivierungsfunktionen unterschieden:. Neuronen mit sigmoider Aktivierungsfunktion gehen nicht wie die Schwellwertfunktion plötzlich von Ruhe zu voller Aktivität über, wenn die Gesamteingabe die Schwelle überschreitet, sondern nur allmählich. Ebenso populär ist die Tangens Hyperbolicus Funktion. Die Funktion ist ebenso sigmoid, stetig, differenzierbar. Daneben gibt es auch die Lineare Funktion, Sinusfunktion usw.

Diese spielen in der Praxis aber kaum eine Rolle oder können mathematisch aufgelöst werden Lineare Funktionen. Bei der Klassifizierung der Aktivierungsfunktionen ist es zudem üblich zwischen einer deterministischen fact wird eindeutig durch die Eingabe bestimmt und einer stochastischen Aktivierungsfunktion fact ist durch eine Zufallsverteilung abhängig von der Eingabe zu unterscheiden.

Die Aktivierungsfunktion nutzt im Normalfall einen Schwellwert Bias. Wird der Schwellwert nicht überschritten, ruht das Neuron Ruhezustand. Die übliche Spezialisierung der allgemeinen Formel unter Berücksichtigung des Schwellwertes ergibt mathematisch: Mit den bereits festgelegten Zielen und Eingabedaten ist an dieser Stelle eine genauere Festlegung der Zellstruktur durchzuführen:.

Für die praktische Umsetzung ist aus Testzwecken eine Manipulation sowohl der Aktivierungsfunktion wie auch Schwellwerte denkbar für jedes Neuron. Eine Neuronale Kursprognose kann erst entstehen, wenn die Neuronen untereinander über gewichtete Verbindungen verbunden sind. Diese Verbindungen sind dabei nicht nur gewichtet hemmend oder verstärkend , sondern auch gerichtet. Somit lässt sich technisch eine Matrixschreibweise für die Darstellung der numerischen Verbindungsgewichte nutzen.

Die Verbindungen werden vorwärtsgerichtet vom Neuron zum Neuron dargestellt. Die Propagierungsfunktion netj t , definiert die Netzeingabe für ein Neuron, womit die Ausgaben der anderen Neuronen und den Verbindungsgewichten berücksichtigt werden.

Diese Netzeingabe berechnet sich im Normalfall als Summe der Ausgabe oi t der Vorgängerzellen multipliziert mit dem jeweiligen Gewicht wij der Verbindung der Zelle i nach der Zelle j. Das Neuronale Kursprognose-Netz muss lernen, für eine vorgegebene Eingabe eine gewünschte Ausgabe zu produzieren. Hierzu wird ein Algorithmus benötigt, der dann als Lernregel verstanden werden kann.

Dabei wird versucht, den Fehler zwischen Erwartung und Ergebnis durch das Netz zu minimieren auf Basis von Trainingsmustern. Die Lernregeln sind programmiertechnisch das Komplexeste an einem NN und werden in einem eigenen Abschnitt behandelt. Damit ist dann eine Klassifikation der Zellen anhand ihrer Position im Netzwerk möglich. Grob wird dabei fast immer zwischen der Eingabeschicht Neuronen mit den Eingabedaten für das Netz zum Training oder Auswerten , Versteckten Schicht hidden layer und der Ausgabeschicht output layer unterschieden.

Ein Netz wird dabei als n-stufig bezeichnet, wenn es n Schichten trainierbarer Verbindungen hat. Üblicherweise wird das Verbindungsnetzwerk der Zellen ähnlich der Verbindungsmatrix W in einer Matrixschreibweise dargestellt. In diesem Beispiel ist dabei eine Verbindung des 1. Neurons mit dem 2. Neuron durch ein X dargestellt. Die Verbindungsmatrix nennt die zugehörigen aktuellen Verbindungsgewichte.

Interessant sind bei diesem Verbindungsnetzwerk nur die Gewichte w12 und w13, da zwischen den anderen Neuronen keine Verbindungen vorhanden sind. Dies zeigt, dass die Speicherung der Verbindungsmatrix aus Ressourcengründen selten komplett erfolgt. Wie später noch gezeigt wird, ist eine Beschränkung der Speicherung auf die tatsächlichen Verbindungen im Netzwerk und der zugehörigen Gewichte sinnvoller.

Eine Transformation in die eine oder andere Richtung ist möglich. Die Klassifikation der Netze kann nach den Verbindungen erfolgen und wird in der Hauptsache auf Basis der Rückkopplungen vorgenommen. Zunächst kann eine erste Einteilung dahingehend erfolgen, ob ein Netz Rückkopplungen besitzt oder nicht. Netze ohne Rückkopplungen werden dabei in der Fachwelt als feedforward -Netzwerke bezeichnet. Es existiert kein Pfad, der von einem Neuron direkt oder über zwischengeschaltete Neuronen wieder zu einem Neuron zurückführt.

Netze mit Rückkopplungen oder auch Recurrente Netze direkte, indirekte, innerhalb einer Schicht, vollständig verbundene Netzwerke stehen auf der anderen Seite der Einordnung und haben durch die Rückverbindungen besondere Eigenschaften, die in Spezialanwendungen benötigt werden.

Im Ergebnis steht aber immer eine hemmende oder verstärkende Wirkung und somit z. Ein einfaches vorwärtsgerichtetes ebenenweise verbundenes Netz ist hier grafisch dargestellt.

Zu sehen ist neben der Aufbaumatrix auch die Darstellung des Netzwerkes mit seinen Neuronen und Verbindungen. Dabei sind Verbindungen in der Form Von,Zu zu verstehen.

Auf der X-Achse sind dann die Ebenen abgebildet. Hier sind vier Ebenen eine Input-. Man spricht damit hier von einem dreistufigen Feedforward- Netzwerk. Festlegungen der Topologie für die Kursprognose Für die weitere Vorgehensweise ist eine differenzierte Festlegung der zu verwendenden Topologie unter dem Gesichtspunkt des zu erreichenden Ziels notwendig. Die Aktivierungsfunktion und der Aktivierungszustand wurden bereits eingeschränkt zu sigmoiden tanh Funktion mit Aktivierungszuständen von -1 bis 1 für analoge Eingabemuster.

Offen blieb bisher vor allem die Frage nach der Anzahl der Schichten und die Anzahl der enthaltenen Neuronen. Die Verbindung von mehr als 2 Hidden - Layer -Schichten ist wenig geeignet, da in der Praxis nur selten brauchbare Ergebnisse oder gar Verbesserungen erreicht wurden.

Die Frage, ob nun ein drei- oder zweistufiges Netzwerk zu nutzen ist, stellt sich auch hier wieder sehr schnell. Es dreistufiges Neuronalnetz ist besser als ein dreischichtiges Netz, wenn es um die Verarbeitung von Daten geht, die in ungewöhnlichen Wechselwirkungen zueinander stehen, aus denen sich zunächst Abstraktionen in der 1 Hidden- Ebene gewinnen lassen, die weiter abstrahiert werden in der 2.

Die gleichzeitige Verwendung von mehreren Ausgabeneuronen mit unterschiedlichen zeitlichen Prognosen wird ausgeschlossen, da davon auszugehen ist, dass ein Netz nicht gleichzeitig verschiedene Ausgaben wirklich optimieren kann. Das Netz versucht im Lernmodus den Gesamtfehler zu minimieren. Bei gleichzeitiger Verwendung von mehreren Prognosezeiträumen mit mehreren Ausgabeneuronen hat das zur Folge, dass das Netz auf einen Kompromiss trainiert wird. Bei gleichzeitiger Nutzung mehrerer Prognosezeiträume sind die Indikatoren dann nur suboptimal einzustellen.

Die Anzahl der Eingabeneuronen werden in der Praxis fast immer durch Experimente bestimmt. Eingabedaten für das Netz sollten zusätzliche Informationen liefern.

Die sinnvollen Eingabedaten sind mit systematischen Tests auszusuchen. Eine Neuronale Kursprognose ist aber ein nicht-lineares Modell und die Verwendung innerhalb des Netzes und dessen Zusammenhänge bleiben dabei unberücksichtigt. Zugleich wird dem Netz die Fähigkeit genommen, das Problem zu lösen. Die modifizierte Version der Korrelationsanalyse ist die Sensitivitätsanalyse. Diese bleibt ebenfalls suspekt und sollte nicht verwendet werden.

Bei diesem Verfahren wird der Wert einer Inputvariablen geringfügig geändert und die Auswirkung auf den Systemoutput beobachtet. Die Anwendung bei linearen Modellen wäre unbedenklich, da die Bedeutung der Inputvariablen direkt von den Koeffizienten der Formel abhängen. Bei Neuronalen Prognose-Netzen kann dies zu ungewollten Ergebnissen führen.

Ein Netz modelliert ein Tages-Kursprognosesystem mit den Inputvariablen: Der Zusammenhang der abgebildet werden soll, ist mit folgenden Formeln erklärt: Die Stimmung ist wie die Börsenpsychologie zeigt unter der Wirkung von Massenpsychosen und Herdentrieb eine Schwellwertfunktion.

Es kommt plötzlich zu einem Crash, wenn die Anleger bei Kursrückgängen von mehr als Prozent in Panik verfallen. Es setzt dann die Schwellwertfunktion um auf einen sofortigen Kursverlust von 20 Prozent Wie das Beispiel zeigt, würde die Sensitivitätsanalyse zu falschen Ergebnissen führen.