Ein Modell zur Mikrosimulation des Spothandels von Strom auf der Basis eines Multi Agenten Systems


Beim Alleinabnehmersystem werden alle Kunden innerhalb des vom Netzanbieter abge- deckten Gebiets beliefert. Kritische Bewertung Bower et al. Eine inelastische Angebotsfunktion verschlimmert bei einer Fehlprognose der Last die Preisschwankungen. Sofern die Kostenstrukturen der Kraftwerke bekannt sind, können die Spotpreise aus der Prognose von gesamtdeutschen Lastgängen vorausberechnet werden. Durch die Angliederung an die Warenterminbörse in Hannover.

Passwort vergessen?


Marktpreisrisiken können wiederum in Preis, Zins und Wechselkursrisiken unterteilt werden. Derivate Risiken entstehen, wenn Marktpreisrisiken durch Absicherungsgeschäfte minimiert werden.

Das Basisrisiko ergibt sich aus einer Preisveränderung der zugrundeliegenden Position und nicht äquivalenten Preisveränderungen des Absicherungsinstrumentes z. Unter dem Liquiditätsrisiko ist der Verlust zu verstehen, der durch einen plötzlichen Liquiditätsentzug, z.

Bei ungünstigen Entwicklungen der zugrundeliegenden Marktparameter müssen unter Umständen bis zur Endfälligkeit des Basisgeschäftes vorab unerwartete Zahlungen unbekannter Höhe geleistet werden.

Unter sonstigen Risiken, die unabhängig von Termingeschäften vorliegen können, versteht man rechtliche, bilanzielle und steuerliche Risiken, technisches und organisatorisches Risiko, sowie das Volumenrisiko.

Typische an börslichen Terminmärkten gehandelte Produkte sind Futures und Optionen. Die ursprüngliche Teilnehmerzahl lag bei Der Spotmarktindex für Grundlaststrom umfasst eine 24 stündige Lieferung für jeweils alle Kalendertage des Liefermonats, während der für Spitzenlaststrom eine 12 stündige Lieferung von 8: Die Indizes werden als Mittelwert aus allen täglichen volumengewichteten Spotpreisen für die dort gehandelten Grund bzw.

Optionen Als Underlying für Elektrizitätsoptionen bieten sich Futures, Produktionskapazitäten oder Spotelektrizität an. Optionen auf Futures stellen die gängigste Form der börsengehandelten Optionen dar, da durch die Futureskontrakte ein genau definierter Preis für das Underlying vorhanden ist.

Der eigenständige Handel von Optionen auf Spotpreiselektrizität kommt selten vor, weder in Form einer physischen Lieferung noch in Form einer finanziellen Erfüllung. Indizes haben jedoch den Nachteil, dass sie nur einen Teil des Marktes widerspiegeln. Hier werden auch nach der Liberalisierung langfristige Bezugsverträge mit physischer Erfüllung gehandelt. Dabei ist zwischen offenen und geschlossenen Bezugsverträgen zu unterscheiden.

Im Gegensatz zum offenen Bezugsvertrag ist der Käufer beim Abschluss eines geschlossenen Bezugsvertrags zur vollen Abnahme der vertraglich vereinbarten Leistung verpflichtet und hat keine Freiheitsgrade bezüglich des Einsatzes des Bezugsvertrags. Ein Vergleich der europäischen Energiemärkte zeigt, dass sehr unterschiedliche Preisniveaus vorherrschen. Diese stehen in Zusammenhang mit der vorherrschenden Marktkonzentration.

In Märkten mit vergleichsweise geringer Marktkonzentration liegen die Preise eher im Bereich der Grenzkosten als in Märkten mit hoher Marktkonzentration. Marktmacht bedeutet hierbei, dass einzelne Teilnehmer aufgrund ihrer Marktstellung einen Einfluss auf den Preis ausüben können. Die Marktmacht einzelner Anbieter kann auf verschiedenen Sachverhalten gründen.

Damit erhöht sich die Wahrscheinlichkeit,. Zweitens kann sich die Marktmacht eines Anbieters auf eine Insellage am Übertragungsnetz beziehen. Sind die Übertragungskapazitäten in eine Netzregion begrenzt, so hat der innerhalb der Region ansässige Anbieter einen Vorteil gegenüber externen Anbietern.

Drittens mag die Marktmacht eines Anbieters aus einem besonders kostengünstigen Kraftwerkspark herrühren. Die Möglichkeit, Marktpreise aufgrund einer Ausnutzung der eigenen Marktstellung zu erhöhen, wurde am Beispiel des Elektrizitätsmarktes für England und Wales vielfach untersucht vgl.

Diese Situation liegt für den deutschen Energiemarkt in gewisser Weise vor: Obwohl die Anzahl der Marktteilnehmer annährend beträgt, kontrollieren wenige Anbieter einen nennenswerten Anteil der Erzeugungskapazitäten. Nach den Unternehmenszusammenschlüssen verfügen E. Korreliert man die stündliche Stromlast im deutschen Netz mit den stündlichen Preisnotierungen an einer deutschen Strombörse vgl.

Interpretiert man den unteren Bereich der Punktwolke als den Verlauf der Grenzkostenkurve, so fällt auf, dass diese in allen drei Zeiträumen einen anderen Verlauf nimmt. Über die deutsch schweizerische Kuppelstelle nehmen die schweizerischen Energieversorger auch am deutschen Energiemarkt teil. Aussagen verschiedener Stromhändler zeigen, dass der Wasserstand in den Alpen einen Einfluss auf den deutschen Spotpreis hat. Im Vergleich zu den thermischen Kraftwerksparks in Deutschland können die Wasserkraftanlagen in der Schweiz als kostengünstige Erzeugungsan-.

Es gilt, dass c. Riechmann [] argumentiert, ein hoher Kapazitätsanteil [sei] eine notwendige, jedoch noch keine hinreichende Bedingung für Marktbeherrschung. Marktanteile allein seien ungeeignet zur Identifikation von Marktmacht. Dennoch liefern die formalen Resultate keine klare Erklärung für die Entstehung von Peakpreisen [77].

Das Zustandekommen von Peakpreisen führt Mount daher auf einen motivationalen Sachverhalt zurück. Mit anderen Worten hat der Händler kein Bedauern [83] zu befürchten, dass ihm mögliche Gewinne wegen eines zu hohen Preises entgehen. Er führt dies darauf zurück, dass sich die kleineren Anbieter einer deutlich flacheren Nachfragekurve und somit einer geringeren Wahrscheinlichkeit, den Preis setzen zu können, gegenüber sehen [77].

Eine inelastische Angebotsfunktion verschlimmert bei einer Fehlprognose der Last die Preisschwankungen. Im Falle eines idealen Kraftwerksparks keine Startkosten, keine Mindestbetriebs und stillstandszeiten sind unter Wettbewerbsbedingungen nur die billigsten Kraftwerke am Netz.

Es gibt für die Händler keinen Grund, in einer Zeiteinheit Verluste zu erwirtschaften. Daher ist es im Wettbewerb und ohne Netzrestriktionen wahrscheinlich, dass ein kosteneffizienter Produktionsplan entsteht. Die Restriktionen des Übertragungsnetzes können Erzeuger veranlassen, Verkaufgebote abzugeben, die über ihren Erzeugungskosten liegen, und zwar nicht nur dann, wenn der Erzeuger direkt von der Restriktion betroffen ist, sondern auch durch einen Kaskadeneffekt durch das gesamte Netzsystem [30].

In einem 2 Periodenmodell bedeutet dies, dass der Händler in Periode 1 Verluste in Kauf nimmt, um in Periode 2 Startkosten zu vermeiden und so seinen gesamten Gewinn zu erhöhen. Als Folge der zunehmend steiler werdenden Angebotskurven ergibt sich eine relativ preisunelastische Angebotsfunktion im Spotmarkt.

Das Ausschöpfen einer Marktposition aufgrund einer Insellage am Übertragungsnetz kann für den deutschen Markt ausgeschlossen werden.

Da das Netz an sich engmaschig gebaut ist, existieren keine Inseln. Sähe die Elektrizitätswirtschaft hier ein Potenzial, so würde sie in ihrer Verbändevereinbarung nicht auf geeignete Regelungen verzichten, geschweige denn Deutschland als eine Kupferplatte betrachten.

Bei rationalem Verhalten aller Marktteilnehmer sind in einem Wettbewerbsmarkt immer nur die jeweils preiswertesten Kraftwerke am Netz, und entsprechend wird der Wettbewerbspreis am Markt durch das jeweils teuerste, gerade noch am Netz befindliche Kraftwerk bestimmt. Sofern die Kostenstrukturen der Kraftwerke bekannt sind, können die Spotpreise aus der Prognose von gesamtdeutschen Lastgängen vorausberechnet werden.

Bei eingeschränktem Wettbewerb kann das Preisniveau über diesen Preisen liegen, was sich mit spieltheoretischen Ansätzen modellieren lässt vgl. Die technische Analyse verwendet verschiedene Kennzahlen, um die aktuelle Marktsituation zu erfassen und zu einer Prognose der Kursentwicklung zu gelangen.

Die grundlegende Idee beim Einsatz der Kennzahlen ist die Vermutung, dass der Kursverlauf eines Gutes aus der Überlagerung zyklisch wiederkehrender Muster entsteht. Erkennt man diese Muster, so lassen sich daraus Kauf und Verkaufentscheidungen ableiten. Damit wird unterstellt, dass die in den historischen Daten enthaltenen Informationen genügen, um den zukünftigen Preisverlauf vorherzusagen. Die technische Analyse hat den Vorteil, einfach zu sein.

Zur Vorhersage werden verschiedene Kennzahlen herangezogen, die mittels einfacher mathematischer Operationen ermittelt werden. Gleitende Durchschnitte beispielsweise werden häufig bei der technischen Analyse von Aktienkursen eingesetzt. Der gleitende Durchschnitt MAP; moving average price für eine Aktie an einem Tag d wird als Mittelwert aus einer festgelegten Anzahl n von beobachteten Preisen berechnet: Diesen Vorteil erkauft man sich durch die Einführung einer Totzeit bei der Erkennung von Trends [55].

Eine Schwierigkeit bei der Prognose mittels gleitender Durchschnitte ist eine geeignete Wahl der Beobachtungslänge n. Die meisten Modelle zur Bestimmung des Spotpreises gehen dabei davon aus, dass die Preise lognormalverteilt sind [16]. In der Praxis ist jedoch zu beobachten, dass Extremwerte häufiger vorkommen, als es eine Lognormalverteilung zulassen würde.

Des weiteren ergibt sich bei Strompreisen oft ein plötzlicher Ausbruch nach oben, nach dem sich der Markt dann wieder auf seinen durchschnittlichen Preis zurückbewegt [54]. Diese Beobachtungen sprechen gegen die Annahme einer Lognormalverteilung.

Der Autoregressionsprozess erscheint als natürlichste Wahl für die Beschreibung eines Preisverlaufs auf Warenmärkten. Langfristig muss der Preis einer Ware an die Grenzkosten der Produktion gekoppelt sein, will der Produzent nicht den Verlust von Marktanteilen riskieren [13]. Zugleich beobachtet man in der Realität deutliche Abweichungen vom langfristigen Mittelwert. Der Grund für die extremen Preissprünge ist in plötzlichen Änderungen in der Nachfragestruktur z.

Wetterumschwünge, Netzengpässe oder in unerwarteten Ausfällen auf der Angebotsseite zu sehen. Auf derartige Änderungen in Angebot oder Nachfrage können die Erzeuger erst mit einer zeitlichen Verzögerung reagieren.

Formal ist die Veränderung des Preises über der Zeit bei einem Autoregressionsprozess mit Sprüngen durch den folgenden Ausdruck gegeben: Kritische Bewertung Gegenüber anderen Verfahren, wie beispielsweise der Fundamentalanalyse, haben stochastische Prozesse den Vorteil, wenig datenlastig zu sein.

Im einfachsten Fall wird nur eine Zeitreihe der vorherzusagenden Variable benötigt. Als besonders schwierig erweist sich jedoch die Bestimmung der Parameter des stochastischen Prozesses. Da man insbesondere an seltenen und hohen Sprüngen interessiert ist, fehlt bei den kurzen Zeitreihen im Elektrizitätsmarkt die Datenbasis, um die genannten Parameter geeignet zu schätzen [21].

Im folgenden wird daher von einer Preisprognose mittels stochastischer Prozesse abgesehen Künstliche Intelligenz Die nachfolgend beschriebenen Prognoseverfahren beruhen auf bekannten Methoden der Künstlichen Intelligenz. In verschiedenen Forschungsarbeiten werden vornehmlich Genetische Algorithmen [5, 60, 55] oder Künstliche Neuronale Netze zur Prognose eingesetzt. Diesen maschinellen Lernverfahren liegt die Idee zugrunde, dass sie aus historischen Daten selbständig cha-.

Der Anwender muss im Vorhinein keine Annahme bezüglich einer den Daten zugrundeliegenden Verteilung treffen. Der Anwender muss im Vorhinein definieren, wie die Informationen in den Genen codiert und wie die zugehörigen genetischen Operatoren definiert werden sollen.

Informationsübertragung zwischen biologischen Neuronen Abbildung 3. Das Neuron erhält über die Dendriten 1 Im folgenden werden Genetische Algorithmen nicht weiter betrachtet. Für eine grundlegende Einführung in diesen Themenbereich sei der interessierte Leser auf [73] verwiesen.

Eine ausführliche Darstellung der Entwicklungsgeschichte von KNN, der Anwendungsgebiete und der biologischen Analogien gibt beispielsweise Hamilton in [41]. Modell eines künstlichen Neurons Informationen von benachbarten Nervenzellen. Übersteigt dieses Potenzial einen vorgegebenen Schwellenwert, so wird es über den axonalen Ausgang des Neurons entladen. Dieses sogenannte Aktionspotenzial wird dann über eine synaptische Verbindung an die Dendriten anderer Neuronen im System weitergeleitet [40].

Künstliche Neuronale Netze wurden ausgehend von der neurophysiologischen Struktur des Gehirns entwickelt. Dies erhält man durch die Verknüpfung Künstlicher Neuronen, wobei man fordert, dass nur Verknüpfungen von einer Schicht in die nachfolgende Schicht existieren.

Feed Forward Netz Anzahl der Schichten kann variieren. Im allgemeinen bezeichnet man die erste Schicht als Eingabeschicht und die letzte Schicht als Ausgabeschicht.

Alle zwischen diesen liegenden Schichten werden als verdeckte Schichten bezeichnet, da sie keine direkte Verbindung zur Umgebung des Neuronalen Netzes haben. Ihre Fähigkeiten zur Mustererkennung und zur Modellierung komplexer nicht linearer Zusammenhänge begründet diese Popularität. KNN können als generalisierte nicht lineare statistische Modelle charakterisiert werden [, ]. In der Betriebswirtschaft werden Neuronale Netze zur Kursprognose von Aktien eingesetzt [,,,,58,55].

Aufgrund der hohen Komplexität dieser Domäne erscheinen Neuronale Netze als geeignete Vorhersagemethode. In der Elektrizitätswirtschaft werden Neuronale Netze zur Prognose der stündlichen oder viertelstündlichen Last eingesetzt [18, 45, 49, 48, 70, 2, 78]. Erste Untersuchungen zur Eignung Künstlicher Neuronaler Netze zur Spotpreisprognose wurden in jüngster Zeit ebenfalls durchgeführt [, ] Zusammenfassung Es ist festzuhalten, dass alle vorgestellten Prognoseverfahren Vor und Nachteile mit sich bringen.

Es gibt daher noch keine Modelle und Verfahren zur Prognose von Spotpreisen. Im Rahmen dieser Arbeit werden daher nur die einfachen Prognoseverfahren miteinander verglichen, d. Elektrizität, die zu unterschiedlichen Stunden oder Tagen geliefert wird, stellt aus Sicht der Verbraucher unterschiedliche Güter dar. Damit ist der Preis stark abhängig von der Stromnachfrage in jedem Zeitpunkt und von deren Determinanten. Eine Analyse der Autokorrelation der Preise unterstützt diese These.

Korreliert wurden die stündlich festgestellten Preise der LPX im Zeitraum vom bis jeweils mit einer Zeitverschiebung von einem bzw. Das Ergebnis zeigt deutlich, dass sich die unterschiedlichen Lastprofile in den Tag und Nachtstunden auf den Preis auswirken.

Für die Nachtstunden ergibt sich der Preis des Vortages als bester Schätzer für den heutigen Preis, für die Tagesstunden der Preis der vergangenen Woche. Bei den Preisen ist ein ähnliches zyklisches Verhalten, wie es auch bei der Last zu beobachten.

Mögliche Einflussfaktoren auf den Spotpreis sind in Tabelle 3. Damit wird die Nachfrage nach Strom wesentlich durch das Verbrauchsverhalten der Haushalte und der Industrie bestimmt.

Die Helligkeit 5 und die Windgeschwindigkeit sind weitere wichtige Faktoren. Das Verbrauchsverhalten von Industrie und Privathaushalten weist ein zyklisches Verhalten in Abhängigkeit von der Tageszeit, dem Wochentag und der Jahreszeit auf. Insbesondere der Strombedarf der Industrie führt zu deutlich unterschiedlichen Verbrauchsverläufen in den Tag und den Nachtstunden, sowie an Werktagen und Wochenenden bzw.

Schul und Werksferien wiederum verändern das Verbrauchsverhalten der Privathaushalte und der Industrie. Erdmann konstatiert beispielsweise in [29], dass die Ferienperiode im Sommer zu einem starken Preiseinbruch bei den Strompreisen geführt hat. Angebot Auf der Angebotsseite machen die Produktionskosten für die zu deckende Nachfrage den wesentlichen preisbestimmenden Einfluss aus.

Die Produktionskosten sind wiederum durch die verwendete Technik bestimmt. Stromverbrauch nach Sektoren Quelle: Der Einsatz von mit regenerativen Energien betriebenen Kraftwerken,. Einsatzenergien in Quelle: Da Wind und Wasserkraftanlagen in ihren Produktionskosten günstiger sind als thermische Erzeugungsanlagen, verdrängen sie diese und haben insofern einen senkenden Einfluss auf den Spotpreis. Über die Kuppelstellen der Übertragungsnetze nehmen die dortigen Energieversorger auch am deutschen Energiemarkt teil.

Das Wasserdargebot in der Schweiz hat daher einen Einfluss auf den deutschen Strommarkt. Unter der Annahme vollständiger Märkte und absoluter Markttransparenz muss sich an zwei Handelsplätzen, an denen das gleiche Produkt gehandelt wird, der gleiche Preis evtl.

Andernfalls wäre ein Arbitragehandel. So realisiert er einen risikolosen Gewinn. Zumindest in Teilen besteht eine Identität zwischen den Marktteilnehmern an beiden Börsen. Hier scheinen die Restriktionen des Übertragungsnetzes die Märkte wirksam zu entkoppeln. Weitere Faktoren, die den Strompreis beeinflussen, sind wenig fassbar oder messbar.

Es sind dies unter anderem die Handelsstrategien und die Marktmacht der Marktteilnehmer, sowie psychologische Einflüsse. Insbesondere ist zu untersuchen, wie genau eine Preisprognose sein muss, damit die Kosten respektive die entgangenen Gewinne aufgrund einer Fehlprognose in einem akzeptablen Rahmen bleiben.

In der nachfolgend beschriebenen Untersuchung wurde hierzu exemplarisch die Sensitivität verschiedener Erzeugungsparks überprüft Untersuchungsmethode Modelle Den Untersuchungen werden die Modelle realer deutscher Erzeugungsparks zugrundegelegt. Hierbei wird der Erzeugungspark inklusive aller Nebenbedingungen, die den Kraftwerkseinsatz beschränken, abgebildet. Bei der Untersuchung von Querverbundunternehmen werden zusätzlich die Nebenbedingungen für die Wärmelieferung betrachtet.

Für Einsatzpläne mit einer Dauer von 24 Stunden und einer zeitlichen Auflösung von einer Stunde werden die optimalen Fahrweisen und Handelsentscheidungen berechnet.

Die Freiheitsgrade des Erzeugers liegen in der Bestimmung der Fahrweise der eigenen Erzeugungsanlagen, des Einsatzes von Bezugsverträgen und der Handelsmengen am Spotmarkt. Das Strom- produkt stellt hierbei den möglichen Absatz am Spotmarkt dar, die Bezugskomponente den möglichen Bezug vom Spotmarkt. Das betrachtete Erzeugungsunternehmen konnte für jede Stunde frei entscheiden, welche Leistung Q max Q Q max es vom Spotmarkt beziehen oder am Spotmarkt absetzen wollte.

Grundsätzlich werden Energie- und Massenströme, z. Hierbei entstehen Kostenströme, die genauso bilanziert werden. Einzelne Komponenten werden im wesentlichen durch Kennlinien gekennzeichnet, die die Umwandlung der Energie, Massen und Kostenströme ineinander definieren. Weiterhin sind Einsatzbedingungen z. Spezielle Komponenten, so- 6 Die Symmetrie ergibt sich aus der zugrundeliegenden Datenstruktur. Vorgaben für die elektrische Last oder Kühlwasserrestriktionen auf. Ein Endknoten in Abbildung 3.

Innere Parameter für die Aufstellung der Übertragungsgleichungen eines temperaturgezonten Wärmebezugsvertrages sind beispielsweise unterschiedliche Arbeitspreise für unterschiedliche Vorlauftemperaturen. Die Gesamtheit der oben genannten Zusammenhänge zwischen Kom-.

Modellstruktur eines Energieversorgungssystems Die Richtung der Verbindungen im inneren Strukturmodell zeigt prinzipiell von den zu erfüllenden Vorgaben zur Zielfunktion. Für ein einfacheres Verständnis und eine intuitive Modellierung wird in der Bedienoberfläche die umgekehrte Richtung verwendet und grafisch dargestellt, nämlich von den Kosten zur Last.

Der BoFiT Rechenkern formuliert zunächst die eigentlichen mathematischen Optimierungsprobleme aus den in der Datenbank von der Benutzerschnittstelle abgelegten Konfigurations- und Vorgabedaten. Für eine kurze Rechenzeit wird dabei eine Modellaggregation für ein einfaches Optimierungsmodell durchgeführt.

Dabei werden die optimalen Werte aller Variablen in einem sogenannten Lösungsvektor abgelegt. Im Anschluss an die Ermittlung des optimalen Lö- 8 Quelle: Somit stehen der Bedienoberfläche alle Informationen für die Darstellung der Ergebnisse zur Verfügung. Die Protokollierung der Abläufe einer Optimierungsrechnung erfolgt über spezielle Dateien, eine Log Datei und eine Trace Datei, in die Ablauf, Informations, Fehler und Warnungsmeldungen sowie detaillierte Zwischenergebnisse eingetragen werden.

Diese Zusammenhänge sind in Abbildung graphisch dargestellt. Die Modelle werden in weniger als einer bzw. Im Ergebnis erhält man eine untere Schranke für die Kosten. Mit keiner anderen Prognose können die Kosten für einen Einsatzplan tiefer liegen als mit der optimalen Prognose. Diese Ergebnisse dienen als Vergleichsgrundlage für die relative Bewertung der Kostenänderung bei schlechteren Prognosen.

Der Fehler wird für alle Stunden des Tages gleich gewählt. Annahmen Zunächst wird angenommen, dass nur die Spotpreise einer Unsicherheit unterliegen. Verfügbarkeiten, Kapazitäten und Lasten werden als sichere Eingangsinformationen gesehen. Der Erwartungswert der Aus Dauer bei Vollausfällen liegt deutlich oberhalb der Dauer des in der Kraftwerkseinsatzplanung betrachteten Zeitbereichs.

Die Wahrscheinlichkeit dafür, dass innerhalb des Planungshorizonts ein thermischer Block ausfällt und wieder angefahren werden kann, ist vernachlässigbar vgl. Weiterhin wird davon ausgegangen, dass der Wochentag ausschlaggebender ist als das Datum. Aufgrund dieser Annahme ist es möglich, dass die Kosten bei einer verschlechterten Preisprognose kleiner werden als im optimalen Fall.

Zuletzt wird angenommen, dass es sich bei dem betrachteten Markt um einen offenen Markt handelt, dass also ein einzelner Anbieter keinen Einfluss auf den Marktpreis hat. Zunächst werden die bekannten Spotpreise P 0, Für jedes so gewonnene Szenario s wird mit den prognostizierten Preisen P s,0, Es ergeben sich die geplanten Kosten Ks prog.

Im Nachgang zur Optimierung werden diese Kosten um den aus der Fehleinschätzung des Preises resultierenden Betrag korrigiert. Die Ist Kosten K ist s eines Szenarios s. Im letzten Schritt werden die Istkosten Ks ist der einzelnen Szenarien s mit den K prog opt Istkosten der optimalen Prognose K ist opt verglichen Ergebnisse Zur Untersuchung wurden zwei verschiedene Erzeugungsparks herangezogen.

Modell 1 beschreibt ein hydrothermisches Erzeugungssystem. Der Erzeugungspark umfasst unter anderem eine Beteiligung an einem Atomkraftwerk. Modell 2 stellt einen Verbund von mehreren Stadtwerken dar, die gemeinsam am Markt auftreten. Die Stadtwerke verfügen über gemeinsame Bezugsverträge von Vorlieferanten und Bezüge aus Kraftwerksbeteiligungen.

Die eigenen Erzeugungsanlagen umfassen mehrere Block Heizkraftwerke und Dampfturbinenanlagen. Der kurzfristige Handel wird über eine gemeinsame Vertriebsgesellschaft abgewickelt. Die Ergebnisse werden anhand einer vergleichenden Analyse der erhaltenen Szenarien gewonnen. Hier kann explizit nicht von einer Szenarioanalyse gesprochen werden, da sich diese auf einen langfristigen Zeithorizont bezieht und insbesondere Lerneffekte und qualitative Faktoren zu ihren Kernpunkten gehören.

Ausfall verschiedener Kraftwerkstypen am gleichen Tag Die Einsatzpläne 33, 36 und 37 definieren drei verschiedene Szenarien für den gleichen Wochenendtag im Sommer. Sie unterscheiden sich lediglich in.

Untersuchte Einsatzpläne der Verfügbarkeit der eigenen Erzeugungseinheiten. Während in Einsatzplan 33 alle Erzeugungseinheiten zur Verfügung stehen, steht in Einsatzplan 36 das Kernkraftwerk aufgrund einer Revision, sowie im Einsatzplan 37 ein thermisches Kraftwerk nicht zur Verfügung.

Vergleich der Kostenänderung in Abhängigkeit vom Prognosefehler in den Szenarien 33, 36 und Nettobezug in den Szenarien 33, 36 und 37 Wie Abbildung 3. Dies ist darauf zurückzuführen, dass der Ausfall der Erzeugungskapazität des Kernkraftwerks durch einen höheren Bezug vom Spotmarkt ausgeglichen wird vgl.

Im Diagramm fehlende Säulen zeigen Lösungen an, in denen die Abweichung von den optimalen Kosten negativ wurde.

In der Mehrzahl aller Fälle findet das Optimierungsmodul eine Lösung, die keine höheren Kosten als die Lösung bei optimaler Prognose aufweist. Es ist festzuhalten, dass der Ausfall des Kernkraftwerks zu einem deutlich erhöhten Einsatz des Spotmarkts als Bezugsquelle führt. In keinem anderen Szenario lag der Nettobezug vom Spotmarkt so hoch, wie in Szenario Es war daher zu erwarten, dass der Erzeugungspark in diesem Szenario besonders sensitiv auf Fehlprognosen des Preises reagiert.

Verhalten an Wintertagen In weiteren Tests wurde das Verhalten des Erzeugungsparks an zwei aufeinanderfolgenden Wintertagen untersucht. An beiden Tagen reagiert der Erzeugungspark sowohl auf Über als auch auf Unterschätzungen des Preises mit deutlichen Kostenerhöhungen. Kostenänderung in Abhängigkeit vom Prognosefehler an zwei Wintertagen Abbildung 3.

Kostenänderung in Abhängigkeit vom Prognosefehler bei Ausfall eines thermischen Kraftwerks im Winter bzw. Auch hier ist deutlich zu erkennen, dass der Erzeugungspark im Winter stärker auf eine Unterschätzung des Preises reagiert als im Sommer.

Diese höhere Sensitivität ist auf einen im Winter höheren Auslastungsgrad des Erzeugungsparks als im Sommer zurückzuführen. Eine Unterschätzung des Preises lädt daher zum Abschalten teurer Spitzenlastkraftwerke und zur Substitution von deren Erzeugung durch Spotbezüge ein. Wird letztlich ein teuerer Spotpreis realisiert, so steigen die gesamten Produktionskosten.

Überschätzungen des Preises hingegen führen dazu, dass am realisierten Spotpreis gemessene nicht konkurrenzfähige Kraftwerke am Netz gehalten werden. Dies geschieht mit dem Ziel, entweder zur Deckung der langfristig kontrahierten Last beizutragen, oder zusätzliche Leistung am Spotmarkt zu verkaufen. Sensitivität an unterschiedlichen Wochentagen Anhand von Modell 2 wurde die Sensitivität des Erzeugungssystems im Ablauf mehrerer aufeinander folgender Kalendertage Montag bis Donnerstag im Sommer untersucht.

Aufgrund der deutlich geringeren Komplexität des Optimierungsmodells wurde bei dieser Untersuchung kein frühzeitiger Abbruch zugelassen. Dies kann durch stark unterschiedliche Lastgänge an den betrachteten Tagen oder durch differierende Preisniveaus an der LPX bedingt sein. Eine Abhängigkeit von der Last kann ausgeschlossen werden, da die Lastgänge an den untersuchten Tagen nicht signifikant voneinander abweichen vgl.

Auffällig ist die Insensitivität des Erzeugungsparks bezüglich einer Unterschätzung des Preises am Mittwoch Szenario Diese kann auf das niedrige Preisniveau an der LPX am zurückgeführt werden. An diesem Tag lagen die Preise in der Mehrzahl der Peakstunden unterhalb der. Kostenentwicklung bei den Szenarien 44, 45, 46 und 47 Abbildung 3. Die Lastgänge zeigen keine signifikante Abweichung voneinander Preise an den übrigen untersuchten Tagen.

Hieraus folgt, dass sich der Spotpreis im Rahmen der genannten Fehlschätzung auf einem ebenen Teilstück der Grenzkostenkurve befindet. Die Auswirkungen einer Preisüber schätzung sind deutlich gravierender als die einer Preisunter schätzung. Zusammenfassung Ein wesentlicher Unterschied zu bisherigen Forschungsarbeiten liegt in der Verwendung von exakt jenen Modellen der Erzeugungsparks, die in der täglichen Handelsplanung und -durchführung der jeweiligen Unternehmen eingesetzt werden.

Zudem wurde auf die übliche Einschränkung auf charakteristische Lastgänge und die alleinige Betrachtung von Wochentagen verzichtet. Es besteht kein linearer Zusammenhang zwischen dem Prognosefehler und der Kostenänderung. Die unterschiedlichen Produktionstechniken in einem Kraftwerkspark von der Kernenergie im Grundlastbereich bis zur Gas und Dampfturbine für die Spitzenlast schützt vor allzu gravierenden durch Fehlprognosen des Preises induzierten Kostenauswirkungen.

Prognoseverfahren, die einen deutlich kleineren mittleren Prognosefehler aufweisen, erscheinen für die im folgenden durchgeführte Grundsatzuntersuchung ausreichend. Um Aussagen für die Praxis ableiten zu können, ist Modell 1 in seiner Komplexität so weit zu vereinfachen, dass eine Optimierung ohne frühzeitigen Abbruch durchgeführt werden kann. Des weiteren sollten die Untersuchungen für weitere Kalendertage und andere Szenarien wiederholt werden.

Dabei sollte unter anderem der Einfluss einer Fehlprognose der Last auf die Kosten untersucht werden. Zum anderen sollte das Prognoseverfahren weder eine Tendenz zur Preisüber noch zur Preisunterschätzung aufweisen.

Die Lernverfahren sind im allgemeinen so ausgelegt, dass sie den statistischen Fehler der Ausgabe eines Neuronalen Netzes basierend auf Beispieldatensätzen schrittweise mit speziel-. Ein Neuronales Netz wird in seinem Verhalten durch diese Methoden an das in den Datensätzen wiedergegebene Verhalten approximiert und kann so beispielsweise das Verhalten eines Prozesses modellhaft nachbilden. Es verhält sich dabei ähnlich einem mehrdimensionalen Polynom höherer Ordnung, welches an vorhandene Stützstellen durch sogenanntes fitting angepasst wird [37].

Interpolationen in Abhängigkeit von der Nähe und Anzahl der Stützstellen Ermittelt ein Neuronales Netz für einen bestimmten Vektor von Eingangsdaten einen Vektor von Ergebnissen, so kann dieser Ergebnisvektor nur dann korrekt sein, wenn in der Nähe des vorherzusagenden Zustands eine Stützstelle in den Trainingsdaten vorhanden ist und das Neuronale Netz nur interpolieren muss.

Je weiter die Stützstellen entfernt liegen, desto mehr weicht das Verhalten. So kann es vorkommen, dass das Neuronale Netz in bestimmten Situationen völlig falsche Ergebnisse liefert. Dies ist einer der wesentlichen Schwachpunkte Neuronaler Netze, der dazu beiträgt, dass KNN in der Praxis nur schwer angenommen werden Trainingsmethode Werden mehrere Neuronale Netze mit gleichen Eingangsdaten trainiert, ist das durchschnittliche statistische Verhalten dieser Neuronalen Netze immer ähnlich.

Die Initialisierungsparameter der KNN, z. Die Reproduzierbarkeit der Ausgabewerte kann daher nicht garantiert werden. Ferner können sie mit unterschiedlichen Algorithmen trainiert worden sein und sich in ihren Initialisierungswerten und der Aktivierungsfunktion unterscheiden.

Die Ausgabewerte A 1, Überschreitet der berechnete Fehlerwert einen vorgegebenen Grenzwert, so wird auf eine fehlerhafte Vorhersage geschlossen. Es hat die Trainingsdaten auswendig gelernt. Ein Ansatz, dieses Problem zu erkennen und zu umgehen, liegt darin den Datenbestand in Trainingsdaten, Validierungsdaten und Testdaten aufzuteilen.

Die Trainingsdaten werden zur Parameterschätzung verschiedener Neuronaler Netze z. Die fertigen Netze werden mittels der Validierungsdaten evaluiert.

Das Netz mit der besten Perfor-. Seine Nützlichkeit wird anhand der Testdaten überprüft. Dieses Verfahren ist im allgemeinen gut geeignet, um die over fitting Problematik Neuronaler Netze zu überwinden [98]. Zugleich birgt das Verfahren jedoch Nachteile: Erstens kann die Aufsplittung der Daten in drei Teilmengen die Variabilität der Schätzungen erhöhen [31]. Zweitens reduziert die Aufteilung des Datenbestands die für das Training zur Verfügung stehenden Datensätze.

Dies ist insbesondere bei kleinen Datenbeständen problematisch. In dieser Arbeit wurde der Datenbestand zum Zwecke der Modellbildung lediglich in Trainingsdaten und Validierungsdaten aufgeteilt. Aufgrund der Kürze der Zeitreihen wurde auf die Erstellung eines Testdatensets verzichtet. Um dennoch Aussagen über die Nützlichkeit der letztendlich ausgewählten Prognosemodelle ableiten zu können, wurden diese im Rahmen einer zweiten Voruntersuchung anhand eines Erzeugungsmodells mit anderen Prognoseverfahren verglichen vgl.

Ein Fehler lässt sich also auch bei einem Sollwert von 0 problemlos berechnen. Zweitens gilt für die klassische Rechnung: Neben den genannten Vorteilen birgt die gewählte Definition eine Tücke: Die Schiefe einer durch n Beobachtungen x 1, Angewandt auf die Preisprognose bedeutet dies: Das Prognoseverfahren zeigt eine Tendenz zur Überschätzung der Preise. Aus verschiedenen Gründen muss jedoch auf eine Einbeziehung bestimmter Einflussfaktoren verzichtet werden: Die OTC Preise sind per se nur den beteiligten Vertragsparteien bekannt und können daher nicht betrachtet werden.

Die norwegische Strombörse NordPool bedient einen völlig anderen Markt, dessen Einfluss aufgrund der begrenzten Kuppelkapazitäten an den Übergabepunkten nach Dänemark und Schweden vernachlässigbar ist.

Auf der Angebotsseite fehlen Informationen über Ausfälle und Revisionen. Da diese Daten wettbewerbsrelevante Informationen darstellen, werden sie nicht veröffentlicht. Daher können diese Einflussfaktoren im Rahmen dieser Untersuchung nicht betrachtet werden. Handelsstrategien, Marktmacht und die psychologischen Faktoren, die den Markt beeinflussen, sind ebenfalls weder öffentlich zugänglich noch messbare Daten.

Daher wird während der Sensitivitätsanalyse an vielen verschiedenen Punkten des Modells ein Test auf die Sensitivität durchgeführt.

Mit der Zunahme der Freiheitsgrade und damit der Anzahl der Eingänge, wächst die Anzahl der zu testenden Kombinationen exponentiell an, so dass hier nur Stichproben durchgeführt werden können. Stärke der Einflüsse in Stunde 10 bei Modell 31 Bei der datenbezogenen Sensitivität wird hierzu die Sensitivität an den Stützstellen der Trainingsdatensätze bestimmt.

Der Wert einer Eingangsgrö-. Die Grafik zeigt den vom Netz prognostizierten Wert und die zugehörigen Fehlerwerte an. Dies ist ein Indiz dafür, dass längere Zeitreihen für das Training benötigt werden, da die Prognosequalität exakt in dem Zeitraum, der dem Neuronalen Netz im Vorjahreszeitraum für das Training nicht zur Verfügung stand, extrem abnimmt Ergebnisse Als Trainingszeitraum wurde der Zeitraum vom bis gewählt.

Der Endzeitpunkt ist zufällig gewählt. Bis zu diesem Zeitpunkt waren nur Daten für den genannten Zeitraum verfügbar. Zur Validierung verwendete man Daten für den Zeitraum vom bis Die ersten Tests wurden exemplarisch an fünf Stunden eines Tages durchgeführt. Die Stunde 0 Uhr gehört zu den einfacher prognostizierbaren Stunden, da kaum tagestypabhängige Last vorherrscht und relativ junge Prognosedaten z. Die Stunden 10, 12 und 17 wurden stellvertretend für Peakstunden ausgewählt, während Stunde 22 wiederum keinen ausgeprägt tagestypabhängigen Lastgang aufweist, jedoch nur auf relativ alte Prognosedaten zurückgreifen kann.

Nachdem sich durch dieses Vorgehen beste neuronale Prognosemodelle für die einzelnen Stunden herauskristallisiert hatten, wurden diese Prognosemodelle auch für die übrigen Stunden des Tages trainiert. Im Ergebnis werden somit für die Prognose 24 neuronale Prognosemodelle eines für jede Stunde eines Tages eingesetzt.

Eine vollständige Beschreibung aller trainierten Modelle und der Modellierung der synthetischen Eingangsvariablen findet sich im Anhang B.

Beste gefundene neuronale Prognosemodelle je Stunde Betrachtet man die Schiefe der durch die Prognosen gegebenen Verteilung, so ist festzustellen, dass fast alle Netze eine Tendenz zur Unterschät-. Schiefe der neuronalen Prognosemodelle zung der Preise zeigen vgl. Weitere Verbesserungspotenziale Die zur Verfügung stehenden Zeitreihen mit historischen Daten sind sehr kurz. Bisher konnten zu Trainingszwecken nur Zeitreihen mit einer Länge von weniger als einem Jahr eingesetzt werden.

Daraus folgt, dass die Validierung für einen Zeitraum durchgeführt werden muss, der dem Neuronalen Netz während des Trainings im Vorjahresvergleich nicht zur Verfügung stand. Somit hatte das Netz keine Möglichkeit, Muster im Validierungszeitraum, z. Hierzu wurden fünf Blöcke zusammenhängender Stunden definiert.

Mai wurde die Struktur der Stundengebote geändert. Seither liegt die Obergrenze bei 64 Preis Menge Tupeln. Am gleichen Tag wurde die Struktur der Blöcke überarbeitet.

Den Händlern stehen nunmehr 10 Blöcke zur Verfügung. Es ist festzustellen, dass im Zeitraum ab 8. Mai der Median deutlich angestiegen ist. Gleichzeitig ist die Standardabweichung der Handelsvolumina in den Ta-. Die Steigerung der Standardabweichung in den frühen Morgenstunden lässt sich auf eine gestiegene Handelsaktivität in diesem Zeitraum zurückführen.

Das Absinken der Standardabweichung in den Tagesstunden deutet auf eine Verschiebung der Handelsaktivitäten von den Stundenprodukten zum Blockhandel hin. Die Zunahme der Handelstätigkeit in den Nachtstunden, die auch in Abbildung 3. In der Änderung des Handelsverhaltens ist der wesentliche Grund für die schlechten Prognoseeigenschaften der Neuronalen Netze in den frühen Morgenstunden Stunden und den Abendstunden Stunden 21 und 22 zu sehen.

Standardabweichung der Handelsvolumina Durch die Vielzahl an Änderungen in der Marktstruktur wird eine datenbasierende Prognose natürlich schwieriger. Anzahl der Handelsteilnehmer Abgesehen von der Struktur der angebotenen Produkte hat sich im vergangenen Jahr ein zweiter wichtiger Faktor.

Maxima der Handelsvolumina verändert: Seither ist die Teilnehmerzahl weiter gestiegen und beträgt zur Zeit rund 70 Händler und vier zugelassene Broker. Die Liquidität eines Marktes hängt nicht nur von den angebotenen Produkten, sondern auch von der Anzahl seiner Teilnehmer ab. Demnach wird der Leipziger Strommarkt zunehmend liquide, und der Einfluss einzelner Marktteilnehmer auf den Preis nimmt ab.

Der Preis, zu dem ein Händler an der Börse bietet, ist abhängig von der gebotenen Menge. Diese steht wiederum in einem Zusammenhang zur erwarteten Last. Dieser lokale Bezug existiert für eine Strombörse, an der Händler aus dem ganzen Land und den angrenzenden Staaten zusammenkommen nicht. Hierzu wurde jeweils ein Mittelwert aus den Tageshöchst und Tagestiefsttemperaturen von vier deutschen Ballungszentren gebildet. Die Tests haben nicht zu einer signifikanten Verbesserung der Prognosegüte geführt.

Insofern bleibt diese Frage offen. Zur Zeit werden vermehrt Windkraftanlagen an der deutschen Küste und zunehmend im Binnenland gebaut. In den kommenden Jahren wird mit einem weiter steigenden Ausbau dieser mit regenerativer Energie betriebenen Erzeugungsanlagen gerechnet.

Eine Ausweitung des Angebots an Windkraftanlagen wird c. Ein Prognoseverfahren a ist einem anderen Prognoseverfahren b gegenüber vorteilhaft, wenn durch den Einsatz von a ein höherer Gewinn als durch den Einsatz von b erwirtschaftet wird, bzw. Analog zum Training der Neuronalen Netze, bei dem für jede Stunde des Tages ein neuronales Prognosemodell entwickelt wurde, werden im folgenden die Zeitreihen der Preise für jede Stunde einzeln betrachtet.

Als erstes Prognoseverfahren wird der Preis der gleichen Stunde des Vortages als Vorhersager verwendet: Der Untersuchungszeitraum entsprach dem Zeitraum vom bis Für jedes ausgewählte Prognoseverfahren wurden auf der Basis der prognostizierten Preise und der tatsächlichen Lastgänge im Untersuchungszeitraum gewinnmaximale Einsatzpläne unter Einbeziehung des Handels am. Freie Entscheidungsvariablen waren die Einsatzentscheidungen für die Kraftwerke, die Bezugsentscheidungen aus langfristigen Verträgen, sowie die Absatz und Bezugsentscheidungen am Spotmarkt.

Das gleiche Verfahren wurde mit den tatsächlichen Preisen optimale Prognose und Lastgängen im Untersuchungszeitraum durchgeführt. Auf diese Art erhält man eine untere Schranke für die entstehenden Kosten. Das Optimierungsergebnis weist letztlich immer einen negativen Gewinn aus also Kosten , da die langfristig kontrahierten Lasten nicht mit Verkaufspreisen bewertet sind und diesen üblicherweise eine Fixpreisvereinbarung zugrunde liegt.

Im Rahmen einer Optimierung mit einem Zeithorizont von 24 Stunden ist der Erlös aus langfristigen Verträgen als Fixum zu betrachten, also nicht optimierbar. Das beste Prognoseverfahren ist insofern dasjenige Verfahren, welches im Untersuchungszeitraum zur geringsten Kostensteigerung gegenüber den Kosten bei optimaler Prognose führt. Um die tatsächlich entstandenen Kosten Kv ist in Abhängigkeit vom Prognoseverfahren v zu erhalten, sind die erwarteten Kosten Kv prog nach Abschluss der Optimierung für jede Stunde t eines jeden Tages d zu korrigieren: Produktionskosten und Abweichung vom Optimum je Prognoseverfahren Abbildung 3.

Kumulierte Mehrkosten je Prognoseverfahren testen Fall. Ein direkter Zusammenhang zwischen dem mittleren Vorhersagefehler der Prognoseverfahren 18 und der resultierenden Kostenabweichung 18 Es wurde die von BoFiT LP verwendete Definition des Vorhersagefehlers angewendet vgl.

Man erkennt deutliche Kostensprünge jeweils am ersten Tag nach einem Wochenende z. Christi Himmelfahrt und 2. Tag nach dem Maifeiertag. Die Neuronalen Netze weisen an diesen Tagen ebenfalls eine höhere Kostensteigerung auf als an anderen Werktagen. April stellt für alle Prognoseverfahren ein Problem dar. Insgesamt ist festzustellen, dass die gleitenden Durchschnitte und der Preis des Vortags relativ gute Vorhersagen für die Wochentage liefern.

Hier sind die Kostensteigerungen meist gering. Nach Wochenenden und Feiertagen führen diese Prognoseverfahren jedoch zu deutlichen Kostensteigerungen. Es ist festzuhalten, dass die Neuronalen Netze die übrigen Prognoseverfahren dominieren.

Die kumulierten Mehrkosten bleiben bei Verwendung der neuronalen Prognosemodelle an jedem Tag des Untersuchungszeitraums am geringsten. Zusammenfassung Aus Sicht dieser Forschungsarbeit besteht kein signifikanter Unterschied in der Güte der verglichenen Prognoseverfahren. Aussagen zur Prognosequalität Neuronaler Netze können nur im untersuchten Kontext gemacht werden.

Die Schlussfolgerung muss daher lauten, dass die ausgewählten neuronalen Prognosemodelle für das untersuchte Modell und den untersuchten Zeitraum das beste Prognoseverfahren darstellen. Insbesondere er- 19 Die Mittlung wurde durchgeführt, in dem der mittlere Fehler über alle Prognosen des Untersuchungszeitraums bestimmt wurde. Eine Unterscheidung nach Stunden wurde nicht vorgenommen.

Für die industrielle Praxis erscheint eine weitergehende Untersuchung der Prognosequalität Neuronaler Netze, insbesondere im Hinblick auf die auf Seite 88f. Die Künstlichen Neuronalen Netze sind nicht in der Lage, marktimmanente Einflüsse zu erfassen und hieraus Erklärungen abzuleiten.

Insbesondere das Verhalten der Marktteilnehmer, die Verarbeitung verfügbarer Marktinformationen, sowie die Einschätzungen und Erwartungen der Marktteilnehmer über die Marktentwicklung beeinflussen den Spotpreis. Hier ist wiederum das nicht dem Durchschnitt entsprechende Verhalten von Interesse, da nur dieses Preissprünge hervorrufen kann. Die heterogene Landschaft von Marktteilnehmern im deutschen Energiemarkt mit unterschiedlichen Erzeugungssystemen, Absatzregionen, Kundenstrukturen, Risikorichtlinien und so fort, erfordert die Abbildung des Marktes in einem Mikrosimulationssystem.

Agenten und agenten basierte Simulationen stellen hierfür eine neues. Derartige Systeme werden in einer Vielzahl von Anwendungsfällen eingesetzt, beispielsweise zur Untersuchung und Optimierung von Verkehrssystemen [,,], als Informationssysteme [11] oder zur Analyse von Märkten [15]. Stattdessen wird der Vorschlag von Franklin und Graesser aufgegriffen, die nach der Analyse einer Vielzahl von verschiedenen Definitionen angeben [36]: An autonomous agent is a system situated within and a part of an environment that senses that environment and acts on it, over time, in pursuit of its own agenda and so as to effect what it senses in the future.

Ein Agent ist ein solcher in Bezug auf eine Umgebung. Er ist in der Lage, seine Umgebung durch Sensoren wahrzunehmen 1 und sie durch seine 1 Ein Agent, der seine Umgebung nur akustisch wahrnimmt, ist also in einem schalltoten Raum kein Agent.

Seine Aktionen wählt der Agent im Hinblick auf die Erreichung seiner persönlichen Ziele aus, 2 wobei die Aktionen den Zustand der Umwelt beeinflussen und somit die Wahrnehmung des Agenten in zukünftigen Zeitpunkten. Agent und seine Umwelt In Ermangelung einer allgemein anerkannten Definition von Agenten behilft man sich in der Literatur vielfach mit einer Auflistung der Eigenschaften, die ein System zu einem Agenten machen.

Wooldridge und Jennings [, ] fordern in diesem Zusammenhang, dass ein Hardware oder üblicherweise ein Softwaresystem die folgenden Eigenschaften umfasst: Autonomie Ein Agent operiert ohne direkte Intervention von Menschen oder anderen Agenten und besitzt die Kontrolle über seine Aktionen und seinen internen Zustand. Reaktivität Agenten nehmen ihre Umwelt wahr und reagieren in zeitlichem Zusammenhang auf Änderungen in dieser Umwelt.

Proaktivität Agenten reagieren nicht nur auf die Umwelt; sie sind fähig, zielorientiertes Verhalten durch Übernahme von Initiativen zu zeigen. Andere Autoren fordern, ein Prozess müsse persistent [], mobil oder intelligent sein, um ein Agent zu sein. Franklin und Graesser [36] fassen die verschiedenen Forderungen und synonym verwendeten Begriffe zusammen, wie sie in Tabelle 4.

Agenten und agenten orientierte Programmierung bilden ein neues Paradigma zur Konzeptualisierung und Analyse von Softwaresystemen. Yu [] bezeichnet Agenten als einen neuen Weg des Denkens und als höheren Level der Abstraktion, um über die Charakteristika und das Verhalten von Softwaresystemen nachzudenken. In der Literatur findet sich immer wieder die Diskussion, ob ein Softwaresystem ein Agent oder nur ein Programm sei [36,50].

Autonomie Ein Objekt o besitzt keine Kontrolle über sein Verhalten. Das bedeutet, wenn eine Methode m für andere Objekte zugänglich gemacht wird, dann können diese Objekte die Methode m des Objekts o 3 Agent Communication Language 4 Hierbei werden Agenten mit Objekten als der modernsten Form der Programmierung und höchsten Form der Abstraktion bei der Softwareentwicklung verglichen. Eigenschaften von Agenten jederzeit aufrufen. Das Objekt o hat keine Möglichkeit zu entscheiden, ob die Methode ausgeführt werden soll oder nicht.

Flexibilität Das Standardmodell der Objektorientierung macht keine Aussage darüber, wie ein System entworfen werden kann, welches reaktive,. Ablaufkontrolle In objektorientierten Systemen existiert im allgemeinen genau eine Ablaufsteuerung, während in einem System von Agenten jeder Agent über einen eigenen Prozess verfügt.

Autonomie ist in objektorientierten Systemen üblicherweise kein Thema. Man darf sagen, die Objekte teilen eine Art von gemeinsamen Ziel. Dies gilt für Agentensysteme nicht in jedem Fall. Gerade bei offenen Agentengesellschaften, d. Ein Agent a wird eine Aktion Methode m nicht nur deshalb ausführen, weil ein Agent b dies wünscht.

Sollte die Ausführung von m die Zielerreichung des Agenten a nicht oder negativ beeinflussen, so wird er eine Ausführung verweigern. Der Ort der Entscheidung darüber, ob eine Aktion ausgeführt wird, ist in agenten und objektorientierten Systeme verschieden. Im objektorientierten System liegt die Entscheidung bei dem aufrufenden Objekt, während sie im agentenorientierten System beim zur Ausführung aufgeforderten Agenten liegt [50].

Da bisher keine rein agentenorientierten Programmiersprachen existieren, findet die Umsetzung eines agentenorientierten Konzeptes derzeit auf der Basis von objektorientierten Programmiersprachen, wie z.

Insbesondere Java hat sich aufgrund der Portabilität und Netz-. Die Verwendung objektorientierter Sprachen bei der Umsetzung trägt natürlich nicht zu mehr Klarheit bezüglich der Unterscheidung zwischen Objekt und Agent bei.

Russell und Norvig sind der Meinung []: The notion of an agent is meant to be a tool for analyzing systems, not an absolute characterization that divides the world into agents and non agents.

Wooldridge und Jennings warnen davor, in Bezug auf Agenten religiös oder dogmatisch [] zu werden, während Franklin und Graesser in [36] festhalten: Agents live in the real world or some world , and the concepts of the real world yield fuzzy categories Das BDI Modell Bei der Erklärung menschlichen Verhaltens werden häufig Begriffe verwendet, die bestimmte Einstellungen oder Erwartungen beschreiben: Er fuhr früh los, weil er befürchtete in einen Stau zu geraten.

Diese Erklärungen entstammen einer Volks Psychologie, bei der das menschliche Verhalten durch die Beschreibung solcher Einstellungen wie glauben, hoffen, erwarten, etc. Diese Erklärungsmethodik ist weithin akzeptiert: Die in solchen Sätzen ausgedrückten Einstellungen werden mit dem Begriff Intentionen beschrieben.

Ein intentionales System beschreibt eine Entität, deren Verhalten durch eine Rückführung auf Überzeugungen, Wünsche und rationalen Scharfsinn vorhergesagt werden kann [20].

Diese entspricht nicht zwingend dem Zustand der Umgebung, da die Sensoren des Agenten unvollkommen bzw. Seine intentions entsprechen den Plänen, die der Agent derzeit verfolgt. Der Agent kann zeitgleich mehrere Pläne verfolgen und so an der Erreichung verschiedener, nicht konfliktärer Ziele arbeiten. Sowie der Agent eine Intention formt, in dem er einen Plan auswählt, wird er mit der Ausführung des Plans beginnen.

Der Plan wird so lange verfolgt, bis das Ziel erreicht ist, es irrelevant oder die weitere Ausführung unmöglich wird. Ein Plan ist eine spezifische Vorgangsbeschreibung zur Erreichung eines vorgegebenen Ziels. Kann ein einzelner Schritt des Plans nicht erfolgreich zum Abschluss gebracht werden, so scheitert der gesamte Plan. Dabei beachtet er die ständige Veränderung seiner Umgebung und somit seiner Überzeugungen.

Ein Plan umfasst insofern eine Menge von Bedingungen, deren vollständige und zeitgerechte Erfüllung das. Der Agent in Abbildung 4. Während der Überprüfungsphase kontrolliert der Agent seine Überzeugungen: Veränderungen der Überzeugungen machen Ziele unter Umständen unerreichbar oder irrelevant, und seine Pläne: Letztlich entscheidet der Agent, welche Aktion er als nächstes ausführt.

Planauswahl Verfügt der Agent über mehrere Pläne zur Erreichung eines Ziels, so wählt er in der Theorie mittels einer rationalen Entscheidung den besten Plan aus. Der Agent vergleicht die Vorzüge aller anwendbaren Pläne miteinander und wählt den Plan, der den höchsten Nutzen verspricht. Nachdem der Agent ein zunächst zu erreichendes Ziel aus der Liste seiner Ziele ausgewählt hat, ruft er alle auf das Ziel anwendbaren Pläne aus seiner Planbibliothek ab vgl. Die so erhaltene Auswahl von Plänen wird bezüglich der Kosten und dann bezüglich der Ausführungsdauer geordnet.

Der beste Plan wird akzeptiert Akzeptierter Plan und dadurch zu einer Intention. Handelt es sich bei diesem Plan um einen atomaren Plan, so wird er an den Aktor weitergegeben.

Falls nicht, wird der Plan interpretiert und in einzelne Teilpläne zerlegt. Hieraus resultieren Unterziele, die zur Erreichung des eigentlichen Ziels zunächst realisiert werden müssen. Erzeugen von Intentionen a loosely coupled network of problem solvers that work together to solve problems that are beyond the individual capabilities or knowledge of each problem solver.

These problem solvers agents are autonomous and may be heterogeneous in nature. Charakteristisch für ein MAS sind mehrere Eigenschaften: Die Möglichkeit für den Kunden, seinen Stromlieferanten frei zu wählen, sorgte dafür, dass fortan Angebots- und Nachfrageverhältnisse die Preisbildung für Strom bestimmten.

Diese Nichtspeicherbarkeit erfordert die zeitliche Synchronität von Erzeugung und Verbrauch, damit die Stromversorgung jederzeit gewährleistet werden kann. Versorgungsnetze müssen demnach die Stromübertragung an den betreffenden Verbrauchsort ermöglichen.

Übertragungen über längere Distanzen können dabei Netzver- luste verursachen. Darüber hinaus ist starke Preisvolatilität eine charakteristische Eigenschaft von Strom. Preisschwankungen können sowohl von der Angebots- als auch von der Nachfrageseite verursacht werden. Während angebotsseitig hauptsächlich Engpässe bei der Energieerzeugung oder Transportengpässe zu schwankenden Preisen führen, zeigen sich nachfrageseitig in erster Linie die Wetterverhältnisse für Preisvolatilitäten verantwortlich.

Ursache dafür ist die Kopplung des Stromeinsatzes an den Wärme- bzw. All diese Eigenschaften von Strom erschweren seinen Handel im Vergleich zu anderen Waren und müssen bei den Untersuchungen des Strommarktes berücksichtigt werden. Mit der Marktliberalisierung begann ein Verdrängungseffekt langfristiger Energielieferverträge durch kurzfristigere Kontrakte, deren Preis durch Angebot und Nachfrage geregelt wird.

Dieser Prozess wird als Kommoditisierung bezeichnet. Des Weiteren traten im Zuge der Liberalisierung neue Teilnehmer in den Energiemarkt ein und verliehen dem neugeschaffenen Wettbewerb zusätzliche Dynamik.

Die Tätigkeitsfelder der neuen Wettbewerber waren dabei diverser Natur. Neben neuen Energieanbietern drangen reine Energiehändler oder Anbieter von Risikomanagementdienstleistungen z. Banken auf den Markt. Auch Aggregatoren, deren Ziel die Nachfragebündelung mittlerer und kleiner Kunden zur Erreichung günstigerer Konditionen war, sahen nun ihre Chance, erfolgreich am Markt zu agieren. Broker vermittelten zwischen Käufer- und Verkäuferseite und Informati- onsanbieter versorgten andere Marktteilnehmer mit transaktionsrelevanten Daten.

Der verstärkte Wettbewerb zwang die Marktteilnehmer zur Umstrukturierung ihrer Pro- duktpalette. Während traditionell technische Kernkompetenzen an Bedeutung verloren, rück- ten Marketing- und Vertriebsaktivitäten in den Vordergrund. So wollte man der neuge- schaffenen Kundenorientierung gerecht werden. Von nun an sollte der Kunde die von ihm ge- wünschten Komponenten selbst zusammenstellen können. Ferner waren Konzentrationsprozesse auf dem Markt zu beobachten. Der zunehmende Preiskampf zwang viele Stromanbieter dazu, zu fusionieren oder strategische Allianzen einzugehen, um überhaupt auf dem liberalisierten markt überleben zu können.

Die neue geographische Aufteilung wird aus Abbildung 2 ersichtlich. Als Handelsmöglichkeiten für Energie im veränderten Marktumfeld kann zwischen börslichem Handel und dem sog. Dabei verpflichtet sich ein Vertragspartner zur Lieferung der Ware, der andere zur Abnahme und zur Zahlung des Kaufpreises. Neben der physischen Erfüllung, lässt sich hier auch eine rein finanzielle Erfüllung realisieren. Nachfolgend wird die Eignung der beiden Handelsformen für den Einsatz im Energiehandel diskutiert.

So kön- nen z. Lieferort oder Liefertermin frei ausgehandelt werden, wodurch den beteiligten Par- teien ein hoher Grad an Flexibilität zu Teil wird.

Die Ursache für die Standardisierung liegt in den unterschiedlichen Handelsintentionen der Marktteilnehmer. Um den individuellen Bedürfnissen aller Marktteilnehmer aber vollumfänglich gerecht zu werden, muss der börsliche Energiehandel durch OTC-Handel ergänzt werden. Unmittelbar mit dem Standardisierungsgrad verbunden sind die Transaktionskosten. Stattdessen werden Rahmenverträge geschlossen, die Vertragsinhalte wie Produktqualität oder Zahlungsmodalitäten regeln.

Auf Grund der damit verbundenen Zeitersparnis können Transaktionskosten gespart werden, denn als auszuhandelnde Vertragsparameter verbleiben lediglich Preis und Menge. Wesentlich geringere Transaktionskosten weist allerdings der börsliche Energiehandel mit seinen hochstandardiserten Produkten auf, welche vertragliche Absprachen überflüssig werden lassen.

Auch bezüglich der Anonymität des Agierens am Markt unterscheiden sich die beiden Handelsformen. Der Handel an einer Börse ermöglicht eine anonyme Geschäftsabwicklung. Bezüglich des Adressausfallrisikos ist der Börsenhandel ebenfalls zu bevorzugen, denn Börsen gewährleisten durch die Übernahme des Kreditrisikos die physische und finanzielle Erfüllung von Geschäften.

MarketMaker durch ständiges Einstellen von Kaufs- und Verkausfsorders dafür, dass die Liquidität jederzeit garantiert wird. Als Nebeneffekt der hohen Liquidität können Geschäfte jederzeit glattgestellt werden, d.

Dies ist auf dem OTC-Markt nicht möglich. Darüber hinaus zeichnet sich Börsenhandel grds. Ein offenes Auftragsbuch bietet allen Marktteilnehmern die ständige Möglichkeit, sich Ein- blick in die Geschehnisse des Marktes zu verschaffen. Ferner garantieren die Regelwerke der Börse einen für alle Akteure transparenten Preisbildungsprozess. Um Preis- und Marktmani- pulationen vorzubeugen, wird der Handel durch Aufsichtsorgane überwacht, welche ggf.

Somit wird zusätzlich das Vertrauen der Marktteilnehmer in die Preise gestärkt. Die zentrale Forderung liberalisierter Strommärkte nach einem neutralen, fairen und transparenten Marktplatz wird demnach von Energiebörsen erfüllt. Auf Grund ihrer vielfältigen Vorzüge sah man es EU-weit als notwendig an, Energiebörsen als integrierten Bestandteil liberalisierter Märkte einzuführen. Als Referenzbörse wurde in diesem Zusammenhang häufig die skandinavische Energiebörse Nordpool mit Sitz in Oslo herangezogen.

Sie war die erste internationale Strombörse der Welt und diente wegen ihres Erfolges vielen anderen Energiebörsen als Orientierung hinsichtlich Markt- und Produktauf- bau. Ende der er Jahre war auch für den deutschen Markt die Einführung einer Energiebörse beschlossene Sache. Lediglich über die konkrete Ausgestaltungsform des Marktplatzes musste man sich noch einigen.

Zunächst galt es, die Frage nach dem passenden Einführungszeitpunkt und einem geeigneten Standort für die Börse zu klären. Da im Jahre bereits einige europäische Strombörsen ihren Betrieb aufgenommen hatten und man verhindern wollte, eine vergleichbare Entwick- lung auf dem deutschen Markt zu verpassen, war man sich darüber einig, dass die Errichtung einer Strombörsen für den deutschen Markt rasch vonstatten gehen musste. Ebenso herrschte Konsens darüber, dass aus Gründen der Liquidität langfristig nur eine deutsche Strombörse existieren könne.

Juni eine Empfehlung für eines der Börsenmodelle auszusprechen. Wichtige Empfehlungskriterien waren dabei neben der schnellen Bereitstellung des Handelssystems und Referenzen auch Trägerorganisationen, möglichst geringe Transaktionskosten und Flexibilität hinsichtlich künftiger Änderungen der Rahmenbedingungen. Da aber Berlin seine Bewerbung kurzerhand zu Gunsten des Leipziger Modells zurückzog, verblieben für die Projektgruppe vier zu untersuchende Initiativen.

Durch die Angliederung an die Warenterminbörse in Hannover. Ebenso sollten Erfahrungen mit anderen Warentermingeschäften der Börsenaktivität zu einem reibungslosen Start verhelfen. Durch die Koordinierung der Pläne in der sog. Zum Zeitpunkt der Untersuchung durch die Projektgruppe befand sich das Düsseldorfer Konzept jedoch erst im Status der Machbarkeitsprüfung.

Im Unterschied zu den Konzepten aus Hannover und Düsseldorf lag die Intention des Frank- furter Modells nicht in der Erweiterung bereits bestehender Börsenstrukturen, sondern in der Errichtung einer neuen unabhängigen Strombörse.

Unter der Federführung der Deutschen Bör- se AG sollte eine allgemein akzeptierte deutsche Strombörse unter Einbeziehung aller betei- ligten Interessengruppen aufgebaut werden. Mit Leipzig reichte der einzige Bewerber aus Ostdeutschland sein Börsenkonzept bei der Pro- jektgruppe ein. Auch hier sollte Strom sowohl an einem Spot- als auch an einem Terminmarkt gehandelt werden können.

Zunächst sollte allerdings ein Spotmarkt etabliert werden. Der Leipziger Antrag wurde von einer Reihe strategischer Partner unterstützt. Leipzig warb mit der Neutralität des Börsenstandortes und einem exakt auf den deutschen Markt zugeschnittenen Modell. Juni eine Empfehlung für den Standort Frankfurt aus. Ihrer Meinung nach entsprach das Frankfurter Konzept am besten den an einen Strombörsenstandort gestellten Anforderungen.

Statt des Handels mit Strom sollte nun in Düsseldorf eine Telekommunikationsbörse entstehen, während man sich in Hannover auf Heizöl-Futures spezialisierte. Die Initiatoren des Leipziger Konzepts wollten sich hingegen nicht so einfach geschlagen geben und beschlossen, den Wettbewerb über die Standortfrage entscheiden zu lassen.

Infolgedessen existierten mit den Projekten aus Frankfurt und Leipzig weiterhin zwei Konzepte für eine deutsche Energiebörse. Durch die Beteiligung der Nordpool konnte man auf wertvolle Erfahrungswerte der nordischen Kollegen zurückgreifen. Niedrig gewählte Handelseinstiegsmengen machten die LPX auch für kleine und mittlere Unternehmen interessant. Die Frankfurter EEX entstand als eine Koproduktion der deutschen und der schweizerischen Energiewirtschaft, wobei die Schweiz wegen ihrer zentralen Lage in Europa und der damit verbundenen Drehscheibenfunktion der ideale Kooperationspartner war.

Ihr Konzept sah vor, alle wichtigen Vertreter der Energiewirtschaft von Anfang an in die Planung einzubeziehen. Die Tatsache, dass alle Verbundunternehmen als Gesellschafter an der EEX beteiligt waren, stellte eine breite Akzeptanz der angebotenen Produkte und Handelsabläufe sicher.

Der Börsenhandel startete am Ein Terminmarkt sollte nach dem Vorbild der Nordpool erst dann eingerichtet werden, wenn der Spotmarkt über ausreichende Liquidität verfügt.

Auch hier wurde zunächst ein Spotmarkt eingeführt. Im weiteren Verlauf kam es an beiden Handelsplätzen zu einem Zuwachs an Handelsvolumen. Die rasantere Entwicklung wurde allerdings an der Leipziger Börse beobachtet.

Aus- schlaggebend dafür war ihre Kooperation mit der Gruppe Deutsche Börse, die bestehende Infrastrukturen bereitstellte, wohingegen der Wettbewerber aus Leipzig seinen Terminmarkt komplett neu aufbauen musste. Da das Handelsvolumen am neugegründeten Frankfurter Ter- minmarkt jedoch weit hinter den Erwartungen zurückblieb, währte dieser Wettbewerbsvorteil nicht lange.

In der Folgezeit drängten die Marktteilnehmer beider Handelsplätze immer mehr auf eine Fu- sion der beiden Energiebörsen. Gleichzeitig existierten aber zwei Terminmärkte mit ähnlichen Produkten nebeneinander und entzogen sich damit gegenseitig Liquidität. Jura - Medienrecht, Multimediarecht, Urheberrecht. BWL - Handel und Distribution. Politik - Internationale Politik - Klima- und Umweltpolitik.

VWL - Wettbewerbstheorie, Wettbewerbspolitik. Hausarbeit, Bachelorarbeit, Diplomarbeit, Dissertation, Masterarbeit, Interpretation oder Referat jetzt veröffentlichen! Fordern Sie ein neues Passwort per Email an. Inhaltsverzeichnis Abkürzungsverzeichnis Abbildungsverzeichnis Symbolverzeichnis 1. Zusammenfassung und Ausblick Literaturverzeichnis Abkürzungsverzeichnis Abbildung in dieser Leseprobe nicht enthalten Abbildungsverzeichnis Abbildung 1: Monopolanbieter der Versorgungsgebiete in Deutschland vor Abbildung 2: Aufteilung des deutschen Energiemarktes nach der Liberalisierung Abbildung 3: Allokationsfunktion der Börse Abbildung 4: Wertschöpfungskette eines EVU Abbildung 5: Handelsphasen für Stundenkontrakte auf Strom Abbildung 8: Handelsphasen für Blockkontrakte auf Strom Abbildung 9: Auftragsbuch vor Feststellung des Auktionspreises Abbildung Preisfeststellung im fortlaufenden Handel Abbildung Fortlaufender Handel - Auftragsbuch vor oben und nach unten Eingabe eines ausführbaren Verkaufsauftrages Abbildung Beschaffungsoptimierung mit Portfoliomanagement Abbildung Beschaffungspreisabsicherung eines Industrieunternehmens durch den Kauf von Call-Optionen Abbildung Ökonomische und physische Zurückhaltung Abbildung Vergleich von Grenzkosten und Marktpreisen Einleitung Mit der Liberalisierung des Strommarktes im Jahre ergaben sich weitreichende Ver- änderungen für den deutschen Energiemarkt.

Abbildung in dieser Leseprobe nicht enthalten Abbildung 1: