• Home
  • Über uns
  • Publizieren
  • Katalog
  • Newsletter
  • Hilfe
  • Account
  • Kontakt / Impressum
Dissertation - Publikationsreihe - Tagungsband - Fachbuch - Vorlesungsskript/Lehrbuch - Zeitschrift - CD-/DVD-ROM - Online Publikation
Suche im Gesamtkatalog - Rezensionen - Lizenzen
Newsletter für Autoren und Herausgeber - Neuerscheinungsservice - Archiv
Warenkorb ansehen
Katalog : Details

Niklas Panten

Deep Reinforcement Learning zur Betriebsoptimierung hybrider industrieller Energienetze

VorderseiteRückseite
 
ISBN:978-3-8440-7036-1
Reihe:Schriftenreihe des PTW: "Innovation Fertigungstechnik"
Herausgeber: Prof. Dr.-Ing. Eberhard Abele, Prof. Dr.-Ing. Joachim Metternich und Prof. Dr.-Ing. Matthias Weigold
Darmstadt
Schlagwörter:Industrie; Energiesysteme; Betriebsoptimierung; Künstliche Intelligenz; Deep Reinforcement Learning
Publikationsart:Dissertation
Sprache:Deutsch
Seiten:322 Seiten
Abbildungen:110 Abbildungen
Gewicht:413 g
Format:21 x 14,8 cm
Bindung:Paperback
Preis:49,80 € / 62,30 SFr
Erscheinungsdatum:November 2019
Kaufen:
  » zzgl. Versandkosten
Download:

Verfügbare Online-Dokumente zu diesem Titel:

Sie benötigen den Adobe Reader, um diese Dateien ansehen zu können. Hier erhalten Sie eine kleine Hilfe und Informationen, zum Download der PDF-Dateien.

Bitte beachten Sie, dass die Online-Dokumente nicht ausdruckbar und nicht editierbar sind.
Bitte beachten Sie auch weitere Informationen unter: Hilfe und Informationen.

 
 DokumentGesamtdokument 
 DateiartPDF 
 Kosten37,35 EUR 
 AktionZahlungspflichtig kaufen und anzeigen der Datei - 51,1 MB (53581419 Byte) 
 AktionZahlungspflichtig kaufen und download der Datei - 51,1 MB (53581419 Byte) 
     
 
 DokumentInhaltsverzeichnis 
 DateiartPDF 
 Kostenfrei 
 AktionAnzeigen der Datei - 230 kB (235877 Byte) 
 AktionDownload der Datei - 230 kB (235877 Byte) 
     

Benutzereinstellungen für registrierte Online-Kunden

Sie können hier Ihre Adressdaten ändern sowie bereits georderte Dokumente erneut aufrufen.

Benutzer:  Nicht angemeldet
Aktionen:  Anmelden/Registrieren
 Passwort vergessen?
Weiterempfehlung:Sie möchten diesen Titel weiterempfehlen?
Rezensionsexemplar:Hier können Sie ein Rezensionsexemplar bestellen.
Verlinken:Sie möchten diese Seite verlinken? Hier klicken.
Export Zitat:
Text
BibTex
RIS
Zusammenfassung:Gesetzliche Vorgaben, das wachsende Umweltbewusstsein von Konsumenten und steigende Energiepreise drängen Unternehmen zu mehr Nachhaltigkeit in der Produktion. Für die Versorgung von Produktionsanlagen und die Temperierung der Produktionsstätten werden in der Industrie durch interagierende Wandler, Speicher und Netze unterschiedliche Energiedienstleistungen bereitgestellt. Eine Vielzahl stochastischer Störgrößen haben dabei Einfluss auf den Wirkungsgrad und die spezifischen Betriebskosten. Aufgrund der Komplexität führen weit verbreitete konventionelle Regelansätze oft zu suboptimalem Betriebsverhalten.
In der vorliegenden Arbeit wird mit einem Deep Reinforcement Learning Ansatz ein Verfahren der Künstlichen Intelligenz untersucht, um durch Interaktion eines intelligenten Agenten mit verschiedenen Energiesystemen eine nach multiplen Zielgrößen optimierte Betriebsstrategie zu erlernen. Dafür wird ein flexibles, kaskadiertes Optimierungskonzept erarbeitet, welches eine risikoarme Implementierung und Erprobung von datengestützt erlernten Betriebsstrategien ermöglicht. Um synthetische Daten für das Training zu generieren und das Verfahren zu evaluieren, wird eine umfangreiche Simulationsbibliothek zur Erstellung digitaler Zwillinge von Energiesystemen entwickelt und durch eine effiziente Schnittstelle an die lernenden Algorithmen angebunden.
Unter bestehenden DRL-Varianten werden wesentliche Merkmale herausgearbeitet, ein leistungsstarker Algorithmus selektiert und implementiert. Nach Parametrierung des Verfahrens kann durch Simulationsstudien die Vorteilhaftigkeit durch Reduktion von Energiekosten und Lastspitzen gezeigt werden. Zeitgleich werden die Grenzen des Ansatzes aufgezeigt, Schwachstellen kritisch diskutiert und weiterer Forschungsbedarf identifiziert.