Information Entropy-Based Decision Making in Optimization

This thesis connects the optimization of stochastic functions and information theory in a new way. New methods for the optimization of stochastic functions are proposed. These methods have been developed with regard to the optimization of non-imaging optical systems whose performance must be evaluat...

Ausführliche Beschreibung

Gespeichert in:
1. Verfasser: Schmidt, Tobias Christian
Beteiligte: Ries, H. (Prof. Dr.) (BetreuerIn (Doktorarbeit))
Format: Dissertation
Sprache:Englisch
Veröffentlicht: Philipps-Universität Marburg 2009
Physik
Schlagworte:
Online Zugang:PDF-Volltext
Tags: Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
Inhaltsangabe:
  • In der vorliegenden Arbeit wird eine neue Verbindung zwischen dem Gebiet der Optimierung stochastischer Funktionen und der Informationstheorie geschaffen. Es werden neue Methoden zur Optimierung von stochastischen Funktionen vorgestellt. Die Methoden wurden im Hinblick auf die Optimierung von nichtabbildenden Optiken entwickelt, deren Güte in Simulationen durch Strahlverfolgung nach der Monte-Carlo-Methode evaluiert werden muss, lassen sich jedoch auf andere Anwendungen übertragen. Eine stochastische Funktion ist eine Funktion, deren Funktionswerte bei gegebenen Argumenten nicht direkt berechnet werden, sondern nur mithilfe von Zufallsexperimenten abgeschätzt werden können. Die Elemente des Definitionsbereiches einer stochastischen Funktion werden als Konfigurationen bezeichnet. In der vorliegenden Arbeit wird die Informationsentropie für Entscheidungen, die im Verlauf von Optimierungen stochastischer Funktionen getroffen werden, nutzbar gemacht. Auf diese Weise ist es möglich, sehr effiziente Entscheidungen zu treffen. Effizienz bedeutet in diesem Zusammenhang, dass möglichst viel Information über das Optimum pro Aufwand gewonnen wird. Mit dem Konzept der Informationsentropie wird der Informationsgehalt der Daten, die während der Optimierung gesammelt werden, berechnet. Es werden auf diesem Informationsmaß beruhende Entscheidungskriterien formuliert, mit deren Hilfe im Lauf der Optimierung die Anzahlen der Zufallsexperimente, die für die Konfigurationen durchgeführt werden, dem Bedarf angepasst werden. Für jede zur Auswahl stehende Option wird der erwartete Informationsgewinn berechnet, dann wird die Option mit dem größten erwarteten Informationsgewinn gewählt. Es werden, dieser Methode folgend, drei verschiedene Optimierungsstrategien entwickelt und getestet. Jede dieser Strategien arbeitet mit einer anderen Klasse von Optimierungsaufgaben. Das Konzept der Informationsentropie wird auch für „Ranking and Selection“ angewendet. Unter „Ranking and Selection“ versteht man Methoden, die den Zweck haben aus einer vorgegebenen Menge von Alternativen eine kleine Teilmenge auszuwählen, die mehrere gute Alternativen enthält.