Inhaltsverzeichnis
1 Einleitung. - 2 Die grundlegenden Begriffe der Dynamischen Programmierung. - 2. 1 Optimalitätsprinzip: Jede Unterpolitik einer optimalen Politik ist optimal. - 2. 2 Rekursive Berechnung der optimalen Entscheidung. - 2. 3 Bedingungen für die Anwendbarkeit der Dynamischen Programmierung und Begriff der Zustands- und Entscheidungsvariablen. - 2. 4 Begriffe: Planungshorizont, Diskontierung, Politik. - 3 Dynamische Programmierung und Markov-Prozesse. - 3. 1 Beispiel eines Markov-Prozesses. - 3. 2 Bewertung von Markov-Prozessen. - 3. 3 Sequentielle Entscheidungen in Markov-Prozessen. - 3. 4 Die Politik-Iteration für die Lösung von sequentiellen Entscheidungsprozessen. - 3. 5 Beispiel: Anwendung der Politik-Iteration im Taxibetrieb. - 3. 6 Beispiel: Anwendung der Politik-Iteration beim Ersetzen von Autos. - 3. 7 Beispiel: Produktionsplanung und Lagerhaltung (Beispiel mit Hilfe der Theorie der Markov-Prozesse betrachtet). - 4 Dynamische Programmierung und Computer-Kapazität. - 4. 1 Eignung des Computers für das Dynamische Programmieren. - 4. 2 Speicherbedarf. - 4. 3 Rechenzeit. - 4. 4 Lineares, Nichtlineares und Dynamisches Programmieren.