Inhalt
Index
DeskTop Bronstein
Inhaltsseiten:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
Optimierung
19
20
21
22
23
24
25
Lineare Optimierung
Problemstellung und geometrische Darstellung
Formen der linearen Optimierung
Gegenstand
Allgemeine Form
Formulierung mit vorzeichenbeschränkten Variablen und Schlupfvariablen
Zulässiger Bereich
Beispiele und graphische Lösungen
Beispiel Herstellung zweier Produkte:
Eigenschaften linearer Optimierungsprobleme
Grundbegriffe der linearen Optimierung, Normalform
Ecke und Basis
Definition der Ecke und Satz über die Ecke
Basis
Ecke mit maximalem Funktionswert
Normalform der linearen Optimierungsaufgabe
Normalform und Basislösung
Ermittlung der Normalform
Simplexverfahren
Simplextableau
Übergang zum neuen Simplextableau
Nichtentarteter Fall
Entarteter Fall
Bestimmung eines ersten Simplextableaus
Hilfsprogramm und künstliche Variable
Fallunterscheidung
Revidiertes Simplexverfahren
Revidiertes Simplextableau
Revidierter Simplexschritt
Dualität in der linearen Optimierung
Zuordnung
Dualitätsaussagen
Einsatzgebiete der dualen Aufgabe
Spezielle lineare Optimierungsprobleme
Transportproblem
Modell
Ermittlung einer zulässigen Basislösung
Lösung des Transportproblems mit der Potentialmethode
Zuordnungsproblem
Verteilungsproblem
Rundreiseproblem
Reihenfolgeproblem
Nichtlineare Optimierung
Problemstellung und theoretische Grundlagen
Problemstellung
Nichtlineares Optimierungsproblem
Minimalpunkte
Optimalitätsbedingungen
Spezielle Richtungen
Notwendige Optimalitätsbedingung
Lagrange-Funktion und Sattelpunkt
Globale Kuhn-Tucker-Bedingungen
Hinreichende Optimalitätsbedingung
Lokale Kuhn-Tucker-Bedingungen
Notwendige Optimalitätsbedingung und Kuhn-Tucker-Bedingungen
Dualität in der Optimierung
Spezielle nichtlineare Optimierungsaufgaben
Konvexe Optimierung
Konvexe Aufgabe
Optimalitätsbedingungen
Quadratische Optimierung
Aufgabenstellung
Lagrange-Funktion und Kuhn-Tucker-Bedingungen
Konvexität
Duales Problem
Lösungsverfahren für quadratische Optimierungsaufgaben
Verfahren von Wolfe
Aufgabenstellung und Lösungsprinzip
Verfahren von Hildreth-d'Esopo
Prinzip
Iterationslösung
Numerische Suchverfahren
Eindimensionale Suche
Aufgabenstellung, gleichmäßige Suche
Verfahren des Goldenen Schnittes und Fibonacci-Verfahren
Minimumsuche im n-dimensionalen euklidischen Vektorraum
Verfahren für unrestringierte Aufgaben
Verfahren des steilsten Abstieges (Gradientenverfahren)
Anwendung des Newton-Verfahrens
Verfahren der konjugierten Gradienten
Verfahren von Davidon, Fletcher und Powell (DFP)
Evolutionsstrategien
Evolutionsprinzipien
Mutation
Rekombination
Selektion
Evolutionsalgorithmus
Klassifizierung
Erzeugung von Zufallszahlen
Einsatzgebiete der Evolutionsstrategien
(1+1)-Mutations-Selektions-Strategie
Mutationsschritt
Selektionsschritt
Schrittweitensteuerung
Populationsstrategien
(mu+lambda)-Evolutionsstrategie
(mu,lambda)-Evolutionsstrategie
(mu/rho + lambda)- und (mu/rho,lambda)-Evolutionsstrategien mit Rekombination
Evolutionsstrategien mit mehreren Populationen
Gradientenverfahren für Probleme mit Ungleichungsrestriktionen
Verfahren der zulässigen Richtungen
Richtungssuchprogramm
Spezialfall linearer Restriktionen
Verfahren der projizierten Gradienten
Aufgabenstellung und Lösungsprinzip
Algorithmus
Bemerkungen zum Algorithmus
Straf- und Barriereverfahren
Strafverfahren
Barriereverfahren
Schnittebenenverfahren
Aufgabenstellung und Lösungsprinzip
Verfahren von Kelley
Diskrete dynamische Optimierung
Diskrete dynamische Entscheidungsmodelle
n-stufige Entscheidungsprozesse
Dynamische Optimierungsprobleme
Beispiele diskreter Entscheidungsmodelle
Einkaufsproblem
Rucksackproblem
Bellmannsche Funktionalgleichungen
Eigenschaften der Kostenfunktion
Separierbarkeit
Minimumvertauschbarkeit
Formulierung der Funktionalgleichungen
Bellmannsches Optimalitätsprinzip
Bellmannsche Funktionalgleichungsmethode
Bestimmung der minimalen Kosten
Bestimmung der optimalen Politik
Beispiele zur Anwendung der Funktionalgleichungsmethode
Optimale Einkaufspolitik
Problemstellung
Zahlenbeispiel
Rucksackproblem
Problemstellung
Zahlenbeispiel