Diese Arbeit befasst sich mit der Quantifizierung von Unsicherheiten sowie der Optimierung unter Unsicherheiten. Dabei betrachten wir insbesondere Unsicherheiten, die im Herstellungsprozess von Produkten zustande kommen, bspw. durch Ungenauigkeiten in der Herstellung, natürliche Materialschwankungen oder Umwelteinflüsse. Diese Unsicherheiten können zu Schwankungen in der Geometrie oder im Material führen, die wiederum Schwankungen in der Funktionsweise des Produkts auslösen können. Als Yield bezeichnen wir den Anteil aller Produkte in einem Herstellungsprozess mit Unsicherheiten, der alle Leistungsanforderungen erfüllt. Somit ist der Yield das Gegenteil zur Fehler-oder Ausfallwahrscheinlichkeit (Yield = 1 -Fehlerwahrscheinlichkeit). Er dient als Maß für die (Un)sicherheit. Das Hauptziel dieser Arbeit ist die effiziente Abschätzung und die Maximierung des Yields. Damit wird die Zuverlässigkeit eines Produkts erhöht, was wiederum den Ausschuss reduziert und somit Ressourcen, Geld und Zeit einspart. Ein zentrales Forschungsthema ist die Reduzierung des Rechenaufwands bei der Yield Abschätzung, ohne Genauigkeit einzubüßen. Im Rahmen dieser Arbeit wurden zwei hybride Yield Abschätzungsmethoden entwickelt. Es handelt sich um stichprobenbasierte Ansätze, bei denen ein Großteil der Zufallsstichprobe auf einem Ersatzmodell ausgewertet wird und nur eine kleine Menge an sogenannten kritischen Datenpunkten auf dem ursprünglichen Modell. Das SC-Hybrid Verfahren basiert auf stochastischer Kollokation und adjungierten Fehlerindikatoren, das nicht-intrusive GPR-Hybrid Verfahren verwendet Gauß Prozess Regression und ermöglicht fortlaufende Verbesserungen des Ersatzmodells. Zur effizienten Yield Optimierung wird das adaptive Newton-Monte-Carlo (Newton-MC) Verfahren vorgestellt. Eine Steigerung der Effizienz wird durch adaptive Anpassung der Stichprobengröße erreicht. Ein weiteres Thema der Arbeit ist die Optimierung von Problemen mit gemischten Gradienteninformationen, d.h. die Ableitungen der Zielfunktion sind nur bzgl. einem Teil der Optimierungsvariablen verfügbar. Die Verwendung von gradientenbasierten Lösern wie dem adaptiven Newton-MC würde die rechenaufwendige Approximation der fehlenden Ableitungen erfordern. Wir stellen zwei Optimierungverfahren vor, die wir für genau diesen Fall entwickelt haben: die Hermite least squares und Hermite BOBYQA Optimierung. Beide sind Modifikationen des ursprünglich ableitungsfreien Lösers BOBYQA (Bound constrained Optimization BY Quadratic Approximation), die jedoch Ableitungsinformationen verarbeiten können und Regression anstelle von Interpolation verwenden. Ein Vorteil der Hermite-Methoden ist außerdem die Robustheit bei verrauschten Zielfunktionen. Die globale Konvergenz der Verfahren wird bewiesen. In der Yield Optimierung ist der Fall von gemischten Gradienteninformationen besonders relevant, wenn neben Gaußverteilten unsicheren Optimierungsvariablen auch deterministische oder anders verteilte unsichere Optimierungsvariablen auftreten. Die vorgestellten Methoden sind auf jegliche von ...