Die Videospielebranche hat den größten Unterhaltungssektor unserer Zeit geschaffen, der schnell wächst und das Leben vieler Generationen weltweit beeinflusst. Besonders hochkomplexe Spiele erfordern jedoch, dass Spieler über leistungsstarke Hardware verfügen. So wurde in den letzten Jahren ein neues Konzept namens Cloud Gaming entwickelt, mit dem Nutzer diese Spiele, die auf einem Cloud-Server ausgeführt werden, fernsteuern können. Während der Ansatz verschiedene Vorteile mit sich bringt, stellt die zusätzliche Netzwerkverbindung und Videoverarbeitung viele neue technische Herausforderungen für Netzbetreiber und Dienstanbieter. Um diese Hindernisse zu überwinden und die Zufriedenheit ihrer Kunden zu gewährleisten, haben Unternehmen ein starkes Interesse daran, das Nutzungserleben (Quality of Experience, QoE) der Spieler zu untersuchen und vorherzusagen. Traditionelle QoE-Evaluierungen von Multimediadiensten verwenden kontrollierte subjektive Experimente, bei denen die Teilnehmer gebeten werden, ihre Meinung zu präsentierten Stimuli, z. B. einer Netzwerkbedingung, unter Verwendung validierter Fragebögen nachträglich zu äußern. Um diesen Beurteilungsprozess zu beschreiben, schlagen Möller und Kollegen (2013) eine Taxonomie der Qualitätsaspekte von Cloud-Gaming-Systemen vor. Die Anwendbarkeit etablierter Bewertungsmethoden zur Messung des hochgradig mehrdimensionalen Konstrukts der Gaming-QoE ist jedoch sehr begrenzt. Da sich das Gebiet der Gaming-QoE noch in der Anfangsphase befindet, fehlen validierte Bewertungsmethoden, die speziell für Cloud-Gaming-Dienste entwickelt wurden. Ziel der vorgestellten Forschung ist es daher, eine umfassende, zuverlässige und validierte Bewertungsmethode für die Gaming-QoE für Cloud-Gaming-Dienste zu entwickeln und zu evaluieren. Die Methode ermöglicht die Gestaltung subjektiver Tests zur Erstellung von Datensätzen für Qualitätsvorhersagemodelle und ermöglicht ein detailliertes Verständnis der Beziehungen zwischen einer Vielzahl von Qualitätsaspekten. Als erster Schritt in Richtung eines einheitlichen Evaluierungsansatzes wurden verfügbare Fragebögen auf kompakte Weise zusammengefasst. Da kein Messinstrument zur Bewertung der Interaktionsqualität identifiziert wurde, wurde ein neuer Fragebogen, die Gaming Input Quality Scale (GIPS), entwickelt. Darüber hinaus wurde für dessen Erstellung ein neues Framework zur Bewertung der Gaming-QoE mithilfe eines Crowdsourcing-Ansatzes entworfen. Zuletzt wurde die Evaluierungsmethode basierend auf einem großen Datensatz, der dominante Netzwerk-und Codierungsbedingungen umfasst, unter Verwendung der Strukturgleichungsmodellierung untersucht. Die Forschung ergab, dass das Crowdsourcing-Framework vergleichbare Ergebnisse wie Laborstudien liefern kann. Zudem wurde gezeigt, dass die entwickelte Evaluierungsmethode zuverlässige und gültige Benutzerbewertungen liefert und gleichzeitig ein Testdesign ermöglicht, das zur Entwicklung von Qualitätsvorhersagemodellen geeignet ist. Zusammenfassend sind die Hauptbeiträge der Arbeit (1) eine empirische Validieru...