Your address will show here +12 34 56 78
Expactation Ratings beschreibt das Verhältnis, wie ProbandInnen Aufgaben bzgl. der Einfachheit oder Schwierigkeit nach Durchführung beurteilen, im Verhältnis zur Wahrnehmung vor der Durchführung des Tasks. Vor der Durchführung bewerten ProbandInnen die erwartete Schwierigkeit aller geplanten Aufgaben (expactation ratings), anschließend werden nach Durchführung des Szenarios die Post-Task Bewertungen gesammelt (experience rating). Fragen könnten folgendermaßen lauten:
  • Vor Durchführung: „How difficult or easy do you expect this task to be?“
  • Nach Durchführung: „How difficult or easy did you find this task to be?” (Vgl. Sauro/Lewis, 2012, S. 215f.)
 
Aufgrund der Tatsache der Vorher/Nachher-Befragung ist es möglich, die Ergebnisse in einem Streudiagramm mit vier Quadranten einzugliedern:
  • Links oben „Promote it“: Hier sind alle Aufgaben angeordnet, welche ProbandInnen zuvor als schwierig beurteilten, sich im Nachhinein aber als einfacher als erwartet herausstellten. Diese Eigenschaften werden in der Regel hervorgehoben.
  • Links unten „Big opportunity“: Diese Tasks wurden davor und danach als schwierig eingestuft und stellen Potential für Verbesserung dar.
  • Rechts oben „Don‘t touch it“: Dieser Quadrant beinhaltet Aufgaben, welche vor und nach Durchführung als leicht beurteilt wurden. Diese können ignoriert werden.
  • Rechts unten „Fix it fast“: Hier sind jene Aufgaben angesiedelt, die von NutzerInnen zuvor als einfach wahrgenommen wurden, sich aber als schwierig herausstellten. Dieser Quadrant zeigt einen hohen Anteil an Unzufriedenheit und stellt den größten Bedarf an Verbesserung dar. (Vgl. Sauro/Lewis, 2012, S. 216.)
ER

Abbildung: Expactation Ratings Quadranten

(Abbildung entnommen aus: Rich/McGee, 2004, S. 914.)

 
 
 
0

Der SMEQ wurde 1985 von Zijlstra/van Doorn, ursprünglich unter der Bezeichnung Rating Scale for Mental Effort (RSME), entwickelt. Es handelt sich hier ebenfalls wieder um eine Einzelfrage mit einer Bewertungsskala von null bis 150 (etwas über null ist bezeichnet mit „Not at all hard to do“ und etwas über 110 mit „Tremendously hard to do“). (Vgl. Sauro/Lewis, 2012, S. 214.)

SMEQ

Abbildung: Subjective Mental Effort Question Fragen-Auszug

(Abbildung entnommen aus: Sauro/Lewis, 2012, S. 215.)

0

Die SEQ konzentriert sich, wie der Name schon sagt, nur auf eine einzige Frage: „Overall, how difficult or easy was the task to complete?“ oder auch „Overall, how difficult or easy did you find this task?“. Es geht darum herauszufinden, wie ProbandInnen die Einfachheit einer abgeschlossenen Aufgabe bewerten (ähnlich wie Frage eins des ASQ). (Vgl. Sauro/Lewis, 2012, S. 214.)


SEQ

Abbildung: Single Ease Question Frage

(Abbildung entnommen aus: Sauro, 2012.)

 
 
0

Der ASQ wurde zur selben Zeit wie der bereits zuvor erwähnte PSSUQ entwickelt. Der ASQ besteht aus drei Elementen, welche jeweils wiederum anhand einer siebenstufigen Likert-Skala von „strongly agree (=1)“ bis „strongly disagree (=7)“ bewertet werden (selbes Format wie der PSSUQ). Der ASQ konzentriert sich auf die Themen „ease of task completion, satisfaction with completion time“ und „satisfaction with support information“. Wie der PSSUQ steht auch der ASQ ohne Einschränkung frei zur Verfügung. (Vgl. Lewis, 1990, S. 78f.)


ASQ

Abbildung 25: After-scenario Questionnaire Fragen-Auszug

(Abbildung entnommen aus: Sauro/Lewis, 2012, S. 213.)

 
0

Basierend auf dem SUS, wurde die Usability Metric for User Experience entwickelt. UMUX konzentriert sich allerdings auf die Usability-Definition von ISO 9241-11. Gemessen wird die subjektive Bewertung der wahrgenommenen Usability von ProbandInnen anhand einer siebenstufigen Likert-Skala. Im Gegensatz zum SUS besteht UMUX aus vier Fragen, wobei eine den generellen Aspekt abdeckt und die anderen jeweils die Komponenten Effektivität, Effizienz und Zufriedenheit. (Vgl. Finstad, 2010, S. 323ff.)


UMUX

Abbildung: Usability Metric for User Experience Fragen-Auszug

(Abbildung entnommen aus: Finstad, 2010, S. 326)

 
0

Der SUS wurde Mitte der 1980er Jahre von John Brooke entwickelt. (Vgl. Brooke, 1996, S. 189ff.) Der SUS ist einer der populärsten Post-Study Fragebögen. Wie Sauro/Lewis in ihrer Studie feststellten, wurde der SUS von 43% der untersuchten Studien angewendet. Der SUS besteht aus zehn Fragen und die Beantwortung findet anhand einer fünfstufigen Likert-Skala von „stongly disagree (=1)“ bis „strongly agree (=5)“ statt. Die zehn Elemente wurden aus einem Fragenpool von insgesamt 50 Fragen gewählt. 20 ProbandInnen wurden gebeten, eine Software-Anwendung mit allen 50 Fragen zu bewerten. Jene zehn Punkte, welche die größte Unterscheidung zwischen den Systemen aufwiesen, wurden gewählt. Es wird empfohlen, den SUS direkt im Anschluss einer Aktivität, noch vor einer weiteren Diskussion oder einem De-Briefing, auszufüllen. Der Software Usability Scale steht lizenzfrei zur Verfügung. (Vgl. Sauro/Lewis, 2012, S. 198ff.) Der SUS ist ein reliables und valides Instrument zur Messung der wahrgenommen Usability. (Vgl. Sauro, 2011.)


SUS

Abbildung 23: Software Usability Scale Fragen-Auszug

(Abbildung entnommen aus: Sauro/Lewis, 2012, S. 198.)

 
0

Der PSSUQ ist ein standardisierter Fragebogen zur Messung der wahrgenommen Zufriedenheit von Computer-Systemen durch EndanwenderInnen. Er basiert ursprünglich auf dem von IBM Ende der 1980er Jahre initiierten Projekt SUMS (System Usability MetricS). Ziel des SUMS war es, Methoden für das Messen von System-Usability, Performance, Usability-Problemen und Zufriedenheit zu validieren und dokumentieren. Der PSSUQ ist eine Weiterentwicklung des CSUQ (Computer System Usability Questionnaire). (Vgl. Lewis, 2002, S. 464.) Die beiden Fragebögen sind, bis auf die Formulierung, ident. Die erste Version des PSSUQ bestand aus 18 Elementen und beinhaltete die vier Bereiche „quick completion of work, ease of learning, high-quality documentation and online information“ sowie „functional adequacy“ ab. Die fünfte Charakteristik „rapid aquisition of productivity“ hingegen konnte noch nicht abgedeckt werden, woraufhin eine weitere Frage ergänzt wurde. In Version zwei des PSSUQ wurde allerdings festgestellt, dass die Fragen drei, fünf und 13 relativ wenig zur Reliabilität des PSSUQ beitrugen. Somit wurden diese drei Fragen entfernt und Version drei des PSSUQ wurde veröffentlicht. Die jeweiligen Fragen werden auf einer siebenstufigen Likert-Skala von „strongly agree (=1)“ bis „strongly disagree (=7)“ beantwortet. Der PSSUQ steht lizenzfrei zur Verfügung. (Vgl. Sauro/Lewis, 2012, S. 192f.)

PSSUQ

Abbildung: Post-study System Usability Questionnaire Fragen-Auszug
(Abbildung entnommen aus: Sauro/Lewis, 2012, S. 193.)

 
0

Das SUMI wurde an der University College Cork in Irland entwickelt und basiert ursprünglich auf dem CUSI (Computer Usability Satisfaction Inventory). Anfang der 1990er Jahr wurde das CUSI vom SUMI abgelöst. Das SUMI basiert auf einem 50-Elemente Fragebogen, unterteilt in eine globale Skala mit 25 Elementen und einer Aufteilung in die fünf Sub-Skalen Efficiency, Affect, Helpfulness, Control und Learnability. Jedes einzelne Element wird durch drei Eigenschaften bewertet: Agree, undecided, disagree. Diese sind durch positive und negative Aussagen charakterisiert. Die Verwendung des Fragebogens setzt eine Lizenzierung der Human Factors Research Group (HFRG) voraus. Das SUMI ist in zwölf Sprachen verfügbar. (Vgl. Sauro/Lewis, 2012, S. 190f.)

SUMI

Abbildung: Software Usability Measurement Inventory Fragen-Auszug

(Abbildung entnommen aus: http://sumi.ucc.ie/en/ [23.06.2013].)

 
0

Der QUIS wurde 1988 an der University of Maryland erstmals publiziert. Ziel der Wissenschaftler war es, die subjektive Zufriedenheit von NutzerInnen mit bestimmten Aspekten des Mensch-Computer-Interaktion zu messen. (Vgl. Chin/Diehl/Norman, 1988, S. 213.) Der QUIS muss von der University of Maryland lizenziert werden (Kosten zwischen 50 und 750 US-Dollar) und steht in fünf Sprachen und zwei verschiedenen Längen zur Verfügung: Die Kurz-Version beinhaltet 41 Elemente, die Lang-Version 122. Die Elemente werden anhand einer bipolaren neun-Punkte-Skala bewertet (siehe Abbildung 20). (Vgl. Sauro/Lewis, 2012, S. 188.)


QUIS

Abbildung: Questionnaire for User Interaction Satisfaction Fragen-Auszug

(Abbildung entnommen aus: Chin/Diehl/Norman, 1988, S. 215.)

 

Die aktuelle Version des QUIS (7) beinhaltet einen demografischen Fragebogen, Fragen zur generellen System-Zufriedenheit über sechs Skalen und hierarchisch organisierte Messungen von neun spezifischen Schnittstellen-Faktoren (Bildschirm, Terminologie und System-Feedback, Lernen, Systemeigenschaften, technische Anleitungen, Online-Tutorials, Multimedia, Telefonkonferenzen und Software Installationen). Jeder einzelne Bereich misst die allgemeine Zufriedenheit der NutzerInnen in Bezug auf die Schnittstellen anhand einer neun Punkte Skala. Durch das Auswählen von bestimmten Bereichen kann der Fragebogen gut an die jeweiligen Bedürfnisse jeder Schnittstellen-Analyse angepasst werden. (Vgl. http://lap.umd.edu/quis/ [23.06.2013])
0

Fragebögen werden durchgeführt, um bestimmte Informationen von Befragten zu erhalten. Standardisierte Fragebögen bestehen aus einer festgelegten Menge an Fragen, üblicherweise in einer gewissen Reihenfolge und einem definierten Format. Standardisierte Usability-Fragebögen bringen diverse Vorteile mit sich:
  • Objektivität: Standardisierte Messungen unterstützen Objektivität, da Usability-ExpertInnen unabhängige Ergebnisse anderer Studien einfach verifizieren können.
  • Nachvollziehbarkeit: Standardisierte Methoden erleichtern das Replizieren anderer Studien. Untersuchungen zeigen, dass standardisierte Usability-Fragebögen zuverlässiger sind, als nicht-standardisierte.
  • Quantifizierung: Standardisierungen ermöglichen die Nutzung von mathematischen und statistischen Methoden, um Ergebnisse besser zu verstehen.
  • Wirtschaftlichkeit: Die Entwicklung von Standardisierungen benötigt initialen Aufwand. Ist dies aber erledigt, können diese jederzeit wieder angewendet werden.
  • Kommunikation: ExpertInnen können Ergebnisse einfacher kommunizieren, wenn standardisiert gemessen wird.
  • Wissenschaftliche Generalisierung: Standardisierung ist notwendig für das Bewerten von generalisierten Ergebnissen.[1]
  Neben den genannten Punkten, welche sich an die Gütekriterien wissenschaftlichen Arbeitens orientieren, spielen auch die Themen Reliabilität, Validität und Sensitivität eine wichtige Rolle.[2]  
[1] Vgl. Sauro/Lewis, 2012, S. 185ff.
[2] Vgl. Moser, 2012, S. 224.
0

PREVIOUS POSTSPage 1 of 2NO NEW POSTS