Your address will show here +12 34 56 78

Der ASQ wurde zur selben Zeit wie der bereits zuvor erwähnte PSSUQ entwickelt. Der ASQ besteht aus drei Elementen, welche jeweils wiederum anhand einer siebenstufigen Likert-Skala von „strongly agree (=1)“ bis „strongly disagree (=7)“ bewertet werden (selbes Format wie der PSSUQ). Der ASQ konzentriert sich auf die Themen „ease of task completion, satisfaction with completion time“ und „satisfaction with support information“. Wie der PSSUQ steht auch der ASQ ohne Einschränkung frei zur Verfügung. (Vgl. Lewis, 1990, S. 78f.)

Abbildung: After-scenario Questionnaire Fragen-Auszug
(Abbildung entnommen aus: Sauro/Lewis, 2012, S. 213.)

Quellen:

Lewis, James R.: Psychometric evaluation of an after-scenario questionnaire for computer usability studies, in: ACM SIGCHI Bulletin, 23, 1/1990, S. 78–81

Sauro, Jeff/Lewis, James R.: Correlations among Prototypical Usability Metrics: Evidence for the Construct of Usability, in: Olsen, Dan R. (Hrsg.): Proceedings of the 27th international conference on Human factors in computing systems, New York, 2009, S. 1609–1618

0

Basierend auf dem SUS, wurde die Usability Metric for User Experience entwickelt. UMUX konzentriert sich allerdings auf die Usability-Definition von ISO 9241-11. Gemessen wird die subjektive Bewertung der wahrgenommenen Usability von ProbandInnen anhand einer siebenstufigen Likert-Skala. Im Gegensatz zum SUS besteht UMUX aus vier Fragen, wobei eine den generellen Aspekt abdeckt und die anderen jeweils die Komponenten Effektivität, Effizienz und Zufriedenheit. (Vgl. Finstad, 2010, S. 323ff.)

Abbildung: Usability Metric for User Experience Fragen-Auszug
(Abbildung entnommen aus: Finstad, 2010, S. 326)

Quellen:

Finstad, Kraig: The Usability Metric for User Experience, in: Interacting with Computers, 22, 5/2010, S. 323–327

0

Der SUS wurde Mitte der 1980er Jahre von John Brooke entwickelt. (Vgl. Brooke, 1996, S. 189ff.) Der SUS ist einer der populärsten Post-Study Fragebögen. Wie Sauro/Lewis in ihrer Studie feststellten, wurde der SUS von 43% der untersuchten Studien angewendet. Der SUS besteht aus zehn Fragen und die Beantwortung findet anhand einer fünfstufigen Likert-Skala von „stongly disagree (=1)“ bis „strongly agree (=5)“ statt. Die zehn Elemente wurden aus einem Fragenpool von insgesamt 50 Fragen gewählt. 20 ProbandInnen wurden gebeten, eine Software-Anwendung mit allen 50 Fragen zu bewerten. Jene zehn Punkte, welche die größte Unterscheidung zwischen den Systemen aufwiesen, wurden gewählt. Es wird empfohlen, den SUS direkt im Anschluss einer Aktivität, noch vor einer weiteren Diskussion oder einem De-Briefing, auszufüllen. Der Software Usability Scale steht lizenzfrei zur Verfügung. (Vgl. Sauro/Lewis, 2012, S. 198ff.) Der SUS ist ein reliables und valides Instrument zur Messung der wahrgenommen Usability. (Vgl. Sauro, 2011.)

Abbildung: Software Usability Scale Fragen-Auszug
(Abbildung entnommen aus: Sauro/Lewis, 2012, S. 198.)

Quellen:

Brooke, John: SUS: a “quick and dirty” usability scale, in: Jordan, Patrick W. (Hrsg.): Usability evaluation in industry, London, 1996, S. 189–194

Sauro, Jeff/Lewis, James R.: Correlations among Prototypical Usability Metrics: Evidence for the Construct of Usability, in: Olsen, Dan R. (Hrsg.): Proceedings of the 27th international conference on Human factors in computing systems, New York, 2009, S. 1609–1618

Sauro, Jeff: Measuring Usability with the System Usability Scale (SUS) (02.02.2011), Online im WWW unter URL: http://www.measuringusability.com/sus.php [Stand: 24.05.2013]

0

Der PSSUQ ist ein standardisierter Fragebogen zur Messung der wahrgenommen Zufriedenheit von Computer-Systemen durch EndanwenderInnen. Er basiert ursprünglich auf dem von IBM Ende der 1980er Jahre initiierten Projekt SUMS (System Usability MetricS). Ziel des SUMS war es, Methoden für das Messen von System-Usability, Performance, Usability-Problemen und Zufriedenheit zu validieren und dokumentieren. Der PSSUQ ist eine Weiterentwicklung des CSUQ (Computer System Usability Questionnaire). (Vgl. Lewis, 2002, S. 464.) Die beiden Fragebögen sind, bis auf die Formulierung, ident. Die erste Version des PSSUQ bestand aus 18 Elementen und beinhaltete die vier Bereiche „quick completion of work, ease of learning, high-quality documentation and online information“ sowie „functional adequacy“ ab. Die fünfte Charakteristik „rapid aquisition of productivity“ hingegen konnte noch nicht abgedeckt werden, woraufhin eine weitere Frage ergänzt wurde.

In Version zwei des PSSUQ wurde allerdings festgestellt, dass die Fragen drei, fünf und 13 relativ wenig zur Reliabilität des PSSUQ beitrugen. Somit wurden diese drei Fragen entfernt und Version drei des PSSUQ wurde veröffentlicht. Die jeweiligen Fragen werden auf einer siebenstufigen Likert-Skala von „strongly agree (=1)“ bis „strongly disagree (=7)“ beantwortet. Der PSSUQ steht lizenzfrei zur Verfügung. (Vgl. Sauro/Lewis, 2012, S. 192f.)

Abbildung: Post-study System Usability Questionnaire Fragen-Auszug
(Abbildung entnommen aus: Sauro/Lewis, 2012, S. 193.)

Quellen:

Lewis, James R.: Psychometric Evaluation of the PSSUQ Using Data from Five Years of Usability Studies, in: International Journal of Human-Computer Interaction, 14/2002, S. 463–488

Sauro, Jeff/Lewis, James R.: Correlations among Prototypical Usability Metrics: Evidence for the Construct of Usability, in: Olsen, Dan R. (Hrsg.): Proceedings of the 27th international conference on Human factors in computing systems, New York, 2009, S. 1609–1618

0

Das SUMI wurde an der University College Cork in Irland entwickelt und basiert ursprünglich auf dem CUSI (Computer Usability Satisfaction Inventory). Anfang der 1990er Jahr wurde das CUSI vom SUMI abgelöst. Das SUMI basiert auf einem 50-Elemente Fragebogen, unterteilt in eine globale Skala mit 25 Elementen und einer Aufteilung in die fünf Sub-Skalen Efficiency, Affect, Helpfulness, Control und Learnability. Jedes einzelne Element wird durch drei Eigenschaften bewertet: Agree, undecided, disagree. Diese sind durch positive und negative Aussagen charakterisiert. Die Verwendung des Fragebogens setzt eine Lizenzierung der Human Factors Research Group (HFRG) voraus. Das SUMI ist in zwölf Sprachen verfügbar. (Vgl. Sauro/Lewis, 2012, S. 190f.)

Abbildung: Software Usability Measurement Inventory Fragen-Auszug
(Abbildung entnommen aus: http://sumi.ucc.ie/en/ [23.06.2013].)

Quellen:

Sauro, Jeff/Lewis, James R.: Correlations among Prototypical Usability Metrics: Evidence for the Construct of Usability, in: Olsen, Dan R. (Hrsg.): Proceedings of the 27th international conference on Human factors in computing systems, New York, 2009, S. 1609–1618

0

Der QUIS wurde 1988 an der University of Maryland erstmals publiziert. Ziel der Wissenschaftler war es, die subjektive Zufriedenheit von NutzerInnen mit bestimmten Aspekten des Mensch-Computer-Interaktion zu messen. (Vgl. Chin/Diehl/Norman, 1988, S. 213.) Der QUIS muss von der University of Maryland lizenziert werden (Kosten zwischen 50 und 750 US-Dollar) und steht in fünf Sprachen und zwei verschiedenen Längen zur Verfügung: Die Kurz-Version beinhaltet 41 Elemente, die Lang-Version 122. Die Elemente werden anhand einer bipolaren neun-Punkte-Skala bewertet (siehe Abbildung). (Vgl. Sauro/Lewis, 2012, S. 188.)

Abbildung: Questionnaire for User Interaction Satisfaction Fragen-Auszug
(Abbildung entnommen aus: Chin/Diehl/Norman, 1988, S. 215.)

Die aktuelle Version des QUIS (7) beinhaltet einen demografischen Fragebogen, Fragen zur generellen System-Zufriedenheit über sechs Skalen und hierarchisch organisierte Messungen von neun spezifischen Schnittstellen-Faktoren (Bildschirm, Terminologie und System-Feedback, Lernen, Systemeigenschaften, technische Anleitungen, Online-Tutorials, Multimedia, Telefonkonferenzen und Software Installationen). Jeder einzelne Bereich misst die allgemeine Zufriedenheit der NutzerInnen in Bezug auf die Schnittstellen anhand einer neun Punkte Skala. Durch das Auswählen von bestimmten Bereichen kann der Fragebogen gut an die jeweiligen Bedürfnisse jeder Schnittstellen-Analyse angepasst werden. (Vgl. http://lap.umd.edu/quis/ [23.06.2013])

Quellen:

Chin, J. P./Diehl, V. A./Norman, L. K.: Development of an instrument measuring user satisfaction of the human-computer interface, in: Soloway, Elliot (Hrsg.): CHI’88 Proceedings May 1988. Human Factors in Computing Systems, Boston, June 1988, S. 213–218

Sauro, Jeff/Lewis, James R.: Correlations among Prototypical Usability Metrics: Evidence for the Construct of Usability, in: Olsen, Dan R. (Hrsg.): Proceedings of the 27th international conference on Human factors in computing systems, New York, 2009, S. 1609–1618

0

Methoden Usability Evaluation

Fragebögen werden durchgeführt, um bestimmte Informationen von Befragten zu erhalten. Standardisierte Fragebögen bestehen aus einer festgelegten Menge an Fragen, üblicherweise in einer gewissen Reihenfolge und einem definierten Format. Standardisierte Usability-Fragebögen bringen diverse Vorteile mit sich:

  • Objektivität: Standardisierte Messungen unterstützen Objektivität, da Usability-ExpertInnen unabhängige Ergebnisse anderer Studien einfach verifizieren können.
  • Nachvollziehbarkeit: Standardisierte Methoden erleichtern das Replizieren anderer Studien. Untersuchungen zeigen, dass standardisierte Usability-Fragebögen zuverlässiger sind, als nicht-standardisierte.
  • Quantifizierung: Standardisierungen ermöglichen die Nutzung von mathematischen und statistischen Methoden, um Ergebnisse besser zu verstehen.
  • Wirtschaftlichkeit: Die Entwicklung von Standardisierungen benötigt initialen Aufwand. Ist dies aber erledigt, können diese jederzeit wieder angewendet werden.
  • Kommunikation: ExpertInnen können Ergebnisse einfacher kommunizieren, wenn standardisiert gemessen wird.
  • Wissenschaftliche Generalisierung: Standardisierung ist notwendig für das Bewerten von generalisierten Ergebnissen. (Vgl. Sauro/Lewis, 2012, S. 185ff.)

Neben den genannten Punkten, welche sich an die Gütekriterien wissenschaftlichen Arbeitens orientieren, spielen auch die Themen Reliabilität, Validität und Sensitivität eine wichtige Rolle. (Vgl. Moser, 2012, S. 224.)

Quellen:

Sauro, Jeff/Lewis, James R.: Correlations among Prototypical Usability Metrics: Evidence for the Construct of Usability, in: Olsen, Dan R. (Hrsg.): Proceedings of the 27th international conference on Human factors in computing systems, New York, 2009, S. 1609–1618

Moser, Christian: User Experience Design. Mit erlebniszentrierter Softwareentwicklung zu Produkten, die begeistern, Berlin, Heidelberg, 2012

0

Weitere Erhebungsmethoden sollen aus Gründen der Vollständigkeit kurz erwähnt werden:

  • Videofeedback: Die während der Durchführung aufgenommenen Videos werden gemeinsam mit den Testpersonen angesehen und Unklarheiten, welche während des Testens aufgetreten sind, können im Nachhinein erläutert werden.
  • Logfile-Analyse: Alle Handlungen der ProbandInnen werden in einer Datei gespeichert und unterstützen dadurch die klassische Beobachtung.
  • Eye-Tracking (Aufmerksamkeitsanalyse): Mit der Blickmessung können Bewegungen und Fixierungen der TesterInnen wahrgenommen werden. Unter anderem können so Websites und deren wichtigste Aspekte analysiert werden.
  • Co-discovery oder Constructive-Interaction: Zwei TeilnehmerInnen bearbeiten eine Aufgabe gemeinsam und diskutieren darüber. Gegenüber Thinking-Aloud stellt diese Methode eine natürlichere Situation für die ProbandInnen dar.
  • Coaching-method: Üblicherweise findet bei Usability-Tests keine Interaktion zwischen TesterInnen und ExpertInnen statt. Bei dieser Methode hingegen ist das besonders erwünscht. (Vgl. Sarodnick/Brau, 2006, S. 163.)

Quellen:

Sarodnick, Florian/Brau, Henning: Methoden der Usability Evaluation. Wissenschaftliche Grundlagen und praktische Anwendung (Praxis der Arbeits- und Organisationspsychologie), Bern, 2006

0

Bei der Thinking-Aloud-Methode sprechen EndnutzerInnen während sie Aufgaben am System ausführen. Beim „lauten Denken“ handelt es sich um eine Methode der bewussten Erfassung handlungsbegleitender Kognitionen und Emotionen. Es können so mit wenigen AnwenderInnen qualitativ wertvolle Informationen gewonnen werden. Durch das „laute Denken“ wird es Usability-ExpertInnen ermöglicht, die Missverständnisse der EndanwenderInnen besser zu verstehen. Herauszufinden, warum NutzerInnen aus diversesten Gründen so handeln, wie sie eben handeln, ist einer der Vorteile von THA. (Vgl. Holzinger, 2005, S. 73.)

Als Nachteile dieser Methode stellen sich die ungewohnte und oftmals anstrengende Durchführung, aufgrund der Doppelbelastung, dar. Im Gegensatz zum „lauten Denken“, können sich ProbandInnen beim Video-Feedback (findet retrospektiv statt) gänzlich auf die jeweiligen Aufgaben selbst konzentrieren. Allerdings ist THA einfacher in der Durchführung. (Vgl. Sarodnick/Brau, 2006, S. 163.)

Quellen:

Holzinger, Andreas: Usability engineering methods for software developers, in: Communications of the ACM, 48, 1/2005, S. 71–74

Sarodnick, Florian/Brau, Henning: Methoden der Usability Evaluation. Wissenschaftliche Grundlagen und praktische Anwendung (Praxis der Arbeits- und Organisationspsychologie), Bern, 2006

0

In der Literatur werden die Begriffe Usability-Testing und Usability-Evaluation häufig gleichgesetzt. Usability-Testing soll im Zuge dieser Arbeit als Prozess zum Wahrnehmen von Usability eines Produkts oder Systems durch die Observation von NutzerInnen verstanden werden. Grundsätzlich gilt für alle Usability-Tests, dass nicht die BenutzerInnen selbst getestet werden, sondern das Testen eines Produkts bzw. Systems. (Vgl. Krannich, 2010, S. 145) Andere Begriffe sind etwa Nutzertest oder Benutzbarkeitstest. NutzerInnen stehen dabei unter Beobachtung von Usability-ExpertInnen. Es sollen Schlussfolgerungen aus der Observation, Kommentaren, anschließenden Befragungen oder auch Messungen gezogen werden.

Usability-Tests können in induktive (formative Evaluation) und deduktive (summative Evaluation) unterschieden werden. Bei induktiven Tests sollen Vorabversionen bzw. Prototypen auf Verbesserungen überprüft werden. Bei deduktiven Tests werden mehrere Alternativen miteinander verglichen oder ein einzelnes System auf seine Leistungsfähigkeit überprüft. Deduktive Tests werden üblicherweise in einer Laborumgebung durchgeführt, um Störvariablen auszuschließen. Alle Tests haben gemeinsam, dass definierte Arbeitsaufgaben unter Beobachtung von AnwenderInnen ausgeübt werden. Unterschieden werden kann des Weiteren zwischen „within-subject design“ und „between-subject-design“. Bei ersterem testet eine Person mehrere (meist alle) Varianten, im zweiten Fall werden gewisse Varianten nur von einer bestimmten Gruppe durchgeführt. (Vgl. Sarodnick/Brau, 2006, S. 155ff.)

Quellen:

Krannich, Dennis: Mobile Usability-Testing. Ein toolbasiertes Vorgehensmodell zum Rapid-Prototyping und Usability-Testing von Mobilen Systemen im originären Benutzungskontext, Bremen, Universität Bremen, Dissertation, 2010

Sarodnick, Florian/Brau, Henning: Methoden der Usability Evaluation. Wissenschaftliche Grundlagen und praktische Anwendung (Praxis der Arbeits- und Organisationspsychologie), Bern, 2006

0