Usability-Tipps - Kapitel "Conversions erzielen-Werkzeuge"
Eyetracking ohne Betrachter
Sinnvolle Ergebnisse per Simulation?
Eyetracking gehört zweifelsfrei zu den Methoden, die ganz besonders oft mit Benutzertests und Usability für Websites in Zusammenhang gebracht werden. Ungeachtet der Tatsache, dass je nach Durchführung des Tests nicht immer todsichere Schlussfolgerungen aus einer so erhaltenen Heatmap oder dem dahinter liegenden Zahlenmaterial gezogen werden können, ist Eyetracking ein extrem hilfreiches Werkzeug bei der Analyse bestehender Websites, Prozessen oder der Planung und Evaluierung veränderter Designs.
Dummerweise haben nicht nur das entsprechende Equipment und die damit verbundenen Dienstleistungen ihren Preis, sondern es kommen noch weitere Hürden wie die für möglichst aussagekräftige Ergebnisse erforderliche sorgfältige Vorbereitung, die Auswahl der Probanden, die Durchführung und Auswertung der Ergebnisse hinzu. Kein Wunder also, dass es einen gewissen Bedarf für Alternativen gibt, die sowohl günstiger als auch unkomplizierter und vor allem zeitsparender ausfallen.
Denn nicht nur kleine Budgets oder beschränkte Ressourcen, sondern vor allem der Faktor Zeit ein denkbarer Grund, warum man ggf. in bestimmten Fällen lieber auf ander Mittel zurückgreifen möchte. Sinnvoller Einsatz ist dort denkbar, wo Ergebnisse nicht nur schnell erwünscht sind, sondern auch die Möglichkeit bestehen soll, mehrere alternative Fassungen, die ggf. auf den Ergebnissen der ersten Studie basieren, unmittelbar einer Voruntersuchung zu unterziehen, – z. B. bevor diese im Rahmen eines Live-Experiments auf der Website oder echter Benutzertests zum Einsatz kommen.
Da zudem auch
- der Umfang einer „echten“ Studie
- die konkrete Aufgaben- bzw. Fragestellung und vor allem
- das individuelle Vorwissen (sowohl im Bereich Web / Internet als auch ggf. im Themenumfeld der konkreten Site) der Probanden
massgebend dafür sind, ob die Schlussfolgerungen, die aus den Ergebnissen gezogen werden, auch wirklich mit der Realität übereinstimmen, kann es im konkreten Fall möglicherweise in der Tat simpler sein, sich „Annäherungswerte“ oder zumindest Anhaltspunkte aus anderen Quellen wie der Simulation von Eyetracking-Studien zu besorgen und zunächst anhand dieser Daten zu versuchen, die richtigen Ansatzpunkte für relevante Verbesserungen auf der konkreten Seite zu finden. Schon im Beitrag zum Mouse-Tracking wurden einige Tools angesprochen, die in einem gewissen Rahmen genau dies leisten sollen. Hier soll es besonders um Systeme gehen, die als „Eyetracking-Alternativen“ verstanden werden dürfen, ohne Eyetracking für alle denkbaren Anwendungsfälle ersetzen zu können.
EyeTracking-Simulatoren: Kleine Auswahl, deckungsarme Ergebnisse
Schaut man sich im Web nach Alternativen um, stößt man wahrscheinlich zuerst auf „Feng Gui„. Die Verwendung ist denkbar einfach: Es wird ein Bild hochgeladen und anschließend erhält man eine neue, einer Heatmap ähndelnden Grafik, die eine „Aufmerksamkeitsvorhersage“ für die einzelnen Elemente bzw. Bereiche auf der Seite darstellt.
Die Qualität der Ergebnisse ist allerdings sehr stark davon abhängig, welches Design man dem Tool präsentiert (und in welcher Größe). Tatsächlich ist der Anteil von Grafik und vor allem das gezeigte Motiv in der Regel offenbar weitaus stärker dafür verantwortlich, wie der prognostizierte Blickverlauf verläuft, als es in echten Eyetracking-Studien mit den gleichen Varianten nachvollziehbar wäre. So ist gerade für den Bereich Web das Tool zwar „nett“, aber i. d. R. wenig aussagekräftig, so dass man nur bei sehr wenigen (zumeist sehr aufgeräumten) Seiten allein von den Ergebnissen einer Feng Gui – Vorhersage zu konkreten Anpassungen verleiten lassen sollte. Entsprechende Beispiele sind auch direkt bei Feng Gui im Bereich FAQ zu finden. Wirklich positiv ist wohl unter dem Strich nur die Tatsache, dass die Nutzung kostenfrei ist.
Nach einem ähnlichen Prinzip, wahrscheinlich aber auf weitaus umfangreicheren in Programmcode umgewandelten Modellen basierend, liefert EyeQuant dem zahlenden Benutzer nicht nur Heatmaps, die auf Abbildern einer Webseite oder einer realen Seite basieren, sondern auch Untersuchungen zur Wahrnehmung im ersten Augenblick sowie die Möglichkeit, vor der Analyse einzelne Bereiche wie den Warenkorbschalter, die Hauptüberschrift etc. zu definieren und für diese Regionen separat darzustellen, wie die Aufmerksamkeit für diese Elemente vom Durchschnitt der ganzen Seite abweicht.
Damit hat man nicht nur mehr Optionen, sondern für die meisten Fälle wohl auch validere Ergebnisse. Der Vergleich mehrerer Durchläufe, Varianten oder auch Ergebnisse vollkommen unterschiedlicher Sites ist direkt im Browser möglich. Vor allem , wenn Ergebnisse eines ersten Tests dazu genutzt werden sollen, Varianten mit einer verbesserten Aufmerksamkeitsverteilung zu erstellen (z. B. mehr Sichtbarkeit für Handlungsaufforderungen, Aktionselemente etc.), bietet EyeQuant schnelle Ergebnisse, die sich in anschließenden Tests dann erproben lassen. Diese sind – zumindest in dem Umfeld, in dem die untersuchten Daten erhoben wurden – nach Herstellerangaben sehr nahe an echten Eyetracking-Ergebnissen. Trotzdem sollte man nicht vergessen, dass zu den Einschränkungen, die echtes Eyetracking bereits mit sich bringt, in einer solchen Simulation noch weitere Faktoren hinzukommen, die von Automaten nicht (oder nur sehr rudimentär) berücksichtigt werden können.
Ein weiterer, noch im Betastadium steckender Kandidat ist der AttentionWizard. Dieses Tool, liefert prinzipiell ähnliche Ergebnisse wie Feng Gui (also den Blickverlauf inkl. einer durch Zahlen erkennbaren Reihenfolge der Aufmerksamkeitspunkte), ist aber (wahrscheinlich) wesentlich genauer auf Webseiten als auf normale Grafiken zugeschnitten, da es aus einer der Landingpageoptimierung zu 110% verschriebenen Feder stammt. Aktuell kann in einer Betaphase nach Anmeldung eine Analyse pro Tag durchgeführt werden; bezahlte Varianten ohne Wasserzeichen und Volumenbeschränkung werden nach Abschluss der Tests verfügbar sein.
Update: 3M bietet mit VAS bald einen ähnlichen Dienst an – Infos dazu in einem separaten Beitrag.
Es gibt weitere ergänzende Produkte wie z. B. den Scrutinizer, welcher der direkten Analyse von Seiten dient – z. B. hinsichtlich der Frage, ob alle Elemente am rechten Platz sind oder Veränderungen nach einem Klick vielleicht vollkommen außerhalb der Wahrnehmung eines Benutzers liegen. Sicher sehr hilfreich, aber nicht zur Eyetracking-Simulation geeignet. Andere Produkte liegen wiederum näher an Mousetracking-Systemen und / oder basieren auf Interaktion mit echten Benutzern, so dass ein Vergleich mit „100% Eyetracking-Simulation“ schwerfällt (wer andere Systeme kennt: Ein Kommentar wäre nett!).
Vergleicht man die Kandidaten anhand mehrerer Testwebsites / Grafiken, zeigt sich schnell ein enormer Unterschied in den Ergebnissen. Will man die „Genauigkeit“ dieser Systeme weitergehend beurteilen, hilft nur der Vergleich mit Ergebnissen einer wirklichen Eyetracking-Studie zu konkreten Testfällen. Und auch dann hat man schlussendlich nur Anhaltspunkte zur Realitätsnähe der Systeme in Bezug auf die konkret untersuchten Seiten und deren Einsatzzweck, die sich nicht unbedingt in jeden Wirtschaftszweig, auf jede Website und alle denkbaren Ziele von Betreiber und Besucher übertragen lassen.
Gezwungenermaßen ungenauer als die Blickverfolgung?
Gründe, warum eine Simulation sich nicht mit dem Original messen kann, existieren reichlich. Da wäre z. B. der Kontext einer Seite. Echte Benutzer, die sich bis zu einer Produktdetailseite durchgeklickt haben, kennen den Rahmen, das Layout und den Aufbau einer Seite so z. B. bereits recht gut und blendet daher vieles schon im Vorfeld aus, während das System all diese Bereiche in die Analyse einbeziehen muss. Auch ist der Simulation weder bekannt, was auf der Seite genau für ein Ziel erreicht werden soll, noch ist die Aufgabe oder gar die Intention des „simulierten Benutzers“ Teil der Berechnungen. Ob eine Überschrift inhaltlich ansprechend und relevant ist oder nicht… oder ob es sich überhaupt um eine Überschrift oder ein anderes hervorgehobenes Element handelt… wird ebenso vorerst wohl nicht zum Wissensschatz einer solchen Simulation gehören.
Verschiedene Besuchertypen (und deren typengemäß sehr unterschiedliches) Verhalten, die aktuelle Phase im Entscheidungsprozess, gerade zuvor besuchte andere oder ähnliche Seiten, Weberfahrung, Zielgruppenzugehörigkeit etc. sind weitere Faktoren, die in einer echten Studie je nach Ausprägung für sehr unterschiedliche Ergebnisse sorgen können; in einer Simulation aber weitestgehend unberücksichtigt bleiben. Während der Feind bei Studien oder der Auswertung von massenhaften Daten aus der Webanalyse also oft „Durchschnittswerte“ heißt (was mitunter zu ausgesprochen unrichtigen Erkenntnissen führen kann), ist es im Fall der Simulation eher die „Nichtberücksichtigung“ vieler Faktoren. Welche Methode die genaueren Ergebnisse liefert, ist dennoch nicht immer so einfach zu beantworten, wie es auf den ersten Blick scheinen mag.
Verbesserungen der Genauigkeit durch wählbare Eigenschaften von Benutzern, Zielgruppe und Aufgabenstellung sind außerdem denkbar und werden in einem gewissen Rahmen künftig für genauere Ergebnisse sorgen. Wo Simulation als Hilfmittel dient, z. B. zur zusätzlichen Absicherung bereits auf anderem Weg erlangter Erkenntnisse, ist der Einsatz sicherlich auch jetzt schon gerechtfertigt. Auch in allen Fällen, in denen eine aufwändigere Datenerhebung entweder nicht möglich oder (z. B. wirtschaftlich) nicht sinnvoll ist, sind Anhaltspunkte mit einer bekannten Unsicherheit allemal besser als reines Raten.
Ergebnisse direkt in Verbesserungen umwandeln?
Wer innerhalb einer Minute zu Ergebnissen kommen kann, auf die er bei einer echten Studie mehrere Wochen wartet und – Unterschiede in der Sicherheit der Ergebnisse ignorierend – gleich dazu übergeht, die Erkenntnisse gleich in Live-Veränderungen seiner Startseite, der Produktdetailseiten oder Landingpages für Kampagnen umzumünzen, kann böse Überraschungen erleben, die sich in rückläufigen Umsätzen oder verschlechterten Kennzahlen in der Webanalyse niederschlagen. Natürlich muss das nicht zwingend so sein – aber selbst dort, wo sicherere Hinweise darauf existieren, dass irgendetwas nicht so läuft, wie es gewünscht ist, müssen die resultierenden Veränderungen nicht immer automatisch auch Verbesserungen darstellen. Guidelines, BestPractices, Ergebnisse von realen oder simulierten Studien… alles sind schlussendlich nur „unscharfe“ Wegweiser auf der Suche nach Optimierungspotential. Ob sich konkrete Maßnahmen aber im Rahmen einer Website wirklich in die richtige Richtung entwickeln, wird sich schlussendlich nur am realen Benutzer erweisen. Wer also keine Gelegenheit hat, echte User mit Testsystemen, Prototypen zu konfrontieren und dadurch mehr Sicherheit zu gewinnen, sollte wenigstens den letzten und eigentlich immer erforderlichen Schritt des Tests mit kontrollierten Besucherströmen auf der eigenen Website durchführen, bevor folgenschwere Anpassungen an wesentlichen Stellen der eigenen Website für 100% der Besucher wirksam werden.
Siehe auch: Eyetracking, Simulation
Sehr interessanter Beitrag! Auffällig aber ist, dass die Heatmaps von Feng GUI denen vom AttentionWizard sehr stark ähneln. Hier liegt die Vermutung nahe, dass AttentionWizard die Dienste von Feng GUI mittels Upload von Grafiken via API nutzt?
Bezüglich der Mouse-Tracking-Thematik empfehlen wir den Eisatz von ClickTale (http://www.webalytics.de/website-testing/clicktale/), welches die Mouse-Moves der Besucher entsprechend aufzeichnet und in übersichtlichen Heatmaps präsentiert. Diese Heatmaps können dann ebenso mit dem Klickverhalten korreliert werden.
HTH
MfG
Holger Tempel
Zu FengGui = AttentionWizard:
Wenn man sich ansieht, wer hinter dem AttentionWizard steckt, erscheint diese Vermutung eher unwahrscheinlich. Die Unterschiede der Analysen der hier dargestellten „Referenzseite“ mögen diese Vermutung noch zulassen, aber wenn man beide Dienste mal auf unterschiedliche Seitentypen losläßt, sollte sich die These m. E. schnell in Luft auflösen…
(Disclosure: ich bin Mitgründer des EyeQuant-Anbieters WhiteMatter Labs GmbH)
AttentionWizard und Feng-Gui setzen beide auf das frei erhältliche Toolkit von Laurent Itti: http://ilab.usc.edu/toolkit/downloads.shtml – tatsächlich sind die Ergebnisse beider Services identisch und unterscheiden sich lediglich minimal in ihrer visuellen Aufbereitung.
Der wirkliche Haken: das von beiden genutzte Toolkit wurde nie entwickelt, um Aufmerksamkeitsprozesse über Webseiten vorherzusagen. Dies ist jedoch eine für valide Ergebnisse zwingende Voraussetzung.
Entsprechend sind die jeweils beworbenen „75 % correlation with eye-tracking and mouse-tracking“ auch nicht unproblematisch: was genau ist damit gemeint, wie wurden die Daten gewonnen und analysiert?
Sofern am Toolkit nämlich keine signifikanten Weiterentwicklungen vorgenommen wurden – was in beiden Fällen leider nicht der Fall ist – liefert es gemäss der in der wissenschaftlichen Literatur üblichen Evaluationsverfahren (die weit über vage Korrelationsverhältnisse hinausgehen) lediglich ‚zufällige‘ Ergebnisse. Mir liegt eine entsprechende Studie vor, die ich auf Anfrage gerne per Email weiterleite. Über den neu gestarteten Service von 3M liegen mir diesbezüglich noch keine Daten vor.
Wenn wir bei EyeQuant davon sprechen, zwischen 88 und 94 % der Vorhersagekraft einer Eye-Tracking Studie zu erreichen, stützt sich dies auf Evaluationsstudien, die mit einem hohen Maß an Sorgfältigkeit und wissenschaftlicher Integrität durchgeführt werden. Alles andere wäre für uns als Universitäts-Spin-off nicht nur absehbar geschäftsschädigend, sondern kompromittierte auch die wissenschaftliche Reputation des Labors für Neurobiopsychologie und die seiner Mitarbeiter.
Klar ist, dass wir selbst mit der besten Technologie an bestimmte Grenzen stoßen. Eine sorgfältig durchgeführte, umfangreiche Eye-Tracking Studie bleibt im Bereich der Aufmerksamkeitsanalyse sicherlich der Gold Standard – insbesondere im Bereich komplexer Usability-Fragestellungen, in welchen der zu untersuchende Zeitraum über die ersten Augenblicke hinausgeht.
Geht es jedoch – wie es im Bereich der Landing Page Gestaltung oftmals der Fall ist – um eine spezifische Optimierung des ersten visuellen Eindrucks und der generellen Übersichtlichkeit/Fokussierung eines Designs, liefern Technologien wie EyeQuant Ergebnisse, mit denen sich Verbesserungen sehr viel schneller umsetzen lassen als es bei klassischen Verfahren der Fall ist.
Dies schließt eine nachgeschaltete Erfolgskontrolle per klassischer Analytics jedoch natürlich niemals aus!
Ich kann Fabian Stelzer an dieser Stelle zustimmen, Predictive Eyetracking liefert einen guten ersten Eindruck über die Aufmerksamkeitswirkung einer Landingpage. Was je nach Algorithmus nah an die Ergebnisse einer echten Eyetracking-Studie herankommt, diese aber nicht ersetzt.
Die auf „Itti“ basierenden Tools AttentionWizard und Feng-Gui sind an dieser Stelle aber nicht wirklich zu gebrauchen.
Um die Liste hier zu vervollständigen möchte ich noch scoreweb erwähnen, was speziell für die Aufmerksamkeitswirkung von Landinpages entwickelt wurde: http://sw.de/eye-tracking-vs-scoreweb/