Usability-Tipps - Kapitel "Conversions erzielen-Werkzeuge"
Eyetracking ohne Betrachter
Sinnvolle Ergebnisse per Simulation?
Eyetracking gehört zweifelsfrei zu den Methoden, die ganz besonders oft mit Benutzertests und Usability für Websites in Zusammenhang gebracht werden. Ungeachtet der Tatsache, dass je nach Durchführung des Tests nicht immer todsichere Schlussfolgerungen aus einer so erhaltenen Heatmap oder dem dahinter liegenden Zahlenmaterial gezogen werden können, ist Eyetracking ein extrem hilfreiches Werkzeug bei der Analyse bestehender Websites, Prozessen oder der Planung und Evaluierung veränderter Designs.
Dummerweise haben nicht nur das entsprechende Equipment und die damit verbundenen Dienstleistungen ihren Preis, sondern es kommen noch weitere Hürden wie die für möglichst aussagekräftige Ergebnisse erforderliche sorgfältige Vorbereitung, die Auswahl der Probanden, die Durchführung und Auswertung der Ergebnisse hinzu. Kein Wunder also, dass es einen gewissen Bedarf für Alternativen gibt, die sowohl günstiger als auch unkomplizierter und vor allem zeitsparender ausfallen.
Denn nicht nur kleine Budgets oder beschränkte Ressourcen, sondern vor allem der Faktor Zeit ein denkbarer Grund, warum man ggf. in bestimmten Fällen lieber auf ander Mittel zurückgreifen möchte. Sinnvoller Einsatz ist dort denkbar, wo Ergebnisse nicht nur schnell erwünscht sind, sondern auch die Möglichkeit bestehen soll, mehrere alternative Fassungen, die ggf. auf den Ergebnissen der ersten Studie basieren, unmittelbar einer Voruntersuchung zu unterziehen, – z. B. bevor diese im Rahmen eines Live-Experiments auf der Website oder echter Benutzertests zum Einsatz kommen.
Da zudem auch
- der Umfang einer „echten“ Studie
- die konkrete Aufgaben- bzw. Fragestellung und vor allem
- das individuelle Vorwissen (sowohl im Bereich Web / Internet als auch ggf. im Themenumfeld der konkreten Site) der Probanden
massgebend dafür sind, ob die Schlussfolgerungen, die aus den Ergebnissen gezogen werden, auch wirklich mit der Realität übereinstimmen, kann es im konkreten Fall möglicherweise in der Tat simpler sein, sich „Annäherungswerte“ oder zumindest Anhaltspunkte aus anderen Quellen wie der Simulation von Eyetracking-Studien zu besorgen und zunächst anhand dieser Daten zu versuchen, die richtigen Ansatzpunkte für relevante Verbesserungen auf der konkreten Seite zu finden. Schon im Beitrag zum Mouse-Tracking wurden einige Tools angesprochen, die in einem gewissen Rahmen genau dies leisten sollen. Hier soll es besonders um Systeme gehen, die als „Eyetracking-Alternativen“ verstanden werden dürfen, ohne Eyetracking für alle denkbaren Anwendungsfälle ersetzen zu können.
EyeTracking-Simulatoren: Kleine Auswahl, deckungsarme Ergebnisse
Schaut man sich im Web nach Alternativen um, stößt man wahrscheinlich zuerst auf „Feng Gui„. Die Verwendung ist denkbar einfach: Es wird ein Bild hochgeladen und anschließend erhält man eine neue, einer Heatmap ähndelnden Grafik, die eine „Aufmerksamkeitsvorhersage“ für die einzelnen Elemente bzw. Bereiche auf der Seite darstellt.
Die Qualität der Ergebnisse ist allerdings sehr stark davon abhängig, welches Design man dem Tool präsentiert (und in welcher Größe). Tatsächlich ist der Anteil von Grafik und vor allem das gezeigte Motiv in der Regel offenbar weitaus stärker dafür verantwortlich, wie der prognostizierte Blickverlauf verläuft, als es in echten Eyetracking-Studien mit den gleichen Varianten nachvollziehbar wäre. So ist gerade für den Bereich Web das Tool zwar „nett“, aber i. d. R. wenig aussagekräftig, so dass man nur bei sehr wenigen (zumeist sehr aufgeräumten) Seiten allein von den Ergebnissen einer Feng Gui – Vorhersage zu konkreten Anpassungen verleiten lassen sollte. Entsprechende Beispiele sind auch direkt bei Feng Gui im Bereich FAQ zu finden. Wirklich positiv ist wohl unter dem Strich nur die Tatsache, dass die Nutzung kostenfrei ist.
Nach einem ähnlichen Prinzip, wahrscheinlich aber auf weitaus umfangreicheren in Programmcode umgewandelten Modellen basierend, liefert EyeQuant dem zahlenden Benutzer nicht nur Heatmaps, die auf Abbildern einer Webseite oder einer realen Seite basieren, sondern auch Untersuchungen zur Wahrnehmung im ersten Augenblick sowie die Möglichkeit, vor der Analyse einzelne Bereiche wie den Warenkorbschalter, die Hauptüberschrift etc. zu definieren und für diese Regionen separat darzustellen, wie die Aufmerksamkeit für diese Elemente vom Durchschnitt der ganzen Seite abweicht.
Damit hat man nicht nur mehr Optionen, sondern für die meisten Fälle wohl auch validere Ergebnisse. Der Vergleich mehrerer Durchläufe, Varianten oder auch Ergebnisse vollkommen unterschiedlicher Sites ist direkt im Browser möglich. Vor allem , wenn Ergebnisse eines ersten Tests dazu genutzt werden sollen, Varianten mit einer verbesserten Aufmerksamkeitsverteilung zu erstellen (z. B. mehr Sichtbarkeit für Handlungsaufforderungen, Aktionselemente etc.), bietet EyeQuant schnelle Ergebnisse, die sich in anschließenden Tests dann erproben lassen. Diese sind – zumindest in dem Umfeld, in dem die untersuchten Daten erhoben wurden – nach Herstellerangaben sehr nahe an echten Eyetracking-Ergebnissen. Trotzdem sollte man nicht vergessen, dass zu den Einschränkungen, die echtes Eyetracking bereits mit sich bringt, in einer solchen Simulation noch weitere Faktoren hinzukommen, die von Automaten nicht (oder nur sehr rudimentär) berücksichtigt werden können.
Ein weiterer, noch im Betastadium steckender Kandidat ist der AttentionWizard. Dieses Tool, liefert prinzipiell ähnliche Ergebnisse wie Feng Gui (also den Blickverlauf inkl. einer durch Zahlen erkennbaren Reihenfolge der Aufmerksamkeitspunkte), ist aber (wahrscheinlich) wesentlich genauer auf Webseiten als auf normale Grafiken zugeschnitten, da es aus einer der Landingpageoptimierung zu 110% verschriebenen Feder stammt. Aktuell kann in einer Betaphase nach Anmeldung eine Analyse pro Tag durchgeführt werden; bezahlte Varianten ohne Wasserzeichen und Volumenbeschränkung werden nach Abschluss der Tests verfügbar sein.
Update: 3M bietet mit VAS bald einen ähnlichen Dienst an – Infos dazu in einem separaten Beitrag.
Es gibt weitere ergänzende Produkte wie z. B. den Scrutinizer, welcher der direkten Analyse von Seiten dient – z. B. hinsichtlich der Frage, ob alle Elemente am rechten Platz sind oder Veränderungen nach einem Klick vielleicht vollkommen außerhalb der Wahrnehmung eines Benutzers liegen. Sicher sehr hilfreich, aber nicht zur Eyetracking-Simulation geeignet. Andere Produkte liegen wiederum näher an Mousetracking-Systemen und / oder basieren auf Interaktion mit echten Benutzern, so dass ein Vergleich mit „100% Eyetracking-Simulation“ schwerfällt (wer andere Systeme kennt: Ein Kommentar wäre nett!).
Vergleicht man die Kandidaten anhand mehrerer Testwebsites / Grafiken, zeigt sich schnell ein enormer Unterschied in den Ergebnissen. Will man die „Genauigkeit“ dieser Systeme weitergehend beurteilen, hilft nur der Vergleich mit Ergebnissen einer wirklichen Eyetracking-Studie zu konkreten Testfällen. Und auch dann hat man schlussendlich nur Anhaltspunkte zur Realitätsnähe der Systeme in Bezug auf die konkret untersuchten Seiten und deren Einsatzzweck, die sich nicht unbedingt in jeden Wirtschaftszweig, auf jede Website und alle denkbaren Ziele von Betreiber und Besucher übertragen lassen.
Gezwungenermaßen ungenauer als die Blickverfolgung?
Gründe, warum eine Simulation sich nicht mit dem Original messen kann, existieren reichlich. Da wäre z. B. der Kontext einer Seite. Echte Benutzer, die sich bis zu einer Produktdetailseite durchgeklickt haben, kennen den Rahmen, das Layout und den Aufbau einer Seite so z. B. bereits recht gut und blendet daher vieles schon im Vorfeld aus, während das System all diese Bereiche in die Analyse einbeziehen muss. Auch ist der Simulation weder bekannt, was auf der Seite genau für ein Ziel erreicht werden soll, noch ist die Aufgabe oder gar die Intention des „simulierten Benutzers“ Teil der Berechnungen. Ob eine Überschrift inhaltlich ansprechend und relevant ist oder nicht… oder ob es sich überhaupt um eine Überschrift oder ein anderes hervorgehobenes Element handelt… wird ebenso vorerst wohl nicht zum Wissensschatz einer solchen Simulation gehören.
Verschiedene Besuchertypen (und deren typengemäß sehr unterschiedliches) Verhalten, die aktuelle Phase im Entscheidungsprozess, gerade zuvor besuchte andere oder ähnliche Seiten, Weberfahrung, Zielgruppenzugehörigkeit etc. sind weitere Faktoren, die in einer echten Studie je nach Ausprägung für sehr unterschiedliche Ergebnisse sorgen können; in einer Simulation aber weitestgehend unberücksichtigt bleiben. Während der Feind bei Studien oder der Auswertung von massenhaften Daten aus der Webanalyse also oft „Durchschnittswerte“ heißt (was mitunter zu ausgesprochen unrichtigen Erkenntnissen führen kann), ist es im Fall der Simulation eher die „Nichtberücksichtigung“ vieler Faktoren. Welche Methode die genaueren Ergebnisse liefert, ist dennoch nicht immer so einfach zu beantworten, wie es auf den ersten Blick scheinen mag.
Verbesserungen der Genauigkeit durch wählbare Eigenschaften von Benutzern, Zielgruppe und Aufgabenstellung sind außerdem denkbar und werden in einem gewissen Rahmen künftig für genauere Ergebnisse sorgen. Wo Simulation als Hilfmittel dient, z. B. zur zusätzlichen Absicherung bereits auf anderem Weg erlangter Erkenntnisse, ist der Einsatz sicherlich auch jetzt schon gerechtfertigt. Auch in allen Fällen, in denen eine aufwändigere Datenerhebung entweder nicht möglich oder (z. B. wirtschaftlich) nicht sinnvoll ist, sind Anhaltspunkte mit einer bekannten Unsicherheit allemal besser als reines Raten.
Ergebnisse direkt in Verbesserungen umwandeln?
Wer innerhalb einer Minute zu Ergebnissen kommen kann, auf die er bei einer echten Studie mehrere Wochen wartet und – Unterschiede in der Sicherheit der Ergebnisse ignorierend – gleich dazu übergeht, die Erkenntnisse gleich in Live-Veränderungen seiner Startseite, der Produktdetailseiten oder Landingpages für Kampagnen umzumünzen, kann böse Überraschungen erleben, die sich in rückläufigen Umsätzen oder verschlechterten Kennzahlen in der Webanalyse niederschlagen. Natürlich muss das nicht zwingend so sein – aber selbst dort, wo sicherere Hinweise darauf existieren, dass irgendetwas nicht so läuft, wie es gewünscht ist, müssen die resultierenden Veränderungen nicht immer automatisch auch Verbesserungen darstellen. Guidelines, BestPractices, Ergebnisse von realen oder simulierten Studien… alles sind schlussendlich nur „unscharfe“ Wegweiser auf der Suche nach Optimierungspotential. Ob sich konkrete Maßnahmen aber im Rahmen einer Website wirklich in die richtige Richtung entwickeln, wird sich schlussendlich nur am realen Benutzer erweisen. Wer also keine Gelegenheit hat, echte User mit Testsystemen, Prototypen zu konfrontieren und dadurch mehr Sicherheit zu gewinnen, sollte wenigstens den letzten und eigentlich immer erforderlichen Schritt des Tests mit kontrollierten Besucherströmen auf der eigenen Website durchführen, bevor folgenschwere Anpassungen an wesentlichen Stellen der eigenen Website für 100% der Besucher wirksam werden.