Eyetracking-Wegbeschreibung
Willkommen zur ersten Labvanced-Wegbeschreibung mit dem Leitfaden zur Einrichtung der Augenverfolgung für Ihr nächstes Projekt. Insgesamt wird dieser Informationsinhalt in vier Teile unterteilt, beginnend mit der Überprüfung der allgemeinen Systemeinstellungen, bevor Sie eine Studie erstellen, und schließlich zur Erklärung der Datenansicht. Neben diesem Schritt-für-Schritt-Dokument ist das Video Tutorialauch im Labvanced-Video-Tutorial verfügbar, zusammen mit allen anderen Anleitungen, die Ihnen bei der Erstellung Ihres Online-Experiments helfen. Ohne weiteres, lassen Sie uns in die Erstellung der Augenverfolgungsstudie eintauchen.
Teil I: Systemeinstellungen
Zuerst ist es wichtig, Labvanced V2 für die Augenverfolgung (Abbildung 1 unten) auszuwählen, die unseren Deep-Learning-Algorithmus verwendet. Danach gibt es drei Optionen, um die Dauer der Kalibrierung auszuwählen. Die standardmäßige Voreinstellung beträgt 5 Minuten, aber der Experimentator kann auch <1 min, 3 min oder 8 min Kalibrierung wählen. Die längere Dauer erfordert mehr Kalibrierung der Kopfposition mit erhöhten Fixationspunkten, die die optimalste Messgenauigkeit bieten. Wenn man jedoch die Art der Studie und die Teilnehmer berücksichtigt, die am Experiment teilnehmen, könnte die kürzere Dauer ebenfalls optimal sein, um die Zeit und Müdigkeit der Teilnehmer zu reduzieren, insbesondere wenn Sie Säuglinge in Ihrer Studie haben.
Abbildung 1. Initialer Bildschirm unter der Seite Studieneinstellungen. Der Experimentator muss die Option Augenverfolgung aktivieren auswählen, um die folgenden Auswahlen innerhalb des angezeigten roten Rahmens zu verwenden.
Apropos Säuglinge, es gibt zusätzliche Optionen, um die Blickmessungen von den jungen Teilnehmern zu optimieren, indem Sie Tierbildoptionen für die Kalibrierungsbildtypen auswählen. Die Tierkalibrierungsanzeige könnte mit der Auswahl Säuglingsfreundlicher Modus (siehe Abbildung 1) kombiniert werden. Die Auswahl dieser Option passt automatisch die kürzere Kalibrierung und begleitende Geräusche (kann auch deaktiviert werden) an, um die Aufmerksamkeit des Säuglings zu unterstützen und Langeweile zu verringern. Im selben Abschnitt könnte die Option Gitter anzeigen dem Teilnehmer helfen, den nächsten Punkt der Kalibrierung vorherzusehen, um den optimalen Kalibrierungsprozess zu unterstützen.
Direkt unter der Gitteranzeigenoption gibt es auch eine Option zum Überprüfen der Anzeigen des ursprünglichen Testvideo-Streams (siehe Abbildung 1). Die Teilnehmer sehen sich selbst im Video-Stream mit der Gesichts-Mesh-Überlagerung, bevor die Hauptkalibrierung ausgewählt wird. Die Bedeutung des Gesichtsmasken wird im späteren Abschnitt dieser Wegbeschreibung weiter erklärt, aber es wird dringend empfohlen, das Testvideo zu sehen, um zu überprüfen, ob der Computer des Teilnehmers die Webcam-Augenvermessung bewältigen kann. Als Empfehlung ist es ideal, den Computer mit einer separaten GPU für optimale Augenverfolgung zu verwenden. Wenn die Hardware auf der Seite des Teilnehmers nicht optimal ist, bleibt das ursprüngliche Testvideo statisch und wird nicht fortgesetzt, dient als erste Überprüfung, ob der Teilnehmer die Studie fortsetzen sollte. In diesem Fall von weniger optimaler Computerhardware können sie die Studie abbrechen und dem Experimentator mit weniger Datenrauschen in den umfassenden Daten helfen.
Darüber hinaus könnte der Experimentator auch die Option Ausrichtung der Kopfhaltung in derselben Einstellungenanzeige auswählen, die als virtueller Kinnstütze dient. Diese zusätzliche Messung hat das Ziel, die Funktion des physischen Kinnstützes, das im Laborsetting verwendet wird, zu imitieren, bei der das Kinn auf der Kopfhalterung positioniert wird, um die Stabilität des Kopfes aufrechtzuerhalten. Wenn die Option zur Ausrichtung der Kopfposition aktiviert ist, wird Labvanced verschiedene Kopfpositionen während der Kalibrierungsphase messen. Weitere Informationen werden im späteren Absatz über den spezifischen Prozess verfügbar sein. Die Berücksichtigung der Kopfposition in der Augenmessung verbessert die Qualität der Daten, indem das Rauschen, das durch die Fehlstellung des Kopfes verursacht wird, gemildert wird. Wenn die Teilnehmer signifikant ihren Kopf aus der zentralen Position bewegen, unterbricht das Programm die Studie und fordert den Teilnehmer auf, sich wieder auszurichten und sich auf die virtuelle Kinnstütze zu konzentrieren, was dem Fokus des Teilnehmers hilft und eine ähnliche Kopfposition während der Studie aufrechterhält. Noch wichtiger ist, dass die Kontrolle der Kopfposition auch die Gesamtqualität Ihrer Daten unterstützen wird. Obwohl es dringend empfohlen wird, diese Option zu aktivieren, gibt es auch die Möglichkeit, während des experimentellen Ablaufs zu ignorieren. Je nach Studienteilnehmern könnte die Aufrechterhaltung der Kopfposition schwierig sein, insbesondere bei Säuglingen, sodass diese Option es den Teilnehmern (oder Eltern) ermöglichen würde, diesen Prozess während des experimentellen Ablaufs zu deaktivieren und zu überspringen.
Last but not least gibt es auch die Option, Kalibrierungsdaten mit Labvanced zu teilen. Dies dient in erster Linie dazu, den Algorithmus der Labvanced-Augenverfolgung für eine bessere Benutzeroberfläche zu verbessern, ist jedoch ganz optional und hängt vom Ermessen des Forschers ab. Im nächsten Teil werden wir in die Canvas-Seite eintauchen, um einige weitere Vorbereitungen zu durchlaufen, bevor wir mit der Erstellung des Experiments und der Datenerfassung fortfahren.
Teil II: Task-Editor
Über die Vorbereitung der Augenverfolgungsstudie mit der Seite Einstellungen zur Studie hinaus gibt es weitere vorläufige Vorbereitungen, die auf der Canvas-Seite zu beachten sind, und wichtige Informationen zum Erstellen neuer Variablen zur Speicherung der Blickdaten.
Physikalische Signale
Durch Klicken auf die Schaltfläche Physikalische Signale in der oberen linken Ecke des Canvas-Bildschirms wird das Dialogfeld mit verschiedenen Optionen zur Augenverfolgung geöffnet (siehe Abbildung 2). Zuerst möchten Sie die Augenverfolgung im Task-Editor aktivieren, um die Blickmessung während Ihrer Studie zu ermöglichen. Natürlich kann dies deaktiviert werden, wenn Sie nur die Verhaltensmaße (z. B. Reaktionszeit und Genauigkeit) untersuchen.
Abbildung 2. Canvas-Bildschirm innerhalb eines Tasks. Der rote Kasten zeigt die Option Physikalische Signale an, um die Augenverfolgung in diesem Task zu aktivieren und die Anzahl der Fixationspunkte für die Intertrialvalidierung zu bestimmen.
Wichtig ist, dass die Hauptkalibrierung immer vor der ersten Augenverfolgungsaufgabe stattfindet. Wenn Sie beispielsweise vier Aufgaben in einer Blocksequenz zur Augenverfolgungsmessung haben, wird Labvanced die Kalibrierung vor der ersten der vier Aufgaben anfordern. Dies würde es dem Experimentator ermöglichen, entsprechend zu planen, wann die Kalibrierung innerhalb des Studienaufbaus erfolgt.
Die andere Option in derselben Optionsanzeige ist die Anzahl der Fixationen, die während der Validierungsphase zwischen den Trials angezeigt werden (siehe Abbildung 3). Wenn Sie den Wert auf Null setzen, wird der Validierungsprozess übersprungen. Wenn jedoch die Anzahl der Fixationen erhöht wird, werden mehr Fixationspunkte zur Validierung der Augenverfolgungsmessung während der Intertrial-Zeiten präsentiert. Dies ist wichtig für den Augenverfolgungsalgorithmus, um systematische Fehler zu mildern und die Abweichungskorrektur zu berechnen. Wenn einige Teilnehmer beispielsweise mehr in eine Richtung orientiert sind (entweder nach links oder nach rechts), wird der Validierungsprozess diese Abweichung zur Fehlerverbesserung ausgleichen. Eine weitere nützliche Option ist die direkte Anwendung der Offset-Korrektur, indem auf die Benutzereinstellungen für die Abweichung pro Trial geklickt wird. Die letzte Option, die zu beachten ist, ist die Anzahl der Fixationen, die zur Driftkorrektur für die Anzahl der Punkte verwendet werden sollen, die Sie für die Driftkorrektur berechnen möchten. Bei der Korrektur werden frühere Trials in die Berechnung einbezogen, um den Fehler des Teilnehmers aus der Hauptkalibrierung zu berücksichtigen.
Abbildung 3. Anzeige der physikalischen Signale. Der rote Kasten zeigt die Optionen, die innerhalb der physikalischen Signale mit Standardwerten für Fixationen von 3 und Driftkorrekturwerten von 6 angezeigt werden.
Anzeigeeinstellung
Ein weiterer wichtiger Punkt, der bei der Taskbearbeitung zu beachten ist, sind die Anzeigeeinstellungen. Für den allgemeinen Labvanced-Task ist die Anzeigeeinstellung im Modus Zoom/Anpassung (siehe Abbildung 4 unten) eingestellt, der den Anzeigerahmen so anpasst, dass er auf jedem Bildschirm für die Anzeige des Teilnehmers passt. Aber für die Augenverfolgung sollten Sie die feste Option in Visuelle Grad oder Millimeter in Betracht ziehen. Dies kann sehr nützlich sein, da dies es ermöglicht, die Augenbewegung des Teilnehmers in visuellen Graden zu verfolgen, anstatt sich auf Bildschirmeinheiten zu verlassen, was auch zusätzliche Berechnungen zur Quantifizierung der räumlichen Distanz erfordert. Der gleiche Vorteil könnte auch auf die Millimeter-Messung angewendet werden. Kritisch ist, dass die Änderung der Anzeigeeinstellung die Anzeige der Studieneinstellungen ändert, auf die wir zu dieser Anzeige zurückverfolgen werden.
Abbildung 4. Anzeige der Anzeigeeinstellungen, die im Standard-Zoom/Anpassungsmodus eingestellt sind.
Zurück zu den Einstellungen der Studie ermöglicht die Änderung der Anzeigeeinstellungen zusätzliche Optionen für Bildschirmgröße & Auflösung, um die minimale Bildschirmgröße entweder in visuellen Graden oder Millimetern zu definieren (siehe Abbildung 5 unten). Allerdings wird die Option Bildschirmkalibrierung anzeigen immer ausgewählt (grau dargestellt), und dies bietet eine Bildschirmanzeigevorlage, die den Teilnehmer dazu auffordert, einen Kreditkartenartikel an den Bildschirm zu halten und die Vorlage so anzupassen, dass sie der physischen Kartengröße entspricht. Eine solche physische Kalibrierungsmessung ermöglicht es dem Labvanced-Algorithmus, die Anzeigengröße zu inferieren, um verschiedene Monitor-Einstellungsvariationen zu berücksichtigen.
Abbildung 5. Anzeige der Seite der Studieneinstellungen. Der rote Kasten zeigt die Optionen zur Festlegung der minimalen Bildschirmgröße in visuellen Graden, Millimetern oder Pixeln an. Beachten Sie, dass die Bildschirmkalibrierung immer in grau ausgewählt ist.
Ereignisse & Variablensetup für Augenverfolgungsdaten
Um die Augenverfolgungsdaten aufzuzeichnen, kann dies durch Erstellen eines neuen Ereignisses erfolgen. Wenn ein Experimentator die Augenverfolgung anhand eines bestimmten Bildes messen möchte, kann dies durch den Augenverfolgungs-Trigger unter Physiologischen Signalen (siehe Abbildung 6 unten) eingerichtet werden. Dies bedeutet, dass jedes Mal, wenn die Webcam ein Bild oder ein Ziel verarbeitet, dies die Sequenz des Ereignisses für eine bestimmte Aktion auslösen würde. Wenn Sie beispielsweise ein bestimmtes Element (z. B. Fixationskreuz) als Trigger haben möchten, gibt es eine Auswahloption: Nur auslösen, wenn auf bestimmte Elemente geschaut wird, und setzen Sie das Ziel auf einen bestimmten Artikel (z. B. Fixationskreuz oder Bild). Wenn Sie diese Option nicht auswählen, wird die Augenverfolgung alles aufzeichnen, was der Aufzeichnungsaktion folgt.
Abbildung 6. Anzeige der Ereigniseinrichtung zur Aufzeichnung der Augenverfolgung. Das Kontrollkästchen unter dem Trigger-Typ zeigt die Triggeroption an, wenn auf bestimmte Elemente wie Fixationskreuz oder Bild geschaut wird.
Um die Aufzeichnungsvariable festzulegen, verwenden Sie die typische Aktion Setzen/Aufzeichnen der Variable, und auf der rechten Seite folgen die Verwenden des Triggers (Augenverfolgung) zu den Datenoptionen. Idealerweise wird empfohlen, das [X, Y, T, C]-Array auszuwählen (siehe Abbildung 7), da dies alle wichtigen Blickmessungen bereitstellt:
- X = X-Rahmenkoordinate
- Y = Y-Rahmenkoordinate
- T = UNIX-Zeitstempel
- C = Vertrauen der Augenerkennung für Blinzeln/Fehlererkennung
Abbildung 7. Anzeige der Ereigniseinrichtung zur Aufzeichnung der Augenverfolgungsmessungen.
Auf der linken Seite der Aktion Setzen/Aufzeichnen der Variable wird eine Variable (idealerweise eine neue Variable) gespeichert, die die Augenverfolgungsdaten speichert. Bei der Erstellung einer neuen Variable ist es wichtig, das Format der Variable auf Datenrahmen-Array einzustellen – da das [X, Y, T, C] ein Array-Daten ist und den Datentyp auf Numerisch (siehe Abbildung 8 unten) einzustellen. Schließlich ist es wichtig, den Aufzeichnungstyp auf Alle Änderungen/Zeitreihe zu ändern. Wir werden später im Abschnitt mehr Informationen zu Zeitreihen besprechen, aber im Allgemeinen ermöglicht diese Option die Aufzeichnung mehrerer Werte pro Trial, anstatt nur den endgültigen Wert am Ende des Trials. Es wäre ideal, mehrere Blicke, Zeit- und Vertrauenspunkte während der Aufzeichnung innerhalb eines Trials zu untersuchen, sodass die Zeitreihe mehr Nuancen zu den Gesamtaugenverfolgungsmessungen bereitstellt.
Abbildung 8. Anzeige der neuen Variableneinrichtung zur Speicherung der Augenverfolgungsmessungen. Der obere rote Kasten zeigt das Format auf Array und den Datentyp auf Numerisch eingestellt. Darüber hinaus zeigt der zweite rote Kasten darunter auch die kritische Zeitreihenoption an, die erforderlich wäre, um die mehreren Blickmessungen in einem Trial anzuzeigen.
Teil III: Studienerstellung
Angenommen, ein Forscher möchte eine Objektdiskriminierungsaufgabe (Abbildung 9A) mit einem Mausklick mit einer beliebigen Anzahl von Trials unter Verwendung der Augenverfolgungsmessung erstellen. Dies könnte mithilfe des Maustriggers und der Setzen/Aufzeichnen-Aktion eingerichtet werden (siehe Abbildung 9A & 9B). Der Sprungbefehl könnte anschließend folgen, um zum nächsten Trial zu wechseln.
Abbildung 9. Anzeige der Canvas mit der Objektdiskriminierungseinrichtung mit zwei Bildanzeigen (A) mit Ereignissen, die mit dem Maustrigger (B) und der Aktionsanordnung (C) zum Aufzeichnen des ausgewählten Bildes mit darauf folgender Sprungaktion eingerichtet sind.
Über die Aufzeichnung des Mausklicks hinaus erfordert die Einrichtung der Augenverfolgung zwei weitere Variablenaufzeichnungen, die für die Blickmessung von entscheidender Bedeutung sind. Diese sind Kalibrierungsfehler und Fehler Trial, die durch den Frame Start ausgelöst und die Setzen/Aufzeichnen-Aktion fortsetzen, um neue Variablen zu speichern (siehe Abbildung 10 unten). Der Kalibrierungsfehler liefert einen einzelnen numerischen Wert, der die Präzision der Hauptkalibrierung angibt, und der Fehler Trial bezieht sich auf die Präzision während jedes einzelnen Trials. Spätere Diskussionen im Bereich der Datenansicht bieten weitere Informationen zu diesen beiden Messungen.
Abbildung 10. Anzeige der Ereigniserstellung für Kalibrierungsfehler und Fehler Trial.
Es ist wichtig zu beachten, dass der Hintergrund während der Hauptkalibrierungsaufgabe während einer Augenverfolgungsstudie gleich sein sollte. Zum Beispiel zeigt die Abbildung unten den weißen Hintergrund mit zwei Bildstimuli. Dieser Hintergrund sollte in der Seite Studieneinstellungen (siehe Abbildung 11) unter Allgemeine Hintergrundfarbe gleich sein, was der gleiche Hintergrund ist, den Labvanced für die Hauptkalibrierung verwenden wird. Wenn die Farben zwischen der Hauptkalibrierung und der Studienphase unterschiedlich sind, kann dies zu möglichen Fehlern in den Daten führen und zu einer experimentellen Verfälschung führen.
Abbildung 11. Anzeige der Seite der Studieneinstellungen. Der rote Kasten zeigt die Hintergrundfarbe an, die mit der Canvas-Seite während der Haupterstellung der Studie übereinstimmen sollte.
Während der Aufzeichnungsphase der Studie wird es eine erste kurze Videoüberprüfung geben (siehe Abbildung 12). Wie bereits erwähnt, ist dies der Moment, in dem die Teilnehmer sich selbst in der blauen Gesichtsüberlagerung sehen, bevor die Studie beginnt. Dies ist auch der Zeitpunkt, an dem der Teilnehmer bewertet, ob das Video ohne Fehler funktioniert; andernfalls würde dies auf die unzureichende Hardware hinweisen, um das Video schnell zu verarbeiten. Falls dies der Fall ist, weist der Forscher die Teilnehmer an, die Studie abzubrechen und somit unnötige Zeit auf ihrer Seite zu sparen und die Abbrecherquote in den umfassenden Daten zu verringern.
Abbildung 12. Anzeige der ersten Webcam-/Videoverarbeitungsüberprüfung mit blauer Mesh-Überlagerung.
Sollte der Teilnehmer nach der Videoüberprüfung fortfahren, werden die Kalibrierungsanweisungen mit einer standardmäßigen Bildschirmaufzeichnung angezeigt. Der Experimentator kann die Anweisung ändern; andernfalls wird die allgemeine Beratung den Teilnehmer auffordern:
- In einem ruhigen Raum zu sein
- Genug Zeit zu haben
- Keine Brillen zu tragen - die reflektierenden Eigenschaften einiger Gläser könnten die Messung beeinträchtigen
- Die Mittelpunktsposition des Bildschirms beizubehalten
Darüber hinaus muss der Teilnehmer seinen Kopf in verschiedene Orientierungen positionieren, um das blaue Überlagerungsnetz mit der grünen „Maske“ auszurichten, die als virtuelle Kinnstütze dient (siehe Abbildung 13). Dies ermöglicht dem Algorithmus, für jeden Teilnehmer individuell mit verschiedenen Kopfpositionen zu trainieren, um die Position des Auges während der subtilen Kopfbewegungen während der Studienphase vorherzusagen. Wie bereits zuvor über die wichtige Funktion der virtuellen Kinnstütze erwähnt, werden die verschiedenen Kopfhaltungen, die der Teilnehmer befolgen muss, die gleichen Funktionen wie das physische Kinnstützen übernehmen, um die Kopfabweichung zu mindern. Wenn es eine signifikante Abweichung zwischen dem blauen Überlagerungsnetz und der grünen Maske gibt, wird das Programm unterbrechen, um die Teilnehmer aufzufordern, ihre Kopfposition nach dem jeweiligen Trial neu auszurichten. Diese Unterbrechung wird während der Hauptkalibrierungsphase und während der gesamten Studie erfolgen, wenn eine solche signifikante Fehlstellung bei der Kopfverfolgung von der Webcam erkannt wird. Zur schnellen Erinnerung variert die Dauer der Hauptkalibrierung von <1 min bis 8 min, wobei Letztere mehr Kopfpositionenorientierung mit zusätzlicher Fixationskalibrierung erfordert, um die genaueste Messung zu bieten. Letztlich wird während der Studien-Trials die Validierungssitzung mit variierenden Fixationspunkten vorhanden sein, um die Fehlerabweichung zu minimieren und genaue Messungen für die Vertrauenspunkte zu vermitteln.
Abbildung 13. Anzeige des Kopfkalibrierungsprozesses mit der grünen „virtuellen Kinnstütze“-Maske. Das erste Bild (A) zeigt die Bestimmung der anfänglichen Zentrumshaltung. Das zweite Bild (B) zeigt eine Kopfpositionabweichung und den Dialog des Programms, um den Kopf in die grüne virtuelle Kinnstütze neu zu positionieren.
Teil IV: Datenansicht
Nach dem Durchlauf des/der Teilnehmer können die aufgezeichneten Augenverfolgungsdaten durch Klicken auf die Seite Datenansicht & Export (siehe Abbildung 14) angezeigt werden. Für Labvanced stellt die Plattform zwei Arten von Datensätzen zur Verfügung, die der Experimentator herunterladen kann: Normale Daten und Zeitseriendaten.
Abbildung 14. Anzeige der Datenansicht, in der die standardmäßigen Daten und Zeitreihendaten im roten Kasten heruntergeladen werden können.
Normale Daten
Dies ist eine konventionelle Struktur des Datensatzes, die jede Variable in Spalten anzeigt, und jede Zeile wird jeden Trial repräsentieren. Der Datensatz enthält immer eine einzigartige Teilnehmer-ID für jeden Befragten und eine Identifikation, falls dies in der Studie erforderlich war. Eine zu beachtende Sache in diesem Datensatz ist, dass der Kalibrierungsfehler (Kalibrierungsfehler in Abbildung 15 unten) die allgemeinen Augenverfolgungsdaten angibt, die während der Hauptkalibrierung erhalten wurden. Daher bleibt dieser Wert im gesamten Datensatz konsistent. In der Fehler-Trial-Spalte werden einige kontinuierliche Werte angezeigt, die sich über die Trials hinweg ändern. Idealerweise zeigt ein Rückgang in dieser Spalte über die Trials einen Rückgang der Fehlerabweichung der Messung an, was ein gutes Zeichen für das Gesamtvertrauen in die erhaltene Messung ist.
Abbildung 15. Unvollständige normale Datenansicht mit einigen der Spalten, die kritische Variablen anzeigen: Trialnummer, Kalibrierungsfehler, gewähltes Bild und Fehler Trial.
Zeitseriendaten
Dies ist eine längere Darstellung des Datensatzes, die mehrere Messungen innerhalb jedes Trials anzeigt, die von der Webcam verarbeitet werden (sowie von der Mausverfolgung, wenn nötig). Daher wird dieser Datensatz mehrere Zeilen für denselben Trial anzeigen, und die letzten vier Spalten (siehe Abbildung 16 unten) zeigen die [X, Y, T, C]-Array-Daten an, die wir im vorherigen Teil der Variablen-Ereigniseinrichtung erwähnt haben. Diese vier Spalten bezeichnen Folgendes:
- X = X-Position des Blicks in der Einheit der Rahmenelemente
- Y = Y-Position des Blicks in der Einheit der Rahmenelemente
- T = präziser Zeitstempel (UNIX-Zeit), zu dem der Blick auftrat
- C = Vertrauen für die jeweilige Blickdaten
Abbildung 16. Unvollständige Ansicht der Zeitseriendaten mit den letzten vier Spalten: x-Koordinaten, y-Koordinaten, UNIX-Zeit und Vertrauenspunkte.
Für die X- & Y-Koordinaten können diese Rohblickmessdaten mit den Hauptstudienrahmen ausgewertet werden, um zu extrapolieren, wo der Teilnehmer während dieses Ereignisses hingeschaut hat. Im Haupt-Canvas ist die standardmäßige Rahmeneinstellung 800x450 Rahmenelementeinheiten (siehe Abbildung 17 unten). Daher kann der Experimentator, indem er auf das Objekt klickt, dessen relative X- & Y-Position auf dem Bildschirm extrapolieren, um zu inferieren, ob der Blick des Teilnehmers auf dem Stimulus gelandet ist – Dadurch ermöglicht sich die Berechnung des Interessengebiets (AOI).
Für die letzten Vertrauensdaten informiert dies darüber, wie gut das Auge mithilfe der Webcam erkannt wurde, unter Berücksichtigung der Iris/Pupillenerkennung und der Blinzelerkennung. Die Werte variieren im Bereich von 0 bis 1, wobei Punktzahlen, die sich 1 nähern, die Robustheit der Messung anzeigen. Der Wert, der niedriger ist und sich 0 nähert, wird als weniger vertrauenswürdig oder zu verlassende Daten angesehen, da dies auf retinalen Unschärfen während bestimmter Kopfbewegungen oder Blinzelerkennung während dieser Messung hindeuten könnte.
Abbildung 17. Anzeige der Canvas-Seite. Der erste rote Kasten unten zeigt standardmäßige Rahmenmessungen von 800 x 450 Rahmenelementen. Der zweite rote Kasten auf der rechten Seite zeigt die x- & y-Koordinatenposition des ersten Katzenbildes, die als Interessengebiet (AOI) für die Analyse dienen könnte.
Als letzte Anmerkung kann die Labvanced-Abtastrate 30 Bilder pro Sekunde nicht überschreiten. Wir streben an, dies in der Zukunft zu verbessern, aber es ist wichtig zu beachten, dass die meisten Webcams derzeit die Schwelle von 30 Bildern pro Sekunde haben. Schließlich haben wir in unserem Github-Repository derzeit mehrere Skripte, die nützlich für WebSocket & Datenanalysen sein könnten. Wir hoffen, in Zukunft mehr Skripte bereitzustellen, und arbeiten derzeit an einem neuen Algorithmus zur Berechnung der Fixierungsdetektion, der für augenbasierten experimentellen Studien von großem Nutzen sein könnte.