labvanced logoLabVanced
  • Research
    • Publications
    • Researcher Interviews
    • Use Cases
      • Behavioral Psychology
      • Personality & Social Psychology
      • Cognitive & Neuro Psychology
      • Developmental & Educational Psychology
      • Clinical & Health Psychology
      • Sports & Movement Psychology
      • Marketing & Consumer Psychology
    • Labvanced Blog
  • Technology
    • Feature Overview
    • Desktop App
    • Phone App
    • Precise Timing
    • Experimental Control
    • Eye Tracking
    • Multi User Studies
    • More ...
      • Questionnaires
      • Artificial Intelligence (AI) Integration
      • Mouse Tracking
      • Data Privacy & Security
  • Learn
    • Guide
    • Videos
    • Walkthroughs
    • FAQ
    • Release Notes
    • Documents
    • Classroom
  • Experiments
    • Public Experiment Library
    • Labvanced Sample Studies
  • Pricing
    • Pricing Overview
    • License Configurator
    • Single License
    • Research Group
    • Departments & Consortia
  • About
    • About Us
    • Contact
    • Downloads
    • Careers
    • Impressum
    • Disclaimer
    • Privacy & Security
    • Terms & Conditions
  • Appgo to app icon
  • Logingo to app icon
Learn
Leitfaden
Videos
Schritt-für-Schritt-Anleitungen
Häufig gestellte Fragen
Versionshinweise
Klassenzimmer
  • 中國人
  • Deutsch
  • Français
  • Español
  • English
Leitfaden
Videos
Schritt-für-Schritt-Anleitungen
Häufig gestellte Fragen
Versionshinweise
Klassenzimmer
  • 中國人
  • Deutsch
  • Français
  • Español
  • English
  • Leitfaden
    • EINSTIEG

      • Objekte
      • Ereignisse
      • Variablen
      • Aufgaben-Assistent
      • Versuchssystem
      • Studiengestaltung
        • Aufgaben
        • Blöcke
        • Sitzungen
        • Gruppen
    • FEATURED THEMEN

      • Randomisierung & Balance
      • Eye Tracking
      • Desktop-App
      • Beispielstudien
      • Teilnehmer-Rekrutierung
      • API-Zugriff
        • REST API
        • Webhook-API
        • WebSocket API
      • Weitere Themen

        • Präzise Stimuluszeiten
        • Multi-User-Studien
        • Kopfverfolgung in Labvanced | Anleitung
    • HAUPT-APP-TABS

      • Übersicht: Haupt-Tabs
      • Dashboard
      • Meine Studien
      • Geteilte Studien
      • Meine Dateien
      • Experiment-Bibliothek
      • Mein Konto
      • Meine Lizenz
    • STUDIENTABS

      • Übersicht: Studien-spezifische Tabs
      • Studiengestaltung
        • Aufgaben
        • Blöcke
        • Sitzungen
        • Gruppen
      • Aufgaben-Editor
        • Hauptfunktionen und Einstellungen
        • Das Versuchssystem
        • Canvas- und Seitenrahmen
        • Objekte
        • Objekt Eigenschaften Tabellen
        • Variablen
        • Systemvariablen-Tabellen
        • Das Ereignissystem
        • Versuchszufälligkeit
        • Texteditor-Funktionen
        • Eyetracking in einer Aufgabe
        • Kopfverfolgung in einer Aufgabe
        • Multi-User-Studien
      • Studieneinstellungen
        • Start und Haupt Einstellungen
        • Browsers & Devices Einstellungen
        • Einstellungen für experimentelle Funktionen
      • Beschreibung
        • Weitere Informationen zu den Beschreibungsinformationen
        • Bilder, Links und Referenzen in Beschreibungen
      • Variablen
      • Medien
      • Übersetzen
      • Ausführen
      • Veröffentlichen und Aufzeichnen
        • Anforderungen für die Veröffentlichung einer Studie in Labvanced
        • Rekrutierung von Teilnehmern und Crowdsourcing
        • Lizenzauswahl und Bestätigung
        • Nach der Veröffentlichung Ihrer Labvanced-Studie
      • Teilen
      • Teilnehmer
      • Datenausblick und Export
        • Datensicht und Variablen- & Aufgaben Auswahl (alte Version)
        • Zugriff auf Aufnahmen (ALTE Version)
  • Videos
    • Videoübersicht
    • Einstieg in Labvanced
    • Aufgaben erstellen
    • Elemente Videos
    • Ereignisse & Variablen
    • Fortgeschrittene Themen
  • Durchläufe
    • Einführung
    • Stroop Aufgabe
    • Lexikalische Entscheidungsaufgabe
    • Posner Blickrichtungsaufgabe
    • Change Blindness Flicker Paradigma
    • Augenverfolgung Beispielstudie
    • Augenverfolgungsstudie bei Kleinkindern
    • Studie zur Aufmerksamkeitsfokussierung mit Mausverfolgung
    • Schnelle serielle visuelle Präsentation
    • ChatGPT Studie
    • Augenverfolgung Demo: SVGs als AOIs
    • Multi-User Demo: Zeigen Sie die Cursors der Teilnehmer
    • Gamepad / Joystick Controller - Grundkonfiguration
    • Desktop-App Studie mit EEG-Integration
  • FAQ
    • Funktionen
    • Sicherheit & Datenschutz
    • Lizenzierung
    • Präzision von Labvanced
    • Programmgesteuerte Nutzung & API
    • Labvanced offline verwenden
    • Fehlerbehebung
    • Fragen zur Studienerstellung
  • Versionshinweise
  • Klasse

Eyetracking Anleitung

Willkommen zur ersten Labvanced-Anleitung mit dem Eyetracking-Einrichtungsleitfaden für Ihr nächstes Projekt. Insgesamt wird dieser Informationsinhalt in vier Teile gegliedert, beginnend mit der Überprüfung der allgemeinen Systemeinstellungen vor der Erstellung einer Studie und schließlich der Erklärung der Datenansicht. Neben diesem Schritt-für-Schritt-Dokument ist auch der Video-Tutorialinhalt im Labvanced-Video-Tutorial verfügbar, zusammen mit all den anderen Leitfäden, die Ihnen bei der Erstellung Ihres Online-Experiments helfen. Ohne weitere Umschweife, lassen Sie uns in die Erstellung der Eyetracking-Studie eintauchen.

Teil I: Systemeinstellungen

Zunächst ist es wichtig, Labvanced V2 für die Eyetracking-Messung auszuwählen (Abbildung 1 unten) unter Verwendung unseres tiefen Lernen Algorithmus. Anschließend gibt es drei Optionen zur Auswahl der Dauer der Kalibrierung. Die Standardoption ist 5 Minuten, aber der Experimentator kann auch <1 Minute, 3 Minuten oder 8 Minuten Kalibrierung wählen. Die längere Dauer erfordert mehr Kalibrierung der Kopfposition mit erhöhten Fixationspunkten, die die optimale Messgenauigkeit bieten. Bei der Berücksichtigung der Studienart und der Teilnehmer, die dem Experiment unterzogen werden, könnte die kürzere Dauer auch optimal sein, um die Zeit und Ermüdung der Teilnehmer zu verringern, insbesondere wenn in Ihrer Studie Säuglinge beteiligt sind.

blogAbbildung 1. Startbildschirm auf der Seite "Studieneinstellungen". Der Experimentator muss die Option "Eyetracking aktivieren" auswählen, um die folgenden Auswahlmöglichkeiten im angezeigten roten Feld zu ändern und Eyetracking zu verwenden.

Apropos Säuglinge, es gibt zusätzliche Optionen zur Optimierung der Blicklesungen von den jungen Teilnehmern, indem Tierbildoptionen für die Kalibrierungsbildtypen ausgewählt werden. Die Tierkalibrierungsanzeige könnte mit der Auswahl des Säuglingsfreundlichen Modus gekoppelt werden (siehe Abbildung 1). Die Auswahl dieser Option wird automatisch eine kürzere Kalibrierung und begleitende Geräusche (kann auch abgeschaltet werden) anpassen, um die Aufmerksamkeit des Säuglings zu fördern und Langeweile zu verringern. Im selben Abschnitt könnte die Option Raster anzeigen dem Teilnehmer helfen, den nächsten Kalibrierungspunkt vorherzusehen, um den optimalen Kalibrierungsprozess zu unterstützen.

Direkt unter der Option "Raster anzeigen" gibt es auch eine Option zur Überprüfung Initiale Testvideo-Streams anzeigen (siehe Abbildung 1). Die Teilnehmer würden sich selbst im Video-Stream mit der Gesichtsmaske-Überlagerung vor der Hauptkalibrierung sehen, wenn sie dies auswählen. Die Bedeutung der Gesichtsmaske wird im späteren Abschnitt dieser Anleitung weiter erläutert, aber es wird dringend empfohlen, das Testvideo zu haben, um zu prüfen, ob der Computer des Teilnehmers die Webcam-Eyetracking-Messung verarbeiten kann. Als Empfehlung ist es ideal, einen Computer mit einer separaten GPU für optimales Eyetracking zu verwenden. Wenn die Hardware auf der Seite des Teilnehmers nicht optimal ist, bleibt das anfängliche Testvideo statisch und es geht nicht weiter, was als erste Überprüfung dient, ob der Teilnehmer die Studie fortsetzen sollte. In diesem Fall von weniger optimaler Computerhardware können sie die Studie abbrechen und dem Experimentator helfen, indem sie Datenrauschen in den umfassenden Daten reduzieren.

Darüber hinaus kann der Experimentator auch die Option Kopfhaltungsausrichtung in derselben Einstellungsauswahl auswählen, die als virtueller Kinnstütze fungiert. Diese zusätzliche Messung zielt darauf ab, die Funktion der physischen Kinnstütze zu simulieren, die in einer Laborumgebung verwendet wird, wo das Kinn auf der Kopfstütze positioniert wird, um die Stillstand des Kopfes aufrechtzuerhalten. Durch Aktivieren der Kopfpositionierungsoption wird Labvanced verschiedene Kopforientierungen während der Kalibrierungsphase messen. Weitere Informationen sind im späteren Abschnitt des spezifischen Prozesses verfügbar. Bei der Berücksichtigung der Kopfposition in die Augenmessung wird die Qualität der Daten verbessert, indem das Rauschen verringert wird, das durch die Kopfausrichtung verursacht wird. Wenn die Teilnehmer ihren Kopf signifikant aus der zentralen Position bewegen, wird das Programm die Studie unterbrechen und den Teilnehmer auffordern, sich wieder auszurichten und sich auf die virtuelle Kinnstütze zu fokussieren, um die Konzentration des Teilnehmers zu unterstützen und eine ähnliche Kopfposition während der Studie aufrechtzuerhalten. Noch wichtiger ist, die Kontrolle über die Kopfposition wird auch die Gesamtqualität Ihrer Daten unterstützen. Obwohl es sehr empfohlen wird, diese Option zu aktivieren, gibt es auch die Option, sie während des Experimentallaufs zu ignorieren. Je nach Teilnehmern der Studie könnte das ständige Halten der Kopfposition schwierig sein, insbesondere bei Säuglingen, sodass diese Option es den Teilnehmern (oder Eltern) ermöglicht, diesen Prozess während des Experimentallaufs abzuschalten und zu überspringen.

Last but not least gibt es auch eine Option, Kalibrierungsdaten mit Labvanced zu teilen. In erster Linie dient dies zur Verbesserung des Algorithmus des Labvanced Eyetrackings für eine bessere Benutzeroberfläche, ist aber ganz optional, basierend auf dem Ermessen des Forschers. Im nächsten Teil werden wir in die Canvas-Seite eintauchen, um einige weitere Vorbereitungen vor der Experimenterstellung und der Datenerfassung durchzugehen.

Teil II: Aufgabeneditor

Neben der Vorbereitung auf die Eyetracking-Studie mit der Seite "Studieneinstellungen" gibt es zusätzliche vorbereitende Maßnahmen zu beachten auf der Canvas-Seite und wichtige Informationen zur Erstellung neuer Variablen zur Speicherung der Blickdaten.

Physikalische Signale

Durch Klicken auf die Schaltfläche Physikalische Signale oben links auf dem Canvas-Bildschirm wird ein Dialog mit verschiedenen Optionen für das Eyetracking geöffnet (siehe Abbildung 2). Zunächst möchten Sie Eyetracking im Aufgabenbearbeitungsmodus aktivieren, um die Blickmessung während Ihrer Studie zu ermöglichen. Natürlich könnte dies deaktiviert werden, wenn Sie nur die Verhaltensmessung untersuchen (z. B. Reaktionszeit und Genauigkeit).

blogAbbildung 2. Canvas-Bildschirm innerhalb einer Aufgabe. Das rote Feld zeigt die Option Physikalische Signale zur Aktivierung des Eyetrackings in dieser Aufgabe und zur Bestimmung der Anzahl der Fixationspunkte für die intertrial Validierung an.

Wichtig ist, dass die Hauptkalibrierung immer vor der ersten Eyetracking-Aufgabe erfolgt. Wenn Sie beispielsweise vier Aufgaben in einer Blocksequenz für die Eyetracking-Messung haben, wird Labvanced die Kalibrierung vor der 1. der vier Aufgaben anfordern. Dies würde dem Experimentator ermöglichen, entsprechend zu planen, wann die Kalibrierung innerhalb der Studienkonstruktion erfolgt.

Die andere Option im gleichen Einstellungslayout ist die Anzahl der Fixationen, die während der Validierungsphase zwischen jedem Versuch angezeigt werden (siehe Abbildung 3). Durch Setzen des Wertes auf null würde der Validierungsprozess übersprungen. Eine Erhöhung der Anzahl der Fixationen würde jedoch mehr Fixationspunkte während der intertrial-Periods zur Validierung der Eyetracking-Messung darstellen. Dies ist wichtig für den Eyetracking-Algorithmus, um systematische Fehler zu verringern und die Driftkorrektur zu berechnen. Wenn beispielsweise einige Teilnehmer mehr nach links oder rechts orientiert sind, wird der Validierungsprozess diese Drift zur Fehlerverbesserung ausgleichen. Die andere nützliche Option ist, den Offset direkt anzuwenden, indem Sie auf die Benutzer-pro-Versuchs-Driftkorrektur klicken. Die letzte zu beachtende Option ist die Anzahl der Fixationen, die für die Driftkorrektur verwendet werden sollen, für die Anzahl der Punkte, die Sie zur Berechnung der Driftkorrektur verwenden möchten. Während der Korrektur werden frühere Versuche in die Berechnung einbezogen, um den Fehler des Teilnehmers von der Hauptkalibrierung zu berücksichtigen.

blogAbbildung 3. Anzeige der physikalischen Signale. Das rote Feld zeigt die innerhalb der physikalischen Signale dargestellten Optionen mit dem Standardwert der Fixationen von 3 und dem Driftkorrekturwert von 6 an.

Anzeigeeinstellungen

Ein weiterer wichtiger Punkt, den es für die Aufgabenbearbeitung zu beachten gilt, sind die Anzeigeeinstellungsmöglichkeiten. Bei der allgemeinen Labvanced-Aufgabe sind die Anzeigeeinstellungen auf Zoom/Adaptive-Modus eingestellt (siehe Abbildung 4 unten), sodass der Anzeigerahmen so skaliert wird, dass er auf jedem Bildschirm für die Anzeige der Teilnehmer passt. Für Eyetracking sollten Sie jedoch die feste Option entweder im Visuellen Grad oder Millimeter-Option in Betracht ziehen. Dies kann sehr nützlich sein, da es die Verfolgung der Augenbewegung der Teilnehmer in visuellen Grad ermöglicht, anstatt sich auf Bildschirmrahmeneinheiten zu verlassen, die zusätzliche Berechnungen erfordern würden, um den räumlichen Abstand zu quantifizieren. Der gleiche Vorteil könnte auch auf die Millimeter-Messung angewendet werden. Kritisch ist, dass die Änderung der Anzeigeeinstellungsoption die Anzeige der Studieneinstellungen ändert, zu der wir zurückverfolgen werden.

blogAbbildung 4. Anzeige der Anzeigeeinstellungen, die auf den Standard-Zoom/Adaptive-Modus eingestellt sind.

Zurück zu den Studieneinstellungen ermöglicht die Änderung der Anzeigeeinstellungen zusätzliche Optionen für Bildschirmgröße & Auflösung, um die Mindestbildschirmgröße entweder in visuellen Grad oder Millimetern zu definieren (siehe Abbildung 5 unten). Die Option Bildschirmkalibrierung anzeigen wird jedoch immer ausgewählt (grau angezeigt), und dies bietet eine Bildschirmvorlage, die den Teilnehmer auffordert, einen kreditkartengroßen Gegenstand an den Bildschirm zu halten und die Vorlage anzupassen, um die physische Kartenhöhe anzupassen. Solche physikalischen Messkalibrierungen ermöglichen es dem Labvanced-Algorithmus, die Bildschirmgröße abzuleiten, um verschiedene Monitor-Einstellungsvariationen zu berücksichtigen.

blogAbbildung 5. Anzeige der Seite Studieneinstellungen. Das rote Feld zeigt die Optionen für festgelegte Mindestbildschirmgrößen in visuellen Grad, Millimetern oder Pixeln an. Beachten Sie, dass die Bildschirmkalibrierung immer grau ausgewählt ist.

Ereignisse & Variableneinrichtung für Eyetracking-Daten

Um die Eyetracking-Daten aufzuzeichnen, kann dies durch das Erstellen eines neuen Ereignisses erfolgen. Wenn ein Experimentator das Eyetracking anhand eines bestimmten Bildes messen möchte, kann dies über den Eyetracking-Auslöser unter Physiologischen Signalen (siehe Abbildung 6 unten) eingerichtet werden. Das bedeutet, jedes Mal, wenn die Webcam ein Bild oder ein Ziel verarbeitet, würde dies die Sequenz des Ereignisses zu einer bestimmten Aktion auslösen. Wenn Sie beispielsweise das spezielle Element (z.B. Fixationskreuz) als den Auslöser haben möchten, gibt es eine Auswahloption: Nur auslösen, wenn auf spezifische Elemente geschaut wird, und legen Sie das Ziel auf einen bestimmten Punkt (z. B. Fixationskreuz oder Bild). Wenn Sie diese Option nicht auswählen, wird das Eyetracking alles aufzeichnen, was von der Aufnahmeaktion gefolgt wird.

blogAbbildung 6. Anzeige des Ereignis-Setups zur Aufzeichnung des Eyetrackings. Das Kontrollkästchen unter dem Auslösertyp zeigt die Auslöseoption an, wenn auf spezifische Elemente, wie Fixationskreuz oder Bild, geschaut wird.

Um die Aufzeichnungsvariablen festzulegen, verwenden Sie die typische Setzen/ Aufzeichnen-Variable-Aktion, und verwende auf der rechten Seite die Verwende Auslöser (Eyetracking), um zu den Datenoptionen zu gelangen. Idealerweise wird empfohlen, das [X, Y, T, C] Array (siehe Abbildung 7) auszuwählen, da dies alle entscheidenden Blickmessungen bereitstellt:

  • X = X-Rahmenkoordinate
  • Y = Y-Rahmenkoordinate
  • T = UNIX-Zeitstempel
  • C = Vertrauen der Augenverfolgung zur Blinzeln-/Fehlererkennung

blogAbbildung 7. Anzeige des Ereignis-Setups zur Aufzeichnung der Eyetracking-Messungen.

Auf der linken Seite der Setzen/ Aufzeichnen-Variable-Aktion wird eine Variable (idealerweise eine neue Variable) zur Speicherung der Eyetracking-Daten erstellt. Wenn Sie eine neue Variable erstellen, ist es wichtig, das Format der Variable auf Datenrahmen-Array festzulegen - da das [X, Y, T, C] ein Array-Datenformat ist, und stellen Sie den Datentyp auf Numerisch (siehe Abbildung 8 unten) ein. Schließlich ist es wichtig, den Aufzeichnungsstatus auf Alle Änderungen/Zeitreihe zu ändern. Wir werden weitere Informationen zur Zeitreihe in einem späteren Abschnitt besprechen, aber im Allgemeinen ermöglicht diese Option die Aufzeichnung mehrerer Werte pro Versuch, anstatt nur den endgültigen Wert am Ende des Versuchs. Es wäre ideal, mehrere Blickrichtungen, Zeiten und Vertrauenswerte in der Aufzeichnung innerhalb eines Versuchs zu untersuchen, sodass die Zeitreihe mehr Nuancen zu der Gesamtemessung des Eyetrackings bieten kann.

blogAbbildung 8. Anzeige des neuen Variablen-Setups zur Speicherung der Eyetracking-Messungen. Das obere rote Feld zeigt das Format, das auf Array festgelegt ist, und den Datentyp als Numerisch. Über diese beiden wichtigen Einstellungen hinaus zeigt das zweite rote Feld unten auch die kritische Zeitreihenoption an, die erforderlich sein würde, um die mehrfachen Blickmessungen in einem Versuch zu sehen.

Teil III: Studieneinrichtung

Angenommen, ein Forscher möchte eine Objektdiskriminierungsaufgabe (Abbildung 9A) mit einem Mausklick mit n-Anzahl von Versuchen unter Verwendung der Eyetracking-Messung einrichten. Dies könnte mithilfe des Mausauslösers und der Setzen/ Aufzeichnen-Aktion eingerichtet werden (siehe Abbildung 9A & 9B). Daraus könnte die Sprungaktion folgen, um zum nächsten Versuch zu wechseln.

blogAbbildung 9. Anzeige der Canvas mit der Objektdiskriminierungs-Einrichtung mit zwei Bildanzeigen (A) mit Ereignis-Setup unter Verwendung des Mausauslösers (B) und der Aktionsausrichtung (C) zur Aufzeichnung des ausgewählten Bildes mit nachfolgender Sprungaktion.

Neben der Aufzeichnung des Mausklicks erfordert das Eyetracking-Setup zwei weitere Variablenaufzeichnungen, die entscheidend für die Blickmessung sind. Diese sind Kalibrierungsfehler und Fehler im Versuch, die durch den Frame Start ausgelöst und den Setzen/ Aufzeichnen-Aktionen folgen müssen, um neue Variablen zu speichern (siehe Abbildung 10 unten). Der Kalibrierungsfehler liefert einen einzigen numerischen Wert, der die Präzision der Hauptkalibrierung angibt, und der Fehler im Versuch bezieht sich auf die Präzision während jedes einzelnen Versuchs. Eine spätere Diskussion im Datenausschnitt wird weitere Informationen zu diesen beiden Messwerten bereitstellen.

blogAbbildung 10. Anzeige der Ereigniserstellung für Kalibrierungsfehler & Fehler im Versuch.

Es ist wichtig zu beachten, dass der Hintergrund während der Hauptkalibrierungsaufgabe während einer Eyetracking-Studie gleich sein sollte. In dem Beispielbild zeigt der Display weißen Hintergrund mit zwei Bildreizen. Dieser Hintergrund sollte auf der Seite Studieneinstellungen (siehe Abbildung 11) unter Allgemeine Hintergrundfarbe gleich sein, da derselbe Hintergrund von Labvanced für die Hauptkalibrierung verwendet wird. Wenn die Farben zwischen der Hauptkalibrierung und der Studienphase unterschiedlich sind, dies könnte zu möglichen Fehlern in den Daten führen, was zu einem experimentellen Störfaktor führt.

blogAbbildung 11. Anzeige der Seite Studieneinstellungen. Das rote Feld zeigt die Hintergrundfarbe an, die mit der Canvas-Seite während der Hauptstudieneinrichtung übereinstimmen sollte.

Während der Aufnahmephase der Studie wird es die anfängliche kurze Videoüberprüfung geben (siehe Abbildung 12). Wie bereits erwähnt, ist dies der Moment, in dem die Teilnehmer sich selbst in der Gesichtsüberblendung in Blau vor der Studieninitiierung sehen. Dies ist auch der Zeitpunkt, an dem der Teilnehmer bewertet, ob das Video ohne Fehler funktioniert; andernfalls würde dies auf ungeeignete Hardware hinweisen, um das Video schnell zu verarbeiten. Wenn dies der Fall ist, wird der Forscher die Teilnehmer instruiert, die Studie abzubrechen, um unnötige Zeit auf ihrer Seite zu sparen und die Abbrechungsrate bei den umfassenden Daten zu senken.

blogAbbildung 12. Anzeige der vorläufigen Webcam-/Videoverarbeitungsüberprüfung mit blauer Maske.

Sollte der Teilnehmer nach der Videoüberprüfungsphase fortfahren, werden die Kalibrierungsanweisungen mit einer Standardbildschirmanweisung angezeigt. Der Experimentator kann die Anweisung ändern, andernfalls wird der allgemeine Rat den Teilnehmer auffordern zu:

  • In einem ruhigen Raum zu sein
  • Genug Zeit zu haben
  • Keine Brille zu tragen - die reflektierende Eigenschaft mancher Linsen könnte die Messung beeinträchtigen
  • Die zentrale Position des Bildschirms aufrechtzuerhalten

Im Anschluss daran muss der Teilnehmer den Kopf in verschiedene Ausrichtungen positionieren und die blaue Überlagerungsmaske mit der grünen „Maske“ abgleichen, die als virtuelle Kinnstütze dient (siehe Abbildung 13). Dies ermöglicht es dem Algorithmus, sich individuell für jeden Teilnehmer mit unterschiedlichen Kopfhaltungen auszubilden, um die Augenposition während der subtilen Kopfbewegungen während der Studienphase vorherzusagen. Wie zuvor erwähnt, spielt die virtuelle Kinnstütze eine wichtige Rolle, da die unterschiedlichen Kopfhaltungen, denen der Teilnehmer folgen muss, die gleichen Funktionen wie die physische Kinnstütze haben, um die Kopfdiskrepanz zu verringern. Wenn es eine signifikante Diskrepanz zwischen der blauen Überlagerungsmaske und der grünen Maske gibt, wird das Programm unterbrechen, um die Teilnehmer anzuweisen, die Kopfposition nach dem entsprechenden Versuch neu auszurichten. Diese Unterbrechung erfolgt während der Hauptkalibrierungsphase und während der gesamten Studie; solche signifikanten Kopffehlstellungen werden durch die Webcam-Überwachung erkannt. Als schnelle Erinnerung: Die Dauer der Hauptkalibrierung variiert von <1Minute bis 8 Minuten, da letzteres mehr Kopfpositionierungen mit zusätzlichen Fixationskalibrierungen erfordert, um die genauesten Messungen zu bieten. Schließlich wird während der Studienversuche die Validierungssitzung mit variierenden Zahlen von Fixationspunkten vorhanden sein, um die Fehlerabweichung zu minimieren und genaue Messwerte für die Vertrauenswerte zu vermitteln.

blogAbbildung 13. Anzeige des Kopfkalibrierungsprozesses mit der grünen „virtuellen Kinnstütze“-Maske. Das erste Bild (A) zeigt die anfängliche Bestimmung der zentralen Pose. Das zweite Bild (B) zeigt eine Diskrepanz in der Kopfposition und den Dialog des Programms zur Neupositionierung des Kopfes zur grünen virtuellen Kinnstütze.

Teil IV: Datenaussicht

Nach den Teilnehmerlauf(en) können die aufgezeichneten Eyetracking-Daten durch Klicken auf die Datenaussicht & Export-Seite angezeigt werden (siehe Abbildung 14). Für Labvanced bietet die Plattform zwei Arten von Datensätzen an, die der Experimentator herunterladen kann: Normale Daten und Zeitreihendaten.

blogAbbildung 14. Anzeige der Datenaussicht, wo die Standarddaten und Zeitreihendaten im roten Feld heruntergeladen werden können.

Normale Daten

Dies ist eine konventionelle Struktur des Datensatzes, die jede Variable in Spalten anzeigt und jede Zeile jeden Versuch repräsentiert. Der Datensatz enthält immer eine eindeutige Teilnehmer-ID für jeden Befragten sowie eine Identifizierung, falls dies in der Studie erforderlich war. Ein Punkt, den man bei diesem Datensatz beachten sollte, ist, dass der Kalibrierungsfehler (Calib error in Abbildung 15 unten) die allgemeinen Eyetracking-Daten bezeichnet, die während der Hauptkalibrierung erfasst wurden. Daher bleibt dieser Wert während des gesamten Datensatzes konstant. In der Fehlertrial-Spalte werden einige kontinuierliche Werte angezeigt, die während der Versuche variieren. Idealerweise zeigt ein Rückgang in dieser Spalte über die Versuche hinweg einen Rückgang der Fehlerabweichung der Messung an, was eine gute Indikation für das insgesamt Vertrauen in die erfasste Messung ist.

blogAbbildung 15. Unvollständige normale Datenaussicht mit einigen der Spalten, die kritische Variablen anzeigen: Versuchsnummer, Kalibrierungsfehler, gewähltes Bild und Fehlertrial.

Zeitreihendaten

Dies ist eine längere Darstellung des Datensatzes, die mehrere Messungen innerhalb jedes Versuchs darstellt, die von der Webcam (sowie der Mausverfolgung, falls erforderlich) verarbeitet wurden. Daher zeigt dieser Datensatz mehrere Zeilen für denselben Versuch an, und die letzten vier Spalten (siehe Abbildung 16 unten) zeigen die [X, Y, T, C] Array-Daten an, die wir im vorherigen Teil des Ereignisvariablen-Setups erwähnt haben. Diese vier Spalten sind wie folgt:

  • X = X-Position des Blicks in den Einheit der Rahmenkoordinaten
  • Y = Y-Position des Blicks in den Einheit der Rahmenkoordinaten
  • T = präziser Zeitstempel (UNIX-Zeit), als der Blick auftrat
  • C = Vertrauen für die jeweiligen Blickdaten

blogAbbildung 16. Unvollständige Zeitreihendatenansicht mit den letzten vier Spalten: x-Koordinate, y-Koordinate, UNIX-Zeit und Vertrauenswerte.

Für die X- & Y-Koordinaten könnten diese rohen Blickmessdaten mit den Hauptstudienrahmen ausgewertet werden, um herauszufinden, wohin der Teilnehmer während dieses Ereignisses schaute. Im Haupt-Canvas beträgt die Standardrahmeneinstellung 800x450 Rahmenkoordinateneinheiten (siehe Abbildung 17 unten). Daher kann der Experimentator durch Klicken auf das Objekt dessen relative X- & Y-Position auf dem Bildschirm extrapolieren, um festzustellen, ob der Blick des Teilnehmers auf den Stimulus fiel - was die Berechnung des Interessengebiets (AOI) ermöglicht.

Für die letzten Vertrauensdaten erfahren Sie, wie gut das Auge mit der Webcam erfasst wurde, unter Berücksichtigung der Iris/Pupillenerkennung und der Blinzelüberprüfung. Die Werte variieren im Intervall von 0 bis 1, wobei Werte, die sich 1 nähern, auf die Robustheit der guten Messung hinweisen. Werte, die niedriger sind und sich 0 nähern, gelten als weniger vertrauenswürdig oder verlässliche Daten, da dies auf retinalen Unschärfen während einer bestimmten Kopfbewegung oder Blinzelerkennung während dieser Messung hinweisen könnte.

blogAbbildung 17. Anzeige der Canvas-Seite. Das erste rote Feld unten zeigt die standardmäßigen Rahmenmessungen von 800 x 450 Rahmenkoordinaten an. Das zweite rote Feld rechts zeigt die x- & y-Koordinatenposition des ersten Katzenbildes an, das als Interessengebiet (AOI) für die Analyse dienen könnte.

Als abschließende Anmerkung sollte die Labvanced-Abtastrate nicht über 30 Bilder pro Sekunde liegen. Wir streben eine Verbesserung in der Zukunft an, aber es ist wichtig zu beachten, dass die meisten derzeitigen Webcams eine Schwelle von 30 Bildern pro Sekunde haben. Schließlich haben wir in unserem Github-Repository derzeit mehrere Skripte, die nützlich für WebSocket- & Datenanalysen sein könnten. Wir hoffen, in Zukunft weitere Skripte bereitzustellen, und arbeiten derzeit an einem neuen Algorithmus zur Berechnung der Fixationserkennnung, der für experimentelle Studien, die auf Augenbewegungen basieren, äußerst nützlich sein könnte.

Prev
Change Blindness Flicker Paradigma
Next
Augenverfolgungsstudie bei Kleinkindern