labvanced logoLabVanced
  • Research
    • Publications
    • Researcher Interviews
    • Use Cases
      • Developmental Psychology
      • Linguistics
      • Clinical & Digital Health
      • Educational Psychology
      • Cognitive & Neuro
      • Social & Personality
      • Arts Research
      • Sports & Movement
      • Marketing & Consumer Behavior
      • Economics
      • HCI / UX
      • Commercial / Industry Use
    • Labvanced Blog
    • Services
  • Technology
    • Feature Overview
    • Code-Free Study Building
    • Eye Tracking
    • Mouse Tracking
    • Generative AI Integration
    • Multi User Studies
    • More ...
      • Reaction Time/Precise Timing
      • Text Transcription
      • Heart Rate Detection (rPPG)
      • Questionnaires/Surveys
      • Experimental Control
      • Data Privacy & Security
      • Desktop App
      • Mobile App
  • Learn
    • Guide
    • Videos
    • Walkthroughs
    • FAQ
    • Release Notes
    • Documents
    • Classroom
  • Experiments
    • Cognitive Tests
    • Sample Studies
    • Public Experiment Library
  • Pricing
    • Licenses
    • Top-Up Recordings
    • Subject Recruitment
    • Study Building
    • Dedicated Support
    • Checkout
  • About
    • About Us
    • Contact
    • Downloads
    • Careers
    • Impressum
    • Disclaimer
    • Privacy & Security
    • Terms & Conditions
  • Appgo to app icon
  • Logingo to app icon
Learn
Leitfaden
Videos
Anleitungen
Häufige Fragen
Versionshinweise
Versionshinweise
Dokumente
Klassenzimmer
  • 中國人
  • Deutsch
  • Français
  • Español
  • English
  • 日本語
Leitfaden
Videos
Anleitungen
Häufige Fragen
Versionshinweise
Versionshinweise
Dokumente
Klassenzimmer
  • 中國人
  • Deutsch
  • Français
  • Español
  • English
  • 日本語
  • Leitfaden
    • EINSTIEG

      • Aufgaben-Editor
      • Objekte
      • Ereignisse
      • Variablen
      • Aufgaben-Assistent
      • Versuchs-System
      • Studien-Design
        • Aufgaben
        • Blöcke
        • Sitzungen
        • Gruppen
    • BELIEBTE THEMEN

      • Randomisierung & Balance
      • Augenverfolgung
      • Fragebögen
      • Desktop-App
      • Beispielstudien
      • Teilnehmerrekrutierung
      • API-Zugriff
        • REST API
        • Webhook-API
        • WebSocket API
      • Sonstige Themen

        • Präzise Stimulus-Zeitmessungen
        • Multi-User-Studien
        • Kopfverfolgung in Labvanced | Anleitung
    • HAUPT-APPS-REITER

      • Übersicht: Haupt-Registerkarten
      • Dashboard
      • Meine Studien
      • Gemeinsame Studien
      • Meine Dateien
      • Experiment-Bibliothek
      • Mein Konto
      • Meine Lizenz
    • STUDIEN-REITER

      • Übersicht: Studien-spezifische Registerkarten
      • Studien-Design
        • Aufgaben
        • Blöcke
        • Sitzungen
        • Gruppen
      • Aufgaben-Editor
        • Aufgabensteuerungen
        • Das Versuchs-System
        • Canvas- und Seitenrahmen
        • Objekte
        • Objekt Eigenschaften Tabellen
        • Variablen
        • Systemvariablen-Tabellen
        • Das Ereignissystem
        • Texteditor-Funktionen
        • Eyetracking in einer Aufgabe
        • Kopfverfolgung in einer Aufgabe
        • Multi-User-Studien
      • Einstellungen
      • Variablen
      • Medien
      • Texte & Übersetzen
      • Starten & Teilnehmen
      • Teilnehmermanagement
      • Datensicht und Export
        • Datensicht und Variablen- & Aufgaben Auswahl (alte Version)
        • Zugriff auf Aufnahmen (ALTE Version)
  • Videos
    • Videoübersicht
    • Erste Schritte in Labvanced
    • Aufgaben erstellen
    • Elemente Videos
    • Ereignisse & Variablen
    • Fortgeschrittene Themen
  • Anleitungen
    • Einführung
    • Stroop-Aufgabe
    • Lexikalische Entscheidungsaufgabe
    • Posner-Gaze-Cueing-Aufgabe
    • Change Blindness Flicker Paradigma
    • Augenverfolgung Beispielstudie
    • Augenverfolgungsstudie mit Kleinkindern
    • Aufmerksamkeitsfokussierungsstudie mit Mausverfolgung
    • Schnelle serielle visuelle Präsentation
    • ChatGPT Studie
    • Augenverfolgung Demo: SVGs als AOIs
    • Multi-User-Demo: Zeige die Cursors von Teilnehmern
    • Gamepad / Joystick Controller - Grundkonfiguration
    • Desktop-App-Studie mit EEG-Integration
    • Gruppenbalancierung zwischen Probanden und Variablen-Setup
  • FAQ
    • Funktionen
    • Sicherheit & Datenschutz
    • Lizenzierung
    • Präzision von Labvanced
    • Programmgesteuerte Verwendung & API
    • Labvanced offline verwenden
    • Fehlerbehebung
    • Fragen zur Studienerstellung
  • Versionshinweise
  • Dokumente
  • Klassenzimmer

Erstellen einer Eyetracking-Aufgabe

Sobald Eyetracking in den Studiendaten aktiviert ist, können Sie eine neue Aufgabe zum Experiment hinzufügen und den experimentellen Inhalt einrichten.

Die allgemeine Hintergrundfarbe der Frames in Ihrer Studie beeinflusst die Genauigkeit des Eyetrackings. Wenn Ihre Frames eine dunkle Farbe haben, werden die Augen des Probanden nicht so gut beleuchtet, wie wenn die Frames weiß oder hell gefärbt sind. Diese Helligkeit ist sehr hilfreich, um subtile Augenbewegungen zu verfolgen.

Aktivieren des Eyetrackings für eine Aufgabe

Klicken Sie in der oberen linken Ecke des Editors auf Aufgabeneinstellungen und navigieren Sie zu Physiologische Signale. Aktivieren Sie das Kästchen neben „Eyetracking in dieser Aufgabe aktivieren“, und es werden weitere Optionen angezeigt.

Es ist wichtig zu beachten, dass Eyetracking für mehrere Aufgaben im Experiment aktiviert werden kann. Die Hauptkalibrierung (definiert in den Studiendaten) wird jedoch nur einmal vor Beginn der ersten Aufgabe der Studie durchgeführt, bei der Eyetracking aktiviert ist.

Die Kopfneigung/Virtual Chinrest, die während der Hauptkalibrierung festgelegt wurde, wird vor jedem Versuch, bei dem Eyetracking aktiviert ist, kurz überprüft. Sie können angeben, wie viele Kalibrierungspunkte Sie verwenden möchten, um das System zwischen den Versuchen neu zu kalibrieren. Wenn Sie dies auf Null setzen, wird die Neukalibrierung deaktiviert.

Das Aktivieren des Kästchens neben „Driftkorrektur“ kompensiert die mögliche natürliche Tendenz eines Probanden, sich in eine Richtung zu verschieben, und reduziert Fehler beim Tracking. Im Feld unter dieser Option können Sie angeben, wie viele Punkte/Kopfneigungen für die Driftkorrektur verwendet werden sollen. Die Standardanzahl der Versuche beträgt 6, dies ist jedoch ein gleitender Mittelwert, der frühere Neukalibrierungen berücksichtigt.

Klicken Sie auf „Ok“, um Ihre Einstellungen zu speichern.

Anzeigeeinstellungen

Der Standardanzeigemodus ist Zoom/Adaptiv, der Ihren experimentellen Inhalt an jeden Bildschirm anpasst. Für Eyetracking-Experimente kann es nützlich sein, diesen Modus auf Fest in Millimetern oder Fest in visuellen Graden zu ändern. Dies ist hilfreich, da das System aufzeichnen wird, wie viel der Proband seine Augen in visuellen Graden oder Millimetern anstelle von Frame-Einheiten bewegt hat, sodass die Messungen genauer sein können.

Wenn Sie den Anzeige-Modus auf Millimeter oder visuelle Grad ändern, sollten Sie zum Tab „Studieneinstellungen“ zurückkehren und feststellen, dass in der mittleren Spalte (Browser & Geräte) neue Optionen im Abschnitt Erlaubte Bildschirmgröße & Auflösung vorhanden sind. Genauere Spezifikationen können hinsichtlich der erlaubten Größe der Bildschirme der Teilnehmer in Millimetern oder in visuellen Graden vorgenommen werden.

Da Eyetracking aktiviert wurde, ist die Option „Kalibrierungsbildschirm anzeigen, um die physische Größe abzuleiten“ bereits ausgewählt und obligatorisch. Den Teilnehmern wird geraten, eine Standard-Plastikkarte (wie einen Ausweis oder eine Metrokarte) gegen ihren Bildschirm zu halten, um die Größe des Bildschirms zu bestimmen. Dies ist genau, da die Größe dieser Karten weltweit standardisiert ist.

Ereigniseinrichtung

Eyetracking aufzeichnen

  • Fügen Sie ein neues Ereignis im Ereigniseditor hinzu.
  • Wählen Sie als Auslöser Physiologische Signale  Eyetracking. Auf diesem Bildschirm gibt es eine Option, um die Aktion nur auszulösen, wenn der Proband auf bestimmte Elemente schaut, die als Ziele hinzugefügt werden können.
  • Die Aktion sollte eine Variable Aktion  Variable festlegen/aufzeichnen sein.
    • Klicken Sie auf das grüne Auswahlfeld und fügen Sie eine neue Variable hinzu.
      • Wählen Sie Array als Format (empfohlen).
      • Wählen Sie Numeric als Datentyp.
      • Stellen Sie sicher, dass die Kästchen für „bei Versuchsbeginn zurücksetzen“, „Variable aufzeichnen“ und „in globaler Liste anzeigen“ alle angekreuzt/aktiviert sind.
      • Unter „Aufzeichnungsart“ klicken Sie auf die Option für Alle Änderungen/Zeitreihe. Dies ist wichtig, um mehrere Werte pro Versuch aufzuzeichnen, anstatt nur den Endwert eines Versuchs.
    • Klicken Sie auf das Stiftsymbol und wählen Sie Auslöser (Eyetracking). Ein Dropdown-Menü mit Optionen wird angezeigt. Wir empfehlen, „Koord.+Zeit+Vertrauen[X,Y,T,C]Array“ auszuwählen, um die X/Y-Koordinaten der Augenbewegung, den genauen Zeitstempel und einen Vertrauenswert der Messung aufzuzeichnen. Diese Option sollte Ihnen alle notwendigen Daten liefern.

Fehler aufzeichnen

  • Fügen Sie ein weiteres Ereignis hinzu, wenn Sie die Größe des Fehlers in Frame-Einheiten aufzeichnen möchten.
  • Wählen Sie „Bei Frame-Start“ als Auslöser.
  • Wählen Sie Variable Aktion  Variable festlegen/aufzeichnen als Aktion.
    • Klicken Sie auf das grüne Auswahlfeld und fügen Sie Ihre Variable hinzu.
    • Klicken Sie auf das Stiftsymbol und scrollen Sie zu „Frame/Aufgabe/Objekt“  Eyetracking  Fehlerversuch.
  • Wiederholen Sie diesen Prozess, wählen Sie jedoch stattdessen Fehlerkalibrierung im letzten Schritt aus, um den Fehler der Hauptkalibrierung aufzuzeichnen. Dies wird Ihnen sagen, wie gut die Kalibrierung für jeden Probanden funktioniert hat.