labvanced logoLabVanced
  • Research
    • Publications
    • Researcher Interviews
    • Use Cases
      • Behavioral Psychology
      • Personality & Social Psychology
      • Cognitive & Neuro Psychology
      • Developmental & Educational Psychology
      • Clinical & Health Psychology
      • Sports & Movement Psychology
      • Marketing & Consumer Psychology
    • Labvanced Blog
  • Technology
    • Feature Overview
    • Desktop App
    • Phone App
    • Precise Timing
    • Experimental Control
    • Eye Tracking
    • Multi User Studies
    • More ...
      • Questionnaires
      • Artificial Intelligence (AI) Integration
      • Mouse Tracking
      • Data Privacy & Security
  • Learn
    • Guide
    • Videos
    • Walkthroughs
    • FAQ
    • Release Notes
    • Documents
    • Classroom
  • Experiments
    • Public Experiment Library
    • Labvanced Sample Studies
  • Pricing
    • Pricing Overview
    • License Configurator
    • Single License
    • Research Group
    • Departments & Consortia
  • About
    • About Us
    • Contact
    • Downloads
    • Careers
    • Impressum
    • Disclaimer
    • Privacy & Security
    • Terms & Conditions
  • Appgo to app icon
  • Logingo to app icon
Learn
Leitfaden
Videos
Schritt-für-Schritt-Anleitungen
Häufig gestellte Fragen
Versionshinweise
Klassenzimmer
  • 中國人
  • Deutsch
  • Français
  • Español
  • English
Leitfaden
Videos
Schritt-für-Schritt-Anleitungen
Häufig gestellte Fragen
Versionshinweise
Klassenzimmer
  • 中國人
  • Deutsch
  • Français
  • Español
  • English
  • Leitfaden
    • EINSTIEG

      • Objekte
      • Ereignisse
      • Variablen
      • Aufgaben-Assistent
      • Versuchssystem
      • Studiengestaltung
        • Aufgaben
        • Blöcke
        • Sitzungen
        • Gruppen
    • FEATURED THEMEN

      • Randomisierung & Balance
      • Eye Tracking
      • Desktop-App
      • Beispielstudien
      • Teilnehmer-Rekrutierung
      • API-Zugriff
        • REST API
        • Webhook-API
        • WebSocket API
      • Weitere Themen

        • Präzise Stimuluszeiten
        • Multi-User-Studien
        • Kopfverfolgung in Labvanced | Anleitung
    • HAUPT-APP-TABS

      • Übersicht: Haupt-Tabs
      • Dashboard
      • Meine Studien
      • Geteilte Studien
      • Meine Dateien
      • Experiment-Bibliothek
      • Mein Konto
      • Meine Lizenz
    • STUDIENTABS

      • Übersicht: Studien-spezifische Tabs
      • Studiengestaltung
        • Aufgaben
        • Blöcke
        • Sitzungen
        • Gruppen
      • Aufgaben-Editor
        • Hauptfunktionen und Einstellungen
        • Das Versuchssystem
        • Canvas- und Seitenrahmen
        • Objekte
        • Objekt Eigenschaften Tabellen
        • Variablen
        • Systemvariablen-Tabellen
        • Das Ereignissystem
        • Versuchszufälligkeit
        • Texteditor-Funktionen
        • Eyetracking in einer Aufgabe
        • Kopfverfolgung in einer Aufgabe
        • Multi-User-Studien
      • Studieneinstellungen
        • Start und Haupt Einstellungen
        • Browsers & Devices Einstellungen
        • Einstellungen für experimentelle Funktionen
      • Beschreibung
        • Weitere Informationen zu den Beschreibungsinformationen
        • Bilder, Links und Referenzen in Beschreibungen
      • Variablen
      • Medien
      • Übersetzen
      • Ausführen
      • Veröffentlichen und Aufzeichnen
        • Anforderungen für die Veröffentlichung einer Studie in Labvanced
        • Rekrutierung von Teilnehmern und Crowdsourcing
        • Lizenzauswahl und Bestätigung
        • Nach der Veröffentlichung Ihrer Labvanced-Studie
      • Teilen
      • Teilnehmer
      • Datenausblick und Export
        • Datensicht und Variablen- & Aufgaben Auswahl (alte Version)
        • Zugriff auf Aufnahmen (ALTE Version)
  • Videos
    • Videoübersicht
    • Einstieg in Labvanced
    • Aufgaben erstellen
    • Elemente Videos
    • Ereignisse & Variablen
    • Fortgeschrittene Themen
  • Durchläufe
    • Einführung
    • Stroop Aufgabe
    • Lexikalische Entscheidungsaufgabe
    • Posner Blickrichtungsaufgabe
    • Change Blindness Flicker Paradigma
    • Augenverfolgung Beispielstudie
    • Augenverfolgungsstudie bei Kleinkindern
    • Studie zur Aufmerksamkeitsfokussierung mit Mausverfolgung
    • Schnelle serielle visuelle Präsentation
    • ChatGPT Studie
    • Augenverfolgung Demo: SVGs als AOIs
    • Multi-User Demo: Zeigen Sie die Cursors der Teilnehmer
    • Gamepad / Joystick Controller - Grundkonfiguration
    • Desktop-App Studie mit EEG-Integration
  • FAQ
    • Funktionen
    • Sicherheit & Datenschutz
    • Lizenzierung
    • Präzision von Labvanced
    • Programmgesteuerte Nutzung & API
    • Labvanced offline verwenden
    • Fehlerbehebung
    • Fragen zur Studienerstellung
  • Versionshinweise
  • Klasse

Erstellung einer Eyetracking-Aufgabe

Sobald Eyetracking in den Study Settings aktiviert ist, können Sie eine neue Aufgabe zum Experiment hinzufügen und den experimentellen Inhalt einrichten.

Die Hintergrundfarbe der Rahmen in Ihrer Studie beeinflusst die Genauigkeit des Eyetrackings. Wenn Ihre Rahmen eine dunkle Farbe haben, werden die Augen des Teilnehmers nicht so gut beleuchtet, wie wenn die Rahmen weiß oder hell gefärbt sind. Diese Helligkeit ist sehr hilfreich, um subtile Augenbewegungen zu verfolgen.

Aktivierung von Eyetracking für eine Aufgabe

Klicken Sie in der oberen linken Ecke des Editors auf „Bearbeiten“ neben Phys. Signale, um das Dialogfeld zu öffnen. Aktivieren Sie das Kästchen neben „Augenverfolgung in dieser Aufgabe aktivieren“, und es werden weitere Optionen angezeigt.

Es ist wichtig zu beachten, dass Eyetracking für mehrere Aufgaben im Experiment aktiviert werden kann. Die Hauptkalibrierung (angegeben in den Study Settings) erfolgt jedoch nur einmal vor Beginn der ersten Aufgabe in der Studie, bei der Eyetracking aktiviert ist.

Die Kopfhaltung/der virtuelle Kinnstütze, die während der Hauptkalibrierung angegeben wurde, wird kurz vor jedem Versuch, bei dem Eyetracking aktiviert ist, überprüft. Sie können angeben, wie viele Kalibrierungspunkte Sie verwenden möchten, um das System zwischen den Versuchen neu zu kalibrieren. Wenn Sie dies auf null setzen, wird die Neukalibrierung deaktiviert.

Das Aktivieren des Kästchens neben „Driftkorrektur“ kompensiert die mögliche natürliche Tendenz eines Teilnehmers, sich in eine Richtung zu bewegen, und reduziert Fehler bei der Verfolgung. Im Feld unter dieser Option können Sie angeben, wie viele Punkte/Kopfhaltungen für die Driftkorrektur verwendet werden sollen. Die Standardanzahl der Versuche beträgt 6, aber dies ist ein gleitender Durchschnitt, der frühere Neukalibrierungen berücksichtigt.

Klicken Sie auf „Ok“, um Ihre Einstellungen zu speichern.

Anzeigeeinstellungen

Der Standard-Anzeigemodus ist Zoom/Adaptive, der Ihren experimentellen Inhalt an jeden Bildschirm anpasst. Für Eyetracking-Experimente kann es vorteilhaft sein, diesen Modus auf Fest in Millimetern oder Fest in visuellen Grad zu ändern. Dies ist hilfreich, da das System aufzeichnet, wie viel der Teilnehmer seine Augen in visuellen Grad oder Millimetern bewegt hat, anstatt in Rahmen-Einheiten, sodass die Messungen präziser sein können.

Wenn Sie den Anzeigemodus auf Millimeter oder Visuelle Grade ändern, sollten Sie zum Tab Study Settings zurückkehren und feststellen, dass in der mittleren Spalte (Browser & Geräte) neue Optionen im Abschnitt Erlaubte Bildschirmgröße & Auflösung verfügbar sind. Präzisere Spezifikationen können hinsichtlich der zulässigen Größe der Bildschirme der Teilnehmer in Millimetern oder in visuellen Graden vorgenommen werden.

Da Eyetracking aktiviert wurde, ist die Option „Bildschirmkalibrierungsbildschirm anzeigen, um die physische Größe abzuleiten“ bereits ausgewählt und verpflichtend. Die Teilnehmer werden gebeten, eine standardmäßige Plastikkarte (wie einen Ausweis oder eine Metro-Karte) an ihren Bildschirm zu halten, um die Größe des Bildschirms zu bestimmen. Dies ist genau, da die Größe dieser Karten weltweit standardisiert ist.

Ereigniseinrichtung

Eyetracking aufzeichnen

  • Fügen Sie ein neues Ereignis im Ereigniseditor hinzu.
  • Wählen Sie für Trigger Physiologische Signale  Eyetracking. Es gibt eine Option auf diesem Bildschirm, um die Aktion nur auszulösen, wenn der Teilnehmer auf bestimmte Elemente schaut, die als Ziele hinzugefügt werden können.
  • Die Aktion sollte eine Variable Aktion  Setzen/Aufzeichnen Variable sein.
    • Klicken Sie auf das grüne Auswahlfeld und fügen Sie eine neue Variable hinzu.
      • Wählen Sie Array als Format (empfohlen).
      • Wählen Sie Numeric als Datentyp.
      • Stellen Sie sicher, dass die Kästchen für „bei Versuchsbeginn zurücksetzen“, „Variable aufzeichnen“ und „in globaler Liste anzeigen“ aktiviert sind.
      • Unter „Aufzeichnungstyp“ wählen Sie die Option für Alle Änderungen/Zeitreihe. Dies ist wichtig, um mehrere Werte pro Versuch aufzuzeichnen, anstatt nur den Endwert eines Versuchs.
    • Klicken Sie auf das Stiftsymbol und wählen Sie Auslösen (Eyetracking). Ein Dropdown-Menü mit Optionen wird angezeigt. Wir empfehlen, „Koord.+Zeit+Vertrauen[X,Y,T,C]Array“ auszuwählen, um die X/Y-Koordinaten des Blicks, den genauen Zeitstempel und einen Vertrauenswert der Messung aufzuzeichnen. Diese Option sollte Ihnen alle notwendigen Daten liefern.

Fehler aufzeichnen

  • Fügen Sie ein weiteres Ereignis hinzu, wenn Sie die Größe des Fehlers in Rahmen-Einheiten aufzeichnen möchten.
  • Wählen Sie „Bei Rahmenbeginn“ als Trigger.
  • Wählen Sie Variable Aktion  Setzen/Aufzeichnen Variable als die Aktion.
    • Klicken Sie auf das grüne Auswahlfeld und fügen Sie Ihre Variable hinzu.
    • Klicken Sie auf das Stiftsymbol und scrollen Sie nach unten zu „Rahmen/Aufgabe/Objekt“  Eyetracking  Fehler Versuch
  • Wiederholen Sie diesen Prozess, wählen Sie jedoch stattdessen Fehlerkalibrierung im letzten Schritt aus, um den Fehler der Hauptkalibrierung aufzuzeichnen. Dies gibt Ihnen an, wie gut die Kalibrierung für jeden Teilnehmer funktioniert hat.