labvanced logoLabVanced
  • Research
    • Publications
    • Researcher Interviews
    • Use Cases
      • Behavioral Psychology
      • Personality & Social Psychology
      • Cognitive & Neuro Psychology
      • Developmental & Educational Psychology
      • Clinical & Health Psychology
      • Sports & Movement Psychology
      • Marketing & Consumer Psychology
    • Labvanced Blog
  • Technology
    • Feature Overview
    • Desktop App
    • Phone App
    • Precise Timing
    • Experimental Control
    • Eye Tracking
    • Multi User Studies
    • More ...
      • Questionnaires
      • Artificial Intelligence (AI) Integration
      • Mouse Tracking
      • Data Privacy & Security
  • Learn
    • Guide
    • Videos
    • Walkthroughs
    • FAQ
    • Release Notes
    • Documents
    • Classroom
  • Experiments
    • Public Experiment Library
    • Labvanced Sample Studies
  • Pricing
    • Pricing Overview
    • License Configurator
    • Single License
    • Research Group
    • Departments & Consortia
  • About
    • About Us
    • Contact
    • Downloads
    • Careers
    • Impressum
    • Disclaimer
    • Privacy & Security
    • Terms & Conditions
  • Appgo to app icon
  • Logingo to app icon
Learn
Leitfaden
Videos
Schritt-für-Schritt-Anleitungen
Häufig gestellte Fragen
Versionshinweise
Klassenzimmer
  • 中國人
  • Deutsch
  • Français
  • Español
  • English
Leitfaden
Videos
Schritt-für-Schritt-Anleitungen
Häufig gestellte Fragen
Versionshinweise
Klassenzimmer
  • 中國人
  • Deutsch
  • Français
  • Español
  • English
  • Leitfaden
    • EINSTIEG

      • Objekte
      • Ereignisse
      • Variablen
      • Aufgaben-Assistent
      • Versuchssystem
      • Studiengestaltung
        • Aufgaben
        • Blöcke
        • Sitzungen
        • Gruppen
    • FEATURED THEMEN

      • Randomisierung & Balance
      • Eye Tracking
      • Desktop-App
      • Beispielstudien
      • Teilnehmer-Rekrutierung
      • API-Zugriff
        • REST API
        • Webhook-API
        • WebSocket API
      • Weitere Themen

        • Präzise Stimuluszeiten
        • Multi-User-Studien
        • Kopfverfolgung in Labvanced | Anleitung
    • HAUPT-APP-TABS

      • Übersicht: Haupt-Tabs
      • Dashboard
      • Meine Studien
      • Geteilte Studien
      • Meine Dateien
      • Experiment-Bibliothek
      • Mein Konto
      • Meine Lizenz
    • STUDIENTABS

      • Übersicht: Studien-spezifische Tabs
      • Studiengestaltung
        • Aufgaben
        • Blöcke
        • Sitzungen
        • Gruppen
      • Aufgaben-Editor
        • Hauptfunktionen und Einstellungen
        • Das Versuchssystem
        • Canvas- und Seitenrahmen
        • Objekte
        • Objekt Eigenschaften Tabellen
        • Variablen
        • Systemvariablen-Tabellen
        • Das Ereignissystem
        • Versuchszufälligkeit
        • Texteditor-Funktionen
        • Eyetracking in einer Aufgabe
        • Kopfverfolgung in einer Aufgabe
        • Multi-User-Studien
      • Studieneinstellungen
        • Start und Haupt Einstellungen
        • Browsers & Devices Einstellungen
        • Einstellungen für experimentelle Funktionen
      • Beschreibung
        • Weitere Informationen zu den Beschreibungsinformationen
        • Bilder, Links und Referenzen in Beschreibungen
      • Variablen
      • Medien
      • Übersetzen
      • Ausführen
      • Veröffentlichen und Aufzeichnen
        • Anforderungen für die Veröffentlichung einer Studie in Labvanced
        • Rekrutierung von Teilnehmern und Crowdsourcing
        • Lizenzauswahl und Bestätigung
        • Nach der Veröffentlichung Ihrer Labvanced-Studie
      • Teilen
      • Teilnehmer
      • Datenausblick und Export
        • Datensicht und Variablen- & Aufgaben Auswahl (alte Version)
        • Zugriff auf Aufnahmen (ALTE Version)
  • Videos
    • Videoübersicht
    • Einstieg in Labvanced
    • Aufgaben erstellen
    • Elemente Videos
    • Ereignisse & Variablen
    • Fortgeschrittene Themen
  • Durchläufe
    • Einführung
    • Stroop Aufgabe
    • Lexikalische Entscheidungsaufgabe
    • Posner Blickrichtungsaufgabe
    • Change Blindness Flicker Paradigma
    • Augenverfolgung Beispielstudie
    • Augenverfolgungsstudie bei Kleinkindern
    • Studie zur Aufmerksamkeitsfokussierung mit Mausverfolgung
    • Schnelle serielle visuelle Präsentation
    • ChatGPT Studie
    • Augenverfolgung Demo: SVGs als AOIs
    • Multi-User Demo: Zeigen Sie die Cursors der Teilnehmer
    • Gamepad / Joystick Controller - Grundkonfiguration
    • Desktop-App Studie mit EEG-Integration
  • FAQ
    • Funktionen
    • Sicherheit & Datenschutz
    • Lizenzierung
    • Präzision von Labvanced
    • Programmgesteuerte Nutzung & API
    • Labvanced offline verwenden
    • Fehlerbehebung
    • Fragen zur Studienerstellung
  • Versionshinweise
  • Klasse

Durchführung der Studie

Erste Kalibrierung des Video-Feeds

Zunächst müssen die Probanden dem Labvanced-Server die Erlaubnis erteilen, auf ihre Kamera/Webcam zuzugreifen, um Daten aufzuzeichnen. Sobald dies akzeptiert wurde, erscheint der Kalibrierungsbildschirm (bitte bis zu 15 Sekunden für das Laden einplanen). Sie suchen nach einem Video von sich selbst mit einem blauen Netz über Ihrem Gesicht, das sich sanft bewegt, während Sie Ihren Kopf drehen und Ihren Mund bewegen. Wenn das Netz nicht synchron mit Ihren Aktionen zu sein scheint, klicken Sie unten auf dem Bildschirm auf „Nein, das funktioniert nicht gut“. Andernfalls klicken Sie auf „ja, das funktioniert gut.“ Die Studie beginnt, nachdem ein weiterer Zustimmungsscreen akzeptiert wurde.

Die Teilnehmer müssen über eine Kamera oder Webcam mit mindestens 1280*720 Auflösung verfügen, um ein vollständiges Eyetracking-Datenset zu erfassen. Bitte informieren Sie die Teilnehmer zu Beginn der Studie über diese Anforderung.

Kalibrierung des Eyetrackers

Ein Bildschirm mit Text wird angezeigt. Dieser Text kann für einige mehrsprachige Studien übersetzt werden, sieht aber standardmäßig so aus:

eyecalibration

Für Teilnehmer, die eine Brille tragen müssen, kann es sein, dass das Eyetracking nicht richtig kalibriert wird, insbesondere wenn die Gläser sehr reflektierend sind.

Der nächste Bildschirm fragt die Teilnehmer nach der Beleuchtung. Das Gesicht des Probanden sollte von vorne gut beleuchtet sein, ohne helles Licht oder Fenster im Hintergrund. Zu viel Licht von vorne kann das Gesicht eines Teilnehmers „überbelichten“, also seien Sie vorsichtig.

Als Nächstes müssen die Teilnehmer ihre Mittelpunktposition (die virtuelle Kinnstütze, die zuvor erwähnt wurde) festlegen. Es wird 2 Kopfpositionen mit einer Runde Kalibrierung für jede Pose geben. Die Teilnehmer können auch ihre Bildschirm- und/oder Kameraposition anpassen, um es bequemer zu machen, da sie diese nach diesem Schritt nicht mehr ändern können.

facecalibration

Nach dem Klicken auf Weiter erscheint dieses Fenster:

centerpose

Die Position, in der sich der Teilnehmer befand, als sie auf dem vorherigen Bildschirm auf Weiter klickten, wird als grünes Netz gespeichert, das die Mittelpunktposition/virtuelle Kinnstütze anzeigt. Wenn diese Pose nicht korrekt ist, können die Teilnehmer zurückgehen und es erneut versuchen. Wenn es korrekt und komfortabel ist, wird durch Klicken auf Weiter die dynamische Kalibrierung gestartet.

Nun werden die Teilnehmer aufgefordert, das blaue Netz (ihr aktives Gesicht) mit dem grünen Netz (der statischen virtuellen Kinnstütze) auszurichten und die Position für ein paar Sekunden zu halten. Wenn sie von dieser Position abweichen, pausiert die Kalibrierung und eine Benachrichtigung erscheint am unteren Bildschirmrand, in der sie aufgefordert werden, sich neu auszurichten.

Der Video-Feed verschwindet dann und ein Bildschirm mit der vom Forscher gewählten Hintergrundfarbe und Fixationspunkten erscheint. Die Teilnehmer werden angewiesen, auf einen der Punkte zu schauen, die durch einen großen Kreis hervorgehoben werden, der allmählich schrumpft, während der Teilnehmer ihn anstarrt. Der große Kreis bewegt sich dann, um einen anderen Punkt auf dem Bildschirm hervorzuheben, und so weiter, bis alle Punkte kalibriert sind.

calibrationpoints

Als Nächstes werden die Teilnehmer aufgefordert, ihren Kopf nach links und rechts zu bewegen.

headtilt

Während jeder Pose erscheint der Punktbildschirm erneut und wird für die nach links und rechts verschobenen Positionen neu kalibriert. Schließlich kehren die Teilnehmer zur Mittelpunktposition für eine letzte Runde der Kalibrierung mit den Punkten zurück. Vor jedem Versuch gibt es eine kurze Neukalibrierung. Wenn Ihre erste Aufgabe Eyetracking umfasst, gibt es eine kurze Punktkalibrierung, auch wenn der Teilnehmer gerade die Gesamtkalibrierung abgeschlossen hat.

Tipps

  • Wenn Sie die Hintergrundfarbe Ihrer Frames ändern, gehen Sie sicher, dass Sie zum Tab „Studieneinstellungen“ gehen und die Hintergrundfarbe der Studie ändern. Dadurch wird sichergestellt, dass die Farbe des Kalibrierungsbildschirms mit der Hintergrundfarbe übereinstimmt, die die Teilnehmer während der gesamten Studie sehen werden.
  • Testen Sie die Studie an sich selbst oder einem Laborpartner, um sicherzustellen, dass Sie die notwendigen Eyetracking-Daten sammeln.
  • Wenn dasselbe Gerät innerhalb von wenigen Stunden nach der vorherigen Anmeldung in ein Eyetracking-Experiment einloggt, könnte Labvanced die Kalibrierungsdaten gespeichert haben.

storeddata

Sie können auswählen, ob Sie die Kalibrierung überspringen oder sie erneut durchführen möchten.