labvanced logoLabVanced
  • Research
    • Publications
    • Researcher Interviews
    • Use Cases
      • Developmental Psychology
      • Linguistics
      • Clinical & Digital Health
      • Educational Psychology
      • Cognitive & Neuro
      • Social & Personality
      • Arts Research
      • Sports & Movement
      • Marketing & Consumer Behavior
      • Economics
      • HCI / UX
      • Commercial / Industry Use
    • Labvanced Blog
  • Technology
    • Feature Overview
    • Desktop App
    • Phone App
    • Precise Timing
    • Experimental Control
    • Eye Tracking
    • Multi User Studies
    • More ...
      • Questionnaires
      • Artificial Intelligence (AI) Integration
      • Mouse Tracking
      • Data Privacy & Security
      • Text Transcription
      • Heart Rate Detection (rPPG)
  • Learn
    • Guide
    • Videos
    • Walkthroughs
    • FAQ
    • Release Notes
    • Documents
    • Classroom
  • Experiments
    • Cognitive Tests
    • Sample Studies
    • Public Experiment Library
  • Pricing
    • Licenses
    • Top-Up Recordings
    • Subject Recruitment
    • Study Building
    • Dedicated Support
    • Checkout
  • About
    • About Us
    • Contact
    • Downloads
    • Careers
    • Impressum
    • Disclaimer
    • Privacy & Security
    • Terms & Conditions
  • Appgo to app icon
  • Logingo to app icon
Learn
Leitfaden
Videos
Anleitungen
Häufige Fragen
Versionshinweise
Versionshinweise
Dokumente
Klassenzimmer
  • 中國人
  • Deutsch
  • Français
  • Español
  • English
  • 日本語
Leitfaden
Videos
Anleitungen
Häufige Fragen
Versionshinweise
Versionshinweise
Dokumente
Klassenzimmer
  • 中國人
  • Deutsch
  • Français
  • Español
  • English
  • 日本語
  • Leitfaden
    • EINSTIEG

      • Aufgaben-Editor
      • Objekte
      • Ereignisse
      • Variablen
      • Aufgaben-Assistent
      • Versuchs-System
      • Studien-Design
        • Aufgaben
        • Blöcke
        • Sitzungen
        • Gruppen
    • BELIEBTE THEMEN

      • Randomisierung & Balance
      • Augenverfolgung
      • Fragebögen
      • Desktop-App
      • Beispielstudien
      • Teilnehmerrekrutierung
      • API-Zugriff
        • REST API
        • Webhook-API
        • WebSocket API
      • Sonstige Themen

        • Präzise Stimulus-Zeitmessungen
        • Multi-User-Studien
        • Kopfverfolgung in Labvanced | Anleitung
    • HAUPT-APPS-REITER

      • Übersicht: Haupt-Registerkarten
      • Dashboard
      • Meine Studien
      • Gemeinsame Studien
      • Meine Dateien
      • Experiment-Bibliothek
      • Mein Konto
      • Meine Lizenz
    • STUDIEN-REITER

      • Übersicht: Studien-spezifische Registerkarten
      • Studien-Design
        • Aufgaben
        • Blöcke
        • Sitzungen
        • Gruppen
      • Aufgaben-Editor
        • Aufgabensteuerungen
        • Das Versuchs-System
        • Canvas- und Seitenrahmen
        • Objekte
        • Objekt Eigenschaften Tabellen
        • Variablen
        • Systemvariablen-Tabellen
        • Das Ereignissystem
        • Texteditor-Funktionen
        • Eyetracking in einer Aufgabe
        • Kopfverfolgung in einer Aufgabe
        • Multi-User-Studien
      • Einstellungen
      • Variablen
      • Medien
      • Texte & Übersetzen
      • Starten & Teilnehmen
      • Teilnehmermanagement
      • Datensicht und Export
        • Datensicht und Variablen- & Aufgaben Auswahl (alte Version)
        • Zugriff auf Aufnahmen (ALTE Version)
  • Videos
    • Videoübersicht
    • Erste Schritte in Labvanced
    • Aufgaben erstellen
    • Elemente Videos
    • Ereignisse & Variablen
    • Fortgeschrittene Themen
  • Anleitungen
    • Einführung
    • Stroop-Aufgabe
    • Lexikalische Entscheidungsaufgabe
    • Posner-Gaze-Cueing-Aufgabe
    • Change Blindness Flicker Paradigma
    • Augenverfolgung Beispielstudie
    • Augenverfolgungsstudie mit Kleinkindern
    • Aufmerksamkeitsfokussierungsstudie mit Mausverfolgung
    • Schnelle serielle visuelle Präsentation
    • ChatGPT Studie
    • Augenverfolgung Demo: SVGs als AOIs
    • Multi-User-Demo: Zeige die Cursors von Teilnehmern
    • Gamepad / Joystick Controller - Grundkonfiguration
    • Desktop-App-Studie mit EEG-Integration
    • Gruppenbalancierung zwischen Probanden und Variablen-Setup
  • FAQ
    • Funktionen
    • Sicherheit & Datenschutz
    • Lizenzierung
    • Präzision von Labvanced
    • Programmgesteuerte Verwendung & API
    • Labvanced offline verwenden
    • Fehlerbehebung
    • Fragen zur Studienerstellung
  • Versionshinweise
  • Dokumente
  • Klassenzimmer

Kopfverfolgung in einer Aufgabe

Beschreibung

Um eine neue Aufgabe mit aktivierter Kopfverfolgung zu erstellen, erstellen Sie einfach eine neue Aufgabe innerhalb Ihrer Studie.

Navigieren Sie unter den Aufgabeneinstellungen zum Tab Physiologische Signale, und Sie können die Kopfverfolgung mit nur einem Klick aktivieren.

Ereignisse, Aktionen und Variablen

Um diese Funktion in Ihrem Experiment zu aktivieren, müssen Sie ein Ereignis. Erstellen Sie ein Ereignis, indem Sie zum Tab „Ereignis“ auf der rechten Seite des Editors gehen und ihn auswählen, und klicken Sie dann auf „Frame-Ereignis“. Ein Dialogfeld wird angezeigt, in dem Sie das Ereignis benennen und die Trigger/Aktionen festlegen, die zum Zeitpunkt des spezifizierten Ereignisses auftreten sollen. In diesem Fall besteht das Ziel darin, Variablen einzurichten, die Datenpunkte basierend auf der Kopfposition und -bewegung aufzeichnen.

  • Ereignis > Frame-Ereignis
  • Geben Sie dem Ereignis einen Namen/Beschreibung > Weiter

Erstellen eines Ereignisses in Labvanced

Daraufhin wird das Dialogfeld Sie auffordern, einen Triggertyp für das Ereignis zu spezifizieren.

  • Wählen Sie Trigger Typ > Physiologische Signale > Kopfverfolgung > Weiter

Auswahl physiologischer Signale als Trigger, insbesondere Kopfverfolgung

Nachdem Sie „Kopfverfolgung“ ausgewählt und auf „Weiter“ geklickt haben, um im Dialogfeld fortzufahren, ist es an der Zeit, anzugeben, welche Aktion bei einer erkannten Änderung der Kopfposition oder -bewegung erfolgen soll. In diesem Fall wäre das Ziel der „Aktion“, Daten basierend auf der Kopfposition oder -bewegung über die Zeit aufzuzeichnen. Sobald Sie die Option „Kopfverfolgung“ auswählen, sehen Sie, dass dieses Ereignis automatisch durch Änderungen der Kopforientierung oder Bewegungen ausgelöst wird:

Kopfverfolgung als Trigger für ein Online-Experiment in Labvanced ausgewählt

Im nächsten Schritt im Ereignissystem muss eine Aktion hinzugefügt werden, damit die Daten aufgezeichnet und gespeichert werden können:

  • Variablenaktionen > Setzen / Aufzeichnen der Variablen

Festlegen, dass während des Kopfverfolgungsexperiments Variablen aufgezeichnet werden

Sobald dies erledigt ist, ermöglicht Ihnen die Benutzeroberfläche, wie unten gezeigt:

  1. ‚Wählen‘ Sie die Variable, in der die Daten gespeichert werden, und
  2. Bestimmen Sie, welches physiologische Signal Sie messen möchten, indem Sie auf das Stift- / Schreibsymbol klicken

Dialogfeld zur Festlegung, welche Variablen während des Kopfverfolgungsexperiments verwendet werden

Durch Klicken auf „Auswählen“ können Sie eine Variable angeben oder erstellen, in der Sie die Messungen mit diesem Ereignis speichern möchten. Im folgenden Beispiel erstellen wir eine „neue Variable“. Der Name der Variable ist Head_Turn und das Format ist Skalar, da die Messung eine einzelne Zahl ist. Außerdem, da die Variable über die Zeit aufgezeichnet wird, muss auch die Option „Alle Änderungen / Zeitreihe“ ausgewählt werden.

  • Hinweis: Für weitere Informationen zu Variablen konsultieren Sie bitte den Abschnitt Variablen in der Lern-Dokumentation.

Dialogfeld zur Erstellung einer neuen Variablen zur Aufzeichnung von Kopfbewegungen

Sobald diese Variable erstellt ist, können Sie auf das Stift-Symbol klicken, um anzugeben, welchen Aspekt des Kopfverhaltens Sie messen möchten. Im folgenden Beispiel wird das physiologische Maß für die Kopfbewegung, wie wir es genannt haben, die Kopfwendung aufgezeichnet.

  • Hinweis: Die anderen verfügbaren Optionen für kopfverfolgungsbezogene Messungen sind etwas weiter unten beschrieben.

Festlegen, welcher physiologische Aspekt der Kopfbewegung für die Variable Head_Turn aufgezeichnet wird

In diesem Beispiel, wo eine neue Variable erstellt wird, geben wir den Namen Nose_Vector an, da eine Vektoroption aufgezeichnet werden soll. Wenn mehrere Werte aufgezeichnet werden, wird die Option Array als ‚Format‘ ausgewählt. Und erneut, da es mehrere Werte über die Zeit gibt, wird die Option „Alle Änderungen / Zeitreihe“ für den „Aufzeichnungstyp“ ausgewählt.

Erstellen einer neuen Variablen für die Kopfverfolgung, speziell für ein Array zur Messung von Nasenvektoren

Sobald diese Variable erstellt ist, wird die Nose Vector-Option aus dem Menü „Aktionen“ ausgewählt.

  • Trigger (Kopfverfolgung) > Nose Vector [ X,Y,Z,T ] Array

Das Menü „Aktionen“ zeigt dann die folgenden Variablen basierend auf dem, was wir bisher getan haben:

Übersicht über das Ereignis, das zur Messung von Kopfbewegungen in Labvanced erstellt wurde

Optionen zur Kopfverfolgung

In diesem Abschnitt werden die einzelnen Dropdown-Optionen erklärt und die Art der Messungen, die sie bereitstellen.

Übersicht über die physiologischen Messoptionen bei der Aufzeichnung der Kopfverfolgung in Labvanced

Wie im obigen Dropdown zu sehen, sind folgende Optionen für die Aufzeichnung von Daten zu Kopfposition und -orientierung verfügbar:

  • Kameraaufnahmezeit T: Als die Kamera den Rahmen aufgenommen hat, d. h. ein Unix-Zeitstempel für den Zeitpunkt, an dem die Rahmenaufnahme stattgefunden hat. Dies ist der Zeitpunkt, zu dem das Bild / der Rahmen aufgenommen wurde, bevor eine Verarbeitung erfolgt.
  • Kopfwendung: Kopfbewegung von links nach rechts, dies wird in der Literatur als Gier bezeichnet.
  • Kopfneigung: Kopfneigung von oben nach unten, bekannt als Kopfneigung in der Literatur.
  • Kopfrolle: Erfasst die Bewegung des Kopfes, der von Seite zu Seite rollt.
  • Kopfposition [X,Y,T] Array: Dieses Array erfasst die numerischen Werte, die mit der Kopfposition verbunden sind, einschließlich der x- und y-Koordinaten für den Mittelpunkt des Kopfes sowie der Zeitstempelvariable (T).
  • Nasenposition [X,Y,T] Array: Dieses Array erfasst die numerischen Werte, die spezifisch mit der Position der Nase verbunden sind, einschließlich der x- und y-Koordinaten für den Ort, an dem sich die Nase befindet, sowie der Zeitstempelvariable (T), zu der die Messung erfolgte.
  • Nasenvektor [X,Y,Z,T] Array: Diese Messung funktioniert, indem sie einen Vektor von der Nasenspitze projektiert, und ist nützlich, um zu testen, ob die Person auf den Bildschirm achtet (dies ist besonders wichtig für Studien, bei denen das Eye-Tracking nicht aktiviert ist). Das bedeutet, dass, wenn die Nase vom Bildschirm abzeigt (d. h. der Teilnehmer nicht auf das Experiment achtet), der Z-Wert von 1 abnimmt und näher zu 0 .
  • Trigger-Zeitstempel (Unixzeit): Zeitpunkt während des Experiments, an dem der Trigger selbst auftritt, wobei die Kopfverfolgung erfasst wird und berücksichtigt, wann der Trigger im System aufgetreten ist. Im Wesentlichen ist dies der Zeitpunkt, an dem das Bild / der Rahmen bearbeitet wird, und dieser Wert wird stark durch die Grafikkarte des Teilnehmers beeinflusst. Theoretisch sollte er so nah wie möglich an dem Wert T liegen.
  • Triggerzeit ab Rahmenbeginn: Dies ist der Zeitwert, wann die Zeit im Hinblick auf den Zeitpunkt des Beginns des Rahmens aufgetreten ist.

Für zusätzliche Informationen zur Kopfverfolgung kontaktieren Sie uns bitte, indem Sie einen Einführungsdemo-Anruf buchen.

Prev
Eyetracking in einer Aufgabe
Next
Multi-User-Studien