
Preferential Looking Test
Der Preferential Looking Test misst die visuelle Präferenz, indem er verfolgt, wohin die Teilnehmer ihren Blick richten, wenn sie mit konkurrierenden Stimuli konfrontiert werden. Die Teilnehmer sehen mehrere Stimuli gleichzeitig, und ihr Blickverhalten wird genutzt, um Aufmerksamkeit und Wahl zu erschließen. Er wird weit verbreitet in der Entwicklungs- und kognitiven Forschung verwendet, um Wahrnehmung, Lernen und Aufmerksamkeit zu studieren.
Inhaltsverzeichnis
Aufgabenformat | Preferential Looking Test Online & In-Lab
Im Preferential Looking Test werden den Teilnehmern zwei Stimuli (soziale und nicht-soziale) nebeneinander angezeigt, während das Blickverhalten aufgezeichnet wird, um die visuelle Präferenz abzuleiten. Die Aufgabe integriert Eye Tracking und Kopfverfolgung für verbesserte Genauigkeit und Datenqualität, zusammen mit optionaler Webcam-Videoaufnahme für die nachträgliche Analyse.
Die Vorlage unterstützt sowohl bildbasierte als auch videobasierte Stimulusformate. Die Bildversion präsentiert statische Stimuli, während die Video-Version dynamische Clips zeigt. Beide folgen demselben Sichtverfahren und Datensammelprozess.
Jede Sitzung beginnt mit einem kurzen Kalibrierungsprozess, um eine genaue Blickverfolgung zu gewährleisten. Ein optionaler Videoanruf vor der Aufgabe kann einbezogen werden, um die Anweisungen mit den Teilnehmern zu überprüfen. Während der Versuche sehen die Teilnehmer die Stimuli auf natürliche Weise, ohne manuelle Antworten, während Augenbewegungen und Webcam-Video aufgezeichnet werden. Nach Abschluss der Versuche wird eine Ergebnissummary erstellt, die wichtige Blickmetriken zeigt.
Metriken der Preferential Looking Task und gesammelte Daten
Die Preferential Looking Task erfasst eine Reihe von Verhaltens- und multimodalen Messungen, die zeigen, wie die visuelle Aufmerksamkeit und das natürliche Blickverhalten zwischen sozialen und nicht-sozialen Stimuli verteilt sind. Anhand vordefinierter Areas of Interest (AOIs) können Forscher quantifizieren, wie lange die Teilnehmer bestimmten Bereichen des Bildschirms Aufmerksamkeit schenken.
Die aufgezeichneten Variablen ermöglichen es Forschern, blickbasierte Metriken wie Fixierungsdauer, Fixierungsanzahl und Zeit bis zur ersten Fixierung sowie Kopfverfolgungsmaße und synchronisierte Videoaufzeichnungen zu bewerten. Diese Maße helfen, Aufmerksamkeitsverzerrungen, visuelles Engagement und Orientierungsverhalten während des passiven Betrachtens zu quantifizieren. Alle Variablen können innerhalb des Variablen-Tabs der Aufgabe angezeigt und angepasst werden.
Nachfolgend sind Beispiele für Variablen aufgeführt, die in der Labvanced-Version der Preferential Looking Task gesammelt werden:
| Variablenname | Beschreibung |
|---|---|
image_positions_NS | Position des nicht-sozialen Stimulus (links / rechts) |
non_social_fix_duration_trial_mean | Gesamte Fixierungsdauer auf nicht-soziale AOI |
non_social_fixations_count | Anzahl der Fixierungen auf nicht-soziale Stimuli |
pitch | Vertikale Kopfbewegung (Grad) |
roll | Kopfneigung (Grad) |
yaw | Horizontale Kopfbewegung (Grad) |
social_fix_duration_trial_mean | Gesamte Fixierungsdauer auf soziale AOI |
social_fixations_count | Anzahl der Fixierungen auf soziale Stimuli |

Datentabelle, die einen Auszug von individuellen Ausgaben auf Versuchslevel aus der Preferential Looking Task zeigt, einschließlich Fixierungsdauer, Fixierungsanzahl, Stimulusposition und Kopforientierungsmetriken.
Diese Studie misst visuelle Präferenz und Aufmerksamkeitsverzerrung mithilfe von Blickverfolgung. Die Teilnehmer betrachten soziale und nicht-soziale Stimuli, während Fixierungsverhalten, Kopfbewegungen und Videoaufzeichnungen zur Analyse erfasst werden.
Technologie für die Preferential Looking Task für Online- und Laborexperimente
Labvanced umfasst mehrere Technologien, die die Preferential Looking Task äußerst passend für Entwicklungs-, Fern- und multimodale Forschung machen:
Webcam Eye Tracking: Messen Sie Blickrichtung, Fixierungsdauer und Aufmerksamkeitswechsel ohne spezialisierte Hardware.
Integration der Kopfverfolgung: Überwachen Sie die Positionierung und Kopfbewegung (Pitch, Yaw, Roll) der Teilnehmer während des Betrachtens.
Aufmerksamkeitserzeuger und Kalibrierungsunterstützung: Einschließen von Fixierungshinweisen und Kalibrierungsschritten zur Verbesserung der Blickgenauigkeit, insbesondere für kinderfreundliche Designs.
Videoaufnahme-Objekt: Nehmen Sie das Webcam-Video des Teilnehmers während der Aufgabe zur nachträglichen Codierung und Verhaltensüberprüfung auf.
Videokonferenzobjekt: Er ermöglichen, live mit den Teilnehmern zu interagieren, um Einrichtung, Kalibrierung und Anweisungen zu leiten.
Präzise Steuerung des Stimuluslayouts: Präsentieren Sie nebeneinanderstehende Stimuli mit kontrolliertem Abstand, Ausrichtung und Größe.
Webbasierte und Desktop-Bereitstellung: Führen Sie Studien online oder in kontrollierten Laborumgebungen durch.
Unterstützung für Fern- und Langzeitstudien: Erfassen Sie Daten über mehrere Sitzungen und Standorte hinweg mit integrierten Werkzeugen.
Webcam Eye Tracking
Erfassen Sie Blickmuster und visuelle Aufmerksamkeit mit integriertem, codefreiem und peer-reviewtem Webcam-Eye-Tracking.
Zeitgenauigkeit
Erfassen Sie Reaktionszeiten, Aufgabenleistung und mehr mit Millisekunden-Genauigkeit für zeitkritische Aufgaben.
Desktop-App
Führen Sie Laborexperimente mit der Desktop-App durch, die mit EEG und anderer LSL-verbundener Laborhardware kompatibel ist.
Anpassung der Preferential Looking Task
Es gibt viele Möglichkeiten, diese Vorlage für den Preferential Looking Test an spezifische Forschungsfragen anzupassen. Nachfolgend sind mehrere Anpassungsthemen aufgeführt, die Forscher häufig erkunden, wenn sie diese Aufgabe ändern.
Auswahl der Stimulusversion
Teilnehmer können entweder der bildbasierten oder videobasierten Version zugewiesen werden. Forscher können festlegen, welche Version angezeigt wird und die Anweisungen im Aufgabeneditor anpassen.
Stimulusinhalt und -präsentation
Nebeneinander stehende Stimuli können direkt mithilfe des Image Object oder Video Object ersetzt werden. Eigenschaften wie Größe, Position und Erscheinungsbild können im Object Properties-Panel angepasst werden.
Bereiche von Interesse und Blickmetriken
Betrachtungsregionen werden als Areas of Interest (AOIs) definiert. Eye-Tracking-Events beziehen sich auf diese Regionen, um die Anzahl und die Dauer der Fixierungen zu berechnen.
Videoaufzeichnung und Konferenzfluss
Das Video Recording Object und das Video Conference Object können aktiviert, deaktiviert oder angepasst werden, um die Aufzeichnungs- und Interaktionsphasen zu steuern.
Kalibrierung und Versuchsdauer
Kalibrierungsverfahren, Betrachtungsdauern und Übergänge können durch Bildtiming und Ereignisse modifiziert werden.
Wenn Sie Hilfe bei der Anpassung dieser Aufgabe benötigen, fühlen Sie sich bitte frei, uns zu schreiben und zu fragen:
Empfohlene Verwendung und Anwendungen der Preferential Looking Task
Die Preferential Looking Task wird weit verbreitet in Forschungsbereichen eingesetzt, die Wahrnehmung, Lernen und Aufmerksamkeit untersuchen.
Entwicklungsforschung: Wird verwendet, um Wahrnehmung und Lernen bei Säuglingen und kleinen Kindern durch Blickverhalten zu studieren.
Studien zum Sprachen- und Kategorielernen: Untersucht, wie Teilnehmer visuelle Stimuli mit Klängen oder Kategorien assoziieren.
Forschung zu Aufmerksamkeit und visueller Präferenz: Untersucht, wie visuelle Merkmale Aufmerksamkeit und Präferenz leiten.
Klinische und neuroentwicklungsbedingte Forschung: Wird verwendet, um atypische Blickmuster in Entwicklungszuständen zu untersuchen.
Forschung zu sozialen und emotionalen Prozessen: Untersucht die Präferenz für Gesichter, Ausdrücke und soziale Hinweise.
Referenzen
Teller, D. Y. (1979). Die Forced-Choice-Preferential-Looking-Technik zur Anwendung bei menschlichen Säuglingen. Infant Behavior and Development, 2(2), 135–153.
Dubey, I., Brett, S., Ruta, L., Bishain, R., Chandran, S., Bhavnani, S., Belmonte, M. K., Estrin, G. L., Johnson, M., Gliga, T., Chakrabarti, B., & START consortium (2022). Quantifizierung der Präferenz für soziale Stimuli bei kleinen Kindern mithilfe von zwei Aufgaben auf einer mobilen Plattform. PLoS One, 17(6), e0265587.