![Laptop mit geöffneter Labvanced-Plattform, leistungsstarke neue Technologie für Psychologie](/content/technology/content_imgs/technology/labvanced-eye-tracking/ET_technology.png)
Labvanced Eyetracking
Inhalt:
- Einführung: Innovative und präzise Webcam-Eyetracking
- Peer-Reviewed Veröffentlichung: Webcam-basiertes Eyetracking von Labvanced
- Hintergrund - Was ist Webcam-Eyetracking?
- Unser Prozess: Wie funktioniert das Webcam-Eyetracking von Labvanced?
- Über Systemarchitektur und Eyetracking-Datenfluss
- Hauptmerkmale des Webcam-Eyetrackings von Labvanced
- Beispieldaten und Metriken aus Webcam-Eyetracking
- Beispiele für die Integration von Webcam-Eyetracking-Daten in das Studiendesign
- Forschungspapiere, die Labvanceds webcam-basiertes Eyetracking verwenden
- Labvanced Bibliotheksstudien
Einführung: Innovative und präzise Webcam-Eyetracking
Forscher aus der ganzen Welt haben unsere webcam-basierte Eyetracking-Technologie eingesetzt, um ein besseres Verständnis für Aufmerksamkeit zu gewinnen.
Jetzt, mit einer peer-reviewed Veröffentlichung zur Hand, können Sie innovative webcam-basierte Technologie mit Vertrauen nutzen.
![Peer-reviewed Papier über Labvanceds Webcam-Eyetracking-Technologie](/content/technology/content_imgs/technology/labvanced-eye-tracking/eye_tracking_peerreviewed.png)
Lesen Sie dieses peer-reviewed Papier in der Fachzeitschrift Behavior Research Methods, das die Genauigkeit unserer webcam-basierten Eyetracking-Lösung mit EyeLink vergleicht.
Peer-Reviewed Veröffentlichung: Webcam-basiertes Eyetracking von Labvanced
HAUPTERKENNTNISSE
- Labvanceds webcam-basiertes Eyetracking hat eine Gesamtgenauigkeit von 1,4° und eine Präzision von 1,1° mit einem Fehler von etwa 0,5° größer als das EyeLink-System.
- Interessanterweise verbessern sich sowohl Genauigkeit als auch Präzision (auf 1,3° und 0,9°) wenn visuelle Ziele in der Mitte des Bildschirms präsentiert werden - etwas, das für Forscher wichtig ist, da der Mittelpunkt des Bildschirms der Ort ist, an dem in vielen Psychologie-Experimenten Stimuli präsentiert werden.
- Bei Aufgaben zum freien Sehen und zur sanften Verfolgung lag die Korrelation zwischen Labvanced- und EyeLink-Blickdaten bei etwa 80%. Für eine visuelle Darstellung, wie diese Korrelation aussieht, siehe das Bild unten, das die Überlappung zwischen den Datenpunkten von Labvanced (blaue Punkte) und EyeLink (rote Punkte) zeigt.
- Auch die Genauigkeit war über die Zeit konstant.
![Bild aus einer kommenden Veröffentlichung, die Labvanced mit EyeLink zum Vorhersagen von Blick-x-Koordinaten vergleicht](/content/technology/content_imgs/technology/labvanced-eye-tracking/gaze_data.png)
Abb. 1. Grafiken aus der Forschungsarbeit (entnommen aus der Veröffentlichung - Abb.7), eine visuelle Darstellung, wie diese Korrelation in einer sanften Verfolgungsaufgabe aussieht, die die Überlappung zwischen den Datenpunkten von Labvanced (blaue Punkte) und EyeLink (rote Punkte) zeigt. Für freies Sehen und sanfte Verfolgungsaufgaben lag die Korrelation zwischen Labvanced- und EyeLink-Blickdaten bei etwa 80%.
![Peer-reviewed Papier über Labvanceds Webcam-Eyetracking-Technologie](/content/technology/content_imgs/technology/labvanced-eye-tracking/eye_tracking_peerreviewed.png)
Zitieren Sie dieses Papier:
- Kaduk, T., Goeke, C., Finger, H. et al. Webcam-Eyetracking nahe Laborstandards: Vergleich eines neuen webcam-basierten Systems und des EyeLink 1000. Behav Res (2023). https://doi.org/10.3758/s13428-023-02237-8
Hintergrund - Was ist Webcam-Eyetracking?
Online-Eyetracking wurde vor etwas mehr als 5 Jahren von Web Gazer durchgeführt und wird bis heute verwendet. Während diese Lösung mit einem Signal über eine 4-Quadranten-Ebene arbeitet, die zwischen Links/Rechts und Oben/Unten unterscheidet, wurde sie wegen der hohen Fehlerquote, insbesondere bei Kopfbewegungen, die unvermeidlich sind, als unrefiniert kritisiert.
Obwohl Web Gazer ein Pionier darin war, Eyetracking ins Internet zu bringen, kann es für wissenschaftliche Zwecke und rigorose Experimente nicht zuverlässig genutzt werden. Es gibt einige andere Alternativen, zum Beispiel Tools für UX, aber derzeit gibt es keine andere Web-Eyetracking-Software, die online im wissenschaftlichen Kontext für psychologische Experimente verwendet werden kann, um komplexe Prozesse wie visuelle Aufmerksamkeit und Kognition zu studieren.
Unsere Reise begann vor über 3 Jahren, als wir ein tiefes neuronales Netzwerk implementierten, um visuelle Daten von einer Webcam zu erfassen und zu analysieren, um Informationen über die Augen- und Kopfbewegungen der Teilnehmer bereitzustellen.
Dieses Video beschreibt Labvanceds Webcam-Eyetracking sowie dessen Genauigkeit:
Unser Prozess: Wie funktioniert das Webcam-Eyetracking von Labvanced?
Mit unserer webbasierten Eyetracking-Software, die von einem tiefen neuronalen Netzwerk betrieben wird, kann ein Webcam-Bild durch den folgenden Prozess in Datenpunkte übersetzt werden:
Aufnahme von Webcam-Bildern: Von einer aktivierten Webcam werden in Echtzeit mehrere Frames aufgenommen, aus denen eine Analyse zur Gesichtserkennung durchgeführt wird. In diesem Schritt ist die Grafikkarte des Nutzers ein wichtiges Komponenten, da das Lernen durch künstliche Intelligenz stark von der Grafikkarte abhängt (mehr dazu im nächsten Abschnitt).
Ableitung von zwei Hauptdatenpunkten: Während der Gesichtsdetektion mittels eines tiefen neuronalen Netzwerks werden zwei Hauptdatenpunkte abgeleitet.
- Relevante Bilddaten aus dem Bereich um die Augen: die Pixel, die die Augen und den Bereich um die Augen zeigen.
- Kopfposition und -orientierung: die Pixel, die zeigen, wo der Kopf positioniert ist und wie seine Orientierung im Raum ist.
Kalibrierung durchführen: Schließlich benötigt jedes Eyetracking eine Kalibrierung, die aufgrund individueller Unterschiede in Bezug auf physische Merkmale spezifisch für die Person ist. Unsere Kalibrierung ist ein starkes Webcam-Feature, das aus dem integrierten neuronalen Netzwerk resultiert.
![Die Schritte hinter Labvanceds Eyetracking-Software, die die Webcam-Lösung zu einer tragfähigen Anwendung für Forschungs- und Psychologiestudien macht.](/content/technology/content_imgs/technology/labvanced-eye-tracking/1_webcam_eye_tracking_pipeline.png)
Über Systemarchitektur und Eyetracking-Datenfluss
Werfen wir einen genaueren Blick auf den Prozess und wie Eyetracking gehandhabt wird.
Zunächst, wie zuvor festgestellt, erhalten wir ein Webcam-Bild und führen einen Algorithmus zur Gesichtserkennung aus (um ein Mesh um die Gesichtszüge zu erstellen). Dies geschieht alles sehr schnell und in Echtzeit auf dem Gerät des Nutzers, nicht auf entfernten Servern.
Der Kompromiss zwischen der Durchführung von Dingen in Echtzeit und auf dem Gerät des Nutzers besteht darin, dass wir mit den endlichen Ressourcen arbeiten, die durch die Fähigkeiten des Computers/der Geräte des Nutzers bereitgestellt werden. Es sei jedoch darauf hingewiesen, dass es eine Möglichkeit gibt, dies durch nachträgliche Verarbeitung zu umgehen.
Vorteile von Labvanceds Ansatz für Echtzeit-Webcam-Eyetracking
Während die Echtzeitverarbeitung mit begrenzten Ressourcen erfolgt, gibt es einige starke Vorteile, dies zu tun, wie zum Beispiel:
- Echte Privatsphäre: Durch die Durchführung der Berechnungen auf dem Gerät des Nutzers (anstatt auf den entfernten Servern des Unternehmens) bedeutet dies, dass es echte Privatsphäre für den Teilnehmer gibt. Wir sehen niemals Daten zu Gesichtern, da diese das Gerät des Teilnehmers niemals verlassen. Im Wesentlichen verarbeitet das neuronale Netzwerk die blickrelevanten Punkte, die spezifisch für den Teilnehmer sind, und die einzigen Daten, die über das Gerät des Teilnehmers hinaus kommuniziert werden, sind numerische Werte wie x- und y-Koordinaten. In diesem Zusammenhang hält sich Labvanced an die DSGVO und verfügt über VPAT-Sicherheitszertifizierungen und stellt alle erforderlichen Dokumente den Kunden zur Verfügung, die danach fragen.
- Nachhaltigkeit: Ein weiterer Vorteil der Echtzeitverarbeitung, zusätzlich zur Privatsphäre, ist die Nachhaltigkeit. Lokal können Videodaten einfacher verarbeitet werden. Im Gegensatz dazu steigen beim Versenden von Daten an einen entfernten Unternehmensserver die Kosten und es dauert länger und kostet mehr, sie zu verarbeiten. Daher ist es nachhaltiger und wirtschaftlicher, die Dinge lokal mit endlichen Ressourcen zu betreiben, anstatt remote mit Servern und unbegrenzten Ressourcen.
Hauptmerkmale des Webcam-Eyetrackings von Labvanced
![Labvanceds Hauptmerkmale für die Eyetracking-Technologie, die Metriken in Online-Experimenten ermöglichen](/content/technology/content_imgs/technology/labvanced-eye-tracking/key_features.png)
Hohe Genauigkeit: Webcam-Eyetracking steht an zweiter Stelle hinter hardwarebasiertem Eyetracking. Angesichts ihrer Erschwinglichkeit und der Usability und Flexibilität, die sie bietet, ist Webcam-Eyetracking eine kraftvolle und tragfähige Alternative für viele Forscher. Labvanceds Webcam-Eyetracking ist die führende Lösung zur Bereitstellung von genauen und zuverlässigen Blickdaten.
Anpassbare Kalibrierung: Unsere Eyetracking-Technologie prüft und kalibriert sich je nach Ihrer sich ständig ändernden Umgebung. Dies geschieht automatisch, kann aber angepasst werden. Der Standard sieht vor, dass die Re-Kalibrierung im Hintergrund nach 7 Versuchen erfolgt. Das System kalibriert sich selbst nach einer Neubewertung von Einflussfaktoren wie Luminanzveränderungen.
Virtuelle Kinnstütze: Während Eyetracking-Experimente wird ein Gesichtsmuster über das Gesicht des Nutzers erstellt. Bevor ein Experiment beginnt, muss der Teilnehmer das Muster, das über seinem Gesicht erscheint, mit einem Zielpunkt ausrichten. Dies schafft eine virtuelle Kinnstütze, die sicherstellt, dass der Teilnehmer im akzeptablen Bereich bleibt. Wenn der Teilnehmer sich von der Kinnstütze entfernt, wird die Aufgabe unterbrochen und der Teilnehmer wird gebeten, sich wieder mit der virtuellen Kinnstütze auszurichten. Probieren Sie es hier selbst aus.
Erfahren Sie mehr über die virtuelle Kinnstütze in diesem Video:
Leistungsprüfung: Wir bieten auch eine Leistungsprüfung an, die Ihnen Sicherheit gibt, dass die Daten der Teilnehmer Ihren Standards entsprechen. Mit webbasierendem Eyetracking können die Geschwindigkeit und Leistung des Computers des Klienten quantifiziert werden, und der Forscher kann entscheiden, welche Daten der Teilnehmer in die Studie einfließen sollen. Auf diese Weise, wenn ein Teilnehmer mit einem wirklich langsamen Computer arbeitet (was die Integrität seiner Ergebnisse beeinträchtigen würde), wissen Sie Bescheid und können diese Daten aus Ihrem Datensatz ausschließen.
Privatsphäre - clientseitige Berechnung: Wie bereits erklärt, nehmen wir keine Daten oder Aufzeichnungen auf unsere Server. Alle Verarbeitung findet lokal auf dem Gerät des Klienten statt, was echte Privatsphäre ermöglicht.
Säuglingsfreundliches Eyetracking: Wenn Sie ein Experiment mit Eyetracking in Labvanced erstellen, können Sie die säuglingsfreundlichen Eyetracking-Voreinstellungen verwenden, wenn Sie mit Kleinkindern arbeiten. Wir haben erfolgreich Studien von vielen Universitäten durchgeführt, die sich auf diese spezielle Population konzentrieren, und die Technologie gemäß den Rückmeldungen und Bedürfnissen, die direkt von den Forschern kamen, angepasst. Erfahren Sie mehr über säuglingsfreundliches Eyetracking.
Beispieldaten und Metriken aus Webcam-Eyetracking
Eyetracking produziert viele verschiedene Metriken, die dann zur Datenanalyse und zur Ableitung von Schlussfolgerungen zu Ihrer experimentellen Frage verwendet werden. Diese Daten beruhen stark auf dem Blickort, d.h. den x- und y-Koordinaten des Blicks.
Die Mehrheit dieser Metriken wird während der Datenanalysephase, nach der Datensammlung, generiert. Die Basis dieser Metriken sind Blickmessungen. Wenn Sie den Blickposition-Punkt zu einem bestimmten Zeitpunkt kennen, können Sie die verbleibenden Metriken berechnen.
- Blickort
- Interessensgebiete (AOI)
- Anzahl der Fixationen
- Wiederbesichtigungen
- Verweildauer / aufgewendete Zeit
- Zeit bis zur ersten Fixation
- Dauer der ersten Fixation
- Durchschnittliche Fixationsdauer
- Fixationssequenzen
Dieses Video behandelt die Daten unserer Eyetracking-Technologie:
Sammlung von Eyetracking-Daten von Labvanced
Mit ein paar Klicks können Sie Ihr Experiment einrichten, um die gewünschten Daten zu erfassen, indem Sie eine der vielen Optionen auswählen und Variablen erstellen, um sie zu erfassen.
Abb. 2: Einrichten von Variablen in Labvanceds Eyetracking-App zur Erfassung experimenteller Daten über den Blick.
Hier, in Abb. 2. wird eine Variable erstellt, um die x- und y-Koordinaten der Blickrichtung, Zeitstempel und Vertrauensniveaus zu erfassen.
Ein Beispiel-Datensatz aus Labvanceds Eyetracking-App ist unten in Abb. 3. dargestellt.
Abb. 3: Zeitreihen-Datenansicht mit den letzten vier Spalten: x-Koordinate, y-Koordinate, UNIX-Zeit und Vertrauenswerte.
Das Vertrauensniveau (Spalte C) bezieht sich darauf, wie zuversichtlich wir hinsichtlich der Messung sind und wird beeinflusst, wenn Blinzeln auftritt. Messungen mit weit offenen Augen erzielen mehr Vertrauen als Messungen von einem halb offenen oder blinzelnden Auge.
Verstehen Sie, wie Eyetracking in einer Studie in Labvanced eingerichtet wird, indem Sie diesem Walkthrough folgen, in dem SVGs verwendet werden, um Fixationen über Interessensgebiete (AOIs) zu erkennen, oder diesem anderen schrittweisen Walkthrough, in dem Eyetracking in einer Objektdiskrimination-Aufgabe verwendet wird.
![Melden Sie sich noch heute an und nutzen Sie Webcam-Eyetracking, um Aufmerksamkeits- und Blickdaten online in Ihrem Experiment zu erfassen.](/content/technology/content_imgs/technology/labvanced-eye-tracking/CTA2_eyetracking.png)
Beispiele für die Integration von Webcam-Eyetracking-Daten in das Studiendesign
Bei der Einrichtung Ihrer Studie auf Labvanced können Sie die Variablen und Ereignisse so einstellen, dass Sie viele Dinge tun, zum Beispiel können Sie:
- Blick als Eingabe/Antwort: Während des Experiments können Sie den Blick verwenden, um eines der beiden Objekte auszuwählen, indem Sie es eine vorgegebene Zeit lang ansehen.
- Blick zur Steuerung von etwas: Anstatt dass der Teilnehmer Tastatureingaben zur Steuerung von Elementen im Experiment verwendet, können Sie eine Feedback-Antwort erstellen, sodass die Benutzer Objekte in Echtzeit mit ihrem Blick steuern oder auswählen können.
- Blick zur Beeinflussung einer Änderung der Eigenschaften: In diesem Beispiel können Sie blickabhängige Anzeigen steuern. Ein klassisches Beispiel dafür ist die Veränderungsblindheit. In einem Experiment können Sie verfolgen, wann ein Teilnehmer auf die linke Seite des Bildschirms sieht und wenn das passiert, können Sie die Eigenschaften (wie Farbe) eines Objekts auf der rechten Seite ändern.
- Blick zur dynamischen Steuerung des Ablaufs eines Experiments: Augenbewegungen können verwendet werden, um zu bestimmen, wie sich die Sequenz der Experimentversuche entwickelt. Wenn ein Teilnehmer beispielsweise auf rote Stimuli blickt, folgt ein weiterer Versuch mit roten Stimuli, anstatt mit blauen Stimuli.
- Blickübertragung in sozialen Experimenten: In Multi-User-Experimenten kann der Blick von einer Person zur anderen „übertragen“ werden, sodass ein Teilnehmer sehen kann, wohin sein Partner oder Gegner sieht, während er gemeinsam ein Experiment für zwei Personen durchführt.
- Blick zur Verfolgung von Lesetests: Linguistische Forschung nutzt diesen Aspekt des Eyetrackings, um Lesepassagen zu messen und zu quantifizieren, wie viel Zeit Teilnehmer benötigt haben, um eine Passage zu lesen.
- Blick zur Qualitätskontrolle in crowdsourced Experimenten: Durch die Aktivierung von Eyetracking in crowdsourced Experimenten kann ein Forscher sicherstellen, dass die Teilnehmer tatsächlich etwas Zeit damit verbracht haben, die Aufgabenanweisungen zu lesen.
Sehen Sie sich dieses Video an, in dem wir die Erstellung einer Eyetracking-Studie mit speziellen Einstellungen und Funktionen wie Chat-Fenstern, Variablenverteilung und Feedback durchgehen:
Forschungspapiere, die Labvanceds webcam-basiertes Eyetracking verwenden
Unten finden Sie eine Sammlung von kürzlich veröffentlichten Forschungspapieren, die Labvanceds Webcam-Eyetracking als Teil ihrer Methodik zur Erfassung von Blicken verwenden:
Jenseits der Bautdichte: Von groben zu feinmaschigen Analysen emotionaler Erfahrungen in städtischen Umgebungen
Sander, I., et al. (2024).
Journal of Environmental PsychologyDie Auswirkung der Verarbeitung von teilweisen Informationen in der dynamischen Gesichts-perzeption
Alp, N., Lale, G., Saglam, C., & Sayim, B. (2024).
Scientific ReportsUnbewusste Frustration: Dynamische Bewertung der Benutzererfahrung mittels Augen- und Mausverfolgung
Stone, S. A., & Chapman, C. S. (2023).
Proceedings of the ACM on Human-Computer InteractionDynamiken der Augen-Hand-Koordination werden flexibel in der Augen-Cursor-Koordinierung während einer Online-, digitalen Objektinteraktionser-taskie
Bertrand, J. K., & Chapman, C. S. (2023)
Proceedings of the 2023 CHI Conference on Human Factors in Computing SystemsFinden von Goldilocks-Influencern: Wie die Follower-Anzahl das Engagement in sozialen Medien beeinflusst
Wies, S., Bleier, A., & Edeling, A. (2022).
Journal of Marketing
Labvanced Bibliotheksstudien
Die Labvanced-Bibliothek ist voller Studientemplates, die importiert und angepasst werden können, um Eyetracking einzuschließen. Im Folgenden bieten wir einige Beispielstudien, die unsere Eyetracking-Technologie demonstrieren:
- Target Distractor Task: Ein klassisches Eyetracking-Paradigma (Ziel - „T“ Ablenker „P“ muss das Ziel sofort finden).
- Säuglingsfreundliches Eyetracking: Eine Aufgabe, die auf bevorzugtem Sehen basiert und mit säuglingsfreundlicher Kalibrierung beginnt.
- Freies Sehen: Zeigt eine Vielzahl von Bildern und untersucht, wo der Blick des Teilnehmers auf dem Bild liegt. Nützlich für Experimente, die vorhersagen wollen, wo ein Teilnehmer basierend auf bestehenden Bildmerkmalen auf das Bild schauen wird.
- Blick-Feedback-Test: Hier können Sie Ihren eigenen Blick sehen, weil ein roter Kreis erscheint, unmittelbares Feedback darüber, wo Sie gerade schauen, und zeigt einen roten Kreis an diesem Punkt.
- Test zur räumlichen Genauigkeit: Ein standardisierter Kalibrierungstest, bei dem Teilnehmer in verschiedenen Positionen in einem Raster fixieren, dann die Fixation für jeden der Punkte genommen wird und die Distanz zwischen dem Punkt im Raster und dem vorhergesagten Punkt verglichen wird.
Probieren Sie diese schrittweise Anleitung aus und üben Sie den Aufbau einer Beispiel-Eyetracking-Studie in unserer App!
Brauchen Sie mehr Infos?
Wenn Sie weitere Unterstützung benötigen oder an einem bestimmten Feature interessiert sind, kontaktieren Sie uns bitte über den Chat oder per E-Mail. Wir freuen uns, von Ihrer Forschung zu hören und Sie durch alle Fragen zur Plattform zu führen und die Machbarkeit Ihres Projekts zu besprechen.
![Melden Sie sich noch heute an und aktivieren Sie webbasiertes Eyetracking für Ihr Online-Psychologieexperiment.](/content/technology/content_imgs/technology/labvanced-eye-tracking/CTA1.png)