
Labvanced Eye Tracking
Inhalte:
- Einführung: Innovatives und genaues Webcam-Eye-Tracking
- Peer-Review-Publikation: Webcam-basiertes Eye-Tracking von Labvanced
- Hintergrund - Was ist Webcam-Eye-Tracking?
- Unser Prozess: Wie funktioniert das Webcam-Eye-Tracking von Labvanced?
- Über Systemarchitektur und Eye-Tracking-Datenfluss
- Hauptmerkmale des Webcam-Eye-Tracking von Labvanced
- Beispieldaten und Metriken vom Webcam-Eye-Tracking
- Beispiele für die Integration von Webcam-Eye-Tracking-Daten in das Experimentdesign
- Forschungspapiere, die Labvanced's Webcam-basiertes Eye-Tracking verwenden
- Labvanced Bibliotheksstudien
Einführung: Innovatives und genaues Webcam-Eye-Tracking
Forscher aus der ganzen Welt haben unsere Webcam-basierten Eye-Tracking-Technologie eingesetzt, um die Aufmerksamkeit besser zu verstehen.
Jetzt, mit einer peer-reviewed Veröffentlichung in der Hand, können Sie innovative Webcam-basierte Technologie mit Vertrauen nutzen.

Lesen Sie dieses peer-reviewed Papier in der Zeitschrift Behavior Research Methods, das die Genauigkeit unserer Webcam-basierten Eye-Tracking-Lösung mit EyeLink vergleicht.
Peer-Reviewed-Publikation: Webcam-basiertes Eye-Tracking von Labvanced
WICHTIGE ERKENNTNISSE
- Labvanced's Webcam-basiertes Eye-Tracking hat eine Gesamtgenauigkeit von 1,4° und eine Präzision von 1,1° mit einem Fehler von etwa 0,5° größer als das EyeLink-System.
- Interessanterweise verbessern sich sowohl Genauigkeit als auch Präzision (auf 1,3° bzw. 0,9°), wenn visuelle Ziele in der Mitte des Bildschirms präsentiert werden - etwas, das Forscher berücksichtigen sollten, da in vielen psychologischen Experimenten die Stimuli in der Mitte des Bildschirms präsentiert werden.
- Bei freien Betrachtungs- und Smooth-Pursuit-Aufgaben betrug die Korrelation zwischen Labvanced- und EyeLink-Blickdaten etwa 80 %. Für eine visuelle Darstellung, wie diese Korrelation aussieht, siehe das Bild unten, das die Überlappung der Datenpunkte zwischen Labvanced (blaue Punkte) und EyeLink (rote Punkte) zeigt.
- Auch die Genauigkeit war über die Zeit hinweg konsistent.

Abb. 1. Grafiken aus dem Forschungspapier (entnommen aus der Veröffentlichung - Abb. 7), eine visuelle Demonstration, wie diese Korrelation aussieht, in einer Smooth-Pursuit-Aufgabe, die die Überlappung zwischen den Datenpunkten zwischen Labvanced (blaue Punkte) und EyeLink (rote Punkte) zeigt. Bei freien Betrachtungs- und Smooth-Pursuit-Aufgaben betrug die Korrelation etwa 80% zwischen Labvanced- und EyeLink-Blickdaten.

Zitieren Sie dieses Papier:
- Kaduk, T., Goeke, C., Finger, H. et al. Webcam-Eye-Tracking nahe Laborstandards: Vergleich eines neuen webcam-basierten Systems und des EyeLink 1000. Behav Res (2023). https://doi.org/10.3758/s13428-023-02237-8
Hintergrund - Was ist Webcam-Eye-Tracking?
Online-Eye-Tracking wurde vor etwas mehr als 5 Jahren von Web Gazer zum ersten Mal durchgeführt und wird bis heute verwendet. Während diese Lösung mit einem Signal über eine 4-Quadranten-Ebene funktioniert, die zwischen links/rechts und oben/unten unterscheiden kann, erhielt sie Kritik als unrefiniert aufgrund der hohen Fehlerquote, insbesondere wenn man den Kopf bewegt, was unvermeidlich ist.
Obwohl Web Gazer ein Pionier darin war, Eye-Tracking ins weltweite Netz zu bringen, kann es nicht zuverlässig für wissenschaftliche Zwecke und rigorose Experimente verwendet werden. Es gibt einige andere Alternativen, zum Beispiel Tools für UX, aber derzeit gibt es keine andere Web-Eye-Tracking-Software, die online in einem wissenschaftlichen Kontext für psychologische Experimente verwendet werden kann, um komplexe Prozesse wie visuelle Aufmerksamkeit und Kognition zu untersuchen.
Unsere Reise begann vor über 3 Jahren, als wir ein tiefes neuronales Netzwerk implementierten, um visuelle Daten von einer Webcam zu erfassen und zu analysieren, um Informationen über die Augen- und Kopfbewegungen der Teilnehmer bereitzustellen.
Dieses Video beschreibt Labvanced's Webcam-Eye-Tracking sowie dessen Genauigkeit:
Unser Prozess: Wie funktioniert das Webcam-Eye-Tracking von Labvanced?
Mit unserer webbasierten Eye-Tracking-Software, die von einem tiefen neuronalen Netzwerk betrieben wird, kann ein Webcam-Bild durch den folgenden Prozess in Datenpunkte übersetzt werden:
Aufnehmen von Webcam-Bildern: Von einer aktivierten Webcam werden in Echtzeit mehrere Bilder aufgenommen, aus denen eine Analyse zur Gesichtserkennung durchgeführt wird. In diesem Schritt ist die Grafikkarte des Benutzers eine wichtige Komponente, da das maschinelle Lernen stark von einer Grafikkarte abhängt (mehr dazu im nächsten Abschnitt).
Ableiten von zwei Hauptdatenpunkten: Während der Gesichtsdetektion mit einem tiefen neuronalen Netzwerk werden zwei Hauptdatenpunkte abgeleitet.
- Relevante Bilddaten aus dem Bereich um die Augen: die Pixel, die die Augen und den Bereich um die Augen zeigen.
- Kopfposition und -orientierung: die Pixel, die zeigen, wo der Kopf positioniert ist und seine Orientierung im Raum.
Kalibrierung durchführen: Schließlich benötigt jedes Eye-Tracking eine Kalibrierung, die subjektabhängig ist, aufgrund individueller Unterschiede in Bezug auf physische Merkmale. Unsere Kalibrierung ist ein starkes Webcam-Feature, das sich aus dem integrierten neuronalen Netzwerk ergibt.

Über Systemarchitektur und Eye-Tracking-Datenfluss
Sehen wir uns den Prozess genauer an und wie das Eye-Tracking behandelt wird.
Zunächst, wie zuvor festgestellt, erhalten wir ein Webcam-Bild und führen einen Algorithmus zur Gesichtserkennung aus (um ein Netz über die Gesichtszüge zu erstellen). Dies geschieht alles sehr schnell und in Echtzeit auf dem Gerät des Benutzers, nicht auf Remote-Servern.
Der Kompromiss zwischen der Durchführung von Aufgaben in Echtzeit und auf dem Gerät des Benutzers ist, dass wir mit begrenzten Ressourcen arbeiten, die durch die Fähigkeiten des Computers/der Geräte des Benutzers bereitgestellt werden. Es sei jedoch darauf hingewiesen, dass es einen Weg gibt, dies mit nachträglicher Bearbeitung zu umgehen.
Vorteile von Labvanced's Ansatz zum Echtzeit-Webcam-Eye-Tracking
Während die Echtzeitverarbeitung mit begrenzten Ressourcen erfolgt, gibt es einige starke Vorteile, dies zu tun, wie zum Beispiel:
- Echte Privatsphäre: Durch die Berechnungen auf dem Gerät des Benutzers (anstatt auf den Remote-Servern des Unternehmens) gibt es echte Privatsphäre für den Teilnehmer. Wir sehen niemals Daten zu Gesichtern, da sie das Gerät des Teilnehmers niemals verlassen. Im Wesentlichen verarbeitet das neuronale Netzwerk die blickrelevanten Punkte des Teilnehmers, und die einzigen Daten, die über das Gerät des Teilnehmers hinaus kommuniziert werden, sind numerische Werte, wie x- und y-Koordinaten. In diesem Zusammenhang hält sich Labvanced an die DSGVO und hat VPAT-Sicherheitszertifizierungen und stellt all diese notwendigen Dokumente den Kunden zur Verfügung, die sie anfordern.
- Nachhaltigkeit: Ein weiterer Vorteil der Echtzeitverarbeitung, zusätzlich zur Privatsphäre, ist Nachhaltigkeit. Lokal können Videodaten einfacher verarbeitet werden. Im Gegensatz dazu steigen die Kosten, wenn Daten an einen Remote-Server eines Unternehmens gesendet werden, was mehr Zeit und Geld für die Verarbeitung benötigt. Daher ist es nachhaltiger und wirtschaftlicher, Dinge lokal mit endlichen Ressourcen ablaufen zu lassen, anstatt sie remote mit Servern und unbegrenzten Ressourcen zu betreiben.
Hauptmerkmale des Webcam-Eye-Tracking von Labvanced

Hohe Genauigkeit: Webcam-Eye-Tracking steht Hardware-basiertem Eye-Tracking an zweiter Stelle. Angesichts ihrer Erschwinglichkeit und der Benutzerfreundlichkeit und Flexibilität, die sie bietet, ist Webcam-Eye-Tracking eine leistungsstarke und praktikable Alternative für viele Forscher. Labvanced’s Webcam-Eye-Tracking ist die führende Lösung zur Bereitstellung genauer und zuverlässiger Blickdaten.
Anpassbare Kalibrierung: Unsere Eye-Tracking-Technologie überprüft und kalibriert sich entsprechend Ihrer sich ständig ändernden Umgebung. Dies geschieht automatisch, ist jedoch anpassbar. Der Standard ist, dass die Re-Kalibrierung im Hintergrund nach 7 Versuchen erfolgt. Das System kalibriert sich nach der Neubewertung von Einflussfaktoren wie Änderungen der Beleuchtung.
Virtuelle Kinnstütze: Während der Eye-Tracking-Experimente wird ein Gesichtsnest über das Gesicht des Benutzers erstellt. Bevor ein Experiment beginnt, muss der Teilnehmer das über ihr Gesicht angezeigte Netz mit einem Ziel ausrichten. Dies schafft eine virtuelle Kinnstütze, die sicherstellt, dass der Teilnehmer sich in einem akzeptablen Bereich befindet. Wenn der Teilnehmer von der Kinnstütze abweicht, wird die Aufgabe unterbrochen und der Teilnehmer aufgefordert, sich erneut mit der virtuellen Kinnstütze auszurichten. Probieren Sie es selbst hier aus.
Erfahren Sie mehr über die virtuelle Kinnstütze in diesem Video:
Leistungsprüfung: Wir bieten auch eine Leistungsprüfung an, die Ihnen versichert, dass die Daten der Teilnehmer Ihren Standards entsprechen. Mit dem webbasierten Eye-Tracking kann die Geschwindigkeit und Leistung des Computers des Kunden quantifiziert werden, und der Forscher kann wählen, welche Daten der Teilnehmer in die Studie einbezogen werden sollen. Auf diese Weise wissen Sie, wenn ein Teilnehmer einen wirklich langsam laufenden Computer hat (was die Integrität ihrer Ergebnisse beeinträchtigen würde), und können diese Daten aus Ihrem Datensatz ausschließen.
Privatsphäre - Client-seitige Berechnung: Wie zuvor erklärt, nehmen wir keine Daten oder Aufzeichnungen auf unsere Server. Alle Berechnungen erfolgen lokal auf dem Gerät des Clients, was echte Privatsphäre ermöglicht.
Babyfreundliches Eye-Tracking: Bei der Erstellung eines Experiments mit Eye-Tracking in Labvanced können Sie die babyfreundlichen Voreinstellungen für das Eye-Tracking verwenden, wenn Sie mit Kleinkindern arbeiten. Wir haben erfolgreich Studien von vielen Universitäten zu dieser speziellen Population durchgeführt und die Technologie gemäß den Eingaben und Bedürfnissen, die direkt von Forschern kommen, angepasst. Erfahren Sie mehr über babyfreundliches Eye-Tracking.
Beispieldaten und Metriken vom Webcam-Eye-Tracking
Eye-Tracking erzeugt viele verschiedene Metriken, die dann für die Datenanalyse und zur Ableitung von Schlussfolgerungen zu Ihrer experimentellen Fragestellung verwendet werden. Diese Daten basieren stark auf der Blickposition, d.h. den x- und y-Koordinaten des Blicks.
Die Mehrheit dieser Metriken wird während der Datenanalyse-Phase generiert, nach der Datensammlung. Die Grundlage dieser Metriken bilden Blickmessungen. Wenn Sie den Blickpositionspunkt zu jedem gegebenen Zeitpunkt kennen, können Sie die verbleibenden Metriken berechnen.
- Blickposition
- Interessensgebiete (AOI)
- Anzahl der Fixationen
- Wiederbesuche
- Verweildauer / benötigte Zeit
- Zeit bis zur ersten Fixation
- Dauer der ersten Fixation
- Durchschnittliche Fixationsdauer
- Fixationssequenzen
Dieses Video behandelt die Daten unserer Eye-Tracking-Technologie:
Eye-Tracking-Daten von Labvanced sammeln
Mit ein paar Klicks können Sie Ihr Experiment so einrichten, dass es die gewünschten Daten aufzeichnet, indem Sie eine der vielen Optionen auswählen und Variablen erstellen, um sie aufzuzeichnen.
Abb. 2: Festlegen von Variablen in der Eye-Tracking-App von Labvanced zur Aufzeichnung experimenteller Daten über den Blick.
Hier wird in Abb. 2. eine Variable erstellt, um die X- und Y-Koordinaten des Blicks, Zeitstempel und Konfidenzniveaus aufzuzeichnen.
Ein Beispieldatensatz aus Labvanced's Eye-Tracking-App ist unten in Abb. 3. dargestellt.
Abb. 3: Zeitreihendatenansicht mit den letzten vier Spalten: x-Koordinate, y-Koordinate, UNIX-Zeit und Konfidenzwerte.
Das Konfidenzniveau (Spalte C) hat damit zu tun, wie sicher wir in der Messung sind und wird durch den Zeitpunkt des Blinkens beeinflusst. Messungen mit weit geöffneten Augen erhalten mehr Vertrauen als Messungen von einem halb geöffneten Auge oder bei einem Blinzeln.
Verstehen Sie, wie Eye-Tracking in einer Studie in Labvanced eingerichtet wird, indem Sie diese Schritt-für-Schritt-Anleitung folgen und sich auf diesen SVGs als Fixationen über Interessensgebieten (AOIs) beziehen oder diese andere Schritt-für-Schritt-Anleitung wo Eye-Tracking in einer Objektunterscheidungsaufgabe verwendet wird.

Beispiele für die Integration von Webcam-Eye-Tracking-Daten in das Experimentdesign
Bei der Einrichtung Ihrer Studie in Labvanced können Sie die Variablen und Ereignisse so festlegen, dass Sie viele Dinge tun können, beispielsweise können Sie:
- Blick als Eingabe / Antwort: Während des Experiments können Sie den Blick verwenden, um eines der beiden Objekte auszuwählen, indem Sie für eine vorgegebene Zeit darauf schauen.
- Blick zur Steuerung von etwas: Anstatt den Teilnehmer die Tastatureingaben verwenden zu lassen, um Elemente im Experiment zu steuern, können Sie eine Rückmeldung erstellen, damit die Benutzer Objekte in Echtzeit mit ihrem Blick steuern oder auswählen können.
- Blick zur Beeinflussung einer Eigenschaftsänderung: In diesem Beispiel können Sie blickkontingente Anzeigen steuern. Ein klassisches Beispiel dafür ist die Wechselblindheit. So können Sie in einem Experiment verfolgen, wann ein Teilnehmer auf die linke Bildschirmseite schaut und wenn dies geschieht, können Sie eine Eigenschaft (z.B. Farbe) eines Objekts auf der rechten Seite ändern.
- Blick zur dynamischen Steuerung des Ablaufs eines Experiments: Augenbewegungen können verwendet werden, um zu bestimmen, wie sich die Versuchsequenz im Experiment fortsetzt. Zum Beispiel, wenn ein Teilnehmer auf rote Stimuli schaut, folgt ein weiterer Versuch mit roten Stimuli, im Gegensatz zu einem mit blauen Stimuli.
- Blickübertragung in sozialen Experimenten: In Multi-User-Experimenten kann der Blick von einer Person zur anderen „übertragen“ werden, sodass ein Teilnehmer sehen kann, wo sein Partner oder Gegner schaut, während er gemeinsam ein 2-Personen-Experiment durchführt.
- Blick zur Verfolgung von Leseaufgaben: Linguistische Forschung nutzt diesen Aspekt des Eye-Trackings, um Lesepassagen zu messen und zu quantifizieren, wie viel Zeit die Teilnehmer benötigt haben, um eine Passage zu lesen.
- Blick für die Qualitätssicherung in crowdsourced Experimenten: Indem Sie das Eye-Tracking in crowdsourced Experimenten aktivieren, kann ein Forscher sicherstellen, dass die Teilnehmer tatsächlich etwas Zeit damit verbracht haben, die Aufgabenanweisungen zu lesen.
Schauen Sie sich dieses Video an, in dem wir die Erstellung einer Eye-Tracking-Studie mit speziellen Einstellungen und Funktionen wie Chatboxen, Variablenverteilung und Feedback durchgehen:
Forschungspapiere, die Labvanced's Webcam-basiertes Eye-Tracking verwenden
Unten finden Sie eine Sammlung von kürzlich veröffentlichten Forschungspapieren, die Labvanced's Webcam-Eye-Tracking als Teil ihrer Methodik zur Erfassung des Blicks nutzen:
Beyond built density: From coarse to fine-grained analyses of emotional experiences in urban environments
Sander, I., et al. (2024).
Journal of Environmental PsychologyThe effect of processing partial information in dynamic face perception
Alp, N., Lale, G., Saglam, C., & Sayim, B. (2024).
Scientific ReportsUnconscious Frustration: Dynamically Assessing User Experience using Eye and Mouse Tracking
Stone, S. A., & Chapman, C. S. (2023).
Proceedings of the ACM on Human-Computer InteractionDynamics of eye-hand coordination are flexibly preserved in eye-cursor coordination during an online, digital, object interaction task
Bertrand, J. K., & Chapman, C. S. (2023)
Proceedings of the 2023 CHI Conference on Human Factors in Computing SystemsFinding Goldilocks Influencers: How Follower Count Drives Social Media Engagement
Wies, S., Bleier, A., & Edeling, A. (2022).
Journal of Marketing
Labvanced Bibliotheksstudien
Die Labvanced-Bibliothek ist voller Studienvorlagen, die importiert und angepasst werden können, um Eye-Tracking einzuschließen. Unten geben wir einige Beispielstudien an, die unsere Eye-Tracking-Technologie demonstrieren:
- Target Distractor Task: Ein klassisches Eye-Tracking-Paradigma (Ziel - 'T’ Ablenker 'P' müssen sofort auf das Ziel schauen, um es zu finden).
- Babyfreundliches Eye-Tracking: Eine Aufgabe basierend auf bevorzugtem Blick, die mit einer babyfreundlichen Kalibrierung beginnt.
- Freies Betrachten: Zeigt eine Vielzahl von Bildern und untersucht, wo der Blick des Teilnehmers auf dem Bild verweilt. Nützlich für Experimente, die vorhersagen möchten, wo ein Teilnehmer basierend auf bestehenden Bildmerkmalen auf dem Bild schauen wird.
- Blick-Feedback-Test: Hier können Sie Ihren eigenen Blick sehen, weil ein roter Kreis erscheint, der sofortiges Feedback gibt, das vorhersagt, wo Sie hinschauen, und einen roten Kreis an dieser Stelle zeigt.
- Test der räumlichen Genauigkeit: Ein standardisierter Kalibrierungstest, bei dem Teilnehmer an verschiedenen Positionen auf einem Raster fixieren, dann wird die Fixation für jeden Punkt erfasst und die Entfernung zwischen dem Punkt auf dem Raster und dem vorhergesagten Punkt verglichen.
Probieren Sie auch diese Schritt-für-Schritt-Anleitung aus und üben Sie den Aufbau einer Beispiel-Eye-Tracking-Studie in unserer App!
Brauchen Sie mehr Informationen?
Wenn Sie mehr Unterstützung benötigen oder neugierig auf eine bestimmte Funktion sind, wenden Sie sich bitte über den Chat oder per E-Mail an uns. Wir freuen uns sehr, von Ihrer Forschung zu hören und Ihnen bei Fragen zur Plattform zu helfen und die Machbarkeit Ihres Projekts zu besprechen.
