labvanced logoLabVanced
  • Research
    • Publications
    • Researcher Interviews
    • Use Cases
      • Behavioral Psychology
      • Personality & Social Psychology
      • Cognitive & Neuro Psychology
      • Developmental & Educational Psychology
      • Clinical & Health Psychology
      • Sports & Movement Psychology
      • Marketing & Consumer Psychology
    • Labvanced Blog
  • Technology
    • Feature Overview
    • Desktop App
    • Phone App
    • Precise Timing
    • Experimental Control
    • Eye Tracking
    • Multi User Studies
    • More ...
      • Questionnaires
      • Artificial Intelligence (AI) Integration
      • Mouse Tracking
      • Data Privacy & Security
      • Text Transcription
  • Learn
    • Guide
    • Videos
    • Walkthroughs
    • FAQ
    • Release Notes
    • Documents
    • Classroom
  • Experiments
    • Public Experiment Library
    • Labvanced Sample Studies
  • Pricing
    • Pricing Overview
    • License Configurator
    • Single License
    • Research Group
    • Departments & Consortia
  • About
    • About Us
    • Contact
    • Downloads
    • Careers
    • Impressum
    • Disclaimer
    • Privacy & Security
    • Terms & Conditions
  • Appgo to app icon
  • Logingo to app icon
Learn
Leitfaden
Videos
Schritt-für-Schritt-Anleitungen
Häufig gestellte Fragen
Versionshinweise
Klassenzimmer
  • 中國人
  • Deutsch
  • Français
  • Español
  • English
  • 日本語
Leitfaden
Videos
Schritt-für-Schritt-Anleitungen
Häufig gestellte Fragen
Versionshinweise
Klassenzimmer
  • 中國人
  • Deutsch
  • Français
  • Español
  • English
  • 日本語
  • Leitfaden
    • ERSTE SCHRITTE

      • Objekte
      • Ereignisse
      • Variablen
      • Aufgabenassistent
      • Versuchssystem
      • Studienentwurf
        • Aufgaben
        • Blöcke
        • Sitzungen
        • Gruppen
    • HERAUSRAGENDE THEMEN

      • Randomisierung & Balance
      • Eye Tracking
      • Fragebögen
      • Desktop App
      • Beispielstudien
      • Teilnehmer rekrutieren
      • API-Zugang
        • REST API
        • Webhook-API
        • WebSocket API
      • Weitere Themen

        • Präzise Stimuluszeitpunkte
        • Multi-User Studien
        • Kopfverfolgung in Labvanced | Anleitung
    • HAUPTAPP-TABS

      • Überblick: Haupt-Tabs
      • Dashboard
      • Meine Studien
      • Geteilte Studien
      • Meine Dateien
      • Experimentbibliothek
      • Mein Konto
      • Meine Lizenz
    • STUDIENTABS

      • Überblick: Studien-spezifische Tabs
      • Studienentwurf
        • Aufgaben
        • Blöcke
        • Sitzungen
        • Gruppen
      • Aufgabeneditor
        • Hauptfunktionen und Einstellungen
        • Das Versuchssystem
        • Canvas- und Seitenrahmen
        • Objekte
        • Objekt Eigenschaften Tabellen
        • Variablen
        • Systemvariablen-Tabellen
        • Das Ereignissystem
        • Versuchszufälligkeit
        • Texteditor-Funktionen
        • Eyetracking in einer Aufgabe
        • Kopfverfolgung in einer Aufgabe
        • Multi-User-Studien
      • Studienbedingungen
        • Start und Haupt Einstellungen
        • Browsers & Devices Einstellungen
        • Einstellungen für experimentelle Funktionen
      • Beschreibung
        • Weitere Informationen zu den Beschreibungsinformationen
        • Bilder, Links und Referenzen in Beschreibungen
      • Variablen
      • Medien
      • Übersetzen
      • Ausführen
      • Veröffentlichen und Aufzeichnen
        • Anforderungen für die Veröffentlichung einer Studie in Labvanced
        • Rekrutierung von Teilnehmern und Crowdsourcing
        • Lizenzauswahl und Bestätigung
        • Nach der Veröffentlichung Ihrer Labvanced-Studie
      • Teilen
      • Teilnehmer
      • Datensicht und Export
        • Datensicht und Variablen- & Aufgaben Auswahl (alte Version)
        • Zugriff auf Aufnahmen (ALTE Version)
  • Videos
    • Videoübersicht
    • Erste Schritte mit Labvanced
    • Aufgaben erstellen
    • Elementvideos
    • Ereignisse & Variablen
    • Erweiterte Themen
  • Anleitungen
    • Einführung
    • Stroop-Aufgabe
    • Lexikalische Entscheidungsaufgabe
    • Posner-Blickhinweis-Aufgabe
    • Change Blindness Flicker Paradigma
    • Eye-Tracking-Beispielstudie
    • Baby Eye-Tracking-Studie
    • Aufmerksamkeitsfokus-Studie mit Mausverfolgung
    • Schnelle serielle visuelle Präsentation
    • ChatGPT-Studie
    • Eye-Tracking-Demo: SVGs als AOIs
    • Multi-User-Demo: Zeigen Sie die Cursors der Teilnehmer
    • Gamepad / Joystick-Controller - Grundlegende Einrichtung
    • Desktop-App-Studie mit EEG-Integration
    • Gruppenbalance und Variablen-Einrichtung zwischen den Probanden
  • FAQ
    • Funktionen
    • Sicherheit & Datenschutz
    • Lizenzierung
    • Präzision von Labvanced
    • Programmgesteuerte Nutzung & API
    • Labvanced offline verwenden
    • Fehlerbehebung
    • Fragen zur Studienerstellung
  • Versionshinweise
  • Klassenzimmer

Versionsnotizen

Inhaltsverzeichnis - Versionsnotizen

  • Q3'25
  • Q2'25
  • Q4'24 + Q1'25
  • Q3'24
  • Q2'24
  • Q1'24
  • Q4’23
  • Q3’23
  • Q2’23
  • Q4’22
  • Q3’22

Q3'25 Versionsnotiz

NEUE FUNKTIONEN

  • Ausführung von benutzerdefiniertem JavaScript-Code: Labvanced hat eine neue Funktion eingeführt, die die Ausführung von benutzerdefiniertem JavaScript für die direkte Manipulation des Dokumentenobjektmodells (DOM) innerhalb von Experimenten ermöglicht. Diese Funktionalität erlaubt es Forschern, programmatisch On-Screen-Elemente zu bearbeiten, interaktive JavaScript-basierte Spiele zu integrieren und dynamischere Inhalte zu erstellen. Dies stellt einen bedeutenden Fortschritt im Vergleich zu den vorherigen Fähigkeiten der Plattform dar, die auf das Lesen und Schreiben von Variablenwerten beschränkt waren. Folglich erweitert dieses Update erheblich den Umfang der experimentellen Designs, die auf der Plattform implementiert werden können. Mehr erfahren.
  • Neue OpenAI-Integrationen: Labvanced hat eine neue Funktion eingeführt, die die direkte Integration der generativen KI-Funktionen von OpenAI in experimentelle Aufgaben ermöglicht. Forscher können jetzt textbasierte Aufforderungen aus einem Experiment an die OpenAI-API senden und KI-generierte Bilder, Texte oder Audios als Antwort erhalten. Diese Verbesserung eröffnet bedeutende Möglichkeiten für Studien zur Mensch-KI-Interaktion, zur Wahrnehmung künstlicher Intelligenz und zur Anwendung generativer KI als kognitives oder kreatives Werkzeug. Zum Beispiel ermöglicht es kontrollierte Studien, in denen Teilnehmer innerhalb einer einzigen Schnittstelle mit der KI interagieren, oder für Paradigmen, in denen KI-generierte Inhalte dynamisch für die Bewertung produziert werden, wie in Aufgaben, die die Unterscheidung zwischen menschlichen und KI-erstellten Arbeiten über einen OpenAI-Trigger erfordern. Hier sind Beispiele für Studien, die Sie ausprobieren können:
    • OpenAI Bildgenerierung Demo: Bilder, die innerhalb von Labvanced erstellt werden.
    • KI-generierte Audio-Demo: Absätze von Text (Lernmaterialien), die von einer durch die OpenAI-API erzeugten Stimme vorgelesen werden, gefolgt von Multiple-Choice-Fragen.
  • Texttranskription: Labvanced hat eine Sprach-zu-Text-Transkriptionsfunktion für Audioaufnahmeobjekte innerhalb von Experimenten eingeführt. Diese Funktionalität wird von einem integrierten Whisper-Modell unterstützt, das vollständig auf der Client-Seite arbeitet, was bedeutet, dass alle Verarbeitungen direkt auf dem Gerät des Teilnehmers stattfinden. Da keine Audiodaten an externe Server übertragen werden, gewährleistet dieser Ansatz hohe Datensicherheit und schützt die Privatsphäre der Teilnehmer. Forscher können die Transkription aktivieren, indem sie die entsprechenden Ereignisse auf einem Audioaufnahmeelement konfigurieren. Mehr erfahren.
  • Automatische Ereigniserstellung: Um die Benutzerfreundlichkeit zu erhöhen und den Erstellungsprozess von Studien zu beschleunigen, wurde der Labvanced-Editor mit einem neuen kontextbewussten System aktualisiert. Wenn ein Benutzer ein Objekt auswählt, wie z.B. das Audioaufnahmeobjekt, bietet der Editor jetzt proaktiv ein Menü mit gängigen und relevanten Aktionen an. Die Auswahl einer dieser Optionen konfiguriert automatisch die entsprechende Ereignislogik und verringert damit die manuelle Vorbereitungszeit erheblich. Diese Funktion rationalisiert den Workflow für erfahrene Benutzer und bietet intuitive Anleitung für Neueinsteiger auf der Plattform.

📌In Kürze

  • Säuglingsfreundliche Eye-Tracking-Gesichtsgitter: Zielt darauf ab, Dimensionen wie Höhe und Breite zu nutzen, um den Teilnehmer „einuzufangen“.
  • Lizenzen: Laut der letzten Newsletter-Ankündigung ist eine geplante Änderung der Lizenzen noch in Arbeit mit dem Ziel der Implementierung in den kommenden Monaten, bis Q4. Die neuen Änderungen werden bestimmte Funktionen auf bestimmte Lizenzen beschränken, was zu mehr Vielfalt und Flexibilität hinsichtlich der angebotenen Lizenztypen führt.
  • Neustrukturierung der Studieinstellungen: Die Studieinstellungen werden reorganisiert, um übersichtlicher zu sein.
  • Webcam-basiertes Pupillometrie: Immer noch in Arbeit.

VERBESSERUNGEN

  • Datenkopfzeilen für Array-Variablen hinzufügen: Unter dem Variablenpanel im Editor (wo die Variablen aufgelistet sind) gibt es beim Erstellen oder Auswählen einer Array-Variablen jetzt eine Option, Kopfzeilen hinzuzufügen. Dies ist nützlich für Eye-Tracking-Studien, die Array-Variablen verwenden, oder für andere Arten von Studien, in denen das Array aufgezeichnet werden muss. Durch das Hinzufügen der Kopfzeilen wird die Datenansicht sie jetzt auflisten, was die Datenvorschau und Analyse klarer und einfacher macht.
  • Hochladen von Binärdateien: Um den Experimentablauf und die Teilnehmererfahrung zu verbessern, bietet Labvanced jetzt ein verbessertes Hochladen von Dateien während der experimentellen Aufgabe. Von Benutzern generierte Dateien, wie Audio- und Videoaufnahmen, werden nun automatisch im Hintergrund hochgeladen. Diese Verbesserung beseitigt die Notwendigkeit, spezifische Ereignisse zu erstellen, die auf den Abschluss eines Uploads warten, bevor mit dem nächsten Versuch fortgefahren wird.
  • Wiederholungsprotokoll für Datenspeicherung: Um Datenverluste durch vorübergehende Netzwerkunterbrechungen zu verhindern, hat Labvanced einen automatischen Wiederholmechanismus für die Datenspeicherung implementiert. Momentane Unterbrechungen der Internetverbindung eines Teilnehmers, selbst wenn sie nur Millisekunden dauern, könnten zuvor Fehler verursachen, wenn sie während der Datenübertragung auftraten, was möglicherweise die Integrität der Studie gefährdete. Mit dieser neuen Sicherheitsmaßnahme versucht Labvanced im Falle eines lokalen Netzwerkfehlers automatisch die Übertragung erneut, wodurch die Zuverlässigkeit der Datensammlung erheblich erhöht wird und sichergestellt wird, dass die experimentellen Daten sicher gespeichert sind.
  • Ereigniswarteschlangen beim Pausieren des Experiments: Um die Zuverlässigkeit zu verbessern, wurde eine neue Sicherheitsmaßnahme für die Verarbeitung von Ereignissen während Experimentpausen implementiert. Bisher könnten Ereignisse, die zu diesem Zeitpunkt ausgeführt wurden, unterbrochen werden, wenn ein Experiment automatisch pausiert wurde – beispielsweise aufgrund übermäßiger Teilnehmerbewegungen während einer Eye-Tracking-Aufgabe. Das System stellt jetzt automatisch eine Warteschlange für alle aktiven Ereignisse auf, die von einem pausierten Experiment betroffen sind. Nach der Wiederaufnahme des Experiments werden diese Warteschlangenereignisse wie ursprünglich vorgesehen ausgeführt.
  • Verbesserte Verlinkung von Variablen zu Text: Ein Update wurde implementiert, um die Robustheit des Variablenbindungssystems in Textobjekten zu erhöhen und die Stabilität und Leistung zu verbessern. Das erneute Verlinken eines Textelements mit einer neuen Variablen ist jetzt stabiler, da Variablen-IDs als Identifikatoren verwendet werden.
  • Sortierbare Objekte jetzt bidirektional: Bei der Verlinkung eines Arrays mit einem sortierbaren Element wird jede Änderung des Arrays hinsichtlich der Reihenfolge der Elemente anschließend im sortierbaren Objekt widerspiegelt.

BIBLIOTHEKSHIGHLIGHTS Was gibt es Neues in der Bibliothek? Hier sind einige neue Studien, die Sie erkunden und in Ihrer nächsten Experimentation importieren und verwenden können:

  • Trail Making Test: In Teil A verbinden Sie die Zahlen in der Reihenfolge (1-2-3). In Teil B wechseln Sie zwischen Zahlen und Buchstaben (1-A-2-B). Der Test misst Verarbeitungsgeschwindigkeit, Aufmerksamkeit und kognitive Flexibilität.
  • Corsi Block Tapping Task: Blöcke werden auf dem Bildschirm präsentiert, wobei jeweils einer aufleuchtet, um eine Sequenz zu erstellen. Der Teilnehmer muss die Blöcke in der Reihenfolge anclicken, in der sie aufblitzten. Die Anzahl der in Folge antippbaren Blöcke beginnt gering und steigt mit jedem korrekt wiederholten Sequenz an.
  • Preferential Looking Paradigm: Diese Studie untersucht die visuelle Aufmerksamkeit von Säuglingen mithilfe eines preferential looking Paradigmas. Teilnehmer sehen nebeneinander Bilder oder Videos, während Blickmuster, Fixierungsdauern und Kopforientierung aufgezeichnet werden.

Q2'25 Versionsnotiz

NEUE FUNKTIONEN

  • Videokonferenzen: Das Video Conference Object ist da! Sie können nun Videokonferenzen in Ihre Studie integrieren und Teilnehmer über einen Anruf miteinander kommunizieren lassen. Sie können steuern, wann dies während des Experiments geschieht, ob der Anruf nur audiobasiert sein soll oder sogar, ob der Bildschirm geteilt werden darf. Mit der Einführung von Videokonferenzen in Labvanced können Sie leicht mehr Kontrolle über die Interaktion zwischen den Teilnehmern gewinnen, aber auch die Kommunikation zwischen Teilnehmern und Forschern implementieren.
  • Switch Group Aktion: Eine neue Aktion ist jetzt im Events-System verfügbar. Sie können jetzt festlegen, dass Teilnehmer basierend auf bestimmten Kriterien (oder Triggern) während des Experiments die Gruppen wechseln. Dies ermöglicht es Ihnen, Teilnehmer dynamisch spezifischen Gruppen zuzuweisen, wie nötig. Zum Beispiel, wenn das Experiment mit zwei Gruppen basierend auf dem Alter (jung vs. alt) beginnt und dann ein Teilnehmer aus der „jungen“ Gruppe eine spezifische Antwort angibt, können Sie ihn automatisch basierend auf dieser Antwort einer anderen Gruppe zuweisen. Oder wenn ein Teilnehmer einen „hohen Punktestand“ bei einer Aufgabe hat, können Sie ihn einer „hohen Punktestand“-Gruppe zuweisen usw.
  • Datenrahmen und Array-Längen als Variable: In einigen Fällen aktualisieren und ändern sich Datenrahmen und Arrays dynamisch im Verlauf des Experiments. Beispielsweise können neue Zeilen hinzugefügt werden, wodurch die Einträge wachsen. Für flexibles experimentelles Design ist es wichtig zu wissen, zu jedem Zeitpunkt die Länge dieser Arrays oder Datenrahmen zu kennen. Mit dieser neuen Funktion können Sie auf die variable Anzahl der Länge zugreifen.
  • Datenrahmen vor Ort bearbeiten: Wenn ein Datenrahmen aktualisiert werden muss, beispielsweise wenn eine Korrektur vorgenommen oder eine geringfügige Änderung erforderlich ist, können Sie jetzt die Bearbeitung direkt vor Ort vornehmen. Es ist nicht mehr erforderlich, den gesamten Datenrahmen erneut hochzuladen, wie es zuvor erforderlich war. Sie gehen einfach zum Datenrahmen-Objekt unter dem Variablenpanel im Editor und klicken auf die Schaltfläche Edit Data Frame. Von dort wird der Datenrahmen geöffnet. Oben rechts gibt es eine Checkbox mit der Aufschrift Edit Values. Einfach aktivieren, und nun können die Zellen bearbeitet werden.

📌In Kürze bevorstehende Lizenzänderungen

  • Bitte beachten Sie, dass es in den kommenden Wochen Änderungen am Lizenzsystem von Labvanced geben wird. Dies zielt darauf ab zu ändern, wie kostenlose Konten und auch Konten, die mit Nachfüllaufzeichnungen arbeiten (im Gegensatz zu lizenzbasierten Konten).
  • Kostenlosen Konten wird jetzt eine Anzahl von 10 kostenlosen Aufzeichnungen gewährt.
  • Bis jetzt waren Nachfüllaufzeichnungen an eine studienspezifische Grundlage gebunden. Jetzt können Nachfüllaufzeichnungen global über jede Studie hinweg verwendet werden.
  • Schließlich wird der Mindestbetrag für den Kauf von Nachfüllaufzeichnungen 40 Aufzeichnungen betragen.
  • Diese Updates werden schrittweise eingeführt, um einen sicheren und reibungslosen Übergang zu gewährleisten.

VERBESSERUNGEN

  • Dropdown-Menü für Sprache ausblenden und Sprache über URL-Parameter auswählen: Für mehrsprachige Studien, die die Übersetzungsfunktion nutzen, können Sie nun festlegen, mit welcher Sprache eine Studie beginnen soll, indem Sie den URL-Parameter „study_language“ verwenden. Dies blendet auch das Dropdown-Menü aus, das zuvor standardmäßig zu Beginn der Studie angezeigt wurde.
  • Übersetzung von required Fragebogenelementen: Beim Ausfüllen eines Fragebogens können Sie angeben, welche Elemente erforderlich sind. Wenn der Teilnehmer keine Antwort gibt, erhält er eine automatische Nachricht mit dem Hinweis required. Dies kann jetzt mit dem Translate-Tab in Labvanced übersetzt werden, sodass Sie eine sprachspezifische Feedbacknachricht haben.
  • Polygon dynamisch modifizierbar: Die Punkte des Polygonobjekts können nun während des Verlaufs eines Experiments dynamisch aktualisiert werden. Sie können einen Datenrahmen mit zwei Spalten (x- und y-Koordinaten) erstellen, um seine Punkte zu spezifizieren. Verwenden Sie dann eine Set Object Property und rufen Sie den points-Parameter auf und setzen Sie ihn auf den Datenrahmen, während Sie ihn beispielsweise alle 50 ms aktualisieren. Dies hat mehrere Anwendungszwecke, wie z.B. die Erstellung dynamischer AOIs über Videos mit Webcam-Eye-Tracking.
  • Canvas-Rahmen sind scrollbar: Unter den Aufgabeneinstellungen wählen Sie eine Option wie „Fest in visuellen Grad“ oder „Fest in Pixeln“ und für das Feld „Wie mit Überlauf / Scrollen umgehen?“ wählen Sie „Rahmen scrollbar machen“. Dies hat mehrere Anwendungsmöglichkeiten, wie die Erstellung von Mock-Webseiten in Labvanced.
  • Slider-Inkrement: Das Slider-/Bereichsobjekt erlaubte es früher Teilnehmern, ihre Antwort um einen numerischen Wert von eins (1) zu erhöhen oder zu verringern. Jetzt gibt es eine „Schrittgröße“-Option, mit der Sie das Inkrement des Bereichs eingeben können, beispielsweise können Sie 0,5-Inkremente verwenden, um eine Eingangsantwort von 1,5 zu erhalten, was mehr Flexibilität für den Datenbereich bietet, der mit diesem Objekt gesammelt werden kann.
  • Neu klassifizierte Objekte im Editor: Wenn Sie Labvanced seit mehr als einem Monat nutzen, haben Sie möglicherweise bemerkt, dass die Seitenleiste mit den Objektoptionen im Editor aktualisiert wurde! Es war an der Zeit, etwas aufzuräumen und die Hauptkategorien neu anzuordnen, da die Liste der Objekte dank Ihres Feedbacks und Ihrer Anfragen kontinuierlich gewachsen ist!
  • Geteilte Studien-Binärdateien: In der Vergangenheit konnten nur Studienbesitzer auf die Binär-/Medien-Dateien einer geteilten Studie zugreifen und diese herunterladen. Für Datenverwaltungszwecke ist es jetzt auch möglich, dass diejenigen, mit denen die Studie geteilt wurde, Zugriff auf diese Dateien haben.
  • Genehmigen von nicht vertrauenswürdiger JS-Ausführung: JavaScript-basierte Aktionen waren meist auf die Ausführung arithmetischer Operationen und Funktionen beschränkt. Mit dieser neuen Verbesserung können JavaScript-Aktionen verwendet werden, um auf das DOM zuzugreifen, wodurch Benutzer Code verwenden können, um Objekte dynamisch zu ändern und mehr.
  • Bild zu Beginn der Studie entfernen: Wenn eine Studie gestartet wird, gibt es ein Bild, das oben erscheint. Dies kann jetzt entfernt werden. Gehen Sie einfach unter den Tab „Beschreibung“ und wählen Sie „Kein Bild“. Nun wird das Bild nicht mehr angezeigt, wenn eine Studie läuft.
  • Medien automatisch erneut verlinken: Manchmal können Dateien entlinkt werden, insbesondere wenn sich das experimentelle Design ändert. In der Vergangenheit mussten Sie Medien manuell ein neues Link zuweisen, eines nach dem anderen. Jetzt können Sie die Media-Registerkarte öffnen und auswählen, dass fehlende Dateien automatisch erneut zugeordnet werden. Bitte beachten Sie, dass die Dateinamen genau so übereinstimmen sollten, wie Sie sie ursprünglich benannt haben.
  • Verhindern der Teilnahme an Multi-User-Szenarien: Eine neue Study Setting-Option ist nun verfügbar, um die Teilnahme von Probanden zu verhindern, die eine Studie nicht abgeschlossen haben. Dies ist relevant für Studien, die Crowdsourcing verwenden.
  • Desktop-App-Binärdateien und Offline-Upload-Fix: Ein Fehler wurde behoben, bei dem bestimmte Instanzen von Offline-Aufzeichnungen in der Desktop-App und Binärdateien betroffen waren.

BIBLIOTHEKSHIGHLIGHTS Was gibt es Neues in der Bibliothek? Hier sind einige neue Studien, die Sie erkunden und in Ihrer nächsten Experimentation importieren und verwenden können:

  • ChatGPT mit Persona: In dieser Studie, können Sie ChatGPT eine Persona zuweisen oder ihm Ihre eigene geben, bevor Sie zu einem Chatszenario übergehen.
  • Selbstmitgefühlsfragebogen mit Videokonferenz: In dieser Demo, können Sie einen Konferenzanruf mit dem Teilnehmer abhalten, bevor er den SCS-SF-Fragebogen ausfüllt und sich nach dem Ausfüllen mit ihm trifft.
  • Oldenburg Burnout Inventory (OLBI): Dieser Fragebogen zielt darauf ab, das Burnout zu bewerten.
  • Pediatric Symptom Checklist-17 (PSC-17): Diese Checkliste wird im Bereich der klinischen Psychologie verwendet und hat das Ziel, die emotionale und verhaltensbezogene Funktionsweise von Kindern zu beurteilen.

Demnächst: Bald verfügbar

  • Emotionserkennung als zusätzliche Funktion
  • Zusätzliche Generative KI-Integrationen: einschließlich Sprach-zu-Text und Bildgenerierung

Versionsnotiz Q4’2024 und Q1'25

NEUE FUNKTIONEN

  • CSV-basierte Aufgabenstellung über den Aufgabenassistenten: Wenn Sie Ihre experimentelle Aufgabe mit Tabellenkalkulationen / CSV-Daten einrichten möchten, ist der Aufgabenassistent hier, um Ihnen den Prozess der Erstellung experimenteller Aufgaben zu beschleunigen! Mit dem Aufgabenassistenten können Sie die gesamte Struktur Ihrer experimentellen Aufgabe erstellen, einschließlich Stimuli, Ereignisse, Variablen, Faktoren, Bedingungen, Randomisierung und Datenaufzeichnungen aus einer einzigen CSV-Datei plus Stimulus-Dateien. Mehr erfahren.
  • Benutzerdefinierte E-Mail-Option: Aufgrund großer Nachfrage können Sie jetzt auch Ihre eigenen benutzerdefinierten E-Mails über den Teilnehmer-Tab in Labvanced entwerfen. Zuvor konnten Sie nur die verfügbaren Vorlagen bearbeiten. Aber jetzt können Sie neue benutzerdefinierte E-Mails erstellen, wodurch Sie den Kommunikationsprozess vollständig auf die Bedürfnisse Ihres Labors abstimmen können. Erfahren Sie mehr über Teilnehmerverwaltung.
  • Desktop-App: Mit der Desktop-App können Sie externe Hardware wie EEGs, hardwarebasierte Eye-Tracker und mehr verbinden. Die Desktop-App wurde mit dem Ziel gestartet, Ihnen zu helfen, die Laborabläufe zu verbessern und den Datensammelprozess zu straffen, sodass Labvanced Ihr bevorzugtes All-in-One-System für Forschung sein kann. Die Desktop-App ist seit etwa einem Monat im Einsatz und wir freuen uns, Ihr Feedback zu hören und danken Ihnen, dass Sie diese neue Funktion angenommen haben! Mehr erfahren.
  • Telefon-App: Die Telefon-App ist jetzt für Android verfügbar 🥳Sie können zum Play Store gehen und sie herunterladen. Dieser Fortschritt ist ein weiteres Beispiel dafür, wie Labvanced sich der Unterstützung Ihrer Forschungsbedürfnisse widmet. Mit der Telefon-App gibt es insgesamt mehr Kontrolle über den gesamten experimentellen Prozess, wobei Sie Push-Benachrichtigungen senden und telefonbasierte Längsschnittstudien durchführen können. Darüber hinaus bieten wir als zusätzlichen Service die Option an, die App mit spezifischen Funktionen anpassen zu lassen, sodass Sie die App vollständig eigenständig gestalten können. Mehr erfahren.
  • Benutzerdefinierte Einarbeitung: Während dies für bestehende Benutzer nicht direkt von Bedeutung ist, bieten wir jetzt ein neues Einarbeitungserlebnis an. Dies könnte für Sie interessant sein, wenn Sie mit Studenten arbeiten und Labvanced verwenden, um experimentelle Methoden zu lehren. Nun, wenn sich ein neuer Benutzer anmeldet, gibt es ein benutzerdefiniertes Einarbeitungserlebnis. Der Benutzer erhält eine Liste von Optionen und kann direkt auswählen, wie er fortfahren möchte, egal ob es sich um das Durchlesen von Dokumentationen, das Ansehen von Videos oder sogar das Importieren einer für ihn relevanten Vorlage handelt.
  • Unterstudienobjekt: Das Sub Study Object kann verwendet werden, um andere Studien innerhalb eines einzelnen Experiments einzubetten. Im Wesentlichen haben Sie eine „Elternstudie“, die diese „Unterstudien“ enthält, die andere Labvanced-Studien sind. Es gibt mehrere Anwendungsfälle für dieses Objekt, wie die Einbeziehung standardmäßiger Fragebögen oder Vorscreenings, ohne diese jedes Mal für eine neue Studie erstellen zu müssen, den Vergleich der Leistung von Probanden zwischen Studien, die Etablierung von Testbatterien und mehr. Hier ist die Leitdokumentation zur Verwendung dieses Objekts, und wenn Sie Fragen haben, wie Sie dies in Ihr nächstes Experiment integrieren können, zögern Sie nicht, uns zu kontaktieren!

VERBESSERUNGEN

  • Eye-Tracking-Versionierung und neues Update: Jetzt erfolgen Eye-Tracking-Updates mit Versionierung, die im Tab „Studieneinstellungen“ angezeigt wird. Dies ermöglicht es bestehenden Studien, sich auf ihre aktuelle Version festzulegen, während neue Studien die neueste Version haben. Die neueste Version (v1) enthält eine Option zur Anpassung des Volumens bei der kalibrierung von kinderfreundlichem Eye-Tracking.
  • Dynamisch die angezeigte Sprache in einem Experiment ändern: Sie können jetzt Ihr Experiment so einrichten, dass die angezeigte Sprache dynamisch geändert wird, indem Sie die Systemvariable “Displayed_Language” auf eine Sprache setzen, die Sie im Übersetzungs-Tab erstellt haben. Wenn Sie Fragen haben, freuen wir uns, von Ihnen zu hören!
  • Objektformatierung - zentriert: Beim Hinzufügen neuer Objekte zum Editor werden diese automatisch zentriert, und ihr Ankerpunkt wird ebenfalls in der Mitte sein.
  • Exportieren von Datenrahmen verbessert: Die Exporteinstellungen wurden verbessert, sodass das Exportieren von Datenrahmen jetzt ein einfacherer Prozess ist.
  • Wählbare Objekte: Im Eigenschaftenpanel der Objekte gibt es eine Option, um ein Objekt für Benutzer wählbar zu machen. Standardmäßig kam dies mit einem hervorgehobenen Begrenzungsrahmen, der jetzt deaktiviert werden kann.
  • Audioaufzeichnungspufferung reduziert: Es gab einen kleinen Puffer von etwa 20 Millisekunden am Ende der Audioaufzeichnungen, der jetzt auf etwa 2-3 Millisekunden reduziert wurde.

BIBLIOTHEKSHIGHLIGHTS Was gibt es Neues in der Bibliothek? Hier sind einige neue Studien, die Sie erkunden und in Ihrer nächsten Experimentation importieren und verwenden können:

  • Bouba-kiki Effekt: Ein nettes, linguistisch basiertes Beispiel dafür, wie man das Trial-System in einem experimentellen Design nutzt, bei dem der Teilnehmer gezwungen ist, zwischen zwei Stimuli zu wählen. Probieren Sie es hier aus.
  • OCI-R: Der Obsessive Compulsive Inventory-Revised Fragebogen ist jetzt in der Bibliothek verfügbar, ein kurzes Selbstbeurteilungs-Instrument zur Messung der Schwere von OCD-Symptomen bei Individuen (18 Elemente, die auf einer 5-Punkte-Likert-Skala bewertet werden). Probieren Sie es hier aus.
  • GAD-7: Der Generalized Anxiety Disorder (GAD) Assessment - 7 ist jetzt in der Bibliothek verfügbar, ein Selbstbeurteilungsfragebogen, der zur Überprüfung auf GAD entwickelt wurde, indem die Häufigkeit und Schwere von Angstsymptomen in den letzten zwei Wochen bewertet wird. Probieren Sie es hier aus.
  • WCST-64: Wenn Sie an der WCST interessiert sind, können Sie auch eine Demo importieren und sie als Grundlage für Ihr nächstes Experiment verwenden. Probieren Sie es hier aus.
  • Text dynamisch bearbeiten: In dieser Demo wird der Teilnehmer gebeten, Textabsätze zu bearbeiten. Es gibt einen Live-Datenstream, der ihre Tastenanschläge und Mausklicks sowie den Textabsatzstatus zusammen mit Zeitstempeln in Millisekunden ab dem Frame-Start anzeigt. Probieren Sie es hier aus.

SPEZIALANZEIGE AUF PUBLIKATIONEN Möchten Sie sehen, woran andere Forscher mit Labvanced arbeiten? Werfen Sie einen Blick auf diese Liste von Beispielen kürzlich veröffentlichter Forschungsergebnisse:

  • Calignano, G., Lorenzoni, A., Semeraro, G., & Navarrete, E. (2024). Worte vor Bildern: die Rolle der Sprache bei der Beeinflussung visueller Aufmerksamkeit. Frontiers in Psychology, 15, 1439397. https://doi.org/10.3389/fpsyg.2024.1439397
  • Dehove, M., et al, (2024). Erforschung des Einflusses von urbanen Kunstinterventionen auf Anziehung und Wohlbefinden: ein empirisches Feldexperiment. Frontiers in Psychology, 15, 1409086. https://doi.org/10.3389/fpsyg.2024.1409086
  • Meewis, F., et al, (2024). Eine vergleichende Studie der ursächlichen Wahrnehmung bei Guineababis (Papio papio) und menschlichen Erwachsenen. PloS one, 19(12), e0311294. https://doi.org/10.1371/journal.pone.0311294
  • Tsai, C. C., et al, (2025). Einfluss von Künstlicher Intelligenz auf die Kognitionen in der Interaktion mit Apothekern: Randomisierte kontrollierte Studie. Journal of Medical Internet Research, 27, e59946. https://www.jmir.org/2025/1/e59946/

DEM NÄCHSTEN FOLGT

  • Videokonferenzen als option in der Studie
  • Emotionserkennung als zusätzliche Funktion

Q3'24 Versionsnotiz

NEUE FUNKTIONEN

  • Spielsteuerung / Joystick-Benutzereingabe: Jetzt haben Sie die Möglichkeit, Spielcontroller und Joysticks in Ihre Studie zu integrieren! Teilnehmer können Objekte bewegen und mit dem Experiment interagieren, wie es Ihr Design vorschreibt, über den Gamepad/ Joystick Trigger, und Sie können Daten aufzeichnen, z.B. welche Taste sie gedrückt haben und mehr, mithilfe der spezifischen Werte für den Gamepad/Joystick-Trigger. Überprüfen Sie auch diesen Beispielstudien-Walkthrough, wie es implementiert werden kann!
  • Teilnehmereinstellungen-Tab: Mit Labvanced können Sie Ihre Teilnehmer über den neu hinzugefügten „Teilnehmenden“-Tab verwalten und kommunizieren. Mit dem „Teilnehmenden“-Tab haben Sie eine Übersicht über Ihre Probanden für eine bestimmte Studie, können die E-Mails anpassen, die während des veröffentlichten Experiments gesendet werden, sowie Ihre E-Mail-Adresse über den SMTP-Server verbinden. Im Wesentlichen können Sie diesen Tab verwenden, um die Kommunikation mit Ihren Studienprobanden, die an Ihrer Forschung teilnehmen, zu verwalten, was besonders nützlich für longitudinale Forschung mit mehreren Sitzungen ist.
  • Multi-User-Studienfunktionen: Multi-User-Studien erfordern eine Menge Daten, die in Echtzeit zwischen Teilnehmern kommuniziert werden. In sehr großen Studien, in denen Hunderte von Teilnehmern gleichzeitig auf eine Studie zugreifen können, kann dies die Server stark belasten, was sich auf die Integrität der Studie auswirken kann. Aus diesem Grund haben wir folgende Sicherheitsmaßnahmen getroffen:
    • „Rate-Limiter-Strategie“, bei der Sie festlegen, wie Daten im Falle einer Überlastung des Servers unter der distribute variable behandelt werden (scrollen Sie nach unten zur Beschreibung der Optionen dieser Funktion).
    • Darüber hinaus gibt es nun eine Option im Tab „Studieneinstellungen“, um anzugeben, wie viele Sitzungen parallel stattfinden können.
  • Mehr Textobjekte: Die folgenden Ergänzungen wurden an den Editor vorgenommen, um Ihnen mehr Kontrolle über Design und Präsentation zu geben:
    • DisplayVariable-Element: Dieses Element ermöglicht es Ihnen, direkt Variablenwerte miteinander zu verknüpfen und innerhalb des Experiments anzuzeigen.
    • DisplayHTML-Element: Wenn Sie HTML nutzen und innerhalb der Studie anzeigen müssen, können Sie dieses Element verwenden.
  • SVG-Stimuli-Zuweisung über Datenrahmen: Forscher, die SVGs in ihren Studien verwenden, können diese nun über Datenrahmen an Versuche zuweisen.

VERBESSERUNGEN

  • Blinkende Wiederholungsbildschirm: Ein Problem, bei dem die Kalibrierung des Eye-Tracking fehlschlug und beim Wiederholen der Bildschirm die Kalibrierungspunkte überlagerte (während der zweiten Phase der Kalibrierung, wo es ein kreisförmiges Muster gibt), wurde nun behoben.
  • Doppelte erste Sitzungen: Ein Problem, bei dem Teilnehmer, die im Teilnehmereinstellungen-Tab hinzugefügt wurden, 2 Sitzungen (statt einer) für ihr erstes Experiment erstellt erhielten, wurde jetzt behoben.

BIBLIOTHEKSHIGHLIGHTS
Was gibt es Neues in der Bibliothek? Hier sind einige neue Studien, die Sie erkunden und in Ihrer nächsten Experimentation importieren und verwenden können:

  • Animal Word Search (Multi-User): In dieser Demo treten zwei Spieler gegeneinander an und versuchen, die meisten Wörter in einem Wörterbuch-Puzzle zu finden! Jetzt ausprobieren! (Hinweis: Kopieren Sie die URL in einen zweiten Tab und spielen Sie gegen sich selbst, wenn Sie einfach nur schnell testen möchten!)
  • ChatGPT: In dieser Labvanced-Demo können Sie direkt mit ChatGPT kommunizieren. Geben Sie einfach Ihre Eingabeaufforderung ein und drücken Sie die „Enter“-Taste, um zu senden. Jetzt ausprobieren!

NEUE DOKUMENTE

  • Chat GPT Studie: Dieser Walkthrough erklärt, wie man eine Studie erstellt, in die die ChatGPT-Funktion eingebaut werden kann, in einem Design, in dem eine Chat-Schnittstelle den Austausch / das Gespräch zwischen dem Teilnehmer und ChatGPT anzeigt und aufzeichnet.
  • SVGs als AOIs im Eye-Tracking: In diesem Walkthrough, sehen Sie, wie eine Eye-Tracking-Studie SVG-Objekte integriert, um Blickdaten über Bereiche des Interesses (AOIs) zu sammeln.
  • Multi-User-Cursor-Standort anzeigen: Arbeiten Sie an einer Multi-User-Studie, bei der die Teilnehmer den Cursorstandort des anderen sehen sollen? In diesem Walkthrough, präsentieren wir zwei Ansätze, wie Sie dies in Labvanced erreichen können.

NEUE PUBLIKATIONEN
Möchten Sie sehen, wie andere Forscher Labvanced nutzen? Hier sind einige Höhepunkte aus jüngsten Veröffentlichungen!

  • Visuelle Wahrnehmung unterstützt 4-plätzige Ereignisdarstellungen: Eine Fallstudie des TRADING in den Proceedings of the Annual Meeting of the Cognitive Science Society (Vol. 46) von Khlystova, E., Williams, A., Lidz, J., & Perkins, L. (2024).
  • Was macht eine Bewegung menschenähnlich? in Japanische Psychologische Forschung von Yang, X. et al. (2024).
  • Inhärente linguistische Präferenzen übertreffen zufällige Übereinstimmungen bei der Wahl eines kooperativen Partners in Sprache und Kognition von Matzinger, T., et al. (2024).
  • Scrollen und Hyperlinks: Die Auswirkungen zweier verbreiteter digitaler Merkmale auf das Leseverständnis von Kindern in Journal of Research in Reading von Krenca, K., Taylor, E., & Deacon, S. H. (2024).

DEM NÄCHSTEN FOLGT

  • Längsschnittstudien - E-Mail-Anpassung: In der Vergangenheit wurden E-Mail-Erinnerungen automatisch basierend auf den von Ihnen angegebenen Zeitintervall-Einstellungen gesendet. Nun erweitern wir diese Funktionalität um die zusätzliche Option, Ihnen die Anpassung des Textes in den automatisierten E-Mail-Erinnerungen für longitudinale Studien zu ermöglichen.
  • Desktop-App 2.0: Bald wird eine neue und verbesserte Version der Labvanced-Desktop-App verfügbar sein! Die Desktop-App wird viele nützliche Funktionen bieten, wie die Möglichkeit, im Online-/Offline-Modus zu arbeiten, sodass Sie lokal in Ihrem Labor arbeiten und Aufzeichnungen anfertigen können, sowie einfach mit externen Geräten wie EEGs verbinden können.

Q1’24 Versionsnotiz

NEUE FUNKTIONEN

  • Labvanced Mobile jetzt im Playstore! (BETA): Sie können Labvanced-Studien jetzt in unserer speziellen Android-App (mit nur einem Klick) ausführen, was Ihnen eine noch größere experimentelle Kontrolle und Designoptionen bietet. Die Smartphone-App wird ideal für longitudinale Tests und klinische Studien sein, aber alle Studien können geöffnet werden, wenn sie für mobile Anwendungsfälle ausgelegt sind. Wir suchen jetzt nach weiteren Beta-Testern, also kontaktieren Sie uns, wenn Sie interessiert sind! Auch die iOS-Version wird bald verfügbar sein!
  • E-Mail-Verifizierung: Neue Benutzer müssen jetzt ihre E-Mail-Adresse bei der Anmeldung verifizieren. Monospace-Schriftart jetzt verfügbar: Wenn Sie Textelemente zu Ihrer Studie hinzufügen, können Sie jetzt Monospace als Schriftartoption auswählen.
  • Standardstyling für Rahmen: Wie im Bild unten gezeigt, können Sie jetzt Ihre neue Studie einrichten, indem Sie Standards für Ihre Rahmen festlegen, z. B. das Festlegen der Rahmenhöhe für mobile Studien mit einem Seitenverhältnis von 9:16.
  • Standardstyling für Studienbuttons: Auch im Bild unten gezeigt, können Sie beim Erstellen einer neuen Studie eine Standardoption für Buttons festlegen, sodass Sie nicht jedes Mal das Styling ändern müssen, wenn Sie einen neuen Button zur Studie hinzufügen. Die ausgewählten Standardeinstellungen erstellen automatisch einen stilisierten Button.
  • E-Mail-/Benachrichtigungspflege: Jetzt veröffentlicht: E-Mails und App-Benachrichtigungen sind jetzt live, mit dem Ziel, neue Ideen zu fördern und neue Benutzer bei der Einarbeitung zu unterstützen sowie die allgemeine App-Erfahrung zu verbessern.

Neue Einstellung in Labvanced, um Standardstyling für Buttons zu erstellen

VERBESSERUNGEN

  • Schiebeelement jetzt verbessert: Das Schiebeelement (das für Fragebögen verwendet wird) funktioniert nun in allen Fällen, selbst wenn der Schiebereglergriff ausgeblendet ist.
  • Verbesserte Sicherheit: Wenn das Passwort nun geändert wird, werden Sie von allen Geräten abgemeldet, und alle Sitzungen auf allen Geräten werden ungültig.
  • Ändern Sie Ihre E-Mail automatisch: Das Ändern der E-Mail, die mit Ihrem Konto verknüpft ist, kann jetzt einfach durch die E-Mail-Verifizierung erfolgen.

NEUE DOKUMENTE

  • Randomisierung & Balance: Erfahren Sie, wie Randomisierung und Balance in Labvanced behandelt werden und welche Teile der App Sie verwenden können, um sicherzustellen, dass Ihr Experiment randomisiert und ausgeglichen ist.
  • API-Zugriff: Was sind die verschiedenen APIs, die Sie für Ihr Labvanced-Experiment verwenden können? Vom Webhook-API über WebSock bis hin zur REST-API haben wir alles für Sie! Erfahren Sie mehr über die Optionen und die Umstände, unter denen Sie diese verwenden würden, in diesem API-Überblick.
  • Säuglingsfreundliches & Fern-Eye-Tracking: Was ist der Stand der Technik in Bezug auf Fern- und säuglingsfreundliches Eye-Tracking? In diesem Blog diskutieren wir die Herausforderungen und Lösungen für die Verwendung von Fern-Eye-Tracking als Methode in entwicklungspsychologischen Studien.

NEUE PUBLIKATIONEN
Wie verwenden andere Forscher Labvanced? Hier sind einige Höhepunkte aus aktuellen Veröffentlichungen!

  • Parallelen und Abweichungen: Zwei Grundlagen einer Ästhetik dichterischer Diction in Philosophical Transactions of the Royal Society B von Menninghaus, W. et al. (2024).
  • Berühren und ansehen: Die Rolle des affektiven Berührens bei der Förderung der Aufmerksamkeit von Säuglingen gegenüber komplexen visuellen Szenen in Infancy von Carnevali, L., Della Longa, L., Dragovic, D., & Farroni, T. (2024).
  • Die Auswirkungen eines Frontalbremslichts auf die Bereitschaft von Fußgängern die Straße zu überqueren in Transportation Research Interdisciplinary Perspectives von Eisele, D., & Petzoldt, T. (2024).
  • Die Auswirkungen von vertikal ausgerichteten Flankern beim Lesen von Sätzen in Journal of Experimental Psychology: Learning, Memory, and Cognition von Mirault, J., & Grainger, J. (2024).

DEM NÄCHSTEN FOLGT

  • ChatGPT und weitere KI-Integrationen: Interessiert an der Nutzung von KI wie ChatGPT oder DALL-E? Wir glauben, dass die Forschung zur Nutzung von KI in den nächsten Jahren explodieren wird, und deshalb werden wir bald nativ Integrationen mit ChatGPT und anderen bekannten KI-Anwendungen anbieten.
  • Desktop-App: Wenn Sie ein regelmäßiger Nutzer von Labvanced sind, werden Sie begeistert sein zu sehen, dass eine dedizierte Anwendung (für Windows, Linux und Mac) bald veröffentlicht wird, die einige Vorteile gegenüber der rein browserbasierten Version von Labvanced bietet.
    • Alle Studien sind sowohl online als auch lokal direkt verfügbar und vereinen das Beste aus beiden Welten.
    • LSL-Integration und andere dedizierte Hardware-Verbindungslösungen über die Desktop-App werden als Nächstes kommen, sodass Sie EEG-Studien durchführen, sich mit Drittanbieter-Eye-Trackern verbinden und mehr können.
    • Weitere native Integrationen für den Datenexport und die Datenanalyse werden in der Desktop-Version verfügbar sein. Welche Funktion ist für Sie am aufregendsten?
  • Eye Tracking - SVG-Bereich: Mit dieser neuen Funktion können Sie komplexe Formen als Ihre definierten Bereiche des Interesses für Eye-Tracking-Studien verwenden. Derzeit können Sie einfache Formen (wie ein rechteckiges Bild) als Bereich des Interesses verwenden. Mit dieser neuen Funktion können Sie ein SVG einer komplexen Form hochladen (z. B. eines Elefanten) und Ihre eigenen unsichtbaren Masken erstellen und die Anzahl der Fixierungen in diesem Bereich in Eye-Tracking-Studien zählen. In Zukunft werden Sie auch in der Lage sein, einen Bereich nachzuzeichnen.
  • PageGazer: Das Verständnis des Verhaltens von Online-Nutzern und deren Entscheidungen hat starke Auswirkungen auf UX-Designer, Vermarkter, E-Commerce-Besitzer und sogar auf Produktmanagement und Politiker.
    • Dennoch haben bestehende Tools, die das Studium des VerbraucherVerhaltens auf Websites anbieten, deutliche Mängel. Die drei schwerwiegendsten Einschränkungen sind: 1) Sie erfordern zusätzliche Installationen wie Browser-Plugins, was stark einschränkt, wer teilnehmen kann. 2) Sie behandeln die gesamte Website wie ein Bild oder Video, was eine Verfolgung von Interaktionen oder die Aggregation von Daten über Teilnehmer hinweg unmöglich macht. 3) Sie bieten nur Mausverfolgung an, aber keine Möglichkeit, Aufmerksamkeitsprozesse mit Eye-Tracking-Technologie zu verfolgen.
    • PageGazer ist ein neues und leistungsstarkes Tool für Online-Verhaltens- und Verbrauchererforschung, das wir entwickeln, das in der Lage sein wird, diese Einschränkungen zu überwinden und damit die Art von Daten, die gesammelt werden können, und die Erkenntnisse, die in Szenarien zur Fern-Datensammlung gewonnen werden können, erheblich zu erweitern.
    • Wenn das für Sie interessant klingt, abonnieren Sie bitte unseren PageGazer-Newsletter, um über die neuesten Ankündigungen informiert zu werden.

Q4’23 Versionsnotiz

  • Neue & verbesserte Desktop-App - Fast hier: Bringen Sie Labvanced direkt auf Ihren Desktop. Eine überarbeitete und benutzerfreundliche App wird bald verfügba sein für Forscher, um sie direkt auf ihren Desktop für {Experimentcalls} durchzuführen. Lokale Studien können direkt automatisch mit dem neuesten Online-Zustand synchronisiert werden, sodass die Erstellung / Bearbeitung von Studien und lokale (offline) Ausführung sich gegenseitig vereinen werden. Wichtig ist, dass unsere vorgefertigten LSL-Python-Skripte hier verwendet werden können, um sich einfach mit externen Hardware wie EEG-Systemen während lokaler Aufzeichnungen zu verbinden. Unsere Vision ist es, eine einzige Anwendung anzubieten, die leicht verwendet werden kann, um sowohl Online- als auch lokale / In-Lab-Aufzeichnungen durchzuführen, während die gleiche Studie und Codebasis verwendet wird, anstatt sie in verschiedenen Umgebungen neu zu implementieren und auszuführen. Und das ist erst der Anfang!
  • Smartphone-App: Beta-Tests: Bitte kontaktieren Sie uns, wenn Sie interessiert sind, die Smartphone-App in ihrer Beta-Phase auszuprobieren. Ideal für Forscher, die diese Funktion in der Zukunft nutzen möchten und Feedback geben wollen. Die Smartphone-App wird für Android und iOS verfügbar sein und den Forschern mehr Möglichkeiten und Kontrolle über ihr experimentelles Design und die Durchführung in mobilen Test-Szenarien bieten. Die App wird zwei grundlegende Zugangspunkte haben:
    1. Ein Login für Forscher, die sich anmelden und ihre Studien und Aufzeichnungen verwalten können und es als ein Admin-Portal verwenden können (auch zum Starten von Aufzeichnungen). Dies kann besonders nützlich für vor Ort und / oder klinische Forschung sein.
    2. Einen (passwortfreien) Remote-Login für Teilnehmer, die einen Deep-Link verwenden können, um die App mit einer spezifischen Labvanced-Studien-ID zu öffnen. Dadurch wird die App in eine benutzerdefinierte Anwendung für eine bestimmte Studie verwandelt. Mit anderen Worten, Sie können Ihre Studie bei Labvanced wie gewohnt erstellen, sie aber als native mobile App für Datensammlungszwecke durchführen. Dies funktioniert natürlich auch in Kombination mit Crowdsourcing-Tools wie Prolific oder mTurk. Die Smartphone-App ist besonders nützlich für Längsschnittstudien, d.h. Studien mit mehreren Sitzungen, für dezentralisierte klinische Studien oder Trainingssitzungen, bei denen Bildungskomponenten ein Hauptbestandteil sind. Automatische Push-Benachrichtigungen erinnern die Teilnehmer daran, die nächste Sitzung in angemessener Zeit abzuschließen.
      Hinweis: Während die Smartphone/ Desktop-App nicht als Medizinprodukt lizenziert ist (noch), kann sie in Szenarien verwendet werden, in denen Teilnehmer ins Labor, in die Klinik oder in die Arztpraxis kommen, um einen Vor-Ort-Test durchzuführen, ohne auf eine Internetverbindung angewiesen zu sein. Die Daten werden lokal auf dem Gerät aufgezeichnet und automatisch in die Cloud hochgeladen, sobald die Internetverbindung wiederhergestellt ist.
  • Falls Sie es verpasst haben, der Labvanced-Webcam-basierte Eye-Tracker wurde peer-reviewed! Sehen Sie sich diesen Artikel im Journal of Behavior Research Methods an und ziehen Sie in Betracht, ihn in Ihrer nächsten Veröffentlichung zu zitieren! Dies sind einige wichtige Erkenntnisse aus ihm:
    • Labvanced’s webcam-basierter Eye-Tracking hat eine Gesamtgenauigkeit von 1,4° und eine Präzision von 1,1° mit einem Fehler von etwa 0,5° größer als bei dem EyeLink-System.
    • Interessanterweise verbessern sich sowohl Genauigkeit als auch Präzision (auf 1,3° und 0,9°) bei vor der Präsentation von visuellen Zielen im Zentrum des Bildschirms – etwas, das für Forscher wichtig ist, da das Zentrum des Bildschirms der Punkt ist, an dem viele Stimuli in Psychologie-Experimenten präsentiert werden.
    • Für freies Anschauen und sanfte Verfolgung ließen sich etwa 80 % Korrelation zwischen Labvanced- und EyeLink-Blickdaten feststellen. Für eine visuelle Demonstration, wie diese Korrelation aussieht, siehe die Abbildung 7 in der Forschungsarbeit, die visuell die Überlappung der Datenpunkte zwischen Labvanced (blaue Punkte) und EyeLink (rote Punkte) zeigt.
    • Auch die Genauigkeit war über die Zeit konstant. Insgesamt zeigen diese Ergebnisse, dass das webcam-basierte Eye-Tracking von Labvanced eine tragfähige Option für das Studium der physiologischen Signale der Aufmerksamkeit darstellt.
  • In Arbeit:
    • Erweiterte E-Mail- und Systembenachrichtigungen: Bald werden Benutzer personalisierte Ratschläge erhalten, wie sie die Plattform optimal nutzen können, basierend auf benutzerdefinierten Vorschlägen, die über E-Mail und Benachrichtigungen geliefert werden.
    • Studienassistent: Der Assistent ist ein Schritt-für-Schritt interaktiver Leitfaden, der neuen Benutzern hilft, eine Studie zu erstellen, die mit einer Tabellenkalkulation konfiguriert werden kann.
    • ET Fixierungen: Unsere peer-reviewed ET-Publikation beweist unsere Exzellenz im webcam-basierten Eye-Tracking und stellt arguably die genauesten Blickdaten mit dieser Methode zur Verfügung. Und während andere Lösungen existieren, scheint keine von ihnen an eine ordnungsgemäße Fixiererkennung gedacht zu haben (wahrscheinlich weil ihre Daten zu verrauscht und zu wenige Proben sind). Die Klassifizierung der Fixierungen ist jedoch ein sehr wichtiger Aspekt der Eye-Tracking-Forschung, und während wir bereits einen Algorithmus zur Verfügung haben, ist unser nächstes Ziel, ihn erheblich zu verbessern. Für dies sind Rekrutierungs- und Kooperationsbemühungen im Gange.

Q3’23 Versionsnotiz

  • Unsere neue Veröffentlichung zu unserem webcam-basierten Eye-Tracking: Wir freuen uns, bekannt geben zu können, dass unsere neueste Veröffentlichung, die die Genauigkeit unseres webcam-basierten Eye-Tracking-Systems mit einem Branchenstandard (EyeLink 1000) vergleicht, endlich veröffentlicht ist. Während dies einige Zeit und Ressourcen in Anspruch genommen hat, bestätigt es unsere Methodik in einem sehr guten Journal, und wir freuen uns sehr, dies heute mit Ihnen zu teilen! Ein großes Dankeschön an alle Forscher, die bereits unser Eye-Tracking verwendet haben, und eine große Einladung an alle anderen, dasselbe zu tun! Schauen Sie sich die Veröffentlichung hier im Journal of Behaviour Research Methods.
    • Wichtige Ergebnisse aus der Veröffentlichung:
      • Labvanced’s webcam-basiertes Eye-Tracking hat eine Gesamtgenauigkeit von 1,4° und eine Präzision von 1,1° mit einem Fehler von etwa 0,5° größer als das EyeLink-System.
      • Interessanterweise verbessern sich sowohl die Genauigkeit als auch die Präzision (auf 1,3° und 0,9°, respectively) bei der Präsentation visueller Ziele im Zentrum des Bildschirms - etwas, das für Forscher wichtig ist, da das Zentrum des Bildschirms der Punkt ist, an dem viele Stimuli in vielen psychologischen Experimenten präsentiert werden.
      • Bei freiem Anschauen und sanften Verfolgungsaufgaben lag die Korrelation bei etwa 80 % zwischen den Blickdaten von Labvanced und EyeLink. Für eine visuelle Demonstration, wie diese Korrelation aussieht, siehe die Abbildung 7 aus der Veröffentlichung, die die Überlappung zwischen den Datenpunkten von Labvanced (blaue Punkte) und EyeLink (rote Punkte) zeigt.
      • Auch die Genauigkeit blieb über die Zeit hinweg konstant.
  • Ausgezeichnete Förderung des Europäischen Netzwerks für KI-Exzellenz (ELISE): Als KI-Forscher, die Ihnen ein genaues webcam-basiertes Eye-Tracking präsentiert haben, hilft uns die Auszeichnung mit dem ELISE-Stipendium, den nächsten Schritt zur Bereitstellung von mehr Online-Forschung durch die Entwicklung von PageGazer zu machen. Während dieselbe zugrunde liegende Technologie verwendet wird, wird PageGazer eine neue Plattform sein, die sich darauf konzentriert, UI/UX-, Marketing- und allgemeine Websiteforschungen durchzuführen. PageGazer wird die Möglichkeiten haben, unsere innovative Eye-Tracking-Technologie in jede Website einzubinden und dies mit intelligentem Website-Parseness zu kombinieren, um neue Forschungserkenntnisse abzuleiten. Die Elise-Förderung wird uns helfen, dieses Ziel schneller und effizienter zu erreichen und bestätigt erneut die Exzellenz und Innovation unseres Ansatzes. Wenn Sie mehr wissen oder Teil einer EXKLUSIVEN und kostenlosen BETA-Testphase für PageGazer sein möchten, kontaktieren Sie uns bitte; wir suchen derzeit nach ersten Benutzern, die begeistert sind, etwas Neues auszuprobieren!
  • Neue Funktionen:
    • Canvas (Freihandzeichnen) Element: Das Canvas (Freihandzeichnen)-Element steht jetzt als Formobjekt zur Verfügung, das Sie in Ihrem Experiment verwenden können, um frei mit Formen, Strichen oder Text zu zeichnen. Dies ermöglicht es Ihnen oder den Teilnehmern, im Rahmen eines Experiments freie Antworten einzugeben.
    • Medien-Elemente in Fragebögen: Es ist jetzt möglich, Medien-Elemente, wie Videos, direkt in Fragebögen (d.h. Seitenrahmen) einzufügen. Dies gibt Ihnen mehr Kontrolle über Ihren Prozess der experimentellen Erstellung, indem Sie verschiedene Arten von visuellen Materialien direkt in die Umfrage einfügen können.
    • RESTing API-Integration: Ab sofort verfügbar, ermöglicht die RESTing API den programmgesteuerten Download von Daten. Sie erstellen einfach ein API-Token in der Anwendung zur Authentifizierung über den API-Client, mit dem Sie sofort auf die Daten über den Server zugreifen können. Forscher haben bereits begonnen, diese neue Fähigkeit zu nutzen, da sie es ihnen ermöglicht, ihren Prozess noch reibungsloser zu gestalten, indem sie lokal auf Daten zugreifen können. Die RESTing API eignet sich hervorragend für Organisationen und akademische Forschungsinstitutionen, die ihre Datenerfassung zentralisieren und ihre Daten an dedizierten Orten gemäß ihrem Pipeline-Protokoll speichern möchten. Anstatt Daten manuell auszuwählen und lokal herunterzuladen, können Organisationen die Daten über ihre Server zugreifen, was für die GDPR-Protokolle wichtig ist.
  • VERBESSERUNGEN:
    • Serverseitige Verbesserungen: Während dies für Sie nicht sichtbar ist in Ihrem Tagesablauf zur experimentellen Erstellung und Prozess, haben unsere neuesten serverseitigen Verbesserungen einen großen Einfluss auf Online-Studien, da sie eine verbesserte Performance und Zuverlässigkeit gewährleisten. Einige Beispiele für die Verbesserungen, die wir vorgenommen haben, sind: erhöhte Serverkapazität, automatisierte Updates, eine automatische Umschaltung, falls ein Server ausfällt, und verbesserte Überwachungsdienste zur Beurteilung der Gesundheit der Server.
    • Neuer Zahlungsfluss: Der neue Zahlungsfluss ist da! Bei neuen Lizenznehmern ist die Zahlung nun erforderlich, bevor die Lizenz aktiviert wird. Einige andere verwandte Verbesserungen umfassen: verbesserte Benutzeroberfläche, ein sicherer öffentlicher Zahlungslink, der einer anderen Person ermöglicht, Ihre Lizenz zu bezahlen (wichtig für Einkaufabteilungen), die Wiedereröffnung einer Bestellung und automatische Erkennung von Zahlungen per Überweisung durch Referenzcodeerkennung.
  • In Arbeit:
    • Smartphone-App: Mit einer mobilen App können klinische Studien und longitudinale Studien Labvanced besser nutzen, dank Funktionen wie Push-Benachrichtigungen, um die Teilnahme zu erinnern, und nicht auf das Internet für bestimmte Aufgaben angewiesen zu sein.
    • Desktop-App: Mit LSL-Integration und Online/Offline (d.h. lokalen) Modi kombiniert in einer Desktop-App können Sie Labvanced mit lokalen Geräten wie EEGs mit LSL-Integration verbinden.
    • E-Mail-Pflege und Benachrichtigungen: Bald werden Benutzer personalisierte Ratschläge erhalten, wie sie die Plattform optimal nutzen können, basierend auf personalisierten Vorschlägen, die über E-Mail und Benachrichtigungen geliefert werden.
    • Neuer Studienassistent: Um sicherzustellen, dass die Implementierung von Studien beschleunigt wird, wird ein Studienassistent für neue Benutzer verfügbar sein, die bei ihren ersten Schritten mit Labvanced auf eine Lernkurve stoßen, um ihre Studie dorthin zu bringen, wo sie hin muss!

Q2’23 Versionsnotiz

  • Forschungsstipendienprogramm: Ein neues und spannendes Angebot für alle Forscher da draußen, dieses Stipendienprogramm ist perfekt für diejenigen, die ihre Karriere und Glaubwürdigkeit mit einem kleinen Stipendium stärken möchten, das ihre Forschung in Labvanced unterstützt. Vorteile umfassen finanzielle Unterstützung für die Teilnahme an einer Konferenz sowie das Rekrutieren von Studienteilnehmern.
  • Freihandzeichnen-Element: Auf häufigen Wunsch können Sie jetzt direkt im Editor zeichnen, dank des neu hinzugefügten Canvas-Zeichenelements. Diese neue Funktion ermöglicht es dem Experimentator und dem Teilnehmer, frei zu zeichnen, aber auch Formen wie Kreise und Dreiecke einzufügen. Diese Funktion kann relevant für viele experimentelle Anwendungsfälle wie Assoziation sein.
    Automatische Zuordnung der Probanden: Stärkere Randomisierung und Balancing Dieser Wunsch, den viele Forscher geäußert haben, die stärkere Balancierungsmethoden möchten, ist nun hier! Jetzt ist die automatische Zuordnung von Probanden in Labvanced möglich. Was bedeutet das? Stellen Sie sich vor, ein Proband 17 fällt aus dem Experiment aus, das System kann nun automatisch einen Probanden zuweisen, um diese Probandenidentifikationsnummer zu füllen. Warum ist das wichtig? Denn in vielen Experimenten spielt die Probandenidentifikationsnummer eine Rolle bei der Art der Stimuli, die der Teilnehmer sieht. In der Vergangenheit berücksichtigte das System nicht die ausscheidenden Probanden auf Stimulus-Ebene, sondern eher auf Gruppenebene. Infolge dieser Funktionalität wurde die Randomisierung leistungsfähiger. Ein weiteres Beispiel für diese Funktion im Einsatz kommt während der manuellen Aussonderung. Wenn der Forscher einen Teilnehmer aus verschiedenen Gründen manuell aussortiert, kann der nächste, der neu in die Studie aufgenommen wird, automatisch den Platz des ausgeschiedenen Teilnehmers einnehmen. Dies stellt sicher, dass das Experiment abgeschlossen wird und die Forscher alle Daten erhalten, die sie benötigen.
  • Schalterumschaltung für Eye-Tracking, um es kinderfreundlich zu gestalten: In den Studieinstellungen für Eye-Tracking gibt es nun einen neu implementierten Schalter, mit dem das kinderfreundliche Eye-Tracking aktiviert werden kann. Dieser Schalter schaltet diese Einstellung ein und aus. Vor diesem Update war es nur ein Kontrollkästchen, und wenn es aktiviert wurde, war es nicht möglich, es wieder auszuschalten.
  • Safari ist jetzt standardmäßig als Browser deaktiviert: Safari ist ein eigenartiger Browser, der sich nicht immer wie erwartet verhält, insbesondere wenn es um innovative browserbasierte Technologien wie Labvanced geht. Wir haben Safari als Option zum Ausführen von Experimenten deaktiviert (ja, es kann wieder aktiviert werden). Der Grund für diese Entscheidung war, dass fortschrittliche Funktionen wie Eye-Tracking und Audio-Autoplay auf diesem Browser nicht gut funktionieren, sodass Safari nicht für Experimente empfohlen wird, die solche fortschrittlichen Funktionen verwenden.
  • Audio/Video- und Objekt-Trigger zu einem einzelnen Trigger zusammengefasst: Die Benutzeroberfläche im Editor wurde aktualisiert, sodass der Trigger für Audio/Video jetzt der gleiche ist wie der Objekttrigger. Je nach Art des Triggers wird ein anderes Dropdown-Menü mit spezifischen Optionen angezeigt. Dies hilft, den Prozess der Experimenterstellung zu optimieren und die Notwendigkeit mehrerer Schritte immer wieder zu wiederholen. Bitte beachten Sie, dass bestehende Studien, die den jetzt inaktiven Audio/Video-Trigger verwenden, nicht betroffen sind.
  • Audio/Video und Steuer-Objektaktionen zu einer einzelnen Aktion zusammengefasst: Ähnlich wie der oben genannte Punkt, der sich um Trigger dreht, wurde das Gleiche für die entsprechenden Aktionen für Audio/Video und Steuerobjekte umgesetzt. Bitte beachten Sie, dass bestehende Studien, die den jetzt inaktiven Audio/Video-Trigger verwenden, nicht betroffen sind.
  • Easier sharing for group license holders: Wenn Sie eine Gruppenlizenz haben, ist es jetzt einfacher, Studien mit Personen zu teilen, die die gleiche Klassenlizenz oder den gleichen Einlösungscode haben. Dies funktioniert 6 Monate, nachdem der Code aktiviert wurde, selbst wenn sie eine andere Lizenz oder nur ein kostenloses Konto haben.
  • In Arbeit
    • Neue RESTing-API: Dies ist eine Standard-API, die generiert wird und mit einem Code funktioniert, der es Ihnen erlaubt, sich anzumelden und alle Ihre Daten programmgesteuert herunterzuladen. Die RESTing-API wird großartig für Organisationen und akademische Forschungsinstitutionen sein, die ihre Datenerfassung zentralisieren und ihre Daten an dedizierten Orten gemäß ihrem Pipeline-Protokoll speichern möchten. Anstatt Daten manuell auszuwählen und lokal herunterzuladen, ermöglicht die RESTing-API Organisationen, die Daten über ihre Server abzurufen, was für die GDPR-Protokolle wichtig ist.
    • Einarbeitung: Wir arbeiten immer noch am Einarbeitungsprozess, bei dem neue Benutzer interaktiv lernen können, sobald sie ein neues Konto erstellen.

Q4’22 Versionsnotiz

  • Neues Dashboard: Wir haben ein neues Dashboard, stärker denn je, gestartet, das Ihnen bei der Beherrschung der Labvanced-Plattform hilft und Sie über alle neuesten Updates informiert. Auf dem neuen Dashboard finden Sie:

    • Checklisten, die speziell als Einarbeitungstools entwickelt wurden
    • Studienerkenntnisse, um den Fortschritt Ihrer Forschung im Auge zu behalten
    • Videos in der Reihenfolge, die Ihnen die LV-Plattform am besten beibringt
    • Benachrichtigungen, Bibliotheksupdates und Twitter-Feed, alles an einem Ort
  • Aktionsgruppen: Ereignisse haben zwei Hauptkomponenten, eine Variable und einen Trigger. Oftmals erfordert ein Trigger, dass mehrere Aktionen ausgeführt werden. Wenn ein Teilnehmer beispielsweise auf eine Schaltfläche klickt, muss ein Stimulus vergrößert, die Position geändert und ausgeblendet werden. Jetzt können Sie diese drei Aktionen (und mehr, je nach Experiment) in einer einzigen Gruppe zusammenfassen! Dies hilft bei der Organisation und dem Kopieren der Aktionen, sodass Sie beim Erstellen eines Experiments effizienter arbeiten können.

  • Gemeinsame Variablen: Gemeinsame Variablen sind dynamische Variablen, die über mehrere experimentelle Sitzungen und/oder Teilnehmer hinweg geteilt werden können. Die Variablen werden auf dem Server von Labvanced gespeichert, arbeiten als Array, um Ihnen eine neue Ebene experimenteller Möglichkeiten beim Erstellen und Planen Ihrer Studie zu erschließen. Die gemeinsamen Variablen sind besonders nützlich für longitudinale Studien, aber auch für Multi-User-Studien, und helfen auch beim Balancieren zwischen Probanden. Hier ist ein Beispiel für gemeinsame Variablen in Aktion: Stellen Sie sich vor, Ihre Studie hat 10.000 Bilder und Sie möchten 100 Bilder jedem Teilnehmer zeigen, mit der gemeinsamen Variable können Sie „merken“, welche der 100 Bilder gezeigt wurden und die verbleibenden Bilder zufällig anderen Teilnehmern zuweisen. Ziemlich cool, oder?

  • 'Read from/Write to' Aktionsbefehl: Dies ist eine neue Aktion, die zu Ihren Variablen hinzugefügt werden kann, um Daten aufzuzeichnen (d.h. 'Read from') und zu speichern (d.h. 'Write to'). Jetzt können Sie die folgenden Optionen verwenden, um Variablenwerte aufzuzeichnen und zu speichern:

    • Option 1, Gerät: Diese Option liest Variablendaten und speichert sie auf dem lokalen Gerät. Dies ist nützlich für Daten, die lokal gespeichert werden müssen. Zum Beispiel, wenn Sie eine longitudinale Studie durchführen und sicherstellen müssen, dass die Teilnehmer dasselbe Gerät während des gesamten Experiments verwenden.
    • Option 2, gemeinsame Variable: Das Lesen und Speichern von Daten in gemeinsamen Variablen ist eine sehr leistungsstarke Option. In diesem Fall werden die Daten auf den Servern gespeichert und können je nach Bedarf an andere Versuchssitzungen und Teilnehmer verteilt werden.
  • Benutzerdefinierte CSS im Aufgabeneditor: Die CSS-Eigenschaften eines Elements können im Tab „Objekteigenschaften“ geändert werden, indem Sie auf das Element klicken und das Kontrollkästchen „CSS-Eigenschaften ändern“ aktivieren. Dies ermöglicht es, benutzerdefinierten Code für ein Objekt zu schreiben, um dessen Erscheinungsbild spezifischer zu ändern als nur über das Fenster für Objekteigenschaften. Sehen Sie ein Beispiel, wie das benutzerdefinierte CSS funktioniert.](https://www.labvanced.com/content/learn/de/guide/task-editor/objects.html#description) im Aufgabeneditor. Dies ist die erste Iteration, und es werden weitere Verbesserungen folgen.

  • Startseite: Neu & verbessert: Die Startseite hat ein riesiges Update erhalten! Sie enthält zahlreiche neue Informationen über die Labvanced-Plattform, Anwendungsfälle, Testimonials und die Möglichkeit, einen Supportanruf mit einem speziellen Dialogfeld anzufordern, das sich öffnet, sowie ein Newsletterfeld, in das Sie sich eintragen können, um Updates und Versionsnotizen wie diese zu erhalten.

  • Eye-Tracking: Schneller & genauer: Wahrscheinlich unsere aufregendste Ankündigung in diesen gesamten Versionsnotizen. Das webcam-basierte Eye-Tracking hat ein großes Upgrade erhalten, das es Ihnen ermöglicht, in Ihrer Forschung neue Höhen zeitlicher Genauigkeit zu erreichen!

    • Zuerst, um diese neue Genauigkeitsstufe zu erreichen, mussten wir zuerst etwas aufräumen. Wir haben ein großes Refactor des Repositories abgeschlossen, sodass viele Klassen und Dateien organisiert wurden, um das neuronale Netzwerk optimal auszuführen. Infolge dieses Schrittes haben wir einige Funktionen reduziert, die nicht erforderlich waren, was zu effizienterem Code führte.
    • Zweitens, um eine schnellere Inferenzmethode zur Vorhersage des Blicks zu entwickeln, erhöhen wir die Anzahl der Bilder, die während des Abtastprozesses in das neuronale Netzwerk eingespeist werden. Früher haben wir einen Snapshot basierend auf der Zeit gemacht, wie jede 30 ms. Aber es war nicht klar, wann genau die Hertz-Frequenz der Webcam aktualisiert wurde. Jetzt haben wir neue Browser-Innovationen genutzt, die es uns ermöglichen, genau zu wissen, zu welchem Zeitpunkt ein neues Kamera-Bild (auf Mikrosekundenebene) auftritt, indem wir den GPU-Zeitstempel der Aktualisierungsrate nutzen und dies in unseren Algorithmus integriert haben. Infolgedessen wissen wir genau, wann die Aktualisierungsrate auftritt, basierend auf dem (jetzt verfügbaren) GPU-Zeitstempel, und wir wissen, wann der Kamera-Snapshot auf Mikrosekundenebene aufgenommen wurde. Die zeitliche Auflösung ist präziser und führt zu mehr Daten.
    • Zusammen ermöglichen diese Verbesserungen Ihnen einen verbesserten und leistungsstärkeren Kalibrierungsprozess, bei dem wir anstelle der Abhängigkeit von einem einzigen Snapshot pro Zeitpunkt drei erhalten können! Darüber hinaus ermöglicht dies eine bessere Handhabung von 60-Hz-Webcams, was zu einer besseren Datenqualität führt und letztendlich die Tür öffnet, um mit Augenbewegungen bei Fern-Eye-Tracking zu arbeiten!
  • Medien-Elemente auf Seitenrahmen: Auf häufigen Wunsch können Sie jetzt Medien-Elemente auf Seitenrahmen hinzufügen! In der Vergangenheit war diese Fähigkeit nur auf Canvas-Rahmen beschränkt, in denen das Bearbeiten offener ist. Dank des Feedbacks der Benutzer können Seitenrahmen (die für den Aufbau von Fragebögen verwendet werden) jetzt auch Medien-Elemente wie Videos präsentieren. Probieren Sie es aus! Gehen Sie zum Editor, fügen Sie einen Seitenrahmen hinzu und laden Sie eine Audioaufnahme (oder welches Element auch immer Sie möchten) hoch und fügen Sie Fragebogenelemente (wie eine Likert-Skala oder einen Schieberegler-Bereich) hinzu, die dazu passen.

  • Öffentliche Experimentielles Bibliothek: Die öffentliche experimentelle Bibliothek ist eine leistungsstarke und offene Ressource, die allen Labvanced-Benutzern zur Verfügung steht! Wie Sie möglicherweise bereits wissen, enthält die öffentliche experimentelle Bibliothek Hunderte von Studien des Labvanced-Teams und von anderen Forschern in der Gemeinschaft, die ihr Experiment öffentlich zur Verfügung stellen möchten. Mit neuen Ergänzungen und Erweiterungen wurde die öffentliche experimentelle Bibliothek aktualisiert, um leistungsfähiger und benutzerfreundlicher zu sein. Jetzt sind die Suchmöglichkeiten leistungsfähiger, die Kriterien informativer und es gibt mehr Optionen. Sie können Studien anzeigen, daran teilnehmen, sie in Ihr eigenes Experiment importieren und gegebenenfalls anpassen, um Ihre experimentellen Ziele zu erreichen. Sie können auch eine erweiterte Suche durchführen, um durch Studien zu browsen, die Ihren Kriterien entsprechen, z.B. ob Eye-Tracking einbezogen ist oder ob es sich um eine Multi-User-Studie handelt. Sie können sogar eine Studie „liken“! Erfahren Sie mehr über die Such- funktionen und die allgemeinen Funktionen der öffentlichen experimentellen Bibliothek.

  • Update der Beschreibung-Tab: Der Beschreibung-Tab ist ein Teil des Editor-Menüs, auf das Sie zugreifen können, um zu steuern, wie Ihre Studie präsentiert wird und welche Informationen in der öffentlichen experimentellen Bibliothek bereitgestellt werden. Neue Ergänzungen ermöglichen es Ihnen:

    • Erstellen benutzerdefinierter Zugehörigkeiten und nach Universitäten zu suchen, die als Zugehörigkeiten hinzugefügt werden können
    • Schlüsselwörter hinzuzufügen, um eine Studie zu beschreiben, wie z. B. „räumliche Kognition“ oder „Intelligenz“
    • Bestimmen von Zweigen der Psychologie, die für Ihre Studie relevant sind, wie z.B. „kognitive Psychologie“ oder „Sozialpsychologie“
    • Erstellen eines einzigartigen öffentlichen Studiennamens, der angezeigt wird, jetzt kann er sich von dem Studiennamen unterscheiden, der in Ihrem Konto angezeigt wird.
  • Updates des 'Mein Konto'-Tabs: Unter dem Tab "Mein Konto" im Editor sehen Sie nun eine Nachricht, wenn Ihr Konto abläuft, und werden auf dieser Seite mit der Möglichkeit zur Erneuerung des Kontos präsentiert. Sie können auch mehr Informationen über Ihren Forschungshintergrund angeben, wie z.B. Ihre Position und Ihr Gebiet in der Psychologie.

  • Importoptionen: Datenrahmen: Das Importieren von Datenrahmen wurde einfacher als zuvor, da wir neue Optionen hinzugefügt und verbessert haben, wie die Daten gehandhabt werden. Jetzt können Sie Dateien direkt zuordnen und die erste Zeile aus Ihrer Tabellenkalkulation als Kopfzeilen verwenden und die Daten transponieren. Wenn Sie große Datenmengen importieren, können die Datenrahmen Dateien und Bilder in Ihrem Experiment zuordnen. Wenn Sie z.B. Ihre visuellen Stimuli in einer Spalte aufgelistet haben, wie „cat.webp“ und in einer anderen Spalte eine andere Variable spezifiziert haben, wie die Versuchsnummer oder die Teilnehmer-ID, kann dies sofort direkt aus dem Importierungsschritt zugeordnet werden.

  • Studieneinstellungen: Neue Optionen: Wenn Sie eine Studie ausgewählt haben, wird der Tab „Studieneinstellungen“ in der Seitenleiste des Editors sichtbar. Unter den „Studieneinstellungen“ gibt es nun einige neue Möglichkeiten, die Sie haben, um noch mehr experimentelle Kontrolle über Ihre Studie sicherzustellen, nun können Sie:

    • Block „Dunkelmodus“-Thema: Dies ist besonders nützlich, wenn Sie Studien auf mobilen Geräten durchführen, bei denen der „Dunkelmodus“ falsche CSS-Änderungen auf einigen mobilen Geräten verursachen kann.
    • Aktivieren oder deaktivieren Sie „Studie im Vollbildmodus starten“: Einige Forscher wollten diese Flexibilität, die Option zu haben, nicht sofort im Vollbildmodus zu starten; dies ist nun möglich.
    • Mindest- und Höchstaktualisierungsraten für den Bildschirm: Das Festlegen des Limits für die Bildschirmaktualisierungsrate, die Sie in Ihrer Studie zulassen möchten, ist wichtig für eine präzise Zeitmessung. Da Bildschirme unterschiedliche Aktualisierungsraten haben können, kann beispielsweise ein neuer Computer einen 150-Hz-Monitor und ein alter Computer einen 45-Hz-Monitor haben, Sie können festlegen, wer an Ihrer Studie basierend auf diesem Hardwareparameter teilnehmen kann.
  • Erhöhte Freigabefähigkeiten für Inhaber einer Abteilungs Lizenz: Es gibt jetzt unterschiedliche Studienfreigabemöglichkeiten zwischen Abteilungs- und Gruppenlizenzen. Abteilungs Lizenzen haben mehr Freigabeberechtigungen, einschließlich der Möglichkeit, einem Benutzer, der kein Mitglied der Abteilungs Lizenz ist, aber eine eigene Gruppenlizenz hat, die Bearbeitungsmöglichkeit für eine Studie zu geben. Im Gegensatz dazu können Inhaber von Gruppenlizenzen eine Studie nur mit Benutzern teilen, die unter ihre Lizenz fallen. Diese Änderung erlaubt zwei Gruppen, die Labvanced nutzen, ein gemeinsames Projekt zu erstellen.

  • Neue Beispielstudien-Seite: Die neue Beispielstudien-Seite ist eine mächtige Ressource, eine Seite, die einige der besten Studien auf der Labvanced-Plattform hervorhebt. Im Wesentlichen sind dies Vorlagen, die nach psychologischen Anwendungsfällen (von Verhaltenspsychologie über kognitive Psychologie bis Sportpsychologie und mehr) organisiert sind, sodass Sie diese Vorlagen importieren und mit Ihrer Studie beginnen können. Die Beispielstudien-Seite ist darauf ausgerichtet, nicht nur nützliche Studien und Aufgaben zu teilen, sondern auch nützliche Demos und Add-Ons anzubieten. Alle Studien

Prev
FAQ
Next
Klassenzimmer