labvanced logoLabVanced
  • Research
    • Publications
    • Researcher Interviews
    • Use Cases
      • Developmental Psychology
      • Linguistics
      • Clinical & Digital Health
      • Educational Psychology
      • Cognitive & Neuro
      • Social & Personality
      • Arts Research
      • Sports & Movement
      • Marketing & Consumer Behavior
      • Economics
      • HCI / UX
      • Commercial / Industry Use
    • Labvanced Blog
  • Technology
    • Feature Overview
    • Desktop App
    • Phone App
    • Precise Timing
    • Experimental Control
    • Eye Tracking
    • Multi User Studies
    • More ...
      • Questionnaires
      • Artificial Intelligence (AI) Integration
      • Mouse Tracking
      • Data Privacy & Security
      • Text Transcription
      • Heart Rate Detection (rPPG)
  • Learn
    • Guide
    • Videos
    • Walkthroughs
    • FAQ
    • Release Notes
    • Documents
    • Classroom
  • Experiments
    • Cognitive Tests
    • Sample Studies
    • Public Experiment Library
  • Pricing
    • Pricing Overview
    • License Configurator
    • Single License
    • Research Group
    • Departments & Consortia
  • About
    • About Us
    • Contact
    • Downloads
    • Careers
    • Impressum
    • Disclaimer
    • Privacy & Security
    • Terms & Conditions
  • Appgo to app icon
  • Logingo to app icon
Learn
Guide
Vidéos
Didacticiels
FAQ
Notes de version
Notes de version
Documents
Salle de classe
  • 中國人
  • Deutsch
  • Français
  • Español
  • English
  • 日本語
Guide
Vidéos
Didacticiels
FAQ
Notes de version
Notes de version
Documents
Salle de classe
  • 中國人
  • Deutsch
  • Français
  • Español
  • English
  • 日本語
  • Guide
    • DÉMARRAGE

      • Éditeur de tâche
      • Objets
      • Événements
      • Variables
      • Assistant de tâche
      • Système d'essai
      • Conception de l'étude
        • Tâches
        • Blocs
        • Sessions
        • Groupes
    • SUJETS EN VEDETTE

      • Randomisation & Équilibre
      • Suivi oculaire
      • Questionnaires
      • Application de bureau
      • Études d'exemple
      • Recrutement de participants
      • Accès API
        • API REST
        • API Webhook
        • API WebSocket
      • Autres sujets

        • Temps de stimulus précis
        • Études multi-utilisateurs
        • Suivi de la Tête dans Labvanced | Guide
    • TABS PRINCIPAUX DE L'APPLICATION

      • Aperçu : Onglets principaux
      • Tableau de bord
      • Mes études
      • Études partagées
      • Mes fichiers
      • Bibliothèque d'expériences
      • Mon compte
      • Ma licence
    • TABS D'ÉTUDE

      • Aperçu : Onglets spécifiques à l'étude
      • Conception de l'étude
        • Tâches
        • Blocs
        • Sessions
        • Groupes
      • Éditeur de tâche
        • Contrôles des tâches
        • Le Système d'Essai
        • Cadres de canevas et de page
        • Objets
        • Tables de Propriétés des Objets
        • Variables
        • Tables des variables système
        • Le Système d'Événements
        • Fonctions de l'Éditeur de Texte
        • Suivi oculaire dans une tâche
        • Suivi de la tête dans une tâche
        • Études Multi-Utilisateurs
      • Paramètres
      • Variables
      • Médias
      • Textes & Traduire
      • Lancer & Participer
      • Gestion des sujets
      • Vue des données et Exportation
        • Vue des données et sélection des variables & des tâches (ancienne version)
        • Accéder aux Enregistrements (Version ANCIENNE)
  • Vidéos
    • Aperçu vidéo
    • Démarrer dans Labvanced
    • Créer des tâches
    • Vidéos d'éléments
    • Événements & Variables
    • Sujets avancés
  • Guides
    • Introduction
    • Tâche de Stroop
    • Tâche de décision lexicale
    • Tâche de suivi de regard de Posner
    • Paradygme de clignotement de cécité au changement
    • Étude de suivi oculaire
    • Étude de suivi oculaire chez les nourrissons
    • Étude de capture attentionnelle avec suivi de souris
    • Présentation visuelle sérielle rapide
    • Étude ChatGPT
    • Démonstration de suivi oculaire : SVG en tant que AOI
    • Démonstration multi-utilisateur : Afficher les curseurs des sujets
    • Manette / Contrôleur de joystick - Configuration de base
    • Étude d'application de bureau avec intégration EEG
    • Équilibrage de groupe entre les sujets et configuration des variables
  • FAQ
    • Fonctionnalités
    • Sécurité & Confidentialité des données
    • Licences
    • Précision de Labvanced
    • Utilisation programmatique & API
    • Utiliser Labvanced hors ligne
    • Dépannage
    • Questions sur la création d'études
  • Notes de version
  • Documents
  • Salle de classe

Précision Temporelle & Spatiale

Quelle est la précision de Labvanced ? Comment Labvanced garantit-il une présentation précise de tous les stimuli ?

Labvanced a été conçu pour garantir la présentation temporelle exacte de tous les stimuli. Nous adoptons une double approche de pré-chargement : avant le début de l'expérience, nous chargeons tout le contenu externe (images, vidéos, audio, etc.) dans le cache du navigateur. Ensuite, pour chaque essai, nous pré-chargeons et pré-rendons le prochain essai de sorte qu'une fois que l'essai change, tous les stimuli sont présentés instantanément. En conséquence, sur des appareils/ordinateurs avec une bande passante Internet et un CPU/RAM acceptables, la précision temporelle devrait être comparable à celle des environnements de laboratoire.

Comment puis-je être sûr que les mesures de temps / la présentation des stimuli sont correctes ? Que fait Labvanced pour mesurer la précision temporelle ?

Labvanced effectue des contrôles séparés de la précision temporelle pour chaque enregistrement. Plus précisément, nous effectuons une mesure de temps toutes les 5 secondes pendant chaque enregistrement. À la fin, nous calculons la moyenne et l'écart-type de ces valeurs et les fournissons pour chaque enregistrement. La moyenne est toujours positive, car un appareil ne s'arrête jamais avant, mais peut parfois s'arrêter après un temps souhaité et donc parfois un peu trop tard (en raison de l'utilisation du CPU, d'autres retards, etc.). Cela équivaut au délai dans la présentation d'un stimulus à l'écran. Cependant, à notre compréhension, un tel décalage moyen constant peut être contré post-hoc analytiquement.

D'autre part, un écart-type élevé dans la mesure du temps de contrôle suggère que les mesures de temps sont généralement de qualité différente, et donc pas vraiment comparables. Un écart-type élevé est un bon critère d'exclusion pour le sujet. Le décalage médian de toutes les mesures de temps est d'environ 20 ms et l'écart-type médian de toutes les mesures de temps est d'environ 12 ms (sur tous les sujets et expériences). Si les valeurs sont beaucoup plus élevées (2-3 fois) que cela, cela indique des mesures de temps imprécises. De plus, il est possible de déterminer la précision temporelle sur une base personnalisée (par exemple, pour chaque essai, image, ou stimulus) en utilisant des timestamps UNIX dans le système d'événements.

Quelles sont les options de modes de présentation spatiale ? Quelle est la précision de la présentation des stimuli spatialement ?

Il existe divers modes de présentation spatiale des stimuli. Le mode par défaut est le mode de zoom, qui ajuste tous les éléments de contenu jusqu'à ce que les limites verticales ou horizontales soient atteintes. Les stimuli peuvent également être fixés à des pixels ou à des degrés visuels. Fixer un stimulus / cadre à des degrés visuels nécessitera une pré-calibration avant le début de l'expérience, au cours de laquelle la taille physique de l'ordinateur / de l'appareil des participants est mesurée. Selon le choix du mode d'affichage par l'expérimentateur, les stimuli peuvent être présentés avec une très haute précision spatiale (comparable aux laboratoires).

Prev
Licences
Next
Utilisation programmatique & API