labvanced logoLabVanced
  • Research
    • Publications
    • Researcher Interviews
    • Use Cases
      • Developmental Psychology
      • Linguistics
      • Clinical & Digital Health
      • Educational Psychology
      • Cognitive & Neuro
      • Social & Personality
      • Arts Research
      • Sports & Movement
      • Marketing & Consumer Behavior
      • Economics
      • HCI / UX
      • Commercial / Industry Use
    • Labvanced Blog
  • Technology
    • Feature Overview
    • Desktop App
    • Phone App
    • Precise Timing
    • Experimental Control
    • Eye Tracking
    • Multi User Studies
    • More ...
      • Questionnaires
      • Artificial Intelligence (AI) Integration
      • Mouse Tracking
      • Data Privacy & Security
      • Text Transcription
  • Learn
    • Guide
    • Videos
    • Walkthroughs
    • FAQ
    • Release Notes
    • Documents
    • Classroom
  • Experiments
    • Cognitive Tests
    • Sample Studies
    • Public Experiment Library
  • Pricing
    • Pricing Overview
    • License Configurator
    • Single License
    • Research Group
    • Departments & Consortia
  • About
    • About Us
    • Contact
    • Downloads
    • Careers
    • Impressum
    • Disclaimer
    • Privacy & Security
    • Terms & Conditions
  • Appgo to app icon
  • Logingo to app icon
Learn
Guide
Vidéos
Didacticiels
FAQ
Notes de version
Notes de version
Documents
Salle de classe
  • 中國人
  • Deutsch
  • Français
  • Español
  • English
  • 日本語
Guide
Vidéos
Didacticiels
FAQ
Notes de version
Notes de version
Documents
Salle de classe
  • 中國人
  • Deutsch
  • Français
  • Español
  • English
  • 日本語
  • Guide
    • COMMENCER

      • Objets
      • Événements
      • Variables
      • Assistant de Tâche
      • Système d'Essai
      • Conception de l'Étude
        • Tâches
        • Blocs
        • Sessions
        • Groupes
    • SUJETS EN VEDETTE

      • Randomisation et Équilibre
      • Suivi Oculaire
      • Questionnaires
      • Application de Bureau
      • Études Exemples
      • Recrutement de Participants
      • Accès API
        • API REST
        • API Webhook
        • API WebSocket
      • Autres Sujets

        • Chronométrage Précis des Stimuli
        • Études Multi Utilisateurs
        • Suivi de la Tête dans Labvanced | Guide
    • ONGLET PRINCIPAL DE L'APPLICATION

      • Aperçu: Onglets Principaux
      • Tableau de Bord
      • Mes Études
      • Études Partagées
      • Mes Fichiers
      • Bibliothèque d'Expériences
      • Mon Compte
      • Ma Licence
    • ONGLETS D'ÉTUDE

      • Aperçu: Onglets Spécifiques à l'Étude
      • Conception de l'Étude
        • Tâches
        • Blocs
        • Sessions
        • Groupes
      • Éditeur de Tâches
        • Fonctions Principales et Paramètres
        • Le Système d'Essai
        • Cadres de canevas et de page
        • Objets
        • Tables de Propriétés des Objets
        • Variables
        • Tables des variables système
        • Le Système d'Événements
        • Randomisation des Essais
        • Fonctions de l'Éditeur de Texte
        • Suivi oculaire dans une tâche
        • Suivi de la tête dans une tâche
        • Études Multi-Utilisateurs
      • Paramètres
      • Variables
      • Médias
      • Textes et Traduire
      • Lancer et Participer
      • Gestion des Sujets
      • Vue de Données et Exportation
        • Vue des données et sélection des variables & des tâches (ancienne version)
        • Accéder aux Enregistrements (Version ANCIENNE)
  • Vidéos
    • Aperçu Vidéo
    • Commencer avec Labvanced
    • Créer des Tâches
    • Vidéos d'Éléments
    • Événements et Variables
    • Sujets Avancés
  • Guides
    • Introduction
    • Tâche de Stroop
    • Tâche de Décision Lexicale
    • Tâche de Cueillette de Regard de Posner
    • Paragraphe de Flic d'Agnosie
    • Étude Exemple de Suivi Oculaire
    • Étude de Suivi Oculaire de Nourrissons
    • Étude de Capture Attentionnelle avec Suivi de Souris
    • Présentation Visuelle Séquentielle Rapide
    • Étude ChatGPT
    • Démonstration de Suivi Oculaire: SVGs comme AOIs
    • Démonstration Multi-Utilisateur: Afficher les Curseurs des Sujets
    • Contrôleur de Jeu / Joystick - Configuration de Base
    • Étude Application de Bureau avec Intégration EEG
    • Équilibrage de Groupes entre Sujets et Configuration de Variables
  • FAQ
    • Fonctionnalités
    • Sécurité et Confidentialité des Données
    • Licences
    • Précision de Labvanced
    • Utilisation Programmatique et API
    • Utiliser Labvanced hors ligne
    • Dépannage
    • Questions sur la Création d'Études
  • Notes de Version
  • Documents
  • Salle de Classe

Précision Temporelle & Spatiale

Quelle est la précision de Labvanced ? Comment Labvanced garantit-il une présentation précise de tous les stimuli ?

Labvanced a été conçu pour garantir la présentation temporelle exacte de tous les stimuli. Nous adoptons une double approche de pré-chargement : avant le début de l'expérience, nous chargeons tout le contenu externe (images, vidéos, audio, etc.) dans le cache du navigateur. Ensuite, pour chaque essai, nous pré-chargeons et pré-rendons le prochain essai de sorte qu'une fois que l'essai change, tous les stimuli sont présentés instantanément. En conséquence, sur des appareils/ordinateurs avec une bande passante Internet et un CPU/RAM acceptables, la précision temporelle devrait être comparable à celle des environnements de laboratoire.

Comment puis-je être sûr que les mesures de temps / la présentation des stimuli sont correctes ? Que fait Labvanced pour mesurer la précision temporelle ?

Labvanced effectue des contrôles séparés de la précision temporelle pour chaque enregistrement. Plus précisément, nous effectuons une mesure de temps toutes les 5 secondes pendant chaque enregistrement. À la fin, nous calculons la moyenne et l'écart-type de ces valeurs et les fournissons pour chaque enregistrement. La moyenne est toujours positive, car un appareil ne s'arrête jamais avant, mais peut parfois s'arrêter après un temps souhaité et donc parfois un peu trop tard (en raison de l'utilisation du CPU, d'autres retards, etc.). Cela équivaut au délai dans la présentation d'un stimulus à l'écran. Cependant, à notre compréhension, un tel décalage moyen constant peut être contré post-hoc analytiquement.

D'autre part, un écart-type élevé dans la mesure du temps de contrôle suggère que les mesures de temps sont généralement de qualité différente, et donc pas vraiment comparables. Un écart-type élevé est un bon critère d'exclusion pour le sujet. Le décalage médian de toutes les mesures de temps est d'environ 20 ms et l'écart-type médian de toutes les mesures de temps est d'environ 12 ms (sur tous les sujets et expériences). Si les valeurs sont beaucoup plus élevées (2-3 fois) que cela, cela indique des mesures de temps imprécises. De plus, il est possible de déterminer la précision temporelle sur une base personnalisée (par exemple, pour chaque essai, image, ou stimulus) en utilisant des timestamps UNIX dans le système d'événements.

Quelles sont les options de modes de présentation spatiale ? Quelle est la précision de la présentation des stimuli spatialement ?

Il existe divers modes de présentation spatiale des stimuli. Le mode par défaut est le mode de zoom, qui ajuste tous les éléments de contenu jusqu'à ce que les limites verticales ou horizontales soient atteintes. Les stimuli peuvent également être fixés à des pixels ou à des degrés visuels. Fixer un stimulus / cadre à des degrés visuels nécessitera une pré-calibration avant le début de l'expérience, au cours de laquelle la taille physique de l'ordinateur / de l'appareil des participants est mesurée. Selon le choix du mode d'affichage par l'expérimentateur, les stimuli peuvent être présentés avec une très haute précision spatiale (comparable aux laboratoires).

Prev
Licences
Next
Utilisation Programmatique et API