labvanced logoLabVanced
  • Research
    • Publications
    • Researcher Interviews
    • Use Cases
      • Behavioral Psychology
      • Personality & Social Psychology
      • Cognitive & Neuro Psychology
      • Developmental & Educational Psychology
      • Clinical & Health Psychology
      • Sports & Movement Psychology
      • Marketing & Consumer Psychology
    • Labvanced Blog
  • Technology
    • Feature Overview
    • Desktop App
    • Phone App
    • Precise Timing
    • Experimental Control
    • Eye Tracking
    • Multi User Studies
    • More ...
      • Questionnaires
      • Artificial Intelligence (AI) Integration
      • Mouse Tracking
      • Data Privacy & Security
  • Learn
    • Guide
    • Videos
    • Walkthroughs
    • FAQ
    • Release Notes
    • Documents
    • Classroom
  • Experiments
    • Public Experiment Library
    • Labvanced Sample Studies
  • Pricing
    • Pricing Overview
    • License Configurator
    • Single License
    • Research Group
    • Departments & Consortia
  • About
    • About Us
    • Contact
    • Downloads
    • Careers
    • Impressum
    • Disclaimer
    • Privacy & Security
    • Terms & Conditions
  • Appgo to app icon
  • Logingo to app icon
Learn
Guide
Vidéos
Tutoriels
FAQ
Notes de version
Salle de classe
  • 中國人
  • Deutsch
  • Français
  • Español
  • English
Guide
Vidéos
Tutoriels
FAQ
Notes de version
Salle de classe
  • 中國人
  • Deutsch
  • Français
  • Español
  • English
  • Guide
    • DÉMARREZ

      • Objets
      • Événements
      • Variables
      • Assistant de tâche
      • Système d'essai
      • Conception de l'étude
        • Tâches
        • Blocs
        • Sessions
        • Groupes
    • SUJETS EN VEDETTE

      • Randomisation & Équilibre
      • Suivi oculaire
      • Application de bureau
      • Études d'exemple
      • Recrutement de participants
      • Accès API
        • API REST
        • API Webhook
        • API WebSocket
      • Autres sujets

        • Temps de stimuli précis
        • Études multi-utilisateurs
        • Suivi de la Tête dans Labvanced | Guide
    • ONGLETS PRINCIPAUX DE L'APPLICATION

      • Vue d'ensemble : Onglets principaux
      • Tableau de bord
      • Mes études
      • Études partagées
      • Mes fichiers
      • Bibliothèque d'expériences
      • Mon compte
      • Ma licence
    • ONGLETS D'ÉTUDE

      • Vue d'ensemble : Onglets spécifiques à l'étude
      • Conception de l'étude
        • Tâches
        • Blocs
        • Sessions
        • Groupes
      • Éditeur de tâche
        • Fonctions Principales et Paramètres
        • Le Système d'Essais
        • Cadres de canevas et de page
        • Objets
        • Tables de Propriétés des Objets
        • Variables
        • Tables des variables système
        • Le Système d'Événements
        • Randomisation des Essais
        • Fonctions de l'Éditeur de Texte
        • Suivi oculaire dans une tâche
        • Suivi de la tête dans une tâche
        • Études Multi-Utilisateurs
      • Paramètres de l'étude
        • Démarrage et Paramètres Principaux
        • Paramètres des navigateurs et des appareils
        • Paramètres des fonctionnalités d'expérience
      • Description
        • Plus de détails sur les informations de description
        • Images, Liens et Références dans les Descriptions
      • Variables
      • Médias
      • Traduire
      • Exécuter
      • Publier et enregistrer
        • Exigences pour laPublication d'une Étude dans Labvanced
        • Recrutement de Participants et Crowdsourcing
        • Sélection et Confirmation de la Licence
        • Après la publication de votre étude Labvanced
      • Partage
      • Participants
      • Vue de données et exportation
        • Vue des données et sélection des variables & des tâches (ancienne version)
        • Accéder aux Enregistrements (Version ANCIENNE)
  • Vidéos
    • Vue d'ensemble des vidéos
    • Démarrer avec Labvanced
    • Création de tâches
    • Vidéos d'éléments
    • Événements & Variables
    • Sujets avancés
  • Guides pratiques
    • Introduction
    • Tâche de Stroop
    • Tâche de décision lexicale
    • Tâche de cueing visuel de Posner
    • Paradigme de clignotement de cécité au changement
    • Étude d'exemple de suivi oculaire
    • Étude de suivi oculaire des nourrissons
    • Étude de capture d'attention avec suivi de souris
    • Présentation visuelle sérielle rapide
    • Étude ChatGPT
    • Démonstration de suivi oculaire : SVG comme AOIs
    • Démonstration multi-utilisateur : Afficher les curseurs des sujets
    • Configuration de base du contrôleur de jeu/joystick
    • Étude d'application de bureau avec intégration EEG
  • FAQ
    • Fonctionnalités
    • Sécurité & Confidentialité des données
    • Licences
    • Précision de Labvanced
    • Utilisation programmatique & API
    • Utilisation de Labvanced hors ligne
    • Dépannage
    • Questions sur la création d'études
  • Notes de version
  • Salle de classe

Précision Temporelle & Spatiale

Quelle est la précision de Labvanced ? Comment Labvanced garantit-il une présentation précise de tous les stimuli ?

Labvanced a été conçu pour garantir la présentation temporelle exacte de tous les stimuli. Nous adoptons une double approche de pré-chargement : avant le début de l'expérience, nous chargeons tout le contenu externe (images, vidéos, audio, etc.) dans le cache du navigateur. Ensuite, pour chaque essai, nous pré-chargeons et pré-rendons le prochain essai de sorte qu'une fois que l'essai change, tous les stimuli sont présentés instantanément. En conséquence, sur des appareils/ordinateurs avec une bande passante Internet et un CPU/RAM acceptables, la précision temporelle devrait être comparable à celle des environnements de laboratoire.

Comment puis-je être sûr que les mesures de temps / la présentation des stimuli sont correctes ? Que fait Labvanced pour mesurer la précision temporelle ?

Labvanced effectue des contrôles séparés de la précision temporelle pour chaque enregistrement. Plus précisément, nous effectuons une mesure de temps toutes les 5 secondes pendant chaque enregistrement. À la fin, nous calculons la moyenne et l'écart-type de ces valeurs et les fournissons pour chaque enregistrement. La moyenne est toujours positive, car un appareil ne s'arrête jamais avant, mais peut parfois s'arrêter après un temps souhaité et donc parfois un peu trop tard (en raison de l'utilisation du CPU, d'autres retards, etc.). Cela équivaut au délai dans la présentation d'un stimulus à l'écran. Cependant, à notre compréhension, un tel décalage moyen constant peut être contré post-hoc analytiquement.

D'autre part, un écart-type élevé dans la mesure du temps de contrôle suggère que les mesures de temps sont généralement de qualité différente, et donc pas vraiment comparables. Un écart-type élevé est un bon critère d'exclusion pour le sujet. Le décalage médian de toutes les mesures de temps est d'environ 20 ms et l'écart-type médian de toutes les mesures de temps est d'environ 12 ms (sur tous les sujets et expériences). Si les valeurs sont beaucoup plus élevées (2-3 fois) que cela, cela indique des mesures de temps imprécises. De plus, il est possible de déterminer la précision temporelle sur une base personnalisée (par exemple, pour chaque essai, image, ou stimulus) en utilisant des timestamps UNIX dans le système d'événements.

Quelles sont les options de modes de présentation spatiale ? Quelle est la précision de la présentation des stimuli spatialement ?

Il existe divers modes de présentation spatiale des stimuli. Le mode par défaut est le mode de zoom, qui ajuste tous les éléments de contenu jusqu'à ce que les limites verticales ou horizontales soient atteintes. Les stimuli peuvent également être fixés à des pixels ou à des degrés visuels. Fixer un stimulus / cadre à des degrés visuels nécessitera une pré-calibration avant le début de l'expérience, au cours de laquelle la taille physique de l'ordinateur / de l'appareil des participants est mesurée. Selon le choix du mode d'affichage par l'expérimentateur, les stimuli peuvent être présentés avec une très haute précision spatiale (comparable aux laboratoires).

Prev
Licences
Next
Utilisation programmatique & API