labvanced logoLabVanced
  • Research
    • Publications
    • Researcher Interviews
    • Use Cases
      • Developmental Psychology
      • Linguistics
      • Clinical & Digital Health
      • Educational Psychology
      • Cognitive & Neuro
      • Social & Personality
      • Arts Research
      • Sports & Movement
      • Marketing & Consumer Behavior
      • Economics
      • HCI / UX
      • Commercial / Industry Use
    • Labvanced Blog
    • Services
  • Technology
    • Feature Overview
    • Code-Free Study Building
    • Eye Tracking
    • Mouse Tracking
    • Generative AI Integration
    • Multi User Studies
    • More ...
      • Reaction Time/Precise Timing
      • Text Transcription
      • Heart Rate Detection (rPPG)
      • Questionnaires/Surveys
      • Experimental Control
      • Data Privacy & Security
      • Desktop App
      • Mobile App
  • Learn
    • Guide
    • Videos
    • Walkthroughs
    • FAQ
    • Release Notes
    • Documents
    • Classroom
  • Experiments
    • Cognitive Tests
    • Sample Studies
    • Public Experiment Library
  • Pricing
    • Licenses
    • Top-Up Recordings
    • Subject Recruitment
    • Study Building
    • Dedicated Support
    • Checkout
  • About
    • About Us
    • Contact
    • Downloads
    • Careers
    • Impressum
    • Disclaimer
    • Privacy & Security
    • Terms & Conditions
  • Appgo to app icon
  • Logingo to app icon
Learn
Guía
Videos
Guías paso a paso
Preguntas Frecuentes
Archivo de Boletines
Documentos
Aula
  • 中國人
  • Deutsch
  • Français
  • Español
  • English
  • 日本語
Guía
Videos
Guías paso a paso
Preguntas Frecuentes
Archivo de Boletines
Documentos
Aula
  • 中國人
  • Deutsch
  • Français
  • Español
  • English
  • 日本語
  • Guía
    • EMPEZANDO

      • Editor de Tareas
      • Presentación de Estímulos
      • Correctitud de la Respuesta
      • Objetos
      • Eventos
      • Variables
      • Asistente de Tareas
      • Sistema de Ensayos
      • Diseño del Estudio
        • Tareas
        • Bloques
        • Sesiones
        • Grupos
    • TEMAS DESTACADOS

      • Aleatorización y Equilibrio
      • Seguimiento Ocular
      • Cuestionarios
      • Aplicación de Escritorio
      • Estudios de Ejemplo
      • Reclutamiento de Participantes
      • Acceso a la API
        • REST API
        • API de Webhook
        • API de WebSocket
      • Otros Temas

        • Tempos Precisos de Estímulos
        • Estudios Multicuerpos
        • Seguimiento de Cabeza en Labvanced | Guía
    • PESTAÑAS PRINCIPALES DE LA APLICACIÓN

      • Descripción General: Pestañas Principales
      • Tablero
      • Mis Estudios
      • Estudios Compartidos
      • Mis Archivos
      • Biblioteca de Experimentos
      • Mi Cuenta
      • Licencia y Servicios
    • PESTAÑAS DEL ESTUDIO

      • Descripción General: Pestañas Específicas del Estudio
      • Diseño del Estudio
        • Tareas
        • Bloques
        • Sesiones
        • Grupos
      • Editor de Tareas
        • Controles de la Tarea
        • El Sistema de Ensayos
        • Marcos de Canvas y Página
        • Objetos
        • Tablas de Propiedades de Objetos
        • Variables
        • Tablas de Variables del Sistema
        • El Sistema de Eventos
        • Funciones del Editor de Texto
        • Seguimiento ocular en una tarea
        • Seguimiento de Cabeza en una Tarea
        • Estudios de Múltiples Usuarios
      • Configuraciones
      • Variables
      • Medios
      • Textos y Traducción
      • Lanzar y Participar
      • Gestión de Sujetos
      • Vista de Datos y Exportación
        • Vista de Datos y Selección de Variables y Tareas (Versión ANTIGUA)
        • Accediendo a Grabaciones (Versión ANTERIOR)
  • Videos
    • Descripción General del Video
    • Introducción a Labvanced
    • Creación de Tareas
    • Videos de Elementos
    • Eventos y Variables
    • Temas Avanzados
  • Guías
    • Introducción
    • Tarea de Stroop
    • Tarea de Decisión Léxica
    • Tarea de Señalización de Mirada de Posner
    • Paradigma de Parpadeo de Ceguera al Cambio
    • Estudio de Seguimiento Ocular
    • Estudio de Seguimiento Ocular en Bebés
    • Estudio de Captura de Atención con Seguimiento de Ratón
    • Presentación Visual Serial Rápida
    • Estudio de ChatGPT
    • Demostración de Seguimiento Ocular: SVG como Zonas de Interés
    • Demostración Multicusuario: Mostrar los Cursors de Sujetos
    • Controlador de Gamepad / Joystick - Configuración Básica
    • Estudio de Aplicación de Escritorio con Integración de EEG
    • Equilibrio de Grupos entre Sujetos y Configuración de Variables
  • Preguntas Frecuentes
    • Características
    • Seguridad y Privacidad de Datos
    • Licencias
    • Precisión de Labvanced
    • Uso Programático y API
    • Uso de Labvanced sin Conexión
    • Resolución de Problemas
    • Preguntas sobre la Creación de Estudios
  • Archivo de Boletines
  • Documentos
  • Aula

Demostración de Seguimiento Visual: SVGs como AOIs

Descripción General

En esta demostración, nuestro objetivo es capturar datos de la mirada del seguimiento ocular. En concreto, queremos capturar los datos de la mirada asociados a Áreas de Interés específicas (AOIs) que se incluyen en el estudio como SVG objetos de forma.

Un adelanto de la demostración en acción se muestra a continuación, con el círculo rojo proporcionando retroalimentación al indicar la ubicación de la mirada en tiempo real:

Vista previa de la ubicación de la mirada en un experimento de seguimiento ocular basado en webcam.

  • NOTA: La grabación de la demostración se realizó con una opción de calibración de 5.5 minutos; el círculo rojo es un objeto que representa la mirada de los participantes en tiempo real y la configuración general se explica más adelante.

Mire este video rápido que muestra la demostración en acción, así como una vista previa de los datos grabados al final:

Objetos

Esta demostración incluye una imagen de fondo de un muelle sobre el cual se colocan 4 objetos SVG de personas. También hay un objeto de retroalimentación de la mirada (círculo rojo). Para los propósitos de esta demostración, queríamos representar la mirada en tiempo real y este círculo rojo lo refleja.

Los objetos colocados en el editor de Labvanced

Variables Personalizadas Creadas

Para poder registrar datos, se requieren variables. A continuación se muestra una lista de todas las variables personalizadas que se crearon para esta demostración, accesibles a través de la pestaña ‘Variables’. La imagen a continuación muestra los detalles y configuraciones de las variables que esta demostración utiliza:

Variables personalizadas creadas para este estudio de seguimiento ocular basado en webcam.

A continuación se presenta una explicación de las variables y su propósito:

Nombre de VariableDescripciónTipo de Registro
Todos los Datos de la MiradaUtilizado para almacenar la matriz de coordenadas x/y [X,Y], así como el Tiempo de Captura [T] y el nivel de confianza [C] de la medición.Todos los cambios / series de tiempo
AOI1_datos_miradaUtilizado para almacenar la matriz de [X,Y,T,C] cuando el participante mira el objeto SVG llamado AOI1.Todos los cambios / series de tiempo
SVG1_rutaRegistra la ruta del nodo SVG en el que se posó la mirada de AOI1 (explicado más adelante).Todos los cambios / series de tiempo
AOI2_datos_miradaUtilizado para almacenar la matriz de [X,Y,T,C] cuando el participante mira el objeto SVG llamado AOI2.Todos los cambios / series de tiempo
SVG2_rutaRegistra la ruta del nodo SVG en el que se posó la mirada de AOI2.Todos los cambios / series de tiempo

Y así sucesivamente….

Eventos Configurados

Dado que estamos interesados en capturar datos de la mirada, se utilizan los siguientes eventos:

  1. Todos los Datos de la Mirada: Este evento se inicia tan pronto como comienza la tarea y registra datos del seguimiento ocular continuamente.
  2. Datos de Mirada AOI: Este evento se inicia tan pronto como el participante mira una AOI específica (es decir, una de las cuatro personas) y registra los valores relacionados con la mirada.
  3. Terminar Experimento: Un evento que acepta / finaliza la sesión y registra los datos cuando el sujeto hace clic en el botón ‘Terminar’.

Evento 1: Todos los Datos de la Mirada

Para el primer evento, queremos lograr lo siguiente:

  • registrar todos los datos del seguimiento ocular durante la duración del estudio
  • mostrar la ubicación detectada de la mirada en la pantalla en tiempo real (para que usted, como investigador, pueda tener una sensación del seguimiento de la webcam al probar la demostración)

Activador

Por lo tanto, utilizamos un activador de seguimiento ocular para iniciar este evento.

seleccionando la opción de activador de seguimiento ocular.

Acción

Una vez que se detecta la mirada, ocurrirán las siguientes acciones: Primero, llamamos a la variable Todos los Datos de la Mirada que creamos anteriormente en una acción de Establecer / Registrar Variable para registrar los datos como una matriz [X,Y,T,C].

Registrando la matriz de datos y estableciendo los valores del seguimiento ocular

Lo anterior se logra (como se muestra a continuación) haciendo clic en el botón verde, seleccionando la variable objetivo y luego haciendo clic en el ícono de lápiz menú de selección de valor y luego eligiendo la matriz [X,Y,T,C] del menú específico del activador (Seguimiento Ocular), como se muestra a continuación:

Seleccionando qué valores de datos de seguimiento ocular deberían ser registrados

También añadimos la acción Establecer Propiedad del Objeto para establecer el objeto de círculo rojo (llamado ‘mirada’) para que su propiedad X sea igual a la coordenada X y la propiedad Y se establezca en la coordenada Y, respectivamente. En otras palabras, establecemos los valores x e y del objeto para que sean iguales a las coordenadas x e y… en última instancia, esto es lo que hace que el objeto se mueva en tiempo real.

Estableciendo la propiedad del objeto para tomar las coordenadas de la mirada con el fin de proporcionar retroalimentación visual de dónde está la mirada en tiempo real.

NOTA: las opciones para Coordenada X y Coordenada Y se seleccionan del menú específico del activador (Seguimiento Ocular).

Evento 2: Datos de Mirada AOI

En este evento, queremos configurar los eventos de tal manera que:

  • la mirada también se registre cuando se supone que la mirada está sobre las AOIs objetivo (es decir, los objetos SVG que hemos subido)
  • se informe de los datos específicos del nodo SVG de la AOI

Activador

El activador Seguimiento Ocular también se utiliza aquí. Pero en este contexto, indicamos que solo estamos interesados en elementos específicos haciendo clic en la opción respectiva y luego seleccionando los 4 objetos SVG que están actuando como Áreas de Interés (AOIs).

Especificando las Áreas de Interés (AOIs) objetivo para el experimento de seguimiento ocular basado en webcam.

Acción

Para establecer la llamada en cada AOI, necesitamos una Acción de Control → Acción de Requisito (Si…Entonces). Esencialmente queremos que Labvanced haga lo siguiente…. “Si el participante está mirando a AOI1, entonces queremos registrar los datos específicos para ello en una variable específica, así como la ruta SVG de esa mirada”.

Primero hacemos clic en el botón + Requisito y aparecerán los dos íconos de lápiz.

  • Primer ícono de lápiz: En el primer campo seleccionamos, del menú específico del activador (Seguimiento Ocular), la opción Nombre del Estímulo que utiliza el nombre del objeto del estímulo en el que estuvo el activador (en este caso la mirada).
  • Segundo ícono de lápiz: Seleccionar Valor Constante y luego seleccionar la opción Cadena y escribir el nombre del objeto (es decir, AOI1):

Estableciendo el estímulo en un evento de si/entonces como AOI1

Hasta este punto hemos establecido que cuando el activador (mirada) esté sobre el estímulo llamado AOI1… entonces:

Especificando qué acciones ocurren cuando la mirada está en AOI1.

  • La variable AOI_datos_mirada que creamos anteriormente registrará la matriz [X,Y,T,C].
  • También se registrará la variable SVG1_ruta para contener la Información del Estímulo que, en este caso, dado que el objetivo de interés (AOI1) es un SVG, la información del estímulo contendrá los nodos del SVG.

Para especificar la siguiente AOI, haga clic en el botón +Añadir Otro Caso en el cuadro de diálogo y luego repita la estructura / configuración como se mostró anteriormente, pero con las diferencias principales de establecer el Nombre del Estímulo como AOI2 y luego también llamar a las variables específicas para almacenar los datos, es decir, AOI2_datos_mirada y SVG2_ruta, como se muestra a continuación:

Especificando que cuando la mirada está en AOI2 entonces se registran las coordenadas de la matriz de mirada y la ruta SVG.

A continuación, para AOI3, elegimos Agregar Otro Caso nuevamente y seguimos la misma estructura pero con las variables personalizadas que hemos creado para almacenar los datos para esta AOI específica:

Especificando que cuando la mirada está en AOI3 entonces se registran las coordenadas de la matriz de mirada y la ruta SVG.

Nuevamente, para AOI4, elegimos Agregar Otro Caso nuevamente y seguimos la misma estructura pero con las variables personalizadas que hemos creado para almacenar los datos para esta AOI específica:

Especificando que cuando la mirada está en AOI4 entonces se registran las coordenadas de la matriz de mirada y la ruta SVG.

Evento 3: Terminar Experimento / Guardar Datos

Por último, para que los datos sean registrados y almacenados, necesitamos elegir la Acción de Salto para Aceptar / Finalizar Sesión una vez que se haga clic en el botón Terminar (que es el activador), como se muestra a continuación.

Activador

El activador se especifica para ocurrir cuando se utiliza el ‘Botón de Terminar’:

Seleccionando un clic de botón como el activador.

Acción

La acción que ocurrirá es que se aceptará la sesión, lo que, como resultado, significa que los datos serán registrados.

Seleccionando aceptar/finalizar sesión como la acción

Veamos cómo se verá la data registrada en la siguiente sección.

Datos Registrados

Los datos registrados incluyen todas las variables personalizadas más valores específicos del experimento como el número de tarea, el número de sesión, etc.

En el ejemplo a continuación, la pestaña ‘Vista de Datos & Exportar’ muestra cómo se ven los datos cuando están separados por archivos de series de tiempo. Cada variable de serie de tiempo (es decir, las variables que registran todos los cambios) se muestra con su propio archivo CSV en el panel izquierdo a continuación. Esto se puede lograr especificando la configuración relevante utilizando las Ajustes de Formato de Exportación.

Cuando se selecciona Todos los Datos de la Mirada.csv, se registran numerosas variables, incluyendo las mostradas a continuación. La columna ‘valor’ captura la matriz [X,Y,T,C] donde los valores están separados por comas:

Vista previa de todos los datos del seguimiento ocular

La imagen a continuación muestra una vista previa de las matrices que se registraron específicamente cuando la mirada estuvo en AOI1, como se muestra en la columna ‘valor’:

Vista previa de los datos del seguimiento ocular que se registraron para AOI1

La imagen a continuación muestra una vista previa de las rutas SVG que se registraron específicamente cuando la mirada estuvo en AOI1, como se muestra en la columna ‘valor’:

Vista previa de los datos del seguimiento ocular que se registraron para la ruta SVG

Conclusión

Esta demostración tiene como objetivo mostrar cómo grabar datos de la mirada y utilizar objetos SVG para grabar la mirada específicamente en el contexto de cuando la mirada ocurre en un Área de Interés (AOI).

Si tiene alguna pregunta, ¡no dude en comunicarse con nosotros y háganos saber los detalles de su experimento, especialmente si necesita realizar un chequeo de viabilidad!

Prev
Estudio de ChatGPT
Next
Demostración Multicusuario: Mostrar los Cursors de Sujetos