labvanced logoLabVanced
  • Research
    • Publications
    • Researcher Interviews
    • Use Cases
      • Behavioral Psychology
      • Personality & Social Psychology
      • Cognitive & Neuro Psychology
      • Developmental & Educational Psychology
      • Clinical & Health Psychology
      • Sports & Movement Psychology
      • Marketing & Consumer Psychology
    • Labvanced Blog
  • Technology
    • Feature Overview
    • Desktop App
    • Phone App
    • Precise Timing
    • Experimental Control
    • Eye Tracking
    • Multi User Studies
    • More ...
      • Questionnaires
      • Artificial Intelligence (AI) Integration
      • Mouse Tracking
      • Data Privacy & Security
  • Learn
    • Guide
    • Videos
    • Walkthroughs
    • FAQ
    • Release Notes
    • Documents
    • Classroom
  • Experiments
    • Public Experiment Library
    • Labvanced Sample Studies
  • Pricing
    • Pricing Overview
    • License Configurator
    • Single License
    • Research Group
    • Departments & Consortia
  • About
    • About Us
    • Contact
    • Downloads
    • Careers
    • Impressum
    • Disclaimer
    • Privacy & Security
    • Terms & Conditions
  • Appgo to app icon
  • Logingo to app icon
Learn
Guía
Videos
Tutoriales
Preguntas Frecuentes
Notas de la Versión
Aula
  • 中國人
  • Deutsch
  • Français
  • Español
  • English
Guía
Videos
Tutoriales
Preguntas Frecuentes
Notas de la Versión
Aula
  • 中國人
  • Deutsch
  • Français
  • Español
  • English
  • Guía
    • COMENZANDO

      • Objetos
      • Eventos
      • Variables
      • Asistente de Tareas
      • Sistema de Pruebas
      • Diseño del Estudio
        • Tareas
        • Bloques
        • Sesiones
        • Grupos
    • TEMAS DESTACADOS

      • Aleatorización y Balance
      • Seguimiento Ocular
      • Aplicación de escritorio
      • Estudios de Muestra
      • Reclutamiento de Participantes
      • Acceso a la API
        • REST API
        • API de Webhook
        • API de WebSocket
      • Otros Temas

        • Tempos de Estímulo Preciso
        • Estudios Multi Usuario
        • Seguimiento de Cabeza en Labvanced | Guía
    • TABS PRINCIPALES DE LA APP

      • Visión General: Pestañas Principales
      • Tablero
      • Mis Estudios
      • Estudios Compartidos
      • Mis Archivos
      • Biblioteca de Experimentos
      • Mi Cuenta
      • Mi Licencia
    • TABS DEL ESTUDIO

      • Visión General: Pestañas Específicas del Estudio
      • Diseño del Estudio
        • Tareas
        • Bloques
        • Sesiones
        • Grupos
      • Editor de Tareas
        • Funciones Principales y Configuraciones
        • El Sistema de Ensayos
        • Marcos de Canvas y Página
        • Objetos
        • Tablas de Propiedades de Objetos
        • Variables
        • Tablas de Variables del Sistema
        • El Sistema de Eventos
        • Aleatorización de Ensayos
        • Funciones del Editor de Texto
        • Seguimiento ocular en una tarea
        • Seguimiento de la Cabeza en una Tarea
        • Estudios de Múltiples Usuarios
      • Configuración del Estudio
        • Configuración de Inicio y Ajustes Principales
        • Configuración de Navegadores y Dispositivos
        • Configuración de Características del Experimento
      • Descripción
        • Más detalles sobre la información de descripción
        • Imágenes, Enlaces y Referencias en Descripciones
      • Variables
      • Medios
      • Traducir
      • Ejecutar
      • Publicar y Grabar
        • Requisitos para Publicar un Estudio en Labvanced
        • Reclutamiento de Participantes y Crowdsourcing
        • Selección y Confirmación de Licencias
        • Después de Publicar Su Estudio de Labvanced
      • Compartir
      • Participantes
      • Vista de Datos y Exportar
        • Vista de Datos y Selección de Variables y Tareas (Versión ANTIGUA)
        • Accediendo a Grabaciones (Versión ANTERIOR)
  • Videos
    • Visión General del Video
    • Comenzando en Labvanced
    • Creando Tareas
    • Videos de Elementos
    • Eventos y Variables
    • Temas Avanzados
  • Guías
    • Introducción
    • Tarea de Stroop
    • Tarea de Decisión Léxica
    • Tarea de Indicación Visual de Posner
    • Paradigma de Parpadeo de Ceguera por Cambio
    • Estudio de Seguimiento Ocular
    • Estudio de Seguimiento Ocular en Infantes
    • Estudio de Captura de Atención con Seguimiento de Ratón
    • Presentación Visual Serial Rápida
    • Estudio de ChatGPT
    • Demostración de Seguimiento Ocular: SVGs como AOIs
    • Demostración Multi-Usuario: Mostrar los Punteros de los Sujetos
    • Controlador de Gamepad / Joystick - Configuración Básica
    • Estudio de Aplicación de Escritorio con Integración de EEG
  • Preguntas Frecuentes
    • Características
    • Seguridad y Privacidad de Datos
    • Licencias
    • Precisión de Labvanced
    • Uso Programático y API
    • Uso de Labvanced Offline
    • Solución de Problemas
    • Preguntas sobre la Creación de Estudios
  • Notas de la Versión
  • Aula

Demostración de Seguimiento de Ojos: SVGs como AOIs

Descripción general

En esta demostración, nuestro objetivo es capturar datos de mirada del seguimiento ocular. Específicamente, queremos capturar los datos de mirada asociados con áreas de interés específicas (AOIs) que se incluyen en el estudio como objetos de forma SVG.

Se muestra a continuación una vista previa de la demostración en acción, donde el círculo rojo proporciona retroalimentación al indicar la ubicación de la mirada en tiempo real:

Vista previa de la ubicación de la mirada en un experimento de seguimiento de ojos basado en webcam.

  • NOTA: La grabación de la demostración se realizó con una opción de calibración de 5.5 minutos; el círculo rojo es un objeto que representa la mirada de los participantes en tiempo real y la configuración general se explica más adelante.

Eche un vistazo a este video rápido que muestra la demostración en acción, así como una vista previa de los datos registrados al final:

Objetos

Esta demostración incluye una imagen de fondo de un muelle sobre el cual se colocan 4 objetos SVG de personas. También hay un objeto de retroalimentación de mirada (círculo rojo). Para los propósitos de esta demostración, queríamos representar la mirada en tiempo real y este círculo rojo refleja eso.

Los objetos colocados en el editor de Labvanced

Variables Personalizadas Creadas

Para registrar datos, se requieren variables. A continuación se muestra una lista de todas las variables personalizadas que se crearon para esta demostración, accesibles a través de la pestaña ‘Variables’. La imagen a continuación muestra los detalles y configuraciones para las variables que utiliza esta demostración:

Variables personalizadas creadas para este estudio de seguimiento de ojos basado en webcam.

A continuación se presenta una explicación de las variables y su propósito:

Nombre de la VariableDescripciónTipo de Registro
All Gaze DataSe utiliza para almacenar el array de coordenadas x/y [X,Y], así como el Tiempo de Captura [T] y el nivel de confianza [C] de la medición.Todos los cambios / series de tiempo
AOI1_gaze_dataSe utiliza para almacenar el array de [X,Y,T,C] cuando el participante mira el objeto SVG llamado AOI1.Todos los cambios / series de tiempo
SVG1_pathRegistra la ruta del nodo SVG sobre el que se posó la mirada de AOI1 (explicado más adelante).Todos los cambios / series de tiempo
AOI2_gaze_dataSe utiliza para almacenar el array de [X,Y,T,C] cuando el participante mira el objeto SVG llamado AOI2.Todos los cambios / series de tiempo
SVG2_pathRegistra la ruta del nodo SVG sobre el que se posó la mirada de AOI2.Todos los cambios / series de tiempo

Y así sucesivamente….

Eventos Configurados

Dado que estamos interesados en capturar datos de mirada, se utilizan los siguientes eventos:

  1. Todos los Datos de Mirada: Este evento inicia tan pronto como comienza la tarea y registra datos de seguimiento ocular continuamente.
  2. Datos de Mirada AOI: Este evento inicia tan pronto como el participante mira un AOI específico (es decir, una de las cuatro personas) y registra los valores relacionados con la mirada.
  3. Terminar Experimento: Un evento que acepta / termina la sesión y registra los datos cuando el sujeto hace clic en el botón ‘Terminar’.

Evento 1: Todos los Datos de Mirada

Para el primer evento, queremos lograr lo siguiente:

  • registrar todos los datos de seguimiento ocular durante la duración del estudio
  • mostrar la ubicación detectada de la mirada en la pantalla en tiempo real (para que usted, como investigador, pueda tener una noción del seguimiento de la webcam al probar la demostración)

Disparador

Por lo tanto, utilizamos un disparador de mirada de seguimiento ocular para iniciar este evento.

selección de la opción de disparador de mirada de seguimiento ocular.

Acción

Una vez que se detecte la mirada, ocurrirán las siguientes acciones: Primero, llamamos a la variable All Gaze Data que creamos anteriormente en una acción de Establecer / Registrar Variable para registrar los datos como un array de [X,Y,T,C].

Grabando el array de datos y configurando los valores del seguimiento ocular

Lo anterior se logra (como se muestra a continuación) haciendo clic en el botón verde, seleccionando la variable de destino, luego haciendo clic en el ícono de lápiz menú de selección de valor y luego eligiendo el array [X,Y,T,C] del menú específico del disparador (Mirada de Seguimiento), como se muestra a continuación:

Seleccionando qué valores de datos de seguimiento ocular deben ser registrados

También añadimos la acción Establecer Propiedad del Objeto para establecer el objeto del círculo rojo (llamado ‘mirada’) de modo que su propiedad X sea igual a la y la propiedad Y establecida en la coordenada X y la coordenada Y, respectivamente. En otras palabras, establecemos los valores x e y del objeto para que sean iguales a las coordenadas x e y... en última instancia, esto es lo que hace que el objeto se mueva en tiempo real.

Estableciendo la propiedad del objeto para asumir las coordenadas de la mirada a fin de proporcionar retroalimentación visual sobre dónde se encuentra la mirada en tiempo real.

NOTA: las opciones para Coordenada X y Coordenada Y se seleccionan del menú específico del disparador (Mirada de Seguimiento).

Evento 2: Datos de Mirada AOI

En este evento, queremos configurar los eventos de tal manera que:

  • la mirada también se registre cuando se centra específicamente en los AOIs objetivo (es decir, los objetos SVG que hemos subido)
  • se informe sobre los datos específicos del nodo SVG del AOI

Disparador

El disparador Mirada de Seguimiento también se utiliza aquí como el disparador. Pero en este contexto, indicamos que solo estamos interesados en elementos específicos haciendo clic en la opción respectiva y luego seleccionando los 4 objetos SVG que actúan como Áreas de Interés (AOIs).

Especificando las Áreas de Interés objetivo (AOIs) para el experimento de seguimiento de ojos basado en webcam.

Acción

Para configurar la llamada en cada AOI, necesitamos una Acción de Control → Acción de Requisito (Si…Entonces). Esencialmente queremos que Labvanced haga lo siguiente…. “Si el participante está mirando AOI1, entonces queremos registrar los datos específicos para ello en una variable específica, así como la ruta SVG de esa mirada”.

Primero hacemos clic en el botón + Requisito y aparecerán los iconos de dos lápices.

  • Primer icono de lápiz: Para el primer campo que seleccionamos, del menú específico del disparador (Mirada de Seguimiento), la opción Nombre del Estímulo que utiliza el nombre del objeto del estímulo sobre el que se encuentra el disparador (en este caso la mirada).
  • Segundo icono de lápiz: Seleccionar Valor Constante y luego seleccionar la opción Cadena y escribir el nombre del objeto (es decir, AOI1):

Estableciendo el estímulo en un evento si/entonces como AOI1

Hasta este punto hemos establecido que cuando el disparador (mirada) está sobre el estímulo llamado AOI1... entonces:

Especificando qué acciones ocurren cuando la mirada está en AOI1.

  • La variable AOI_gaze_data que creamos anteriormente registrará el array [X,Y,T,C].
  • Además, se registrará la variable SVG1_path para contener la Información del Estímulo que, en este caso, dado que el objetivo de interés (AOI1) es un SVG, la información del estímulo contendrá los nodos del SVG.

Para especificar el siguiente AOI, se presiona el botón +Agregar Caso Else If en la ventana de diálogo y luego simplemente repetir la estructura / configuración como se mostró anteriormente, pero con las diferencias principales de establecer el Nombre del Estímulo como AOI2 y luego también llamar a las variables específicas para almacenar los datos, es decir, AOI2_gaze_data y SVG2_Path, como se muestra a continuación:

Especificando que cuando la mirada está en AOI2, se registran las coordenadas del array de mirada y la ruta del SVG.

A continuación, para AOI3, optamos por Agregar Caso Else If nuevamente y seguimos la misma estructura pero con las variables personalizadas que hemos creado para almacenar los datos de este AOI específico:

Especificando que cuando la mirada está en AOI3, se registran las coordenadas del array de mirada y la ruta del SVG.

Nuevamente, para AOI4, optamos por Agregar Caso Else If nuevamente y seguimos la misma estructura pero con las variables personalizadas que hemos creado para almacenar los datos de este AOI específico:

Especificando que cuando la mirada está en AOI4, se registran las coordenadas del array de mirada y la ruta del SVG.

Evento 3: Terminar Experimento / Guardar Datos

Por último, para que los datos sean registrados y almacenados, necesitamos elegir la Acción de Salto para la acción Aceptar / Terminar Sesión una vez que se haga clic en el botón Terminar (que es el disparador), como se muestra a continuación.

Disparador

El disparador se especifica para que ocurra cuando se use el ‘Botón de Terminar’:

Seleccionando un clic de botón como el disparador.

Acción

La acción que ocurrirá es que la sesión será aceptada, lo que, como resultado, significa que los datos serán registrados.

Seleccionando la aceptación/terminación de sesión como la acción

Demos un vistazo a cómo lucirán los datos registrados en la siguiente sección.

Datos Registrados

Los datos registrados incluyen todas las variables personalizadas más valores específicos del experimento, como el número de tarea, el número de sesión, etc.

En el ejemplo a continuación, la pestaña Vista y Exportación de Datos muestra cómo lucen los datos cuando se separan por archivos de series de tiempo. Cada variable de serie de tiempo (es decir, las variables que registran todos los cambios) se muestra con su propio archivo CSV en el panel izquierdo a continuación. Esto se puede lograr especificando la configuración relevante utilizando la Configuración de Formato de Exportación.

Cuando se selecciona All Gaze Data.csv, se registran numerosas variables, incluidas las que se muestran a continuación. La columna ‘valor’ captura el array [X,Y,T,C] donde los valores están separados por comas:

Vista previa de todos los datos de seguimiento ocular

La imagen a continuación muestra una vista previa de los arrays que se registraron específicamente cuando la mirada estaba en AOI1, como se muestra en la columna ‘valor’:

Vista previa de los datos de seguimiento ocular que se registraron para AOI1

La imagen a continuación muestra una vista previa de las rutas SVG que se registraron específicamente cuando la mirada estaba en AOI1, como se muestra en la columna ‘valor’:

Vista previa de los datos de seguimiento ocular que se registraron para la ruta SVG

Conclusión

Esta demostración tiene como objetivo mostrar cómo registrar datos de mirada y utilizar objetos SVG para registrar la mirada específicamente en el contexto de cuando la mirada ocurre en un Área de Interés (AOI).

Si tiene alguna pregunta, contáctenos y háganos saber los detalles de su experimento, ¡especialmente si necesita realizar una verificación de viabilidad!

Prev
Estudio de ChatGPT
Next
Demostración Multi-Usuario: Mostrar los Punteros de los Sujetos