10 Exemples d'Expériences Linguistiques Populaires dans Labvanced
Les chercheurs en langage et en parole utilisent des plateformes d'expériences en ligne comme Labvanced pour mener leurs diverses études car c'est un moyen de rassembler rapidement à la fois des participants et des données.
En menant des expériences dans un laboratoire de langue virtuel, en publiant des études en ligne et en les partageant via le web, les linguistes et les psychologues cognitifs achèvent non seulement leur recherche plus rapidement, mais créent également leur expérience rapidement et sans code.
Ci-dessous, nous mettons en évidence 10 expériences linguistiques populaires qui peuvent être réalisées dans Labvanced pour étudier la perception de la parole et la compréhension du langage, toutes montrant une capacité ou une fonctionnalité différente de la plateforme.
1. Tâche de l'Effet Stroop Multimodal
La Tâche de l'Effet Stroop Multimodal est une tâche classique qui met au défi les associations cognitives des participants.
Dans l'étude, des mots comme 'bleu' ou 'vert' sont présentés un par un avec une couleur de texte variable, correspondant parfois à ce que le mot écrit indique. Cette incongruence défie le participant. Essayez-le ici !
L'étude pousse le participant à se concentrer sur la couleur du texte et à ignorer le sens du texte. Pendant l'expérience, des mots auditifs distrayants sont également prononcés, une voix qui dit l'une des 4 couleurs mises en avant.
Dans la session d'entraînement, le participant s'exerce à se concentrer sur la couleur du texte et à cliquer sur le bouton correspondant. Les deux autres dimensions (mot prononcé et texte écrit) sont congruentes et reflètent la couleur cible.
Dans l'exemple ci-dessous de la session d'entraînement, la réponse correcte est 'F' car la couleur du texte est bleue. Mais le participant est également renforcé car le mot écrit est réellement bleu et l'audio diffusé dit également 'bleu'.
Dans l'expérience, les choses deviennent plus difficiles car les trois dimensions sont incongruentes.
Dans l'exemple ci-dessous, la réponse correcte est 'D' car la couleur est rouge, mais le mot écrit dit 'jaune' et la voix audio indique 'bleu.'
Ainsi, le participant est mis au défi de se concentrer et de limiter les diverses associations cognitives afin de choisir la bonne réponse et de surpasser les indices linguistiques écrits et oraux.
📌 Highlight de Publication : L'influence de la dominance linguistique entre les tâches linguistiques et non-linguistiques
Dans cette étude, réalisée dans Labvanced, les chercheurs ont créé et mis en œuvre une série de tâches linguistiques et non-linguistiques afin de déterminer comment la dominance linguistique influence les effets d'interférence et de facilitation dans les tâches linguistiques et non-linguistiques ainsi que la relation entre la performance sur les tâches linguistiques et non-linguistiques. Par exemple, la Tâche d'Interférence Image-Mot (PWI) ainsi que la Tâche de Stroop Spatial Non-Linguistique ont été administrées à cet effet. Les chercheurs suggèrent que la dominance linguistique module effectivement la performance sur les deux types de tâches.
Référence : Gálvez-McDonough, A. F., Blumenfeld, H. K., Barragán-Diaz, A., Anthony, J. J. R., & Riès, S. K. (2024). Influence of language dominance on crosslinguistic and nonlinguistic interference resolution in bilinguals. Bilingualism: Language and Cognition, 1-14.
2. Complétez la Phrase
Cette étude, publiée par le Département de Linguistique de l'UCLA, vise à tester comment les locuteurs natifs adultes de l'anglais américain complètent des phrases.
Les participants doivent écouter des fragments de phrases et ensuite fournir une réponse où leur voix est enregistrée en utilisant leur microphone d'ordinateur, complétant le fragment de phrase en une phrase complète.
Les participants sont invités à fournir une réponse en utilisant la première chose qui leur vient à l'esprit et sans aucune hésitation.
Le déroulement général de l'étude est illustré ci-dessous :
- Le participant teste la fonctionnalité d'enregistrement de Labvanced pour s'assurer que son enregistrement fonctionne.
- Le participant passe à l'écran suivant et clique sur 'Jouer' pour entendre le fragment de phrase.
- Ensuite, le participant est invité à penser à une façon de compléter la phrase en commençant par le fragment qu'il vient d'entendre.
- Le participant clique sur le bouton d'enregistrement et dit la phrase entière à voix haute.
L'étude vise à augmenter la connaissance scientifique sur la parole et le langage humain. Les chercheurs affirment que les informations recueillies auront des implications positives pour plusieurs domaines, notamment : la mise en œuvre de technologies informatiques, l'enseignement des langues et le traitement en pathologie de la parole.
📌 Highlight de Publication : Tâche de complétion de phrase basée sur un labyrinthe
Une autre approche des tâches de complétion de phrase consiste à sélectionner ou à saisir un mot, par opposition à compléter la phrase en parlant (comme dans l'étude ci-dessus). Dans l'étude décrite ci-dessous, réalisée dans Labvanced, les chercheurs ont administré une tâche de complétion de phrase basée sur un labyrinthe. Les participants devaient sélectionner une description pour une cible donnée en sélectionnant consécutivement deux parties de leurs expressions à partir d'une liste d'options :
Référence : Li, M., Venhuizen, N. J., Jachmann, T. K., Drenhaus, H., & Crocker, M. W. (2023). Does informativity modulate linearization preferences in reference production?. In Proceedings of the Annual Meeting of the Cognitive Science Society (Vol. 45, No. 45).
3. Dimensions & Sons
Dans cette expérience de parole et de langage du Max Planck Institute for Empirical Aesthetics à Francfort, les chercheurs se sont engagés à étudier comment les vocalisations sont perçues.
Les participants commencent par remplir un questionnaire simple à leur sujet. Ensuite, ils sont instruits d'écouter des sons et des vocalisations. Après avoir perçu les stimuli audio, les participants sont invités à évaluer le son sur 2 échelles.
Cette expérience démontre comment incorporer un questionnaire au début de l'étude puis utiliser des audios pour étudier la perception humaine du son des vocalisations.
📌 Highlight de Publication : Interjections affectives et vocalisations à travers les langues
Dans cette recherche, qui a utilisé Labvanced, l'objectif était d'étudier, à travers les langues, la nature des signatures vocales dans les interjections émotionnelles et les vocalisations non linguistiques qui expriment la douleur, le dégoût et la joie à travers les langues. Les chercheurs ont analysé les voyelles et les interjections de plus de 130 langues et ont trouvé plusieurs résultats intéressants.
Pour les vocalisations non linguistiques, toutes les émotions semblaient avoir des signatures vocales distinctes : la douleur entraîne des voyelles ouvertes telles que [a], la joie entraîne des voyelles antérieures telles que [i], et le dégoût des voyelles centrales ressemblant à un schwa. Pour les interjections, les interjections de douleur présentent des voyelles ressemblant à [a] et de larges diphtongues descendantes, tandis que les interjections de joie et de dégoût ne s'étendent pas géographiquement pour les régularités vocaliques qui s'étendent géographiquement. Ces résultats suggèrent que la douleur est la seule expérience affective qui montre une signature préservée pour les vocalisations non linguistiques et les interjections à travers les langues.
Référence : Ponsonnet, M., Coupé, C., Pellegrino, F., Garcia Arasco, A., & Pisanski, K. (2024). Vowel signatures in emotional interjections and nonlinguistic vocalizations expressing pain, disgust, and joy across languages. The Journal of the Acoustical Society of America, 156(5), 3118-3139.
4. Étude sur la Prononciation Espagnole
L'Étude sur la Prononciation Espagnole est l'une des nombreuses expériences de l'Université de Toronto publiées dans Labvanced. L'expérience est en espagnol, mais peut également être administrée en portugais, et teste la compréhension et les capacités linguistiques du participant à travers des tâches de parole et d'écoute.
Dans cette étude, le participant parcourt des informations sur la procédure expérimentale. Ensuite, deux courtes tâches doivent être réalisées, d'environ 10 minutes chacune. La première tâche concerne la parole et la lecture, et la deuxième tâche concerne l'écoute.
À la fin, il y a un questionnaire pour que le participant puisse fournir des informations de base sur lui-même, ainsi que toute information pertinente sur son parcours d'apprentissage des langues.
Labvanced est utilisé pour de nombreuses études sur l'apprentissage des langues et le bilinguisme. Les chercheurs peuvent concevoir leur expérience dans n'importe quelle langue, choisir de limiter une étude uniquement à des locuteurs spécifiques et partager l'étude au niveau international afin que des locuteurs de différentes langues puissent participer à partir du monde entier ou garder l'étude locale pour examiner l'apprentissage des langues dans un groupe spécifique, tel que des étudiants d'une université apprenant une seconde langue.
📌 Highlight de Publication : Prosodie de l'Espagnol de Montevidéo
Dans cette étude, les chercheurs ont utilisé Labvanced pour créer le premier profil de l'espagnol de Montevidéo (MS), une variété Rioplatense parlée en Uruguay qui a des racines dans l'espagnol castillan et l'italien, ainsi que des influences d'autres langues, y compris le guarani, le quechua et le portugais. Cette recherche visait à fournir la première description prosodique complète de l'espagnol de Montevidéo (MS) en analysant son intonation, son rythme et son tempo. Les chercheurs ont utilisé Labvanced pour enregistrer les participants à travers différentes tâches de production afin de capturer une large gamme de discours naturaliste.
Référence : Machado, V., & Escobar, L. (2023). The prosody of Montevideo Spanish: an intonational, rhythmic and tempo description. Canadian Journal of Linguistics.
5. Voix & Bien-être
Dans cette étude, la relation entre la perception du son et les sentiments est évaluée. Les participants sont invités à écouter 21 sons humains du monde entier. Après avoir entendu ce clip, le participant doit évaluer comment le son les a fait se sentir à l'aide d'échelles Likert à 5 points.
L'écran expérimental s'ouvre avec les instructions de l'expérience. Vers la fin de l'explication, il y a un ajusteur de volume sonore où le participant peut ajuster et calibrer l'audio qui va se jouer à un niveau confortable :
Après avoir calibré et ajusté le son, l'expérience commence.
Le participant entend un son qui joue et dure environ 30 secondes :
Puis, après que le son a été diffusé, le participant est invité à indiquer sur une échelle Likert à 5 points dans quelle mesure certaines émotions et sentiments (comme la confiance, la tristesse ou l'alerte) ont été invoqués par l'audio :
Cette expérience est un excellent exemple de la façon de présenter des enregistrements audio puis un questionnaire afin que le participant puisse fournir une réponse au son, à la langue ou à la vocalisation qu'il a perçue.
📌 Highlight de Publication : Préférences pour la voix chantée
L'objectif de l'étude était de prédire ce qui motive les préférences des participants lorsqu'ils 'aiment' un chanteur en évaluant des caractéristiques perceptuelles et acoustiques, un sujet important dans le domaine de la psychologie de la préférence musicale.
Expérience Labvanced :
- Des évaluations perceptuelles ont été développées pour cette expérience sur des échelles bipolaires allant de 1 à 7 avec des mots d'ancrage contrastants à chaque pôle demandant aux participants d'évaluer ce qui suit : précision de la hauteur, niveau sonore, tempo, articulation, souffle, résonance, timbre, attaque/démarrage de la voix, vibrato. Quarante-deux participants ont noté 96 stimuli sur 10 échelles différentes.
- Sous-échelle de 18 éléments de la Sophistication Musicale de l'Index de Sophistication Musicale de Goldsmiths
- Inventaire de Personnalité de Dix Éléments (TPI)
- Test Court de Préférence Musicale (STOMP-R)
Résultats clés : Les caractéristiques acoustiques et de bas niveau dérivées de la récupération d'informations musicales (MIR) expliquent à peine la variance dans les évaluations d'appréciation des participants. En revanche, les caractéristiques perceptuelles des voix ont atteint environ 43 % de prédiction, suggérant que les préférences pour la voix chantée ne sont pas ancrées dans des attributs acoustiques en soi, mais davantage par des caractéristiques perçues par les auditeurs. Cette découverte montre l'importance de la perception individuelle en ce qui concerne la psychologie de la préférence musicale. Lire la suite.
Référence : Bruder, C., Poeppel, D., & Larrouy-Maestri, P. (2024). Perceptual (but not acoustic) features predict singing voice preferences. Scientific reports, 14(1), 8977.
6. Tâches de Décision Lexicale
La Tâche de Décision Lexicale (TDL) est un autre excellent exemple d'une tâche basée sur la langue où les participants sont invités à indiquer si une chaîne de lettres présentée est un mot ou un non-mot dans la langue cible. Il existe plusieurs variations de la tâche de décision lexicale en raison de sa popularité dans le domaine. En savoir plus sur la TDL.
📌 Highlight de Publication : Anosmies acquises et compréhension du langage liée aux odeurs
Dans cette étude menée dans Labvanced, les chercheurs voulaient évaluer si l'anosmie acquise (la perte du sens de l'odorat qui survient plus tard dans la vie) impacte la compréhension du langage liée aux odeurs. Les chercheurs ont administré une série de tâches, afin d'obtenir une image complète de la mémoire liée aux odeurs chez les anosmiques et les contrôles. Fait intéressant, l'étude a conclu qu'il n'y avait aucune preuve que l'anosmie acquise altère la compréhension des mots liés aux odeurs ou aux goûts, mais que les associations émotionnelles avec les mots liés aux odeurs et aux goûts étaient modifiées chez les anosmiques, avec des évaluations plus positives. Dans l'ensemble, ces résultats suggèrent que le traitement du langage peut dans certains cas être indépendant de la capacité à avoir une expérience sensorielle olfactive.
Référence : Bruder, C., Poeppel, D., & Larrouy-Maestri, P. (2024). Perceptual (but not acoustic) features predict singing voice preferences. Scientific reports, 14(1), 8977.
7. Réseautage Sémantique
Dans cette étude psycholinguistique de la Temple University, les relations entre les mots sont évaluées. L'expérience est conçue pour tester la force des relations entre les mots (par exemple, sémantiques et phonologiques).
Les participants voient un mot, puis voient une séquence de lettres. Si la séquence de lettres a un sens dans la langue anglaise, le participant doit cliquer sur 'Y' sur le clavier mais si la séquence de lettres n'a pas de sens, alors 'N' doit être pressé.
La conception est simple et directe, mais elle démontre comment collecter les réponses des participants à l'aide de pressions de bouton après avoir présenté visuellement des mots dans une séquence particulière.
📌 Highlight de Publication : Suivi oculaire, langages et attention visuelle
Cette étude a examiné comment les informations sémantiques, véhiculées par des mots ou des images, influencent l'attention visuelle dans une tâche de signalisation spatiale. Les chercheurs ont utilisé le suivi oculaire par webcam de Labvanced comme un contrôle de validité pour s'assurer que les participants maintenaient une fixation centrale.
L'expérience a utilisé un design à mesures répétées et impliquait deux parties :
- Expérience 1 : Les participants ont vu soit des mots réels soit des pseudowords comme primes, suivis d'un indice spatial les dirigeant vers une cible. L'objectif était d'évaluer comment ces primes influençaient la vitesse de détection de la cible.
- Expérience 2 : Les participants ont été présentés avec de véritables objets ou pseudo-objets comme primes, qui correspondaient ou ne correspondaient pas à la cible. Cette expérience visait à explorer les effets de la congruence sémantique et perceptuelle sur l'engagement attentionnel et la détection de la cible.
Données collectées : Temps de réaction, données de suivi oculaire (fixations et schémas d'attention des participants), et détails sur les types de primes (mots réels, pseudowords, objets connus, objets inconnus) et leur statut de correspondance (correspond à la cible ou pas).
Résultats : La connaissance sémantique, véhiculée par des mots et objets réels, facilite significativement une détection de cible plus rapide et renforce la capture attentionnelle, même lorsque les primes ne fournissent pas d'informations spatiales sur les cibles.
Référence : Calignano G, Lorenzoni A, Semeraro G et Navarrete E (2024) Words before pictures: the role of language in biasing visual attention. Front. Psychol. 15:1439397.
8. Test de Parole dans le Bruit
Dans cette étude de parole dans le bruit, les chercheurs ont demandé aux participants de participer à une expérience dans Labvanced pour déterminer les mesures subjectives et objectives de la précision d'écoute et de l'effort. 67 participants, incluant 42 avec une audition normale et 25 avec une perte auditive, ont complété l'Échelle d'Évaluation d'Effort (EAS) et une tâche de reconnaissance de phrases. Des phrases BKB ont été présentées dans un bruit de forme de parole à des rapports signal-bruit (SNR) de -8, -4, 0, +4, +8 et +20 dB. Les participants ont répété les phrases à voix haute, et leurs réponses ont été enregistrées via webcam et notées par des assistants de recherche. L'étude a utilisé plusieurs mesures de résultats pour évaluer la précision et l'effort d'écoute, y compris l'intelligibilité objective, l'intelligibilité subjective, l'effort d'écoute subjectif, la tendance subjective à abandonner l'écoute, et le temps de réponse verbal (VRT). L'effort d'écoute subjectif a été la première mesure à montrer une sensibilité à la détérioration du SNR, suivie par l'intelligibilité subjective, l'intelligibilité objective, la tendance subjective à abandonner l'écoute, et le VRT.
Référence : Wiggins, I. M., Stacey, J. E., Naylor, G., & Saunders, G. H. (2025). Relationships between subjective and objective measures of listening accuracy and effort in an online speech-in-noise study. Ear and hearing, 10-1097.
9. Test de Lecture pour Adultes
Le Test de Lecture pour Adultes de l'Université Nottingham Trent teste la capacité d'une personne à lire un passage de texte à haute voix, en utilisant la fonctionnalité d'enregistrement vocal de Labvanced, puis à répondre à des questions sur le passage.
Avant de commencer la session d'entraînement, l'étude demande également aux participants de fournir leur adresse e-mail afin que les réponses d'une section précédente dans Labvanced puissent être liées.
Dans la session d'entraînement, le participant doit s'enregistrer en lisant le passage proposé à haute voix :
Après l'enregistrement vocal, une série de questions sur le passage suit :
Le Test de Lecture pour Adultes capture plusieurs types de mesures différentes, des enregistrements vocaux aux réponses de questionnaires. C'est un excellent moyen de mesurer la compréhension et la maîtrise de la langue et peut être adapté à d'autres langues et groupes de population.
📌 Highlight de Publication : Compréhension de lecture numérique
Cette étude visait à comprendre comment les environnements de lecture numérique, avec des fonctionnalités telles que le défilement et les hyperliens, affectent la compréhension de lecture des enfants.
Les chercheurs ont utilisé Labvanced pour :
- Conception de Tâche : Cela incluait l'intégration de différentes conditions (clic, défilement, hyperlien et combiné).
- Programmation des Fonctionnalités de Navigation : Boutons de navigation (par exemple, suivant, retour, retour à l'histoire) et fonctionnalités d'hyperlien pour imiter les expériences de lecture numérique courantes.
- Suivi des Participants : Facilitation de la participation à distance, permettant aux enfants de compléter les tâches depuis chez eux tout en étant surveillés par des assistants de recherche via des outils de vidéoconférence.
- Collecte de Données : Métriques, telles que le temps que les participants ont passé à lire chaque passage, le temps nécessaire pour référencer le texte tout en répondant aux questions, et la fréquence des activations du bouton de retour.
Les résultats ont montré que lorsque les enfants interagissaient avec des hyperliens flottants pour des définitions, cela affectait négativement leur compréhension de lecture, tandis que le défilement n'avait pas d'effets néfastes sur la compréhension.
Référence : Krenca, K., Taylor, E., & Deacon, S. H. (2024). Scrolling and hyperlinks: The effects of two prevalent digital features on children’s digital reading comprehension. Journal of Research in Reading.
10. Tâche de Conscience Prosodique
Une tâche de conscience prosodique est conçue pour évaluer la capacité d'un individu à reconnaître et à manipuler les caractéristiques prosodiques du langage. Dans la démonstration ci-dessous dans Labvanced, les participants doivent prononcer un mot puis identifier où se trouve la syllabe accentuée dans ce mot.
Exemples Complémentaires
Édition Dynamique du Texte
Dans certains cas, vous pourriez être intéressé à déterminer comment les participants éditent activement du texte écrit. La vidéo ci-dessous montre comment vous pouvez suivre l'édition de texte en temps réel, y compris les clics de souris, les frappes de touches et les modifications de paragraphes utilisant Labvanced.
Essayez cette démonstration d'Édition Dynamique du Texte, comme montré ci-dessus, par vous-même en cliquant sur le bouton Participer
ou L'importer
dans votre compte.
Mesures de Détection d'Audibilité
Dans certains cas, il peut être important de vérifier l'audibilité de base des stimuli auditifs avant de procéder aux essais expérimentaux principaux. Dans cette étude comparant la faisabilité des tests neuropsychologiques à distance par rapport aux tests en personne pour la recherche sur la démence.
La recherche a commencé par demander aux participants d'écouter un ensemble de 10 phrases de la liste Bamford-Kowal-Bench (BKB) dans Labvanced.
Dans l'exemple ci-dessus, la phrase prononcée était “Le moteur de la voiture fonctionne” et les participants devaient indiquer le dernier mot entendu. Pour chaque phrase, deux contrefaçons ont été affichées aux côtés de la cible, lesquelles avaient toutes les deux un sens dans la phrase lorsqu'elles remplaçaient la cible. De plus, l'une des contrefaçons a également été sélectionnée pour rimer légèrement avec le mot cible (par exemple ici, cela serait “ronronnant”).
Référence : Requena-Komuro, M. C., Jiang, J., Dobson, L., Benhamou, E., Russell, L., Bond, R. L., ... & Hardy, C. J. (2022). Remote versus face-to-face neuropsychological testing for dementia research: a comparative study in people with Alzheimer’s disease, frontotemporal dementia and healthy older individuals. BMJ open, 12(11), e064576.
Glisser et Déposer des Stimuli pour Catégorisation
Cette étude a mené des recherches sur des sons musicaux en déterminant comment les participants classeraient les extraits comme étant 'similaires à la parole' ou 'similaires à la musique'.
Expérience Labvanced : En utilisant 30 enregistrements d'enregistrements de tambours dundun (un tambour d'Afrique de l'Ouest utilisé également comme substitut de la parole), les participants ont été invités à classer les enregistrements. Les chercheurs visaient à déterminer les prédicteurs potentiels des catégories musique-parole. 15 des enregistrements étaient traités comme de la 'musique' et consistaient en des rythmes Yorùbá àlùjó (danse), tandis que les 15 autres enregistrements étaient des 'substituts de parole', contenant des proverbes Yorùbá et oríkì (poésie). Les participants devaient glisser et déposer pour catégoriser les stimuli audio que les participants pouvaient jouer librement pour écouter (voir l'image ci-dessous). Différents participants ont pris part à chaque expérience.
Dans la première expérience, les catégories étaient fournies, à savoir 'similaire à la parole' et 'similaire à la musique'. Dans la deuxième expérience, les participants devaient déterminer par eux-mêmes quelles seraient les deux catégories pour différencier les sons et les étiqueter par la suite.
Résultats : Le clustering hiérarchique des groupements de stimuli des participants montre que la distinction parole/musique émerge et est observable, mais n'est pas primaire. Une analyse plus approfondie de la tâche de réponse libre a montré que les étiquettes attribuées par les participants convergent avec des prédicteurs acoustiques des catégories. Un tel résultat soutient l'effet de l'amorçage dans la discrimination entre la musique et la parole, et éclaire ainsi de manière nouvelle les mécanismes de catégorisation de tels signaux auditifs communs.
Référence : Fink, L., Hörster, M., Poeppel, D., Wald-Fuhrmann, M., & Larrouy-Maestri, P. (2023). Features underlying speech versus music as categories of auditory experience. Pre-print.
Conclusion
Ensemble, ces 10 expériences linguistiques ainsi que les exemples supplémentaires représentent non seulement ce que vous pouvez faire dans Labvanced, mais aussi comment des chercheurs de diverses universités étudient la parole et le langage, ainsi que la perception, en utilisant des expériences en ligne pour enregistrer des données et des réponses.