labvanced logoLabVanced
  • Research
    • Publications
    • Researcher Interviews
    • Use Cases
      • Developmental Psychology
      • Linguistics
      • Clinical & Digital Health
      • Educational Psychology
      • Cognitive & Neuro
      • Social & Personality
      • Arts Research
      • Sports & Movement
      • Marketing & Consumer Behavior
      • Economics
      • HCI / UX
      • Commercial / Industry Use
    • Labvanced Blog
  • Technology
    • Feature Overview
    • Desktop App
    • Phone App
    • Precise Timing
    • Experimental Control
    • Eye Tracking
    • Multi User Studies
    • More ...
      • Questionnaires
      • Artificial Intelligence (AI) Integration
      • Mouse Tracking
      • Data Privacy & Security
      • Text Transcription
      • Heart Rate Detection (rPPG)
  • Learn
    • Guide
    • Videos
    • Walkthroughs
    • FAQ
    • Release Notes
    • Documents
    • Classroom
  • Experiments
    • Cognitive Tests
    • Sample Studies
    • Public Experiment Library
  • Pricing
    • Pricing Overview
    • License Configurator
    • Single License
    • Research Group
    • Departments & Consortia
  • About
    • About Us
    • Contact
    • Downloads
    • Careers
    • Impressum
    • Disclaimer
    • Privacy & Security
    • Terms & Conditions
  • Appgo to app icon
  • Logingo to app icon
Learn
Guide
Vidéos
Didacticiels
FAQ
Notes de version
Notes de version
Documents
Salle de classe
  • 中國人
  • Deutsch
  • Français
  • Español
  • English
  • 日本語
Guide
Vidéos
Didacticiels
FAQ
Notes de version
Notes de version
Documents
Salle de classe
  • 中國人
  • Deutsch
  • Français
  • Español
  • English
  • 日本語
  • Guide
    • DÉMARRAGE

      • Éditeur de tâche
      • Objets
      • Événements
      • Variables
      • Assistant de tâche
      • Système d'essai
      • Conception de l'étude
        • Tâches
        • Blocs
        • Sessions
        • Groupes
    • SUJETS EN VEDETTE

      • Randomisation & Équilibre
      • Suivi oculaire
      • Questionnaires
      • Application de bureau
      • Études d'exemple
      • Recrutement de participants
      • Accès API
        • API REST
        • API Webhook
        • API WebSocket
      • Autres sujets

        • Temps de stimulus précis
        • Études multi-utilisateurs
        • Suivi de la Tête dans Labvanced | Guide
    • TABS PRINCIPAUX DE L'APPLICATION

      • Aperçu : Onglets principaux
      • Tableau de bord
      • Mes études
      • Études partagées
      • Mes fichiers
      • Bibliothèque d'expériences
      • Mon compte
      • Ma licence
    • TABS D'ÉTUDE

      • Aperçu : Onglets spécifiques à l'étude
      • Conception de l'étude
        • Tâches
        • Blocs
        • Sessions
        • Groupes
      • Éditeur de tâche
        • Contrôles des tâches
        • Le Système d'Essai
        • Cadres de canevas et de page
        • Objets
        • Tables de Propriétés des Objets
        • Variables
        • Tables des variables système
        • Le Système d'Événements
        • Fonctions de l'Éditeur de Texte
        • Suivi oculaire dans une tâche
        • Suivi de la tête dans une tâche
        • Études Multi-Utilisateurs
      • Paramètres
      • Variables
      • Médias
      • Textes & Traduire
      • Lancer & Participer
      • Gestion des sujets
      • Vue des données et Exportation
        • Vue des données et sélection des variables & des tâches (ancienne version)
        • Accéder aux Enregistrements (Version ANCIENNE)
  • Vidéos
    • Aperçu vidéo
    • Démarrer dans Labvanced
    • Créer des tâches
    • Vidéos d'éléments
    • Événements & Variables
    • Sujets avancés
  • Guides
    • Introduction
    • Tâche de Stroop
    • Tâche de décision lexicale
    • Tâche de suivi de regard de Posner
    • Paradygme de clignotement de cécité au changement
    • Étude de suivi oculaire
    • Étude de suivi oculaire chez les nourrissons
    • Étude de capture attentionnelle avec suivi de souris
    • Présentation visuelle sérielle rapide
    • Étude ChatGPT
    • Démonstration de suivi oculaire : SVG en tant que AOI
    • Démonstration multi-utilisateur : Afficher les curseurs des sujets
    • Manette / Contrôleur de joystick - Configuration de base
    • Étude d'application de bureau avec intégration EEG
    • Équilibrage de groupe entre les sujets et configuration des variables
  • FAQ
    • Fonctionnalités
    • Sécurité & Confidentialité des données
    • Licences
    • Précision de Labvanced
    • Utilisation programmatique & API
    • Utiliser Labvanced hors ligne
    • Dépannage
    • Questions sur la création d'études
  • Notes de version
  • Documents
  • Salle de classe

Envoyer à l'action OpenAI

Vue d'ensemble

L'action Envoyer à OpenAI vous permet d'envoyer des informations, telles qu'une valeur d'entrée de chaîne, à OpenAI. Vous pouvez spécifier un certain Type de Modèle pour recevoir l'invite dans le contexte de la génération de texte, d'image ou d'audio.

REMARQUE : Pour que cette option soit disponible, vous devez d'abord répertorier votre clé API dans l'onglet Paramètres.

L'action Envoyer à OpenAI dans le menu d'actions Labvanced.

Les options suivantes apparaîtront lorsque vous cliquerez sur cet événement :

Options pour l'action Envoyer à OpenAI.

En fonction de la Catégorie de Modèle choisie,

Catégorie de Modèle

Catégorie de ModèleDescription
ChatGPTEnvoyer une entrée de texte à OpenAI dans le but de générer une réponse textuelle.
Génération d'ImageEnvoyer une entrée de texte à OpenAI dans le cadre de la génération d'une image.
Générer de l'AudioEnvoyer une entrée de texte à OpenAI dans le but de générer de l'audio.

ChatGPT - Catégorie de Modèle

Voici un exemple fonctionnel de à quoi ressemble cet événement lorsque toutes les informations nécessaires sont fournies :

Exemple de l'action Envoyer à OpenAI utilisée pour générer du texte

Voici une explication plus approfondie des champs inclus sous l'action Envoyer à OpenAI avec ChatGPT sélectionné comme Catégorie de Modèle :

Élément de MenuOptions de l'Action 'Envoyer à OpenAI' - ChatGPT
Catégorie de ModèleSpécifie la catégorie du modèle IA pertinent pour l'action particulière. Dans ce cas, ChatGPT est sélectionné pour les scénarios texte-à-texte. Pour les autres options, comme la génération d'images ou d'audio, reportez-vous aux sections ci-dessous.
Version de ModèleSpécifie la version de ChatGPT qui doit être appelée lors de l'expérience. Les options disponibles varient de :
  • GPT-3.5-turbo
  • GPT-4
  • GPT-4o
  • GPT-4.1
  • GPT-5-nano
  • GPT-5-mini
  • GPT-5
Max TokensLes tokens max contrôlent la longueur maximale de la sortie de chat. Comme vous payez par token, cela peut être un moyen efficace de contrôler les coûts.
TempératureLa température contrôle la randomité/créativité dans les réponses. Sur cette échelle, 0 = plutôt déterministe et 2 = très aléatoire et créatif.
Historique de Discussion DataframeLien vers une variable de dataframe avec deux colonnes. La première colonne désignera le ‘rôle’ et la seconde colonne le ‘message de chat.’ Les valeurs de l'action seront automatiquement ajoutées au dataframe qui est lié ici.

Le dataframe peut également être manipulé avec des actions de dataframe. Pour des références supplémentaires, veuillez consulter les docs d'OpenAI.
Insérer Message ‘+’ En cliquant ici, la boîte de dialogue des variables apparaîtra. Vous devrez indiquer quelle valeur de ‘Variable’ est envoyée à OpenAI ainsi que le ‘rôle’ du message associé :
  • système : fait référence au système ChatGPT de haut niveau
  • utilisateur : le participant
  • assistant : fait référence à un sous-rôle spécifique créé au sein du système

REMARQUE 1 : Consultez également ce guide où nous construisons une étude étape par étape, intégrant ChatGPT dans une étude et utilisant cette action.


Génération d'Image - Catégorie de Modèle

Dans l'exemple ci-dessous, la variable qui stocke le texte écrit dans un Objet d'Entrée est définie comme le Prompt d'Image qui sera envoyé à OpenAI à la suite de cette action :

Exemple de l'action Envoyer à OpenAI utilisée dans le contexte de la génération d'images.

Démo Utile : Découvrez cette démo qui utilise la génération d'images via le Déclencheur et l'Action OpenAI. Le participant est invité à entrer un prompt et ce prompt est ensuite utilisé pour générer une image.

Voici une explication plus approfondie des champs inclus sous l'action Envoyer à OpenAI avec Génération d'Image sélectionnée comme Catégorie de Modèle :

Élément de MenuOptions de l'Action 'Envoyer à OpenAI' - Génération d'Image
Catégorie de ModèleSpécifie la catégorie du modèle IA pertinent pour l'action particulière. Dans ce cas, Génération d'Image est sélectionnée pour les scénarios texte-à-image. Pour les autres options, comme la génération d'images ou d'audio, reportez-vous aux sections ci-dessous.
Version de ModèleSpécifie la version de ChatGPT qui doit être appelée lors de l'expérience. Les options disponibles incluent :
  • GPT-image-1
  • DALL-E-3
Prompt d'ImageVous donne la possibilité de définir le prompt pour l'image qui doit être générée. Les approches populaires incluent la définition d'une Valeur Constante comme une chaîne de texte écrite ou l'utilisation d'une variable Objet d'Entrée et son lien ici.
Qualité de l'ImageVous invite à indiquer la qualité de l'image qui sera générée à la suite du prompt textuel lié ci-dessus. Les options incluent :
Ratio de l'ImageVous invite à indiquer le ratio de l'image qui sera générée.
Style de l'ImageDans le cas où DALL-E-3 est sélectionné comme Version de Modèle, cette option apparaît pour spécifier le style de l'image. Les options incluent : naturel et vif.

Générer de l'Audio - Catégorie de Modèle

Dans l'exemple ci-dessous, la variable qui stocke le texte écrit dans un Objet d'Entrée est définie comme le Prompt qui sera envoyé à OpenAI à la suite de cette action :

Exemple de l'action Envoyer à OpenAI utilisée dans le contexte de la génération audio.

Voici une explication plus approfondie des champs inclus sous l'action Envoyer à OpenAI avec Générer de l'Audio sélectionné comme Catégorie de Modèle :

Élément de MenuOptions de l'Action 'Envoyer à OpenAI' - Générer de l'Audio
Catégorie de ModèleSpécifie la catégorie du modèle IA pertinent pour l'action particulière. Dans ce cas, Générer de l'Audio est sélectionné pour les scénarios texte-à-audio. Pour les autres options, comme la génération d'images ou d'audio, reportez-vous aux sections ci-dessous.
Version de ModèleSpécifie la version de ChatGPT qui doit être appelée lors de l'expérience. Les options disponibles incluent :
  • GPT-4o-mini
PromptVous donne la possibilité de définir le prompt pour l'audio qui doit être généré. Les approches populaires incluent la définition d'une Valeur Constante comme une chaîne de texte écrite ou l'utilisation d'une variable Objet d'Entrée et son lien ici.
VoixDéfinissez le ton de voix qui doit être adopté pour l'audio généré. Les options disponibles incluent :
  • Alloy
  • Ash
  • Ballad
  • Coral
  • Echo
  • Onyx
  • Nova
  • Sage
  • Shimmer
  • Verse
InstructionsTapez des instructions supplémentaires pour la forme que l'audio généré doit prendre, comme 'Parler d'une voix neutre et calme...'

Démo Utile : Découvrez cette démo qui utilise la génération audio via le Déclencheur et l'Action OpenAI. Le texte parlé est généré via OpenAI et est utilisé dans le cadre de la lecture d'un paragraphe à haute voix aux participants pour lesquels ils doivent répondre à des questions à choix multiples.

Remarques Importantes

  • Comme OpenAI évolue quotidiennement, veuillez consulter les docs d'OpenAI pour de plus amples clarifications concernant le chat et envisagez de parcourir la documentation pour d'autres catégories de modèles, comme texte-à-audio.