labvanced logoLabVanced
  • Research
    • Publications
    • Researcher Interviews
    • Use Cases
      • Developmental Psychology
      • Linguistics
      • Clinical & Digital Health
      • Educational Psychology
      • Cognitive & Neuro
      • Social & Personality
      • Arts Research
      • Sports & Movement
      • Marketing & Consumer Behavior
      • Economics
      • HCI / UX
      • Commercial / Industry Use
    • Labvanced Blog
  • Technology
    • Feature Overview
    • Desktop App
    • Phone App
    • Precise Timing
    • Experimental Control
    • Eye Tracking
    • Multi User Studies
    • More ...
      • Questionnaires
      • Artificial Intelligence (AI) Integration
      • Mouse Tracking
      • Data Privacy & Security
      • Text Transcription
  • Learn
    • Guide
    • Videos
    • Walkthroughs
    • FAQ
    • Release Notes
    • Documents
    • Classroom
  • Experiments
    • Cognitive Tests
    • Sample Studies
    • Public Experiment Library
  • Pricing
    • Pricing Overview
    • License Configurator
    • Single License
    • Research Group
    • Departments & Consortia
  • About
    • About Us
    • Contact
    • Downloads
    • Careers
    • Impressum
    • Disclaimer
    • Privacy & Security
    • Terms & Conditions
  • Appgo to app icon
  • Logingo to app icon
Learn
Guide
Vidéos
Didacticiels
FAQ
Notes de version
Notes de version
Documents
Salle de classe
  • 中國人
  • Deutsch
  • Français
  • Español
  • English
  • 日本語
Guide
Vidéos
Didacticiels
FAQ
Notes de version
Notes de version
Documents
Salle de classe
  • 中國人
  • Deutsch
  • Français
  • Español
  • English
  • 日本語
  • Guide
    • COMMENCER

      • Objets
      • Événements
      • Variables
      • Assistant de Tâche
      • Système d'Essai
      • Conception de l'Étude
        • Tâches
        • Blocs
        • Sessions
        • Groupes
    • SUJETS EN VEDETTE

      • Randomisation et Équilibre
      • Suivi Oculaire
      • Questionnaires
      • Application de Bureau
      • Études Exemples
      • Recrutement de Participants
      • Accès API
        • API REST
        • API Webhook
        • API WebSocket
      • Autres Sujets

        • Chronométrage Précis des Stimuli
        • Études Multi Utilisateurs
        • Suivi de la Tête dans Labvanced | Guide
    • ONGLET PRINCIPAL DE L'APPLICATION

      • Aperçu: Onglets Principaux
      • Tableau de Bord
      • Mes Études
      • Études Partagées
      • Mes Fichiers
      • Bibliothèque d'Expériences
      • Mon Compte
      • Ma Licence
    • ONGLETS D'ÉTUDE

      • Aperçu: Onglets Spécifiques à l'Étude
      • Conception de l'Étude
        • Tâches
        • Blocs
        • Sessions
        • Groupes
      • Éditeur de Tâches
        • Fonctions Principales et Paramètres
        • Le Système d'Essai
        • Cadres de canevas et de page
        • Objets
        • Tables de Propriétés des Objets
        • Variables
        • Tables des variables système
        • Le Système d'Événements
        • Randomisation des Essais
        • Fonctions de l'Éditeur de Texte
        • Suivi oculaire dans une tâche
        • Suivi de la tête dans une tâche
        • Études Multi-Utilisateurs
      • Paramètres
      • Variables
      • Médias
      • Textes et Traduire
      • Lancer et Participer
      • Gestion des Sujets
      • Vue de Données et Exportation
        • Vue des données et sélection des variables & des tâches (ancienne version)
        • Accéder aux Enregistrements (Version ANCIENNE)
  • Vidéos
    • Aperçu Vidéo
    • Commencer avec Labvanced
    • Créer des Tâches
    • Vidéos d'Éléments
    • Événements et Variables
    • Sujets Avancés
  • Guides
    • Introduction
    • Tâche de Stroop
    • Tâche de Décision Lexicale
    • Tâche de Cueillette de Regard de Posner
    • Paragraphe de Flic d'Agnosie
    • Étude Exemple de Suivi Oculaire
    • Étude de Suivi Oculaire de Nourrissons
    • Étude de Capture Attentionnelle avec Suivi de Souris
    • Présentation Visuelle Séquentielle Rapide
    • Étude ChatGPT
    • Démonstration de Suivi Oculaire: SVGs comme AOIs
    • Démonstration Multi-Utilisateur: Afficher les Curseurs des Sujets
    • Contrôleur de Jeu / Joystick - Configuration de Base
    • Étude Application de Bureau avec Intégration EEG
    • Équilibrage de Groupes entre Sujets et Configuration de Variables
  • FAQ
    • Fonctionnalités
    • Sécurité et Confidentialité des Données
    • Licences
    • Précision de Labvanced
    • Utilisation Programmatique et API
    • Utiliser Labvanced hors ligne
    • Dépannage
    • Questions sur la Création d'Études
  • Notes de Version
  • Documents
  • Salle de Classe

Envoyer à l'action OpenAI

Vue d'ensemble

L'action Envoyer à OpenAI vous permet d'envoyer des informations, telles qu'une valeur d'entrée de chaîne, à OpenAI. Vous pouvez spécifier un certain Type de Modèle pour recevoir l'invite dans le contexte de la génération de texte, d'image ou d'audio.

REMARQUE : Pour que cette option soit disponible, vous devez d'abord répertorier votre clé API dans l'onglet Paramètres.

L'action Envoyer à OpenAI dans le menu d'actions Labvanced.

Les options suivantes apparaîtront lorsque vous cliquerez sur cet événement :

Options pour l'action Envoyer à OpenAI.

En fonction de la Catégorie de Modèle choisie,

Catégorie de Modèle

Catégorie de ModèleDescription
ChatGPTEnvoyer une entrée de texte à OpenAI dans le but de générer une réponse textuelle.
Génération d'ImageEnvoyer une entrée de texte à OpenAI dans le cadre de la génération d'une image.
Générer de l'AudioEnvoyer une entrée de texte à OpenAI dans le but de générer de l'audio.

ChatGPT - Catégorie de Modèle

Voici un exemple fonctionnel de à quoi ressemble cet événement lorsque toutes les informations nécessaires sont fournies :

Exemple de l'action Envoyer à OpenAI utilisée pour générer du texte

Voici une explication plus approfondie des champs inclus sous l'action Envoyer à OpenAI avec ChatGPT sélectionné comme Catégorie de Modèle :

Élément de MenuOptions de l'Action 'Envoyer à OpenAI' - ChatGPT
Catégorie de ModèleSpécifie la catégorie du modèle IA pertinent pour l'action particulière. Dans ce cas, ChatGPT est sélectionné pour les scénarios texte-à-texte. Pour les autres options, comme la génération d'images ou d'audio, reportez-vous aux sections ci-dessous.
Version de ModèleSpécifie la version de ChatGPT qui doit être appelée lors de l'expérience. Les options disponibles varient de :
  • GPT-3.5-turbo
  • GPT-4
  • GPT-4o
  • GPT-4.1
  • GPT-5-nano
  • GPT-5-mini
  • GPT-5
Max TokensLes tokens max contrôlent la longueur maximale de la sortie de chat. Comme vous payez par token, cela peut être un moyen efficace de contrôler les coûts.
TempératureLa température contrôle la randomité/créativité dans les réponses. Sur cette échelle, 0 = plutôt déterministe et 2 = très aléatoire et créatif.
Historique de Discussion DataframeLien vers une variable de dataframe avec deux colonnes. La première colonne désignera le ‘rôle’ et la seconde colonne le ‘message de chat.’ Les valeurs de l'action seront automatiquement ajoutées au dataframe qui est lié ici.

Le dataframe peut également être manipulé avec des actions de dataframe. Pour des références supplémentaires, veuillez consulter les docs d'OpenAI.
Insérer Message ‘+’ En cliquant ici, la boîte de dialogue des variables apparaîtra. Vous devrez indiquer quelle valeur de ‘Variable’ est envoyée à OpenAI ainsi que le ‘rôle’ du message associé :
  • système : fait référence au système ChatGPT de haut niveau
  • utilisateur : le participant
  • assistant : fait référence à un sous-rôle spécifique créé au sein du système

REMARQUE 1 : Consultez également ce guide où nous construisons une étude étape par étape, intégrant ChatGPT dans une étude et utilisant cette action.


Génération d'Image - Catégorie de Modèle

Dans l'exemple ci-dessous, la variable qui stocke le texte écrit dans un Objet d'Entrée est définie comme le Prompt d'Image qui sera envoyé à OpenAI à la suite de cette action :

Exemple de l'action Envoyer à OpenAI utilisée dans le contexte de la génération d'images.

Démo Utile : Découvrez cette démo qui utilise la génération d'images via le Déclencheur et l'Action OpenAI. Le participant est invité à entrer un prompt et ce prompt est ensuite utilisé pour générer une image.

Voici une explication plus approfondie des champs inclus sous l'action Envoyer à OpenAI avec Génération d'Image sélectionnée comme Catégorie de Modèle :

Élément de MenuOptions de l'Action 'Envoyer à OpenAI' - Génération d'Image
Catégorie de ModèleSpécifie la catégorie du modèle IA pertinent pour l'action particulière. Dans ce cas, Génération d'Image est sélectionnée pour les scénarios texte-à-image. Pour les autres options, comme la génération d'images ou d'audio, reportez-vous aux sections ci-dessous.
Version de ModèleSpécifie la version de ChatGPT qui doit être appelée lors de l'expérience. Les options disponibles incluent :
  • GPT-image-1
  • DALL-E-3
Prompt d'ImageVous donne la possibilité de définir le prompt pour l'image qui doit être générée. Les approches populaires incluent la définition d'une Valeur Constante comme une chaîne de texte écrite ou l'utilisation d'une variable Objet d'Entrée et son lien ici.
Qualité de l'ImageVous invite à indiquer la qualité de l'image qui sera générée à la suite du prompt textuel lié ci-dessus. Les options incluent :
Ratio de l'ImageVous invite à indiquer le ratio de l'image qui sera générée.
Style de l'ImageDans le cas où DALL-E-3 est sélectionné comme Version de Modèle, cette option apparaît pour spécifier le style de l'image. Les options incluent : naturel et vif.

Générer de l'Audio - Catégorie de Modèle

Dans l'exemple ci-dessous, la variable qui stocke le texte écrit dans un Objet d'Entrée est définie comme le Prompt qui sera envoyé à OpenAI à la suite de cette action :

Exemple de l'action Envoyer à OpenAI utilisée dans le contexte de la génération audio.

Voici une explication plus approfondie des champs inclus sous l'action Envoyer à OpenAI avec Générer de l'Audio sélectionné comme Catégorie de Modèle :

Élément de MenuOptions de l'Action 'Envoyer à OpenAI' - Générer de l'Audio
Catégorie de ModèleSpécifie la catégorie du modèle IA pertinent pour l'action particulière. Dans ce cas, Générer de l'Audio est sélectionné pour les scénarios texte-à-audio. Pour les autres options, comme la génération d'images ou d'audio, reportez-vous aux sections ci-dessous.
Version de ModèleSpécifie la version de ChatGPT qui doit être appelée lors de l'expérience. Les options disponibles incluent :
  • GPT-4o-mini
PromptVous donne la possibilité de définir le prompt pour l'audio qui doit être généré. Les approches populaires incluent la définition d'une Valeur Constante comme une chaîne de texte écrite ou l'utilisation d'une variable Objet d'Entrée et son lien ici.
VoixDéfinissez le ton de voix qui doit être adopté pour l'audio généré. Les options disponibles incluent :
  • Alloy
  • Ash
  • Ballad
  • Coral
  • Echo
  • Onyx
  • Nova
  • Sage
  • Shimmer
  • Verse
InstructionsTapez des instructions supplémentaires pour la forme que l'audio généré doit prendre, comme 'Parler d'une voix neutre et calme...'

Démo Utile : Découvrez cette démo qui utilise la génération audio via le Déclencheur et l'Action OpenAI. Le texte parlé est généré via OpenAI et est utilisé dans le cadre de la lecture d'un paragraphe à haute voix aux participants pour lesquels ils doivent répondre à des questions à choix multiples.

Remarques Importantes

  • Comme OpenAI évolue quotidiennement, veuillez consulter les docs d'OpenAI pour de plus amples clarifications concernant le chat et envisagez de parcourir la documentation pour d'autres catégories de modèles, comme texte-à-audio.