labvanced logoLabVanced
  • Research
    • Publications
    • Researcher Interviews
    • Use Cases
      • Developmental Psychology
      • Linguistics
      • Clinical & Digital Health
      • Educational Psychology
      • Cognitive & Neuro
      • Social & Personality
      • Arts Research
      • Sports & Movement
      • Marketing & Consumer Behavior
      • Economics
      • HCI / UX
      • Commercial / Industry Use
    • Labvanced Blog
  • Technology
    • Feature Overview
    • Desktop App
    • Phone App
    • Precise Timing
    • Experimental Control
    • Eye Tracking
    • Multi User Studies
    • More ...
      • Questionnaires
      • Artificial Intelligence (AI) Integration
      • Mouse Tracking
      • Data Privacy & Security
      • Text Transcription
  • Learn
    • Guide
    • Videos
    • Walkthroughs
    • FAQ
    • Release Notes
    • Documents
    • Classroom
  • Experiments
    • Cognitive Tests
    • Sample Studies
    • Public Experiment Library
  • Pricing
    • Pricing Overview
    • License Configurator
    • Single License
    • Research Group
    • Departments & Consortia
  • About
    • About Us
    • Contact
    • Downloads
    • Careers
    • Impressum
    • Disclaimer
    • Privacy & Security
    • Terms & Conditions
  • Appgo to app icon
  • Logingo to app icon
Learn
Leitfaden
Videos
Anleitungen
Häufige Fragen
Versionshinweise
Versionshinweise
Dokumente
Klassenzimmer
  • 中國人
  • Deutsch
  • Français
  • Español
  • English
  • 日本語
Leitfaden
Videos
Anleitungen
Häufige Fragen
Versionshinweise
Versionshinweise
Dokumente
Klassenzimmer
  • 中國人
  • Deutsch
  • Français
  • Español
  • English
  • 日本語
  • Leitfaden
    • EINSTIEG

      • Objekte
      • Ereignisse
      • Variablen
      • Aufgabenassistent
      • Versuchsplan
      • Studien Design
        • Aufgaben
        • Blöcke
        • Sitzungen
        • Gruppen
    • HERVORGEHOBENE THEMEN

      • Randomisierung & Ausgewogenheit
      • Blickverfolgung
      • Fragebögen
      • Desktop-App
      • Beispielstudien
      • Teilnehmerrekrutierung
      • API-Zugriff
        • REST API
        • Webhook-API
        • WebSocket API
      • Weitere Themen

        • Präzise Stimulus-Zeiten
        • Multi-User-Studien
        • Kopfverfolgung in Labvanced | Anleitung
    • HAUPT-APP-TABS

      • Überblick: Haupt-Tabs
      • Dashboard
      • Meine Studien
      • Geteilte Studien
      • Meine Dateien
      • Experimentbibliothek
      • Mein Konto
      • Meine Lizenz
    • STUDIENTABS

      • Überblick: Studien-Spezifische Tabs
      • Studien Design
        • Aufgaben
        • Blöcke
        • Sitzungen
        • Gruppen
      • Aufgaben-Editor
        • Hauptfunktionen und Einstellungen
        • Das Versuchssystem
        • Canvas- und Seitenrahmen
        • Objekte
        • Objekt Eigenschaften Tabellen
        • Variablen
        • Systemvariablen-Tabellen
        • Das Ereignissystem
        • Versuchszufälligkeit
        • Texteditor-Funktionen
        • Eyetracking in einer Aufgabe
        • Kopfverfolgung in einer Aufgabe
        • Multi-User-Studien
      • Einstellungen
      • Variablen
      • Medien
      • Texte & Übersetzen
      • Starten & Teilnehmen
      • Teilnehmerverwaltung
      • Datensicht und Export
        • Datensicht und Variablen- & Aufgaben Auswahl (alte Version)
        • Zugriff auf Aufnahmen (ALTE Version)
  • Videos
    • Video Überblick
    • Einstieg in Labvanced
    • Aufgaben erstellen
    • Element Videos
    • Ereignisse & Variablen
    • Erweiterte Themen
  • Anleitungen
    • Einführung
    • Stroop-Aufgabe
    • Lexikalische Entscheidungsaufgabe
    • Posner-Blickführungstest
    • Change Blindness Flicker Paradigma
    • Blickverfolgungsbeispielstudie
    • Blickverfolgungsstudie bei Säuglingen
    • Aufmerksamkeitserfassung Studie mit Mausverfolgung
    • Schnelle serielle visuelle Präsentation
    • ChatGPT Studie
    • Blickverfolgungsdemo: SVGs als AOIs
    • Multi-User-Demo: Zeige den Cursor der Teilnehmer
    • Gamepad / Joystick Controller- Grundlegende Einrichtung
    • Desktop-App-Studie mit EEG-Integration
    • Gruppenausgleich zwischen Subjekten und Variablen Einrichtung
  • FAQ
    • Funktionen
    • Sicherheit & Datenschutz
    • Lizenzierung
    • Präzision von Labvanced
    • Programmgesteuerte Nutzung & API
    • Labvanced offline nutzen
    • Fehlerbehebung
    • Fragen zur Studienerstellung
  • Versionshinweise
  • Dokumente
  • Klassenraum

Sende an OpenAI Aktion

Übersicht

Die Sende an OpenAI Aktion ermöglicht es Ihnen, Informationen, wie einen Zeichenfolgen-Eingabewert, an OpenAI zu senden. Sie können einen bestimmten Modelltyp angeben, um die Eingabe im Kontext der Text-, Bild- oder Audioerzeugung zu erhalten.

HINWEIS: Damit diese Option verfügbar ist, müssen Sie zunächst Ihren API-Schlüssel im Tab Einstellungen auflisten.

Die Sende an OpenAI Aktion im Labvanced Aktionsmenü.

Die folgenden Optionen werden angezeigt, wenn Sie dieses Ereignis anklicken:

Optionen für die Sende an OpenAI Aktion.

Basierend auf der gewählten Modellkategorie,

Modellkategorie

ModellkategorieBeschreibung
ChatGPTText-Eingaben an OpenAI senden, um eine textbasierte Antwort zu generieren.
BildgenerierungText-Eingaben an OpenAI senden, um ein Bild zu generieren.
Audio erzeugenText-Eingaben an OpenAI senden, um Audio zu erzeugen.

ChatGPT - Modellkategorie

Hier ist ein funktionales Beispiel, wie dieses Ereignis aussieht, wenn alle notwendigen Informationen bereitgestellt werden:

Beispiel für die Sende an OpenAI Aktion zur Generierung von Text

Hier ist eine tiefere Erklärung der Felder, die in der Aktion Sende an OpenAI enthalten sind, mit ChatGPT als Modellkategorie ausgewählt:

MenüpunktOptionen der 'Sende an OpenAI' Aktion - ChatGPT
ModellkategorieGibt die AI-Modellkategorie an, die für die jeweilige Aktion relevant ist. In diesem Fall ist ChatGPT für text-to-text Szenarien ausgewählt. Für die anderen Optionen, wie Bild- oder Audioerzeugung, siehe die Abschnitte unten.
ModellversionGibt die ChatGPT-Version an, die während des Experiments angesprochen werden soll. Verfügbare Optionen sind:
  • GPT-3.5-turbo
  • GPT-4
  • GPT-4o
  • GPT-4.1
  • GPT-5-nano
  • GPT-5-mini
  • GPT-5
Max TokensMax Tokens steuert, wie lang die Chat-Ausgabe maximal sein kann. Da Sie pro Token zahlen, kann dies eine effektive Möglichkeit sein, die Kosten zu kontrollieren.
TemperaturDie Temperatur steuert die Zufälligkeit/Kreativität in den Antworten. Auf dieser Skala ist 0 = eher deterministisch und 2 = höchst zufällig und kreativ.
Chatverlauf-DatenrahmenLink zu einer Datenrahmen-Variable mit zwei Spalten. Die erste Spalte bezeichnet die ‚Rolle‘ und die zweite Spalte die ‚Chat-Nachricht.‘ Die Werte aus der Aktion werden automatisch an den hier verlinkten Datenrahmen angehängt.

Der Datenrahmen kann auch mit Datenrahmen-Aktionen bearbeitet werden. Für weitere Hinweise siehe die Dokumentation von OpenAI.
Nachricht einfügen ‘+’ Bei Klick darauf erscheint das Variable-Dialogfeld. Sie müssen angeben, welcher ‚Variablen‘-Wert an OpenAI gesendet wird, sowie die ‚Rolle‘ der zugehörigen Nachricht:
  • system: bezieht sich auf das übergeordnete ChatGPT-System
  • user: der Teilnehmer
  • assistant: bezieht sich auf eine spezifische Unterrolle, die innerhalb des Systems erstellt wurde

HINWEIS 1: Siehe auch diese Schritt-für-Schritt-Anleitung, in der wir eine Studie Schritt für Schritt aufbauen, indem wir ChatGPT in eine Studie integrieren und diese Aktion nutzen.


Bildgenerierung - Modellkategorie

Im folgenden Beispiel ist die Variable, die den Text speichert, der in einem Eingabewert geschrieben wurde, so eingestellt, dass sie als Bildaufforderung an OpenAI gesendet wird, als Ergebnis dieser Aktion:

Beispiel für die Sende an OpenAI Aktion im Kontext der Bildgenerierung.

Nützliche Demo: Schauen Sie sich diese Demo an, die Bildgenerierung über den OpenAI Trigger und die Aktion nutzt. Der Teilnehmer wird aufgefordert, eine Aufforderung einzugeben, und diese Aufforderung wird dann verwendet, um ein Bild zu generieren.

Hier ist eine tiefere Erklärung der Felder, die in der Aktion Sende an OpenAI enthalten sind, mit Bildgenerierung als Modellkategorie ausgewählt:

MenüpunktOptionen der 'Sende an OpenAI' Aktion - Bildgenerierung
ModellkategorieGibt die AI-Modellkategorie an, die für die jeweilige Aktion relevant ist. In diesem Fall ist Bildgenerierung für Text-zu-Bild-Szenarien ausgewählt. Für die anderen Optionen, wie Bild- oder Audioerzeugung, siehe die Abschnitte unten.
ModellversionGibt die ChatGPT-Version an, die während des Experiments angesprochen werden soll. Verfügbare Optionen sind:
  • GPT-image-1
  • DALL-E-3
BildaufforderungGibt Ihnen die Möglichkeit, die Aufforderung für das Bild festzulegen, das generiert werden soll. Beliebte Ansätze sind das Festlegen eines Konstanten Wertes wie einer Zeichenfolge oder die Verwendung einer Eingabeobjekt-Variable, die hier verlinkt wird.
BildqualitätFordert Sie auf, die Qualität des Bildes anzugeben, das als Ergebnis der oben verlinkten textbasierten Aufforderung generiert wird. Optionen sind:
BildverhältnisFordert Sie auf, das Verhältnis des Bildes anzugeben, das generiert wird.
BildstilIm Fall, dass DALL-E-3 als Modellversion ausgewählt wird, erscheint diese Option, um den Bildstil festzulegen. Optionen sind: natürlich und lebendig.

Audio erzeugen - Modellkategorie

Im folgenden Beispiel ist die Variable, die den Text speichert, der in einem Eingabewert geschrieben wurde, so eingestellt, dass sie als Aufforderung an OpenAI gesendet wird, als Ergebnis dieser Aktion:

Beispiel für die Sende an OpenAI Aktion im Kontext der Audioerzeugung.

Hier ist eine tiefere Erklärung der Felder, die in der Aktion Sende an OpenAI enthalten sind, mit Audio erzeugen als Modellkategorie ausgewählt:

MenüpunktOptionen der 'Sende an OpenAI' Aktion - Audio erzeugen
ModellkategorieGibt die AI-Modellkategorie an, die für die jeweilige Aktion relevant ist. In diesem Fall ist Audio erzeugen für Text-zu-Audio-Szenarien ausgewählt. Für die anderen Optionen, wie Bild- oder Audioerzeugung, siehe die Abschnitte unten.
ModellversionGibt die ChatGPT-Version an, die während des Experiments angesprochen werden soll. Verfügbare Optionen sind:
  • GPT-4o-mini
AufforderungGibt Ihnen die Möglichkeit, die Aufforderung für das Audio festzulegen, das generiert werden soll. Beliebte Ansätze sind das Festlegen eines Konstanten Wertes wie einer Zeichenfolge oder die Verwendung einer Eingabeobjekt-Variable, die hier verlinkt wird.
StimmeLegen Sie den Stimmton fest, der für das generierte Audio verwendet werden soll. Verfügbare Optionen sind:
  • Alloy
  • Ash
  • Ballade
  • Koralle
  • Echo
  • Onyx
  • Nova
  • Sage
  • Shimmer
  • Vers
AnweisungenGeben Sie weitere Anweisungen ein, damit das generierte Audio Form annimmt, z. B. 'In einer neutralen und ruhigen Stimme sprechen...'

Nützliche Demo: Schauen Sie sich diese Demo an, die Audioerzeugung über den OpenAI Trigger und die Aktion nutzt. Der gesprochene Text wird über OpenAI generiert und im Kontext des Vorlesens eines Absatzes an die Teilnehmer verwendet, zu dem sie multiple-choice Fragen beantworten müssen.

Wichtige Hinweise

  • Da OpenAI täglich weiterentwickelt wird, überprüfen Sie bitte die Dokumentation von OpenAI für weitere Klarstellungen bezüglich des Chats und ziehen Sie in Betracht, durch die Dokumentation für andere Modellkategorien wie Text-zu-Audio zu browsen.