labvanced logoLabVanced
  • Research
    • Publications
    • Researcher Interviews
    • Use Cases
      • Developmental Psychology
      • Linguistics
      • Clinical & Digital Health
      • Educational Psychology
      • Cognitive & Neuro
      • Social & Personality
      • Arts Research
      • Sports & Movement
      • Marketing & Consumer Behavior
      • Economics
      • HCI / UX
      • Commercial / Industry Use
    • Labvanced Blog
  • Technology
    • Feature Overview
    • Desktop App
    • Phone App
    • Precise Timing
    • Experimental Control
    • Eye Tracking
    • Multi User Studies
    • More ...
      • Questionnaires
      • Artificial Intelligence (AI) Integration
      • Mouse Tracking
      • Data Privacy & Security
      • Text Transcription
      • Heart Rate Detection (rPPG)
  • Learn
    • Guide
    • Videos
    • Walkthroughs
    • FAQ
    • Release Notes
    • Documents
    • Classroom
  • Experiments
    • Cognitive Tests
    • Sample Studies
    • Public Experiment Library
  • Pricing
    • Licenses
    • Top-Up Recordings
    • Subject Recruitment
    • Study Building
    • Dedicated Support
    • Checkout
  • About
    • About Us
    • Contact
    • Downloads
    • Careers
    • Impressum
    • Disclaimer
    • Privacy & Security
    • Terms & Conditions
  • Appgo to app icon
  • Logingo to app icon
Learn
ガイド
ビデオ
ウォークスルー
FAQ
リリースノート
リリースノート
文書
教室
  • 中國人
  • Deutsch
  • Français
  • Español
  • English
  • 日本語
ガイド
ビデオ
ウォークスルー
FAQ
リリースノート
リリースノート
文書
教室
  • 中國人
  • Deutsch
  • Français
  • Español
  • English
  • 日本語
  • ガイド
    • はじめに

      • タスクエディタ
      • オブジェクト
      • イベント
      • 変数
      • タスクウィザード
      • トライアルシステム
      • 研究デザイン
        • タスク
        • ブロック
        • セッション
        • グループ
    • 特集トピック

      • ランダム化とバランス
      • 目の追跡
      • アンケート
      • デスクトップアプリ
      • サンプル研究
      • 参加者募集
      • APIアクセス
        • REST API
        • Webhook API
        • WebSocket API
      • その他のトピック

        • 正確な刺激タイミング
        • 複数ユーザーの研究
        • Labvancedにおけるヘッドトラッキング | ガイド
    • 主要アプリタブ

      • 概要: 主要タブ
      • ダッシュボード
      • 私の研究
      • 共有研究
      • 私のファイル
      • 実験ライブラリ
      • 私のアカウント
      • 私のライセンス
    • 研究タブ

      • 概要: 研究特有のタブ
      • 研究デザイン
        • タスク
        • ブロック
        • セッション
        • グループ
      • タスクエディタ
        • タスクコントロール
        • 試行システム
        • キャンバスとページフレーム
        • オブジェクト
        • オブジェクトプロパティテーブル
        • 変数
        • システム変数テーブル
        • イベントシステム
        • テキストエディタの機能
        • タスクにおけるアイ・トラッキング
        • タスクにおける頭追跡
        • マルチユーザー研究
      • 設定
      • 変数
      • メディア
      • テキストと翻訳
      • 開始と参加
      • 被験者管理
      • データビューとエクスポート
        • Dataview と変数 & タスクの選択 (古いバージョン)
        • 録音へのアクセス (古いバージョン)
  • ビデオ
    • ビデオの概要
    • Labvancedの使い方
    • タスクの作成
    • 要素ビデオ
    • イベントと変数
    • 高度なトピック
  • ウォークスルー
    • イントロダクション
    • ストループタスク
    • 語彙的決定タスク
    • ポズナー注視キューイングタスク
    • 変化盲点フリッカーパラダイム
    • 目の追跡サンプル研究
    • 乳児の目の追跡研究
    • マウストラッキングによる注目の取得研究
    • 高速串刺し視覚提示
    • ChatGPT研究
    • 目の追跡デモ: SVGをAOIとして
    • マルチユーザーデモ: 主題のカーソルを表示
    • ゲームパッド/ジョイスティックコントローラの基本設定
    • EEG統合のあるデスクトップアプリの研究
    • 被験者間のグループバランスと変数設定
  • FAQ
    • 機能
    • セキュリティとデータプライバシー
    • ライセンス
    • Labvancedの精度
    • プログラム利用とAPI
    • Labvancedをオフラインで使用する
    • トラブルシューティング
    • 研究作成に関する質問
  • リリースノート
  • ドキュメント
  • 教室

視線追跡タスクの作成

研究設定で視線追跡が有効になったら、実験に新しいタスクを追加し、実験コンテンツの設定を開始することができます。

研究のフレーム全体の背景色は、視線追跡の精度に影響を与えます。フレームが暗い色の場合、被写体の目は白または淡い色のフレームよりも十分に照らされません。この明るさは、微妙な目の動きを追跡するのに非常に役立ちます。

タスクに対する視線追跡のアクティベーション

エディタの左上隅にあるタスク設定をクリックし、生理信号に移動します。「このタスクで視線追跡を有効にする」の隣のボックスをクリックすると、さらにオプションが表示されます。

視線追跡は、実験の複数のタスクで有効にすることができることに注意することが重要です。しかし、主要なキャリブレーション(研究設定で指定された)は、視線追跡が有効になっている研究内の最初のタスクの開始前に1回のみ行われます。

主要なキャリブレーション中に指定された頭の姿勢/バーチャルチンレストは、視線追跡が有効になっている各トライアルの前に短時間確認されます。トライアル間でシステムを再キャリブレーションするために使用するキャリブレーションポイントの数を指定できます。これをゼロに設定すると再キャリブレーションが無効になります。

「ドリフト補正」の隣のボックスをチェックすると、被写体がある方向に自然に移動しようとする可能性を相殺し、追跡の誤差を減らします。このオプションの下のボックスで、ドリフト補正に使用するポイント/頭の姿勢の数を指定できます。デフォルトのトライアル数は6ですが、これは以前の再キャリブレーションを考慮した移動平均です。

設定を保存するには「Ok」をクリックしてください。

表示設定

デフォルトの表示モードはZoom/適応型で、実験コンテンツをすべての画面にフィットするようにスケーリングします。視線追跡実験において、ミリメートルまたは視覚度に固定するようにこのモードを変更することが有用です。これは、システムが被写体が視覚度またはミリメートル単位で目をどれだけ動かしたかを記録するため、測定がより正確になるためです。

表示モードをミリメートルまたは視覚度に変更した場合、研究設定タブに戻り、中央の列(ブラウザとデバイス)にある許可された画面サイズと解像度セクションに新しいオプションがあることを確認してください。参加者の画面の許可されるサイズをミリメートルまたは視覚度でより正確に指定できます。

視線追跡が有効になっているため、「物理サイズを推測するために画面キャリブレーション画面を表示する」というオプションはすでに選択されており、必須です。参加者は、画面のサイズを決定するために標準的なプラスチックカード(IDや地下鉄カードなど)を画面に向かって保持するように求められます。これは、この種のカードのサイズが世界中で標準であるため、正確です。

イベント設定

視線追跡の記録

  • イベントエディタから新しいイベントを追加します。
  • トリガーとして生理信号  視線追跡を選択します。この画面では、被写体が特定の要素を見たときにのみアクションをトリガーするオプションがあり、ターゲットとして追加できます。
  • アクションは変数アクション  変数を設定/記録とします。
    • 緑の選択ボックスをクリックして新しい変数を追加します。
      • フォーマットとして配列を選択します(推奨)。
      • データ型として数値を選択します。
      • 「トライアル開始時にリセット」、「変数を記録」、「グローバルリストに表示」のボックスがすべてチェック/有効になっていることを確認します。
      • 「記録タイプ」の下で、すべての変化/時系列のオプションをクリックします。これは、各トライアルの最終値のみではなく、複数の値を記録するために重要です。
    • ペンアイコンをクリックして、トリガー(視線追跡)を選択します。オプションのドロップダウンメニューが表示されます。「Coord.+Time+Confidence[X,Y,T,C]Array」を選択することをお勧めします。これにより、目の注視のX/Y座標、正確なタイムスタンプ、測定の信頼度の値を記録できます。このオプションは、必要なすべてのデータを提供するはずです。

エラーの記録

  • フレーム内のフレーム単位でエラーのサイズを記録したい場合は、別のイベントを追加します。
  • トリガーとして「フレーム開始時」を選択します。
  • アクションとして変数アクション  変数を設定/記録を選択します。
    • 緑の選択ボックスをクリックして変数を追加します。
    • ペンアイコンをクリックし、「フレーム/タスク/オブジェクト」  視線追跡  エラー試行にスクロールダウンします。
  • このプロセスを繰り返しますが、最終ステップでエラーキャリブレーションを選択し、主要なキャリブレーションのエラーを記録します。これにより、各被写体に対してキャリブレーションがどれほどうまく機能したかを知ることができます。