labvanced logoLabVanced
  • Research
    • Publications
    • Researcher Interviews
    • Use Cases
      • Developmental Psychology
      • Linguistics
      • Clinical & Digital Health
      • Educational Psychology
      • Cognitive & Neuro
      • Social & Personality
      • Arts Research
      • Sports & Movement
      • Marketing & Consumer Behavior
      • Economics
      • HCI / UX
      • Commercial / Industry Use
    • Labvanced Blog
    • Services
  • Technology
    • Feature Overview
    • Code-Free Study Building
    • Eye Tracking
    • Mouse Tracking
    • Generative AI Integration
    • Multi User Studies
    • More ...
      • Reaction Time/Precise Timing
      • Text Transcription
      • Heart Rate Detection (rPPG)
      • Questionnaires/Surveys
      • Experimental Control
      • Data Privacy & Security
      • Desktop App
      • Mobile App
  • Learn
    • Guide
    • Videos
    • Walkthroughs
    • FAQ
    • Release Notes
    • Documents
    • Classroom
  • Experiments
    • Cognitive Tests
    • Sample Studies
    • Public Experiment Library
  • Pricing
    • Licenses
    • Top-Up Recordings
    • Subject Recruitment
    • Study Building
    • Dedicated Support
    • Checkout
  • About
    • About Us
    • Contact
    • Downloads
    • Careers
    • Impressum
    • Disclaimer
    • Privacy & Security
    • Terms & Conditions
  • Appgo to app icon
  • Logingo to app icon
Learn
ガイド
ビデオ
ウォークスルー
FAQ
リリースノート
リリースノート
文書
教室
  • 中國人
  • Deutsch
  • Français
  • Español
  • English
  • 日本語
ガイド
ビデオ
ウォークスルー
FAQ
リリースノート
リリースノート
文書
教室
  • 中國人
  • Deutsch
  • Français
  • Español
  • English
  • 日本語
  • ガイド
    • はじめに

      • タスクエディタ
      • オブジェクト
      • イベント
      • 変数
      • タスクウィザード
      • トライアルシステム
      • 研究デザイン
        • タスク
        • ブロック
        • セッション
        • グループ
    • 特集トピック

      • ランダム化とバランス
      • 目の追跡
      • アンケート
      • デスクトップアプリ
      • サンプル研究
      • 参加者募集
      • APIアクセス
        • REST API
        • Webhook API
        • WebSocket API
      • その他のトピック

        • 正確な刺激タイミング
        • 複数ユーザーの研究
        • Labvancedにおけるヘッドトラッキング | ガイド
    • 主要アプリタブ

      • 概要: 主要タブ
      • ダッシュボード
      • 私の研究
      • 共有研究
      • 私のファイル
      • 実験ライブラリ
      • 私のアカウント
      • 私のライセンス
    • 研究タブ

      • 概要: 研究特有のタブ
      • 研究デザイン
        • タスク
        • ブロック
        • セッション
        • グループ
      • タスクエディタ
        • タスクコントロール
        • 試行システム
        • キャンバスとページフレーム
        • オブジェクト
        • オブジェクトプロパティテーブル
        • 変数
        • システム変数テーブル
        • イベントシステム
        • テキストエディタの機能
        • タスクにおけるアイ・トラッキング
        • タスクにおける頭追跡
        • マルチユーザー研究
      • 設定
      • 変数
      • メディア
      • テキストと翻訳
      • 開始と参加
      • 被験者管理
      • データビューとエクスポート
        • Dataview と変数 & タスクの選択 (古いバージョン)
        • 録音へのアクセス (古いバージョン)
  • ビデオ
    • ビデオの概要
    • Labvancedの使い方
    • タスクの作成
    • 要素ビデオ
    • イベントと変数
    • 高度なトピック
  • ウォークスルー
    • イントロダクション
    • ストループタスク
    • 語彙的決定タスク
    • ポズナー注視キューイングタスク
    • 変化盲点フリッカーパラダイム
    • 目の追跡サンプル研究
    • 乳児の目の追跡研究
    • マウストラッキングによる注目の取得研究
    • 高速串刺し視覚提示
    • ChatGPT研究
    • 目の追跡デモ: SVGをAOIとして
    • マルチユーザーデモ: 主題のカーソルを表示
    • ゲームパッド/ジョイスティックコントローラの基本設定
    • EEG統合のあるデスクトップアプリの研究
    • 被験者間のグループバランスと変数設定
  • FAQ
    • 機能
    • セキュリティとデータプライバシー
    • ライセンス
    • Labvancedの精度
    • プログラム利用とAPI
    • Labvancedをオフラインで使用する
    • トラブルシューティング
    • 研究作成に関する質問
  • リリースノート
  • ドキュメント
  • 教室

タスクにおける頭追跡

説明

頭追跡を有効にした新しいタスクを作成するには、単にあなたの研究内で新しいタスクを作成してください。

タスク設定 の下にある 生理信号 タブに移動すると、クリック一つで頭追跡を有効にできます。

イベント、アクションおよび変数

この機能をあなたの実験で活用するためには、イベントを作成する必要があります。エディタの右側にある「イベント」タブに移動し選択した後、‘フレームイベント’をクリックします。ダイアログボックスが表示され、そこでイベントに名前を付け、指定されたイベントの発生時に発生するトリガー/アクションを設定します。この場合、目標は頭の位置や動きに基づいてデータポイントを記録する変数を設定することです。

  • イベント > フレームイベント
  • イベントに名前/説明を付ける > 次へ

Labvancedでのイベント作成

これが終わると、ダイアログボックスがイベントのトリガータイプを指定するよう促します。

  • トリガータイプの選択 > 生理信号 > 頭追跡 > 次へ

トリガーとして生理信号、具体的には頭追跡を選択

‘頭追跡’を選択し、ダイアログボックスを進めるために‘次へ’をクリックすると、検出された頭の位置または動きの変化に対してどのアクションが発生するかを指定する時が来ました。この場合、‘アクション’の目的は、時間に基づいて頭の位置または動きを基にデータを記録することです。‘頭追跡’オプションを選択すると、このイベントは自動的に頭の向きの変化や動きによってトリガーされることがわかるでしょう:

Labvancedにおけるオンライン実験のトリガーとして頭追跡が選ばれた

イベントシステムの次のステップに進むには、データが記録され、保存されるために、以下の手順でアクションを追加する必要があります。

  • 変数アクション > 変数を設定 / 記録する

頭追跡実験中に記録される変数を指定

これが完了すると、以下に示すインターフェースを使用して:

  1. データが保存される変数を‘選択’し
  2. 計測したい生理信号を鉛筆 / ペンアイコンをクリックして指定できます

頭追跡実験中に記録される変数を設定するためのダイアログボックス

選択をクリックすることで、測定値を保存したい変数を指定または作成できます。以下の例では、‘新しい変数’を作成しています。変数の名称はHead_Turnで、フォーマットはスカラーです。これは、測定が単一の数字であるためです。また、この変数は時間を通じて記録されるため、‘全ての変化/時系列’オプションも選択する必要があります。

  • 注: 変数に関する詳細情報は、変数セクションをご参照ください。

頭の回転動作を記録するための新しい変数を作成するためのダイアログボックス

この変数が作成されると、鉛筆アイコンをクリックして、頭の回転行動のどの側面を測定したいかを指定できます。以下の例では、指定した変数名に基づいて、Head Turn生理的測定が追跡されます。

  • 注: 頭追跡関連の測定についての他の選択肢は、後で少し詳しく説明します。

Head_Turn変数のために記録される頭の回転の生理的側面を指定

この例では、新しい変数を作成し、記録されるベクトルオプションを選択するために、変数名をNose_Vectorとしています。複数の値が記録される場合、フォーマットは配列オプションが選択されます。また、時間を通して複数の値があるため、’記録タイプ’の‘全ての変化 / 時系列’オプションが選択されます。

鼻ベクトルを測定するために特に配列のための頭追跡の新しい変数を作成

この変数が作成されたら、‘アクション’メニューからNose Vectorオプションが選択されます。

  • トリガー(頭追跡)> Nose Vector [ X,Y,Z,T ] 配列

‘アクション’メニューには、これまでに行った操作に基づいて次の変数がリスト表示されます:

Labvancedでの頭追跡動作を測定するために作成されたイベントの概要

頭追跡オプション

このセクションでは、各ドロップダウンオプションの説明と、提供される測定の種類を説明します。

Labvancedでの頭追跡記録中の生理的測定オプションの概要

上のドロップダウンに見られるように、頭の位置や向きに関連するデータを記録するための次のオプションが提供されています:

  • カメラキャプチャ時間 T: カメラがフレームをキャプチャした時間、すなわちキャプチャが発生した時点のUNIXタイムスタンプ。これは、画像/フレームが処理される前にキャプチャされた時間です。
  • 頭の回転: 左から右への頭の回転、これは文献ではヨーと呼ばれています。
  • 頭の傾き: 上から下への頭の傾き、文献ではピッチと呼ばれています。
  • 頭のロール: 側面から側面への頭のロールの動きをキャプチャします。
  • 頭の位置 [X,Y,T] 配列: この配列は頭の位置に関連する数値をキャプチャします。これには、頭の中心に対するx座標とy座標、およびタイムスタンプ変数(T)が含まれます。
  • 鼻の位置 [X,Y,T] 配列: この配列は、鼻の位置に特に関連する数値をキャプチャします。これには、鼻の位置に対するx座標とy座標、そして測定が発生した時のタイムスタンプ変数(T)が含まれます。
  • 鼻ベクトル [X,Y,Z,T] 配列: この測定は鼻先からベクトルを投影することで機能し、参加者が画面に注意を向けているかどうかをテストするのに便利です(これは、目の追跡が有効でない研究に特に重要です)。したがって、鼻が画面外を指す場合(すなわち、参加者が実験に注意を向けていない)、Z値は1から0に近づいて減少します。
  • トリガーのタイムスタンプ(ユニックス時間): 実験中にトリガー自体が発生した時間点で、頭追跡が検出され、トリガーがシステム内で発生したときのことを示します。基本的には、画像/フレームが処理される時間であり、この値は参加者のグラフィックカードに大きく影響されます。理論的には、可能な限り値Tに近いはずです。
  • フレーム開始からのトリガー時間: これは、フレーム開始が発生した際の時間値です。

頭追跡に関する追加情報については、紹介デモコールを予約することでお問い合わせください。

Prev
タスクにおけるアイ・トラッキング
Next
マルチユーザー研究