labvanced logoLabVanced
  • Research
    • Publications
    • Researcher Interviews
    • Use Cases
      • Behavioral Psychology
      • Personality & Social Psychology
      • Cognitive & Neuro Psychology
      • Developmental & Educational Psychology
      • Clinical & Health Psychology
      • Sports & Movement Psychology
      • Marketing & Consumer Psychology
    • Labvanced Blog
  • Technology
    • Feature Overview
    • Desktop App
    • Phone App
    • Precise Timing
    • Experimental Control
    • Eye Tracking
    • Multi User Studies
    • More ...
      • Questionnaires
      • Artificial Intelligence (AI) Integration
      • Mouse Tracking
      • Data Privacy & Security
      • Text Transcription
  • Learn
    • Guide
    • Videos
    • Walkthroughs
    • FAQ
    • Release Notes
    • Documents
    • Classroom
  • Experiments
    • Public Experiment Library
    • Labvanced Sample Studies
  • Pricing
    • Pricing Overview
    • License Configurator
    • Single License
    • Research Group
    • Departments & Consortia
  • About
    • About Us
    • Contact
    • Downloads
    • Careers
    • Impressum
    • Disclaimer
    • Privacy & Security
    • Terms & Conditions
  • Appgo to app icon
  • Logingo to app icon
Learn
ガイド
ビデオ
ウォークスルー
FAQ
リリースノート
教室
  • 中國人
  • Deutsch
  • Français
  • Español
  • English
  • 日本語
ガイド
ビデオ
ウォークスルー
FAQ
リリースノート
教室
  • 中國人
  • Deutsch
  • Français
  • Español
  • English
  • 日本語
  • ガイド
    • はじめに

      • オブジェクト
      • イベント
      • 変数
      • タスクウィザード
      • トライアルシステム
      • 研究デザイン
        • タスク
        • ブロック
        • セッション
        • グループ
    • 特集トピック

      • ランダム化とバランス
      • 視線追跡
      • 質問票
      • デスクトップアプリ
      • サンプル研究
      • 参加者募集
      • APIアクセス
        • REST API
        • Webhook API
        • WebSocket API
      • その他のトピック

        • 正確な刺激タイミング
        • マルチユーザー研究
        • Labvancedにおけるヘッドトラッキング | ガイド
    • メインアプリタブ

      • 概要: メインタブ
      • ダッシュボード
      • マイスタディ
      • 共有スタディ
      • マイファイル
      • 実験ライブラリ
      • マイアカウント
      • マイライセンス
    • 研究タブ

      • 概要: 研究特有タブ
      • 研究デザイン
        • タスク
        • ブロック
        • セッション
        • グループ
      • タスクエディタ
        • 主な機能と設定
        • トライアルシステム
        • キャンバスとページフレーム
        • オブジェクト
        • オブジェクトプロパティテーブル
        • 変数
        • システム変数テーブル
        • イベントシステム
        • 試行のランダム化
        • テキストエディタの機能
        • タスクにおけるアイ・トラッキング
        • タスクにおける頭追跡
        • マルチユーザー研究
      • 研究設定
        • スタートアップとメイン設定
        • ブラウザとデバイスの設定
        • 実験機能設定
      • 説明
        • 説明情報の詳細
        • 説明における画像、リンク、および参照
      • 変数
      • メディア
      • 翻訳
      • 実行
      • 公開と記録
        • Labvancedでの研究の公開に関する要件
        • 参加者の募集とクラウドソーシング
        • ライセンスの選択と確認
        • あなたのLabvanced研究を公開した後
      • 共有
      • 参加者
      • データビューとエクスポート
        • Dataview と変数 & タスクの選択 (古いバージョン)
        • 録音へのアクセス (古いバージョン)
  • ビデオ
    • ビデオ概要
    • Labvancedではじめる
    • タスクの作成
    • 要素ビデオ
    • イベントと変数
    • 高度なトピック
  • ウォークスルー
    • イントロダクション
    • ストループタスク
    • レキシカルデシジョンタスク
    • ポズナー凝視手掛かり課題
    • 変化盲点フェーズ
    • 視線追跡サンプル研究
    • 乳児視線追跡研究
    • マウストラッキングを用いた注意のキャプチャ
    • 迅速な連続視覚提示
    • ChatGPT研究
    • 視線追跡デモ: AOIとしてのSVG
    • マルチユーザーデモ: 研究内での被験者のカーソル表示
    • ゲームパッド / ジョイスティックコントローラー - 基本セットアップ
    • EEG統合を伴うデスクトップアプリの研究
    • 被験者間のグループバランスと変数設定
  • FAQ
    • 機能
    • セキュリティとデータプライバシー
    • ライセンス
    • Labvancedの精度
    • プログラム利用とAPI
    • Labvancedをオフラインで使用する
    • トラブルシューティング
    • 研究作成に関する質問
  • リリースノート
  • 教室

研究の実施

ビデオフィードの初期キャリブレーション

まず、被験者はデータを記録するためにLabvancedサーバーがカメラ/ウェブカメラにアクセスすることを許可する必要があります。承認されると、キャリブレーション画面が表示されます(読み込みには最大15秒かかる場合があります)。自分の顔の上に青いメッシュがある動画が表示され、頭を回したり口を動かしたりするとスムーズに動くことを確認してください。メッシュが自分の動作と同期していない場合は、画面の下部にある「うまくいかない」をクリックしてください。それ以外の場合は、「うまくいく」をクリックしてください。もう一つの同意画面が承認された後に、研究が始まります。

参加者は、全体の視線追跡データセットを取得するために、少なくとも1280*720の解像度を持つカメラまたはウェブカメラを持っている必要があります。この要件を研究の開始時に参加者に通知してください。

視線追跡装置のキャリブレーション

テキストが表示された画面が現れます。このテキストは、いくつかの多言語研究のために翻訳できますが、デフォルトでは次のようになります:

eyecalibration

メガネをかける必要がある参加者の場合、レンズが非常に反射的であると、視線追跡が適切にキャリブレーションされないことがあります。

次の画面では、参加者に照明について尋ねます。被験者の顔は前から十分に照らされ、背後に明るい光や窓がない状態にする必要があります。前方からの光が多すぎると、参加者の顔が「洗い流される」ので注意してください。

次に、参加者は中心ポーズ(前述の仮想顎置き)を設定する必要があります。各ポーズに対して1回のキャリブレーションで2つの頭のポーズがあります。参加者は、このステップ以降は変更できないため、自分の画面やカメラの位置を調整して快適にすることもできます。

facecalibration

続行をクリックした後、このウィンドウが表示されます:

centerpose

参加者が前の画面で「続行」をクリックしたときの位置が緑のメッシュとして保存され、中心ポーズ/仮想顎置きを示しています。このポーズが間違っている場合、参加者は戻って再試行できます。正しく快適であれば、続行をクリックすると動的キャリブレーションが始まります。

今、参加者は青いメッシュ(自分のアクティブな顔)を緑のメッシュ(静的な仮想顎置き)と整列させ、その位置を数秒間保持するよう求められます。この位置から逸れた場合、キャリブレーションが一時停止し、再整列するよう要求する通知が画面の下部に表示されます。

その後、ビデオフィードが消え、研究者が選択した背景色と注視点の画面が表示されます。参加者は、注視点の1つを見つめるように指示され、大きな円で強調され、その円は徐々に縮小して参加者が注視するときに注意を引きます。大きな円は次のポイントに移動し、すべてのポイントがキャリブレーションされるまで続きます。

calibrationpoints

次に、参加者は左と右に頭を動かすように求められます。

headtilt

各ポーズを保持したまま、ドット画面が再度表示され、左および右にシフトした位置のために再キャリブレーションされます。最後に、参加者はドットの最後のキャリブレーションのために中心位置に戻ります。 各トライアルの前には短い再キャリブレーションがあります。最初のタスクが視線追跡を含む場合、参加者が全体のキャリブレーションを終えた後でも短いドットキャリブレーションがあります。

ヒント

  • フレームの背景色を変更する場合は、必ず「研究設定」タブに移動して研究全体の背景色を変更してください。これにより、キャリブレーション画面の色が参加者が研究中に見る背景色と一致します。
  • あなた自身またはラボのパートナーで研究をテストして、必要な視線追跡データを収集していることを確認してください。
  • 同じデバイスが以前にログインしてから数時間のうちに視線追跡実験にログインすると、Labvancedがキャリブレーションデータを保存している場合があります。

storeddata

キャリブレーションをスキップするか、再実行するかを選択できます。