labvanced logoLabVanced
  • Research
    • Publications
    • Researcher Interviews
    • Use Cases
      • Developmental Psychology
      • Linguistics
      • Clinical & Digital Health
      • Educational Psychology
      • Cognitive & Neuro
      • Social & Personality
      • Arts Research
      • Sports & Movement
      • Marketing & Consumer Behavior
      • Economics
      • HCI / UX
      • Commercial / Industry Use
    • Labvanced Blog
    • Services
  • Technology
    • Feature Overview
    • Code-Free Study Building
    • Eye Tracking
    • Mouse Tracking
    • Generative AI Integration
    • Multi User Studies
    • More ...
      • Reaction Time/Precise Timing
      • Text Transcription
      • Heart Rate Detection (rPPG)
      • Questionnaires/Surveys
      • Experimental Control
      • Data Privacy & Security
      • Desktop App
      • Mobile App
  • Learn
    • Guide
    • Videos
    • Walkthroughs
    • FAQ
    • Release Notes
    • Documents
    • Classroom
  • Experiments
    • Cognitive Tests
    • Sample Studies
    • Public Experiment Library
  • Pricing
    • Licenses
    • Top-Up Recordings
    • Subject Recruitment
    • Study Building
    • Dedicated Support
    • Checkout
  • About
    • About Us
    • Contact
    • Downloads
    • Careers
    • Impressum
    • Disclaimer
    • Privacy & Security
    • Terms & Conditions
  • Appgo to app icon
  • Logingo to app icon
Learn
ガイド
ビデオ
ウォークスルー
よくある質問
ニュースレターアーカイブ
ドキュメント
教室
  • 中國人
  • Deutsch
  • Français
  • Español
  • English
  • 日本語
ガイド
ビデオ
ウォークスルー
よくある質問
ニュースレターアーカイブ
ドキュメント
教室
  • 中國人
  • Deutsch
  • Français
  • Español
  • English
  • 日本語
  • ガイド
    • 始めに

      • タスクエディタ
      • 刺激提示
      • 応答の正確性
      • オブジェクト
      • イベント
      • 変数
      • タスクウィザード
      • トライアルシステム
      • 研究デザイン
        • タスク
        • ブロック
        • セッション
        • グループ
    • 注目のトピック

      • ランダム化とバランス
      • 眼球運動追跡
      • アンケート
      • デスクトップアプリ
      • サンプル研究
      • 参加者募集
      • APIアクセス
        • REST API
        • Webhook API
        • WebSocket API
      • その他のトピック

        • 正確な刺激タイミング
        • 複数ユーザー研究
        • Labvancedにおけるヘッドトラッキング | ガイド
    • メインアプリタブ

      • 概要: メインタブ
      • ダッシュボード
      • 私の研究
      • 共有研究
      • 私のファイル
      • 実験ライブラリ
      • マイアカウント
      • マイライセンス
    • 研究タブ

      • 概要: 研究固有のタブ
      • 研究デザイン
        • タスク
        • ブロック
        • セッション
        • グループ
      • タスクエディタ
        • タスクコントロール
        • 試行システム
        • キャンバスとページフレーム
        • オブジェクト
        • オブジェクトプロパティテーブル
        • 変数
        • システム変数テーブル
        • イベントシステム
        • テキストエディタの機能
        • タスクにおけるアイ・トラッキング
        • タスクにおける頭追跡
        • マルチユーザー研究
      • 設定
      • 変数
      • メディア
      • テキストと翻訳
      • 開始と参加
      • 被験者管理
      • データビューとエクスポート
        • Dataview と変数 & タスクの選択 (古いバージョン)
        • 録音へのアクセス (古いバージョン)
  • ビデオ
    • ビデオ概要
    • Labvancedの始め方
    • タスクの作成
    • 要素ビデオ
    • イベントと変数
    • 高度なトピック
  • ウォークスルー
    • イントロダクション
    • ストゥループタスク
    • 語彙判断タスク
    • ポスナー視線キューイングタスク
    • 変化盲点点滅パラダイム
    • 眼球運動追跡サンプル研究
    • 乳児眼球運動追跡研究
    • マウストラッキングによる注意捕獲研究
    • 迅速な連続視覚提示
    • ChatGPT研究
    • 眼球運動デモ: SVGをAOIとして
    • マルチユーザーデモ: 被験者のカーソルを表示
    • ゲームパッド/ジョイスティックコントローラー - 基本設定
    • EEG統合のデスクトップアプリ研究
    • 被験者間グループバランシングと変数設定
  • FAQ
    • 機能
    • セキュリティとデータプライバシー
    • ライセンス
    • Labvancedの精度
    • プログラム利用とAPI
    • Labvancedのオフライン利用
    • トラブルシューティング
    • 研究作成に関する質問
  • ニュースレターアーカイブ
  • 文書
  • 教室

アイ・トラッキングデモ: AOIとしてのSVG

概要

このデモでは、 アイ・トラッキングの視線データをキャプチャすることを目的としています。具体的には、研究に含まれる特定の関心領域(AOI)に関連する視線データを、SVG 形状オブジェクトとしてキャプチャしたいと考えています。

デモの実際のプレビューは、視線の位置をリアルタイムで示す赤い円によってフィードバックが提供されています。

ウェブカメラベースのアイ・トラッキング実験における視線の位置のプレビュー。

  • 注意: デモの録画は5.5分のキャリブレーションオプションで行われました; 赤い円は参加者の視線をリアルタイムで表すオブジェクトであり、全体の設定については以下でさらに説明します。

このデモの動作を示す短いビデオと、デモの最後に記録されたデータのプレビューをご覧ください:

オブジェクト

このデモには、4つのSVGオブジェクトの人々が配置されている桟橋の背景画像が含まれています。また、視線フィードバックオブジェクト(赤い円)もあります。このデモの目的のために、私たちはリアルタイムでの視線を表現したかったので、この赤い円はそれを反映しています。

Labvancedエディタに配置されたオブジェクト

作成されたカスタム変数

データを記録するためには、変数が必要です。このデモのために作成されたすべてのカスタム変数のリストは、‘変数’タブを介してアクセスできるようになっています。下の画像は、このデモで使用される変数の詳細と設定を示しています:

このウェブカメラベースのアイ・トラッキング研究のために作成されたカスタム変数。

以下は変数の説明とその目的です:

変数名説明記録タイプ
All Gaze Datax/y座標[X,Y]の配列、時間キャプチャ[T]、および測定の信頼レベル[C]を保存するために使用されます。すべての変更 / 時系列
AOI1_gaze_data参加者がAOI1という名前のSVGオブジェクトを見たときの[X,Y,T,C]の配列を保存するために使用されます。すべての変更 / 時系列
SVG1_path参加者の視線がAOI1のSVGノードに留まったパスを記録します(以下でさらに説明)。すべての変更 / 時系列
AOI2_gaze_data参加者がAOI2という名前のSVGオブジェクトを見たときの[X,Y,T,C]の配列を保存するために使用されます。すべての変更 / 時系列
SVG2_path参加者の視線がAOI2のSVGノードに留まったパスを記録します。すべての変更 / 時系列

などなど….

イベントの設定

視線データをキャプチャすることに興味があるため、以下のイベントが使用されます:

  1. All Gaze Data: このイベントはタスクが始まるとすぐに開始され、アイ・トラッキングの視線データを継続的に記録します。
  2. AOI Gaze Data: このイベントは参加者が特定のAOI(即ち、4人のいずれか)を見たときに開始され、視線に関連する値を記録します。
  3. Finish Experiment: セッションを受け入れ/終了させ、参加者が「Finish」ボタンをクリックしたときにデータを記録するイベントです。

イベント1: All Gaze Data

最初のイベントで達成したいことは以下です:

  • 研究の期間中、すべてのアイ・トラッキングデータを記録する
  • リアルタイムで画面に視線の検出位置を表示する(これにより研究者としてデモを試す際にウェブカメラの追跡感を得られます)

トリガー

したがって、眼球追跡の視線トリガーを使用してこのイベントを開始します。

アイ・トラッキング視線トリガーオプションを選択。

アクション

視線が検出されると、次のアクションが発生します: まず、以前に作成したAll Gaze Data変数をSet / Record Variableアクションで呼び出し、データを[X,Y,T,C]配列として記録します。

データ配列の記録とアイ・トラッキング値の設定

上記は、緑のボタンをクリックし、ターゲット変数を選択し、次に鉛筆アイコンのvalue-select menuをクリックして、[X,Y,T,C]配列をtrigger-specific (Eyetracking Gaze) menu,から選択することで達成されます。以下のように:

どのアイ・トラッキングデータ値が記録されるべきかを選択

また、Set Object Propertyアクションを追加し、赤い円オブジェクト(「gaze」と呼ばれる)を設定して、そのXプロパティをX座標に、YプロパティをY座標にそれぞれ設定します。 つまり、オブジェクトのx値とy値を、それぞれのx座標とy座標に等しく設定します…これが最終的にオブジェクトをリアルタイムで動かすことになります。

視線の座標をとるためにオブジェクトプロパティを設定して、その視線がリアルタイムでどこにあるかを視覚的にフィードバックするようにします。

注意: Coordinate XおよびCoordinate Yのオプションは、trigger-specific (Eyetracking Gaze) menu.から選択されます。

イベント2: AOI Gaze Data

このイベントでは、次のようにイベントを設定したいと考えています:

  • 特定のAOI(即ち、アップロードしたSVGオブジェクト)に視線が特に設定されているときにも、視線が記録される
  • AOIの特定のSVGノードデータが報告される

トリガー

Eyetracking Gazeトリガーもここでトリガーとして使用されます。 しかしこの文脈では、特定の要素にのみ興味があることを示すために、該当するオプションをクリックし、関心のある4つのSVGオブジェクトを選択します。

ウェブカメラベースのアイ・トラッキング実験のためのターゲット関心領域(AOI)を特定。

アクション

各AOIの呼び出しを設定するために、Control Action → Requirement Action (If…Then)が必要です。基本的に、Labvancedに次のようにしてほしいのです…「参加者がAOI1を見ている場合は、その特定の変数に対して特定のデータを記録し、視線のSVGパスを記録します」

まず+ Requirementボタンをクリックすると、2つの鉛筆アイコン値が表示されます。

  • 最初の鉛筆アイコン: 最初のフィールドでは、trigger-specific (Eyetracking Gaze) menu,からStimulus Nameオプションを選択し、トリガー(この場合視線)があった刺激のオブジェクト名を使用します。
  • 2番目の鉛筆アイコン: Constant Valueを選択し、次にStringオプションを選択して、オブジェクト名(即ち、AOI1)を入力します:

if/thenイベントで刺激をAOI1に設定

これまでのところ、トリガー(視線)がAOI1という名前の刺激にある場合は…次のようになります:

視線がAOI1にあるときに発生するアクションを特定。

  • 以前に作成した変数AOI_gaze_dataが[X,Y,T,C]の配列を記録します。
  • また、SVG1_path変数は、Stimulus Infoを含むように記録されます。この場合、関心対象(AOI1)がSVGであるため、刺激情報にはSVGのノード内容が含まれます。

次のAOIを指定するために、ダイアログボックスの中の+Add Else If Caseボタンをクリックし、上で示された構造/設定を繰り返しますが、主要な違いはStimulus NameをAOI2として設定し、データを保存するための特定の変数(即ち、AOI2_gaze_dataおよびSVG2_Path)を呼び出すことです。以下のように:

視線がAOI2にあるときに視線の配列座標とSVGパスを記録することを特定。

次に、AOI3についても再度Add Else If Caseを選択し、特定のAOIのデータを保存するために作成したカスタム変数を用いた同じ構造を続けます:

視線がAOI3にあるときに視線の配列座標とSVGパスを記録することを特定。

再度、AOI4についてもAdd Else If Caseを選択し、特定のAOIのデータを保存するために作成したカスタム変数を用いた同じ構造を続けます:

視線がAOI4にあるときに視線の配列座標とSVGパスを記録することを特定。

イベント3: 実験終了 / データ保存

最後に、データを記録し保存するためには、FinishボタンがクリックされたときにJump ActionをAccept / End Sessionアクションに選択する必要があります(これはトリガーです)、以下のように。

トリガー

トリガーは「Finish Button」が使用されたときに発生するように指定されます:

トリガーとしてボタンクリックを選択。

アクション

発生するアクションは、セッションが受け入れられ、その結果データが記録されることになります。

アクションとして受け入れ/セッション終了を選択。

次のセクションで記録されたデータがどのように見えるかを見てみましょう。

記録データ

記録されたデータには、すべてのカスタム変数に加え、タスク番号やセッション番号などの実験特有の値が含まれます。

以下の例では、‘Dataview & Export’タブが、時間系列ファイルで分割されたデータがどのように見えるかを示しています。各時系列変数(即ち、すべての変更を記録する変数)は、下の左側のパネルにそれぞれのCSVファイルとして表示されます。これは、Export Format settings.を使用して関連する設定を指定することで達成できます。

_All Gaze Data.csv_が選択されると、以下に示す変数を含む多数の変数が記録されます。‘value’列は、[X,Y,T,C]の配列をキャプチャし、値はカンマで区切られています:

すべての視線アイ・トラッキングデータのプレビュー

下の画像は、視線がAOI1にあったときに特に記録された配列のプレビューを示しています。‘value’列で示されているように:

AOI1のために記録された視線アイ・トラッキングデータのプレビュー

下の画像は、視線がAOI1にあったときに特に記録されたSVGパスのプレビューを示しています。‘value’列で示されているように:

SVGパスのために記録された視線アイ・トラッキングデータのプレビュー

結論

このデモは、視線データを記録し、AOIで視線が発生している文脈でSVGオブジェクトをどのように利用するかを示すことを目的としています。

ご質問がある場合は、お気軽にご連絡ください。特に実験の実施可能性の確認が必要な場合は、詳細をお知らせください!

Prev
ChatGPT研究
Next
マルチユーザーデモ: 被験者のカーソルを表示