
ブーバ-キキタスク
ブーバ–キキタスクは、音と形の対応を測定するために、人々が不慣れな単語をどのように視覚的な形と関連付けるかを調べることで音–形の対応を測定します。このタスクは、認知心理学や言語学の研究で広く使用され、知覚、言語処理、および多感覚統合を研究しています。
タスク形式 | ブーバ-キキタスクオンラインおよびラボ内
ブーバ–キキタスクでは、参加者に新しい単語と2つの抽象的な形状が提示され、どの形が単語に最も適しているかを判断するよう求められます。このタスクは、学習された意味論的な意味ではなく、直感的な音–形の関連付けを捉えるために設計されています。セッションは、主要な実験トライアルの前に参加者が反応形式に慣れるための短い練習ブロックで始まります。
ブーバキキタスクの2つのバージョンが利用可能であり、それぞれ使用されるデバイスと入力方法の種類に最適化されています:
デスクトップ版
デスクトップ版では、画面の上部に単語が表示され、下部に2つの抽象的な形状が横並びに表示されます。参加者はキーボードを利用して、左の形を選択するには A を、右の形を選択するには L を押して反応します。参加者はすばやく反応できるようにそれぞれのキーの上に指を置くよう指示されます。主要なタスクの前に練習ブロックがあります。
モバイル版
モバイル版では、単語と形状が同じレイアウトで表示されます。参加者は、提示された単語に最も合致すると思われる形を直接タップして反応します。このバージョンはタッチスクリーンインタラクションに最適化されており、主要なタスクが始まる前に練習トライアルが含まれています。
ブーバ-キキタスクの収集データとメトリクス
ブーバ–キキタスクは、個人が音を視覚的な形と関連付ける方法を明らかにする一連の行動測定をキャプチャし、クロスモーダル対応と音の象徴的効果を反映します。記録された変数により、研究者は選択パターン、反応時間、適用される場合の正確性、知覚的マッチングに影響を与える可能性のあるトライアル特有の特性を評価できます。これらの測定は、音–形の関連付けの一貫性とクロスモーダル統合の強度を定量化するのに役立ちます。すべての変数は、タスクの Variables タブ内で表示およびカスタマイズできます。
以下は、Labvanced版のブーバキキタスクで収集された変数の例です:
| 変数名 | 説明 |
|---|---|
Task_Name | トライアルの特定のタスクの名前を記録します |
Answer | 参加者の反応を記録します(コンピュータ版の場合:そのトライアルで参加者が押したキー(A/L)、モバイル版の場合:クリックした画像(ターゲット形状/ 非ターゲット形状) |
Choice_shape | トライアルで参加者が選んだ形状 |
non-target image name | トライアルで提示された非ターゲット画像のファイル名 |
reaction time | トライアルでの反応(例: A/L を押す)にかかる時間 |
target image name | トライアルで提示されたターゲット画像のファイル名。 |
text_presented | トライアルで提示された単語 |
bouba-bouba_avg_RT | ブーバ単語 + ブーバ形状の一致の平均RT |
kiki-kiki_avg_RT | キキ単語 + キキ形状の一致の平均RT |

Labvancedのオンラインブーバキキタスクからの個々のトライアルレベル出力を示すデータテーブル。
この実験では、2つの形状と単語が提示されます。参加者は提示された単語に最も合致する形状の1つを選択する必要があります。
オンラインおよびラボ内研究のためのブーバ-キキタスクを支える技術
ブーバ–キキタスクは、柔軟な刺激処理、多モーダル提示、および信頼性のある反応記録を必要とします。Labvancedは、さまざまな研究デザインに渡るこれらの要件をサポートするために必要な技術基盤を提供します。
多モーダル刺激提示: 視覚的形状、書かれたテキスト、および音声刺激を同じトライアル内で組み合わせることができます。これにより、研究者は実験デザインに応じて、単語を視覚的に、聴覚的に、またはその両方で提示することができます。
デバイスにわたる柔軟な入力収集: 応答はデスクトップデバイスのキーボード入力を介して、またはモバイルデバイス上で直接タッチ選択を介して収集できます。同じタスクロジックを再利用しながら、利用可能な入力方法に応じてインターフェースを適応できます。
制御された研究のためのデスクトップアプリサポート: 精密なタイミングや外部ハードウェアとの統合を必要とするラボベースの実験の場合、タスクはLabvancedデスクトップアプリを使用して展開できます。これにより、EEGやその他のLSLベースシステムとの互換性がサポートされます。
リモートおよび縦断的な展開: タスクはリモートで配信され、複数のセッションにわたって繰り返すことができるため、時間の経過に伴う知覚的関連付けの安定性や変化を調べる縦断的研究に適しています。
オプションのウェブカメラによる目の動き追跡統合: タスクは、形状選択中の視覚的注意、固定パターン、意思決定プロセスを分析するために、ウェブカメラベースの目の動き追跡と組み合わせることができます。
ウェブカメラ目の動き追跡
ビルトインで、コード不要で、ピアレビュー済みのウェブカメラ目の動き追跡を使用して、視線パターンと視覚的注意をキャプチャします。
タイミングの精度
ミリ秒単位での正確さで反応時間、タスクパフォーマンスなどをキャプチャし、時間に敏感なタスクに対応します。
デスクトップアプリ
EEGやその他のLSL接続されたラボハードウェアと互換性のあるデスクトップアプリを使用して、ラボ内研究を実施します。
ブーバ-キキタスクのカスタマイズ
ブーバキキタスクテンプレートは、特定の研究質問に応じて適応するための多数の方法があります。以下は、このタスクを変更する際に研究者が一般的に尋ねるテーマのいくつかです。
形状と刺激のデザイン
抽象的な形状は、エディター内で直接置き換えたり編集したりできる視覚的オブジェクトとして実装されています。研究者は Object Properties パネルを通じて、形状の複雑さ、境界線、サイズ、または背景色を変更できます。
単語と音声の設定
新しい単語はテキストオブジェクトまたは音声ファイルとして提示できます。音声刺激はアップロードされ、トライアルにリンクされることで、発音、タイミング、および繰り返しを正確に制御できます。音声はメディアオブジェクトの音声オプションを使用して追加できます。
条件ロジックとトライアルのバリエーション
異なる音韻的コントラストや形状の組み合わせは、トライアル条件を通じて定義できます。これらの条件値は、各トライアルで提示される刺激を決定するために実行時に読み取られます。 Trials & Conditions パネルから最適な活用ができます。
反応処理とトライアルフロー
参加者の選択は、クリック、タップ、またはキー押下を通じてキャプチャされ、イベントロジックを使用して評価されます。研究者は、オンラインまたはラボで実施されるブーバキキタスク中の反応がどのようにログされるか、ミスした反応がどのように扱われるか、トライアルがどのように進行するかを、すべてイベントシステムを使用して変更できます。特定のニーズに応じてトリガーやアクションを修正してください。
このタスクのカスタマイズに関してヘルプが必要な場合は、ぜひお気軽にお問い合わせください:
ブーバ–キキタスクの推奨使用法と応用
ブーバ–キキタスクは、知覚、言語、および多感覚処理を調査するオンラインおよびラボ環境で広く使用されています。
知覚および多感覚統合の研究: 聴覚的および視覚的特徴がどのように統合され、感覚的な対応がどのように生じるかを研究するために一般的に使用されています。
言語および音韻処理の研究: 音韻的特徴(子音の鋭さや母音の質など)が知覚的関連付けにどのように影響するかを調べるために適用されています。
発達研究: 子供と大人を対象に、音–形の関連がいつ生じるか、発達に伴ってどのように変化するかを調査するために使用されています。
異文化と言語の研究: 異なる言語や文化的文脈における知覚的マッピングを比較するために頻繁に使用されます。
神経認知および脳機能の研究: クロスモーダル知覚および象徴的マッピングの背後にある神経メカニズムを探求する研究に含まれています。
参考文献
Passi, A., & Arun, S. P. (2024). The Bouba–Kiki effect is predicted by sound properties but not speech properties. Attention, Perception, & Psychophysics, 86(3), 976-990.
Piller, S., Senna, I., & Ernst, M. O. (2023). Visual experience shapes the Bouba-Kiki effect and the size-weight illusion upon sight restoration from congenital blindness. Scientific Reports, 13(1), 11435.