JP7101696B2 - 表示装置、脳波インタフェース装置、ヘッドアップディスプレイシステムおよびプロジェクタシステム - Google Patents

表示装置、脳波インタフェース装置、ヘッドアップディスプレイシステムおよびプロジェクタシステム Download PDF

Info

Publication number
JP7101696B2
JP7101696B2 JP2019547886A JP2019547886A JP7101696B2 JP 7101696 B2 JP7101696 B2 JP 7101696B2 JP 2019547886 A JP2019547886 A JP 2019547886A JP 2019547886 A JP2019547886 A JP 2019547886A JP 7101696 B2 JP7101696 B2 JP 7101696B2
Authority
JP
Japan
Prior art keywords
unit
frequency
electroencephalogram
interface device
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019547886A
Other languages
English (en)
Other versions
JPWO2019073603A1 (ja
Inventor
幸恵 平塚
友人 川村
千代 大野
孝弘 松田
誠治 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxell Ltd
Original Assignee
Maxell Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Maxell Ltd filed Critical Maxell Ltd
Publication of JPWO2019073603A1 publication Critical patent/JPWO2019073603A1/ja
Priority to JP2022108320A priority Critical patent/JP7367132B2/ja
Application granted granted Critical
Publication of JP7101696B2 publication Critical patent/JP7101696B2/ja
Priority to JP2023175951A priority patent/JP2023178350A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • A61B5/377Electroencephalography [EEG] using evoked responses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer

Description

本発明は、脳波を表示装置のインタフェースに用いる技術に関する。
近年、拡張現実(Augmented Reality、AR)/仮想現実(Virtual Reality、VR)/複合現実(Mixed Reality、MR;MRは、ARとVRを融合した新たな空間表現を実現するための映像技術の総称)装置が普及しつつある。これらの主な入力/操作インタフェース(I/F)は、外部接続リモコン、ジェスチャ、音声、視線追跡などによるものである。例えば、ジェスチャや音声による操作インタフェースを使用したMR製品に、Microsoft社のHoloLensがある。この製品のインタラクションデザインに、ジェスチャや音声等よる操作インタフェースが記載されている(例えば、非特許文献1参照。)。また、このインタラクションデザインのジェスチャデザインの項目には、3つのキーコンポーネントジェスチャとして“2.1 Bloom、2.2 Air tap、2.3 Tap and Hold”が記載されている(例えば、非特許文献2参照。)。また、このインタラクションデザインのボイスデザインの項目には、操作コマンドとしての音声の使用方法が記載されている(例えば、非特許文献3参照。)。
脳波の定常状態視覚誘発電位(Steady-State Visual Evoked Potential、以下SSVEP)を使用したブレイン・コンピュータ・インタフェース(以下BCI:Brain Computer Interface)技術がある。例えば、特許文献1には、「脳波信号を発生させる視覚刺激信号及び基本視覚情報を表示するディスプレイ部と、前記視覚刺激信号を、前記基本視覚情報に予め設定された周波数に応じて挿入する制御部と、前記発生した脳波信号が有する周波数を把握する脳波分析部と、を含む」ディスプレイ装置が開示されている。
"Interaction design"、[online]、Microsoft Windows Dev Center、[平成29年7月6日検索]、インターネット<URL: https://developer.microsoft.com/en-us/windows/mixed-reality/category/interaction_design> "Gesture design"、[online]、Microsoft Windows Dev Center、[平成29年7月6日検索]、インターネット<URL:https://developer.microsoft.com/en-us/windows/mixed-reality/gesture_design> "Voice design"、[online]、Microsoft Windows Dev Center、[平成29年7月6日検索]、インターネット<URL:https://developer.microsoft.com/ru-ru/windows/mixed-reality/voice_design>
特開2016-179164号公報
AR/VR/MR装置を用いるにあたり、外部接続リモコンやジェスチャは、操作時にユーザの負担が大きい。また、ジェスチャや音声は、乗り物の中やカフェなどの公共の場所では使用が難しく、使用場所が制限される。このため、ユーザの負担が少なく、使用場所を制限しないインタフェースが望まれている。
使用場所を制限しないインタフェースとして、例えば、特許文献1に記載のSSVEPを用いたBCI等が考えられる。しかしながら、SSVEPによる入力/操作の対象ごとに異なる周波数を割り当てる必要がある。そして、SSVEPを誘発可能な周波数が4~75Hzに限定されていることからその活用には工夫が必要である。例えば、上記の特許文献1では、SSVEPを誘発するための視覚刺激信号をあらかじめ設定された周波数に応じて基本視覚情報(映像)に挿入する。このとき、SSVEPを誘発するための視覚刺激信号を、フレーム間に挿入する。このため、基本視覚情報のフレームレートに依存して挿入可能な視覚刺激信号の数が制限され、使用可能な周波数が限定される。従って、複雑な操作のインタフェースには用いることができない。
本発明は、上記事情に鑑みてなされたもので、AR/VR/MR装置に、ユーザへの負担が少なく、使用環境に制約の少ないインタフェースを提供することを目的とする。
本発明は、入力操作インタフェースとして、BCI(Brain Computer Interface)を備え、拡張現実、仮想現実、および/または複合現実表示を行う表示装置を提供する。
そして、そのBCI装置には、例えば、視覚刺激信号の周波数に応じた周波数を有する脳波信号を検出し、機器の制御を行う脳波インタフェース装置であって、取得した各映像フレーム上の予め定めた領域である操作領域に、特定の周波数である特定周波数を割り当て、前記特定周波数の逆数の周期で、予め定めた最大値と最小値との間で前記操作領域に対応する領域の色情報を変化させることにより、当該特定周波数を有する前記視覚刺激信号を作成する操作インタフェース作成部と、前記特定周波数を有する前記視覚刺激信号を表示デバイスに出力する演算部と、前記特定周波数に、制御指示を対応づけて保持する対応データベースと、検出した脳波信号から前記特定周波数を抽出する脳波分析部と、抽出した前記特定周波数に対応する前記制御指示を前記対応データベースから取得し、当該制御指示に従って制御を行う制御部と、を備えることを特徴とする脳波インタフェース装置を用いる。
AR/VR/MR装置に、使用環境に制約の少ないインタフェースを提供できる。上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
第一の実施形態の表示装置の機能ブロック図である。 第一の実施形態の表示装置のハードウェア構成図である。 第一の実施形態の表示装置の実装例を説明するための説明図である。 (a)および(b)は、第一の実施形態のSSVEP用の視覚刺激信号挿入手法を説明するための説明図である。 第一の実施形態のSSVEP用の視覚刺激信号重畳手法を説明するための説明図である。 (a)は、第一の実施形態のマッピングテーブルの一例を、(b)は、第一の実施形態の機能テーブルの一例を、それぞれ、説明するための説明図である。 (a)および(b)は、それぞれ、第一の実施形態のオブジェクトテーブルの一例を説明するための説明図である。 (a)および(b)は、それぞれ、第一の実施形態の操作I/Fテーブルの一例を説明するための説明図である。 (a)および(b)は、第一の実施形態のアイコン挿入時のレイアウト例を説明するための説明図である。 第一の実施形態の割当周波数決定処理のフローチャートである。 第一の実施形態の割当周波数決定処理の変形例のフローチャートである。 (a)は、第一の実施形態の表示画像作成処理の、(b)は、操作インタフェーステーブル更新処理の、フローチャートである。 第一の実施形態の表示フレーム作成処理のフローチャートである。 (a)は、第一の実施形態の視線周波数検出処理の、(b)は、第一の実施形態の機能判定処理の、フローチャートである。 第一の実施形態の変形例1の、SSVEP用の視覚刺激信号重畳手法を説明するための説明図である。 (a)は、第一の実施形態の変形例2の表示装置を説明するための説明図であり、(b)は、第一の実施形態の変形例2の表示装置の機能ブロック図である。 第一の実施形態の表示装置の変形例3の機能ブロック図である。 第一の実施形態の表示装置の変形例4の機能ブロック図である。 第一の実施形態の表示装置の変形例5の機能ブロック図である。 (a)および(b)は、それぞれ、第二の実施形態の概要を説明するための説明図である。 (a)および(b)は、それぞれ、第二の実施形態の他の例の概要を説明するための説明図である。 第二の実施形態の注意喚起処理のフローチャートである。 第三の実施形態の脳波分析部の機能ブロック図である。 第三の実施形態の概要を説明するための説明図である。 (a)は、第三の実施形態のマッピングテーブルの一例を、(b)は、第三の実施形態の機能テーブルの一例を、(c)は、第三の実施形態のモード管理テーブル660の一例を、それぞれ説明するための説明図である。 第三の実施形態の処理のフローチャートである。 本発明の変形例のインタフェース設定処理のフローチャートである。
以下、図面を用いて、本発明の実施形態を説明する。以下、本明細書において、同一機能を有するものは、特に断らない限り同一の符号を付し、繰り返しの説明は省略する。なお、本発明はここで説明する実施形態に限定されるものではない。
<<第一の実施形態>>
本実施形態では、AR装置(以下、表示装置と呼ぶ。)に、SSVEP(定常状態視覚誘発電位)を用いたBCIを利用する。すなわち、本実施形態では、映像にSSVEP誘発用の視覚刺激(以下、視覚刺激信号と呼ぶ。)を呈示してそれらをARやVRなどの映像表示装置の操作用インタフェースとして使用する。このとき、使用可能な視覚刺激信号の周波数の数を増加させるため、基本視覚情報(映像)そのものに視覚刺激信号を挿入あるいは重畳する。SSVEPを誘発する視覚刺激(以下、視覚刺激信号と呼ぶ)の挿入あるいは重畳は、表示領域の所定領域の輝度値の変化により実現する。
まず、本実施形態の表示装置の機能ブロック図を説明する。図1は、本実施形態の表示装置101の機能ブロック図である。
本図に示すように、本実施形態の表示装置101は、脳波インタフェース(I/F)部102と、表示部103と、マイク/スピーカ104と、通信部105と、映像生成部106と、操作部107と、実行部109と、記憶部110と、制御部112と、を備える。
通信部105は、有線あるいは無線で外部の機器と通信を行うための1つ以上の通信モジュール(LAN、Bluetooth(登録商標)、HDMI(登録商標)等)を備える。
映像生成部106は、入力された映像を用いて、表示部103に表示する映像の全てあるいは一部を生成する。映像は、内蔵あるいは外付けのカメラから、予め記録済みの記録媒体から、または、通信部105経由で他の機器から、映像生成部106に入力される。
操作部107は、マウスやリモコン、操作ボタン、キーボード、タッチパネル等を備え、ユーザ130による操作指示を受け付ける。
実行部109は、脳波I/F部102や操作部107を介して受け付けたユーザ130からの操作指示に応じた処理を実行する。
記憶部110は、映像データ、表示装置101全体の制御プログラムや設定情報などを記憶する。
制御部112は、表示装置101の各コンポーネントの動作を制御する。
脳波I/F部102は、脳波を検出し、制御指示を抽出する。これを実現するため、本実施形態の脳波I/F部102は、脳波検出部113と、脳波分析部114と、操作I/F作成部115と、操作I/F格納部116と、マッピング部117と、マッピングデータ格納部118と、機能判定部119と、脳波制御部120とを備える。
脳波検出部113は、脳波信号を検出する。
脳波分析部114は、脳波検出部113で検出した脳波を分析する。ここでは、検出した脳波信号から前記特定周波数を抽出する。本実施形態では、これを実現するため、前処理部121と、特徴抽出部122と、視線周波数検出部123と、を備える。
前処理部121は、脳波検出部113で検出した脳波信号からノイズ等を取り除き、信号を増幅する。特徴抽出部122は、前処理した脳波信号の特徴量を抽出する。本実施形態では、例えば、脳波信号をフーリエ変換し、周波数ごとの電位の大きさを分析する周波数分析部として機能する。視線周波数検出部123は、特徴抽出部122で抽出した特徴量を分類し、ユーザ130が注視した視覚刺激信号の周波数を検出する。
操作I/F作成部115は、視覚刺激信号を用いてユーザ130が操作入力するためのI/Fデータ(以下、SSVEP操作I/F)を作成する。ここでは、取得した各映像フレーム上の予め定めた領域である操作領域に、特定の周波数である特定周波数を有する視覚刺激信号を割り当てる。そして、例えば、特定周波数の逆数の周期で、予め定めた最大値と最小値との間、または色情報の差分変化量で、操作領域に対応する領域の色情報を変化させることにより視覚刺激信号を作成する。
なお、SSVEP操作I/Fには、操作ボタン、直接映像フレーム内のオブジェクトに重畳する、などがある。また、操作I/F格納部116には、操作I/F作成部115で作成したSSVEP操作I/Fが格納される。このとき、マッピングデータ格納部118は、特定周波数に、制御指示を対応づけて保持する。
マッピング部117は、実行機能とSSVEP操作I/Fとをマッピングする。例えば、矢印ボタンを選択した場合の実行機能と、SSVEP操作I/Fとをマッピングする。マッピングデータ格納部118は、マッピング部117がマッピングした対応データベースを格納する。また、機能の一覧テーブルを格納する。
機能判定部119は、脳波分析部114で分析した結果に基づき、ユーザ130により選択された機能を判定する。本実施形態では、脳波分析部114が抽出した視線周波数に対応づけてマッピングデータ格納部118に格納される機能を特定する。すなわち、脳波から抽出した特定周波数に対応する制御指示を対応データベースから取得する。
脳波制御部120は、脳波I/F部102の各コンポーネントの動作を制御する。また、制御部112の指示により、機能登録に関する処理も統括して実行する。さらに、制御部112を介して、演算部124の演算実行のON、OFFを制御する。
表示部103は、映像及びSSVEPを誘発するための視覚刺激を表示する。本実施形態の表示部103は、演算部124と、表示デバイス部125と、投射レンズ127と、照明器126とを備える。
演算部124は、操作I/F作成部115が作成したSSVEP操作I/Fに従って、視覚刺激信号を挿入あるいは、重畳した各映像フレームを生成し、表示デバイス部125に表示させるための演算を行う。
表示デバイス部125は、演算部124の演算結果に基づき、映像を表示する。照明器126は、表示デバイス部125に光を提供する。投射レンズ127は、表示デバイス部125で作成された映像を投射する。
なお、本実施形態の表示装置101は、例えば、計時用タイマ等、上記以外のコンポーネントを備えてもよい。
本実施形態の表示装置101のハードウェア構成を図2に示す。本実施形態の表示装置101は、CPU(Central Processing Unit)202と、脳波計203と、表示装置204と、カメラ205と、マイク/スピーカ206と、記憶装置208と、RAM(Random Access Memory)209と、通信モジュール211と、入力I/F212と、操作装置213と、システムバス214と、を備える。
表示装置204は、映像を表示する。カメラ205は、映像を生成する。入力I/F212は、外部からのデータ入力を受け付ける。操作装置213は、表示装置101本体へのタッピングなどによる入力操作を可能にする。
記憶装置208は、各種プログラム、データ等を記憶する。例えば、ROM(Read Only Memory)、ハードディスク等を備える。例えば、表示装置101の各種の機能を実現する基本プログラムは、ROMに格納される。また、プログラムの実行に用いられるデータ、プログラム実行中に生成されるデータ等は、ハードディスク等に格納される。なお、上述の操作I/F格納部116やマッピングデータ格納部118は、記憶装置208に設けられる。
RAM209は、キャッシュやワークメモリとして使用される。
CPU202は、表示装置101全体の動作を制御する。制御にあたっては、例えば、記憶装置208に格納されるプログラム及び各種データを、RAM209にロードして実行する。
システムバス214は、CPU202と、表示装置101の各コンポーネントとの間で、データの送受信を行うためのデータ通信路である。
脳波計203は、脳波信号を検出する。本実施形態では、脳波計203は、脳波検出用の電極と、ノイズなどを除去して信号を増幅する信号処理装置と、アナログ信号をディジタル信号に変換するアナログディジタルコンバータとを備える。
通信モジュール211は、外部機器と通信するインタフェースである。通信モジュール211は、3Gや4G、Wi-Fi、Bluetooth(登録商標)、HDMI(登録商標)、赤外線通信、放送サービス用通信などの無線通信機能と有線LANなどの有線通信機能とを備える。
脳波計203と、CPU202と、RAM209と、システムバス214とは、機能ブロックの脳波I/F部102と制御部112とに対応する。また、マイク/スピーカ206はマイク/スピーカ104に、カメラ205は映像生成部106に、表示装置204は表示部103に、通信モジュール211は通信部105に、入力I/F212は映像生成部106に、操作装置213は操作部107に、記憶装置208は記憶部110に、それぞれ、対応する。
[実装例]
次に、本実施形態の表示装置101における、電極の実装例を説明する。図3は、本実施形態の表示装置101の一実施形態である、メガネタイプの脳波制御によるAR装置301の例である。
AR装置301では、後頭部のバンド部分302とテンプル部分(303,304)とに、2つ以上の電極(305,306,307,308,309,310,311)が配置される。
AR装置301における脳波の誘導方法には双極誘導を用いる。AR装置301では、2つの電極から導出した電位差により脳波を測定する。図3のAR装置301の電極配置によれば、最大6チャンネルの脳波を検出できる。AR装置301では双極誘導を用いたが脳波の誘導方法はこれに限定されない。例えば、単極誘導を使用してもよい。単極誘導を使用する場合は、基準の電位を測定するための電極を耳たぶに装着可能な構成とする。
SSVEPは、視覚野のある後頭部で測定することが望ましい。このため、すべての電極から脳波を検出できた場合は、後頭部の電極(307,308,309)から測定した脳波を優先して使用する。後頭部のバンド部分では2チャンネル(307と308で1チャンネル、308と309で1チャンネル)の脳波の測定が可能である。使用する脳波は、電極の接触状態に応じて変更してもよい。
SSVEPの視覚刺激は高周波になるほど検出される電位が低下する傾向にある。このため、特に高周波の視覚刺激を使用する場合は、可能な限り後頭部で脳波を測定するようにする。例えば、左向き矢印の操作ボタンに視覚刺激として高周波を、右向き矢印の操作ボタンに低周波を、それぞれ割り当てた場合、前者については後頭部で測定した脳波を優先させる。具体的には、前者については、脳波分析部114での分析時に、後頭部以外の部分で測定した脳波を使用しない等の処理を行う。
なお、AR装置301では、表示デバイス部125は、メガネレンズ部分(312、313)に配置される。また、その他の機能は、フレーム本体314に設けられる。
[視覚刺激信号挿入手法]
次に、本実施形態の視覚刺激信号の挿入手法を説明する。
SSVEPを誘発する刺激には、フラッシュ刺激(LEDライトの点滅)、白と黒のチェッカーパタン、色刺激(異なる色による)、画像の輝度変化などがある。これらの刺激を使用して、周期的刺激を呈示することで、SSVEPを誘発する。本実施形態では、これらの手法のうち、画像の輝度変化を用いる。
具体的には、本実施形態では、予め定めた形状を有するアイコン等を挿入し、当該アイコンの輝度値を、予め定めた周波数で変化させる第一の手法と、映像フレームの特定の領域の輝度値を、予め定めた周波数で変化させる第二の手法とがある。なお、特定の領域は、固定であってもよいし、フレーム毎に異なってもよい。
まず、第一の手法を、図4(a)を用いて説明する。ここでは、映像フレームとして、飛行機の計器類が表示された画像を用いる場合を例示する。表示される映像は、VR装置の仮想映像であってもよいし、AR装置のカメラを通して表示さてる現実世界の映像であってもよい。また、映像フレームにボタンA401を挿入し、ボタンA401の輝度値(色)を、色1と色2との間で、視覚刺激信号の周波数(特定周波数FsHz)で変化させる場合を例にあげて説明する。なお、挿入するアイコンは、ボタン等の図形に限定されず、各種の形状を有するものであってよい。なお、アイコンのサイズは、固定であってもよいし、映像フレーム中のオブジェクト等のサイズに応じて変化してもよい。
図中のボタンA401は、映像中の計器に対する操作を実行するためのボタンである。ここでは、ボタンA401がフリッカーとなる。フリッカーとは、SSVEPを誘発するための異なる2種類の刺激を周期的に繰り返し呈示するための機能を持つものの総称とする。
演算部124は、映像フレームを、予め定めたフレームレートFOHzで表示させる。このとき、映像フレームにおいて、予め定めた位置(操作領域)に、ボタンA401を挿入する。そして、特定周波数FsHzで輝度値が変化するよう、各映像フレームの、ボタンA401の領域の色(RGBを用いて算出した輝度値)を変化させて表示する。ボタンA401の挿入位置や表示色は、操作I/Fテーブル620を参照し、決定する。
このようにして、各映像フレームのボタンA401の色を、時間軸に沿って、色1(402)と色2(403)との間で、予め設定した視覚刺激信号の周波数(特定周波数;FsHz)で周期的に変化させることにより刺激を呈示する。
図4(a)下部のグラフの横軸は時間、縦軸は輝度値を示す。また、グラフ405の実線は、ボタンA401の輝度値の変化を示す。ボタンA401で使用する2色(色1及び色2)は、操作I/F作成部115で予め設定する。本実施形態では、このボタンA401の輝度値を、グラフ405の実線で示すように周期的に変化させることにより、フリッカーを実現する。
なお、ボタンA401の色は、色1(402)と色2(403)との間で周期的に変化する。映像のフレームレートと、特定周波数との関係によっては、色1(402)と、色2(403)と、それらの中間色404と、で示される。ここで、中間色とは、色1と色2との間の輝度値を有する色である。
本図の例では、ボタンA401の色を、特定周波数FsHzで、色1[R:128、G:255、B:255]402と、色2[R:0、G:255、B:255]403との間で変化させる。すなわち、FO/(2×Fs)フレーム毎に、交互に色1、色2とし、その間のフレームには、色1と色2との中間色404を設定する。
例えば、映像のフレームレートFOが120Hz、視覚刺激信号の特定周波数Fsが30Hzである場合を、図4(b)に示す。本図に示すように、この場合、フレーム番号(#)が1には、色1が、同2には、色1と色2の中間色である色3が、同3には、色2が、同4には、色1と色2の中間色である色3が、設定され、その後、4フレーム毎に、同様の設定が繰り返される。すなわち、1秒間に120枚の映像フレームを用いて、色1、色2、色1という変化を4枚の映像フレームを1サイクルとし、色1と色2間で徐々に色が変化するよう、ボタンA401の輝度値が調整される。
なお、上述したように、各映像フレームのボタンA401の色を、色1(402)から色2(403)へ周期的に変化させる輝度値の演算や、各映像フレームに割り当てる輝度値の設定は、操作I/F作成部115で行う。
また、ここでは、輝度を周期的に変化させることによりボタンA401の色を変化させているが、変化の軸はこれに限定されない。例えば、色相や彩度、明度等の輝度値以外の色情報を変更してもよい。この場合、色の変化が、ユーザ130に識別可能でなくてもよい。以下、本明細書では、輝度を調整軸として説明するが、これに限定されない。
次に、視覚刺激信号挿入の、第二の手法を、図5を用いて説明する。図4(a)で説明した第一の手法では、映像に操作用のボタンAを配置する。しかし、図5で説明する第二の手法では、映像そのものに含まれるオブジェクトに視覚刺激信号を重畳する。なお、重畳するオブジェクト(重畳対象オブジェクト)は、予め定められているものとする。
本図においても、映像フレームとして、飛行機の計器類が表示された画像を用いる場合を例示する。第二の手法では、映像フレームの、予め定めた領域(操作領域;重畳エリアAA)502内の輝度値(画素の色)を、特定周波数FsHzで変化させる。本図の例では、映像内の各計器501を視覚刺激信号の重畳対象オブジェクトとする。すなわち、重畳対象オブジェクトである計器501の画素の色を、特定周波数FsHzで変化させる。
なお、重畳対象オブジェクトの、映像内位置(重畳エリアAA)は、映像フレーム毎に変化する。本実施形態では、後述するように、映像フレームを取得する毎に、操作I/F作成部115が重畳エリアAAを算出し、操作I/Fテーブルに格納する。
第二の手法では、重畳エリアAAの画像をそのまま使用し、その重畳エリアAA内の画素の色を変化させることでフリッカーを実現する。
図5下部のグラフの横軸は時間、縦軸は輝度値を示す。元の映像の重畳エリアAA502を構成する各画素のベース色は、例えば、実線のグラフ503のように任意に変化するものとする。
SSVEP用の視覚刺激として使用するフリッカーは、周波数曲線504に示すように、ベース色を周期的に変化させることにより実現する。
具体的には、操作I/F作成部115は、映像フレーム毎に、重畳エリアAA502内の画素の色の変化をベースに、重畳エリアに設定した特定周波数に応じて、画素ごとのベース色からの輝度値の変化量512を算出する。そして、映像フレーム毎に、視覚刺激信号重畳後の画素値(RGB値、505、506、507)を求める。演算部124は、操作I/F作成部115の決定に従って、表示フレームを作成する。
なお、本図において、511は、映像の画素の元のRGB値を示し、512は、フリッカー用の刺激を作成するために追加された輝度値(追加変化量)を反映したRGB値の変化量である。
重畳対象オブジェクトは、以下で説明するようにフリッカー機能を持つオブジェクトとしてユーザ130に認識されない場合もある。このため映像中のオブジェトをフリッカーとする場合には、それらがフリッカー機能を保持していることがわかるようにそのエリアを示しても良い。
例えば、図5に示すように、重畳エリアAA502を破線等で囲んでもよい。この各計器を取り囲む破線で示された長方形のエリアが重畳エリアAA、すなわち、フリッカー機能を持つエリアである。このような工夫により、ユーザ130は映像中の計器が脳波による操作の対象であることを知ることができる。
[マッピングテーブル/機能テーブル/オブジェクトテーブル]
次に、マッピング部117が作成するテーブルについて説明する。図6(a)、図6(b)、図7(a)および図7(b)は、マッピング部117が生成するマッピングテーブル601と、機能テーブル610と、オブジェクトテーブル670と、オブジェクトテーブル680、の一例を説明するための図である。これらの各テーブル601、610、670、680は、マッピングデータ格納部118に格納される。
マッピングテーブル601は、表示装置101が提供する機能と、脳波I/F部102が提供するSSVEP操作I/Fとを対応づけたテーブルである。
図6(a)に示すように、マッピングテーブル601は、マッピングテーブル内の要素を一意に識別する識別番号(No.)602と、表示装置101が提供する機能を一意に識別する機能ID603と、脳波I/F部102が提供するSSVEP操作I/Fを一意に識別するSSVEP_ID604とを備える。
なお、SSVEP_ID604は、機能ID603とは独立に設定できる。すなわち、1つの画面で同時に呈示されない機能であれば、異なる機能ID603に、同一のSSVEP_ID604を対応づけてもよい。
なお、機能とSSVEP操作I/Fとのマッピングは、初期設定時に一度だけ実施されてもよいし使用状況に応じて再実行されてもよい。マッピングテーブル601への登録は、例えば、後述する操作I/Fテーブル620において、割り当て周波数の登録が実施された時点で行う。
機能テーブル610は、機能ID603毎の機能の詳細を格納するテーブルである。
図6(b)に示すように、機能テーブル610は、表示装置101が提供する機能を一意に識別する機能ID603と、機能名613と、機能ID603が示す機能の概要である機能概要614と、視覚刺激信号を映像中のオブジェクトに重畳して呈示するか否かを示す重畳フラグ615と、オブジェクトを一意に識別するオブジェクトID616と、を備える。
重畳フラグ615は、映像中のオブジェクトに重畳して提示する場合は、ON617に、その他の場合は、OFF618に設定される。重畳して提示する手法の一例は、例えば、図5で説明した第二の手法である。また、もう一方の手法の一例は、例えば、図4で説明した第一の手法のように、アイコン(ボタン)を挿入し、当該アイコンで視覚刺激信号を実現する手法である。
オブジェクトテーブル670およびオブジェクトテーブル680は、各機能を重畳するオブジェクトを特定する情報を格納するテーブルである。それぞれ、オブジェクトID616に対応づけて、オブジェクトが登録される。
オブジェクトテーブル670の一例を図7(a)に示す。オブジェクトテーブル670は、重畳フラグ615がOFFの場合に参照されるテーブルである。オブジェクトテーブル670には、オブジェクトID616毎に、オブジェクト672として、画像に挿入するオブジェクトが登録される。図4(a)に示す映像フレームの例では、ボタンAである。画像に重畳するオブジェクト672の他の例は、例えば、右向き矢印ボタン、左向き矢印ボタン、特定の数字のボタン、等である。
オブジェクトテーブル680の一例を図7(b)に示す。オブジェクトテーブル680は、重畳フラグ615がONの場合に参照されるテーブルである。オブジェクトテーブル680には、オブジェクトID616毎に、重畳対象オブジェクトがオブジェクト682として登録される。登録されるオブジェクト682は、例えば、図5に示す映像フレームの例では、燃料メータ、速度メータ等である。
なお、マッピングテーブル601、機能テーブル610、オブジェクトテーブル670およびオブジェクトテーブル680は、表示装置101が提供する機能に対して、脳波制御部120がマッピング部117に指示を出すことにより作成され、マッピングデータ格納部118に登録される。
各テーブル601、610、670、680は、予め登録されても良いし、映像生成部106の扱う映像の種類に合わせて、必要に応じて作成、あるいは、更新されてもよい。また、表示装置101は、自身が提供するサービスやアプリの全機能に関する機能テーブル610の全部あるいは一部を、記憶部110に格納し、脳波制御部120またはマッピング部117がそれらの機能の中から脳波で操作可能な機能のみを抽出し、機能テーブル610を作成し、マッピングデータ格納部118に登録しても良い。
[操作I/Fテーブル]
次に、操作I/F作成部115が作成し、操作I/F格納部116に格納する操作I/Fテーブルについて説明する。図8(a)および図8(b)は、それぞれ、操作I/Fテーブル620および操作I/Fテーブル630の一例である。
操作I/Fテーブル620は、重畳フラグがOFFの場合に参照されるテーブルである。本図に示すように、操作I/Fテーブル620は、脳波I/F部102が提供するSSVEP操作I/Fを一意に識別するSSVEP_ID604毎に、当該SSVEP操作I/Fに割り当てた、視覚刺激信号の周波数623と、映像に付加するために必要な情報とを備える。
本実施形態では、SSVEP_ID604毎に、任意の1つの周波数623が割り当てられる。ただし、1つの画面(映像)で同時に呈示されない機能であって、呈示される場合、一定時間以上間をあけて呈示される機能に対応づけられたSSVEP操作I/F(SSVEP_ID604)であれば、異なるSSVEP_ID604に、同一の周波数を対応づけてもよい。
映像に付加するために必要な情報として、操作I/Fテーブル620には、各SSVEP_ID604に対応づけて、視覚刺激信号を挿入する映像フレームの位置であるエリア625、視覚刺激信号に用いる色情報(使用色1(626)、使用色2(627))、形状(サイズ)624、重畳色628等が登録される。
形状(サイズ)624は、視覚刺激信号の挿入対象となる画像(ボタンなど)の形状とサイズとである。例えば、長方形の場合は、縦と横との大きさが形状(サイズ)として登録される。円の場合は、半径の大きさが記述される。
エリア625は、視覚刺激信号を挿入する画像を配置する位置の情報である。本実施形態では、映像フレーム内の位置情報(画素位置)が登録される。例えば、形状(サイズ)624が長方形の場合は、特定の頂点の位置が登録される。また、円の場合は、中心位置が登録される。位置情報として、映像画面の左上角を原点(0,0)とした時の各頂点の位置情報を記述する。エリア625を記述するデータは数値で記述してもよいし、変数で記述してもよい。
使用色1(626)と使用色2(627)とは、視覚刺激信号に用いる画像の色(2色)のRGB値である。すなわち、視覚刺激信号を生じさせる輝度値の最大値と最小値とが登録される。
重畳色628は、重畳時に用いられる色のRGB値である。この値は、映像生成部106が生成した映像のフレームレートと周波数623とに応じて、フレーム毎に算出され、決定される。例えば、周波数623の逆数の周期で、予め定めた最大値と最小値との間で挿入対象となる画像領域の色情報が変化するよう、フレームレートに応じて各フレームの当該領域の重畳色628を決定する。
操作I/Fテーブル630は、重畳フラグがONの場合に参照されるテーブルである。基本的に、操作I/Fテーブル620と同様に、脳波I/F部102が提供するSSVEP操作I/Fを一意に識別するSSVEP_ID604毎に、当該SSVEP操作I/Fに割り当てた、視覚刺激信号の周波数631と、映像に付加するために必要な情報とを備える。
操作I/Fテーブル630においても、操作I/Fテーブル620同様、SSVEP_ID604毎に、任意の1つの周波数631が割り当てられる。また、映像に付加するために必要な情報として、各SSVEP_ID604に対応づけて、形状632と、挿入エリア633と、オリジナル色634と、重畳時の色635と、が登録される。
形状632は、視覚刺激信号の重畳対象となるオブジェクトの形状である。重畳フラグがONの場合、映像中の重畳対象オブジェクトに視覚刺激信号を重畳する。このため、形状632は、例えば、当該重畳対象オブジェクトを取り囲む長方形とする。映像中のオブジェクトは様々な形状を持つためである。
挿入エリア633は、視覚刺激信号を挿入する位置の情報である。本実施形態では、映像フレーム内の位置情報(画素位置)が登録される。例えば、形状として、オブジェクトを取り囲む長方形が登録される場合、エリア625には、当該長方形の左上頂点の位置を記述する。円の場合は中心座標の位置を記述する。
オリジナル色634は、重畳対象のオブジェクトの重畳前の色情報であり、重畳時の色635は、重畳時の色情報である。それぞれ、RGB値が登録される。
なお、上述のように、重畳フラグがONの場合、映像中の重畳対象オブジェクトに視覚刺激信号を重畳する。従って、形状632、挿入エリア633、オリジナル色634および重畳時の色635は、フレームを取得する毎に、フレーム単位で、決定する。例えば、操作I/F作成部115は、フレーム毎に、オブジェクト抽出プログラムを実行し、重畳対象オブジェクトを抽出し、これらの各情報を決定する。重畳時の色635は、映像生成部106が生成した映像のフレームレート、周波数631およびオリジナル色634により決定される。
[レイアウト]
次に、アイコンを挿入する場合のレイアウト例を説明する。図9(a)は、操作ボタンをアイコンとして挿入する場合の例であり、図9(b)は、テンキーの例である。
アイコンを挿入する場合、利便性等を考慮して、予めSSVEP用の視覚刺激信号を呈示する操作領域の挿入箇所を決めておく。操作領域は、アプリケーションごとに予め定めたテンプレートを使用してもよいし、脳波I/F部102内に、予め作成して保持してもよい。
まず、操作ボタンを複数用意し、それぞれに、異なる周波数を割り当てる場合のレイアウト例を、図9(a)を用いて説明する。本図の例では、4つの長方形のボタンを、それぞれ、エリアB711,エリアC712、エリアD713、エリアE714に、それぞれ、挿入する例である。エリアB711は画面左上のエリア、エリアC712は画面中央のエリア、エリアD713は画面右上のエリア、エリアE714は画面右中央のエリアである。
本実施形態では、各ボタン(エリアB~E 711~714にそれぞれ挿入)に、視覚刺激信号に使用する2色と、それらの色を繰り返し周期的に呈示するための周波数と、を割り当てる。
各エリアは、長方形の頂点を示す座標値(映像の画素の位置情報)で表現される。例えば、エリアB711は、(B1,a)715、(B2,b)716、(B3,c)717、(B4,d)718の4つの座標値で表現される。残りのエリアC712、エリアD713、エリアE714についても同様である。
なお、操作I/Fテーブル620のエリア625には、図9(a)の各エリアの左上の頂点が登録される。例えば、エリアB711の場合は(B1,a)715が登録される。すなわち、エリア625には、アイコンを挿入するエリアとそのエリア内における、左上頂点からの相対的な位置(+数値で記述)を明示したデータが記述される。
なお、エリア625は、表示装置101の表示方式などにより具体的な場所が調整できる方がよいため、表示装置101の表示能力にあわせて、具体的な数値を入力することが望ましい。エリア625には、エリア情報として変数(たとえばエリアB711の(B1,a)715を基準にした値)を入力してもよいし、具体的な配置データを入れてもよい。ただし、変数を入力する場合には、映像を出力する前に具体的な位置データに変換する必要がある。
図9(b)に、テンキー721を用意し、それぞれに、異なる周波数を割り当てる場合を例示する。なお、テンキー721は、数値を入力するためのボタン(数値入力ボタン0~ボタン9;722~731)と、数値入力ボタン722~731を介して入力された数値を表示すための数字表示パッド732と、入力した数値データを確定するためのリターンキーボタン733と、入力された数値データをクリアするためのクリアボタン734とを備える。
本例では、例えば、数字表示パッド732以外のボタンに、視覚刺激信号として使用する2色と、それらの色を繰り返し周期的に呈示するための周波数と、を割り当てる。なお、数字表示パッド732には、数値の表示桁の位置それぞれに異なる周波数を割り当ててもよい。これにより、入力した数値の中から所定の位置を選択することも可能となる。
[周波数決定処理]
次に、操作I/F作成部115による、操作I/Fテーブル620および操作I/Fテーブル630作成処理のうち、割当周波数決定処理の流れを、図10を用いて説明する。
なお、本実施形態では、制御部112は、予め、脳波制御部120を介してマッピング部117と操作I/F格納部116とに対して、マッピングテーブル601と、機能テーブル610と、操作I/Fテーブル620と、操作I/Fテーブル630と、オブジェクトテーブル670と、オブジェクトテーブル680との作成を指示する。
ここで、周波数決定処理実施時には、操作I/Fテーブル620および操作I/Fテーブル630以外のテーブルは既に作成されているものとする。また、操作I/Fテーブル620については、SSVEP_ID604、形状、サイズ624、エリア625、使用色1(626)、使用色2(627)は、登録されていてもよい。一方、操作I/Fテーブル630については、SSVEP_ID604のみ登録されているものとする。
まず、操作I/F作成部115は、機能テーブル610を参照し、重畳フラグ615がONの機能を抽出する(ステップ1101)。なお、重畳フラグ615がONの機能は、映像に直接、視覚刺激信号を重畳する機能である。
次に、操作I/F作成部115は、抽出した機能に、視覚刺激信号の周波数として、34Hz以上75Hz以下の範囲で、任意の周波数を割り当てる(ステップ1102)。そして、その結果を、操作I/Fテーブル630に登録する。ここでは、まず、当該機能(機能ID603)に対応づけられているSSVEP_ID604を、マッピングテーブル601で特定する。そして、操作I/Fテーブル630の当該SSVEP_ID604のレコードの周波数631に、割り当てた値を登録する。
これを、操作I/F作成部115は、機能テーブル610の重畳フラグ615がONの全ての機能ID603について、繰り返す。ただし、機能ID603毎に、異なる周波数を割り当てる(ステップS1103)。
重畳フラグ615がONの全ての機能ID603について、上記処理を終えると、次に、操作I/F作成部115は、機能テーブル610の重畳フラグ615を参照し、重畳フラグがOFFの機能を抽出する(ステップ1104)。なお、重畳フラグがOFFの機能は、映像にボタン等のアイコンを挿入し、当該アイコンに直接視覚刺激信号を重畳する機能である。
次に、操作I/F作成部115は、抽出した機能に、視覚刺激信号の周波数として、34Hz以上75Hz以下の範囲の周波数を割り当てる(ステップ1105)。このとき、未使用の周波数を割り当てる。そして、その結果を、上記手法で、操作I/Fテーブル620に登録する。
これを、操作I/F作成部115は、機能テーブル610の重畳フラグ615がOFFの全ての機能ID603について、繰り返し(ステップS1106)、処理を終了する。ここでも、機能ID603毎に、異なる周波数を割り当てる。
ここで、視覚刺激信号の周波数は、4~75Hzである。ステップS1102において、各機能に、34Hz以上の周波数の視覚刺激信号を割り当てるのは、34Hz以上の周波数の信号が、人間にちらつきを感じさせないためである。このちらつきを感じなくなる境界となる周波数を臨界融合周波数(閾値周波数)と呼び、通常約34Hzがこの閾値周波数に当たる。
なお、ステップS1102では、例えば34Hz以上75Hz以下の範囲で小さい周波数から割り当てる。周波数が高くなるほどSSVEPとして検出される電位が小さくなる傾向があるため、重要な機能あるいは使用頻度の高い機能に対して優先的に小さい周波数を割り当てるようにしても良い。
また、ステップS1105では、34Hzより下の周波数では、人の目にちらつきが感じられるため、例えば、残りの周波数の中から、大きい周波数から割り当てる。重要な機能に対しては意図的に優先して大きい周波数を割り当てるようにしても良い。
さらに、ステップS1105では、操作ボタン等に視覚刺激信号を重畳する。この場合、34Hzより小さい周波数であっても、ちらつきを感じさせない2色の色(マクアダムの楕円内の2色の色)を選択することにより、ちらつきの回避が可能である。これを利用した、周波数決定処理は、後述する。
一方、ステップS1102では、元の映像に直接視覚刺激信号を重畳する。この場合、色をマクアダムの楕円内の2色に限定できない。このため、ステップS1102では、34Hz以上の周波数から優先的に割り当てる。
ここで、視覚刺激信号の周波数は、上述のように4~75Hzである。しかしながら、SSVEPは、設定された周波数およびその整数倍の周波数で発生する。このため、4~75Hzの全ての周波数を使用できるわけではない。例えば、使用する周波数を整数に限定する場合、4~75Hzの周波数の中で、奇数周波数と一部の偶数周波数しか使用することができない。
このため、周波数決定処理では、予め使用可能な周波数の組み合わせを登録しておき、それらの登録内容を参照しながら周波数を割り当てる。この組み合わせは、製品出荷時に最初から記憶部110に保存しておいてもよいし、制御部112が、記憶部110に保存されたアプリケーションプログラムの指示を受けて、記憶部110に登録するようにしてもよい。
なお、使用する周波数を整数に限定する場合、使用可能な周波数の組み合わせには、以下の2つのパタンがある。
・第一のパタン)高い周波数から順に偶数の周波数を割り当てる組み合わせパタン。以下にこのパタンの周波数の数値を列挙する。
4,10,11,12,13,14,15,16,17,18,38,39,40,41,42,43,44,45,46,47,48,49,50,51,52,53,54,55,56,57,58,59,60,61,62,63,64,65,66,67,68,69,70,71,72,73,74,75
・第二のパタン)低い周波数から順に偶数の周波数を割り当てる組み合わせパタン。以下にこのパタンの周波数の数値を列挙する。
4,5,6,7,9,11,13,15,16,17,19,20,21,23,24,25,27,28,29,31,33,35,36,37,39,41,43,44,45,47,49,51,52,53,55,57,59,60,61,63,64,65,67,68,69,71,73,75
なお、本実施形態では、SSVEPを誘発する周波数が4~75Hzであることを前提に説明している。しかしながら、これに限定されない。SSVEPを誘発する周波数の範囲は今後の研究成果で変わりうるため、範囲が変わった場合においても同様の方法で使用する周波数を割り当てるものとする。また、本実施形態では、SSVEPを誘発する周波数として、上述のように整数の周波数を使用している。しかしながら、小数点以下の周波数(例えば、4.5Hz、4.77Hz等)も使用可能な周波数に含めてもよい。なお、周波数を、小数点以下まで許容する場合、組み合わせパタン数は、さらに増加する。
重畳フラグONの数が多い場合は、第一のパタンを使用する方が望ましい。これは、第一のパタンの方が、偶数の周波数を高周波数から割り当てるため、34Hz以上のちらつきを感じさせない周波数の数が多いためである。
周波数決定処理では、以上の周波数の特性を考慮して、例えば、使用頻度の高い機能は、高い電位が測定でき、ちらつきを感じない周波数を割り当てることが望ましい。また、正確性や信頼性が必要となる機能に関しては、安定した電位が測定できる周波数を選択することが望ましい。
ここで、ボタン等のアイコンに、低周波数の視覚刺激信号を重畳する場合、マクアダムの楕円を利用してもよい。この場合の、周波数決定処理の変形例を、図11に沿って説明する。
マクアダムの楕円とは、光の色特性の違いを、人が認識できない範囲であり、所定色を中心(楕円の中心の色)として、人が、その所定色と区別することができない色の範囲を、色度図上に表現したものである。すなわち、マクアダムの楕円の範囲内で、SSVEP誘発可能な周波数で色相または彩度を変化させた場合、観察者自身は、色特性の変化に気づかないが、脳波においては、SSVEPが検出される。なお、マクアダムの楕円の範囲は、基準とする点(上記所定色)毎に異なる。
操作I/F作成部115は、まず、図10と同様に、重畳フラグ615がONの機能ID603について、周波数を割り当てる(ステップS1101~S1103)。
そして、重畳フラグ615がOFFの機能ID603、すなわち、ボタン等のアイコンを挿入する機能については、操作I/F作成部115は、以下の処理を行う。
まず、重畳フラグ615がOFFの機能を抽出する(ステップS1104)。次に、34Hz以上の周波数で割り当て可能な周波数が残っているかを判別する(ステップS1205)。残っている場合は、図10で説明した処理同様、当該機能ID603に、周波数を割り当てる(ステップS1105)、ステップS1106へ移行する。
一方、残っていない場合は、34Hz以下の周波数を割り当てる必要がある。前述した通り、34Hzより下の周波数では人の目にちらつきが感じられる。そこで、ちらつきを感じさせない2色の色(マクアダムの楕円内の2色の色)を選択することにより回避する。
この場合、操作I/F作成部115は、まず、抽出した機能ID603に対応するSSVEP_ID604に対応づけて、操作I/Fテーブル620に登録されている使用色1(626)および使用色2(627)を抽出する(ステップS1206)。
そして、抽出した使用色1(626)および使用色2(627)が、同一のマクアダムの楕円内の色であるか否かを判別する。このため、まず、使用色1(626)および使用色2(627)の色領域を決定する(ステップ1207)。ここで、色領域とは、通常使用する色の名前に相当し、数値的な幅を持つ。本実施形態では、例えば、RGB系の各値を決定する。
使用色1(626)および使用色2(627)は、例えば、青と緑というように、別な色が使用されている場合もあるし、青と青、というように、ともに、同系色の色が使用されている場合もある。マクアダムの楕円を活用してちらつきを解消するためには、使用色1(626)および使用色2(627)が同系色の色であり、かつ、それらが、同一楕円内の色である必要がある。
決定した色領域を用い、使用色1(626)および使用色2(627)が、同一のマクアダム楕円内であるか否かを判別する(ステップS1208)。使用色1(626)および使用色2(627)のRGB系の各値とマクアダムの楕円を示すXYZ値との間の相互変換は、所定の変換式を使用する。
そして、使用色が2色とも同一楕円内の色であれば、そのまま、設定された色を用い、残りの周波数の中から、周波数を割り当てる(ステップS1210)。
一方、使用色1(626)および使用色2(627)が、同一のマクアダム楕円内でなければ、使用色1(626)または使用色2(627)に最も近いマクアダム楕円を決定し、使用色1(626)および使用色2(627)を、当該楕円内の色に調整する(ステップS1209)。そして、ステップS1210へ移行する。
ステップS1209では、使用色のいずれか一方のみが、マクアダムの楕円内の色である場合、他方の使用色を、当該マクアダムの楕円内の色から任意に選定し、再登録する。また、両使用色ともマクアダム楕円内にない場合は、いずれかの使用色に一番近いマクアダム楕円の中から1色を選択し、他方の使用色も、その楕円内の任意の色に設定する。
以上の処理を、操作I/F作成部115は、機能テーブル610の重畳フラグ615がOFFの全ての機能ID603について、繰り返し(ステップS1106)、処理を終了する。
上記の処理により、視覚刺激信号に34Hz以下の周波数を割り当てる場合、2色の使用色を同一のマクアダムの楕円内の色で設定できる。このため、挿入するボタン等のアイコンに低周波数を割り当てたとしても、ユーザ130にちらつきを感じさせない。
[表示画像作成処理]
次に、操作I/Fテーブルに登録されているデータに従って表示デバイス部125に表示する表示画像を作成する、表示画像作成処理の流れを説明する。
上述のように、演算部124は、操作I/Fテーブル620および/または操作I/Fテーブル630に従って、各映像フレーム内の画素値を調整し、表示フレームを作成する。
操作I/Fテーブル620は、機能テーブル610の重畳フラグ615がOFFの場合の操作I/Fの例である。この場合、ボタン等のアイコンを挿入し、当該アイコンに視覚刺激信号を重畳する。操作I/Fテーブル630は、機能テーブル610の重畳フラグ615がONの場合の操作I/Fの例である。この場合、映像フレーム内のオブジェクトに視覚刺激信号を重畳する。
ボタン等のアイコンを挿入する場合(操作I/Fテーブル620)は、当該アイコンに視覚刺激信号を重畳する際のアイコンの配置位置やサイズは、操作I/Fテーブル620に予め登録される。しかしながら、映像フレーム中のオブジェクトに直接重畳する場合(操作I/Fテーブル630)の視覚刺激信号の配置位置やサイズは、実際の映像フレームを取得してからでないと、判断できない。
本実施形態では、まず、映像生成部106が映像フレームを生成する毎に、操作I/F作成部155が、操作I/Fテーブル620や操作I/Fテーブル630を更新する。具体的には、重畳フラグ615がOFFの場合用の操作I/Fテーブル620においては、重畳色628を決定する。また、重畳フラグ615がONの場合の操作I/Fテーブル630においては、形状632、挿入エリア633、オリジナル色634および重畳時の色635を決定する。
そして、その後、演算部124が、最新の操作I/Fテーブル620および操作I/Fテーブル630を参照し、表示フレームを生成する。
なお、操作I/Fテーブル620は、重畳色628を除く項目が登録されているものとする。ただし、各アイコンの挿入位置や形状を変化させる場合は、操作I/Fテーブル620の形状、サイズ624とエリア625とをフレーム毎に決定してもよい。
なお、アイコンの非表示/表示は、操作I/Fテーブル620から登録されている情報を削除したり登録したりすることにより実現する。具体的には、エリアや625や重畳色628などに関するデータを削除したり、登録したりし、アイコンを非表示/表示する。
従って、表示画像作成処理は、図12(a)に示すように、操作I/Fテーブル630を更新し、完成させる操作I/Fテーブル更新処理(ステップS1301)と、表示フレームを作成する表示フレーム作成処理(ステップS1302)と、を備える。なお、図12(a)に示す表示画像作成処理は、映像フレームを取得する毎に実行される。
[操作I/Fテーブル更新処理]
図12(b)に、映像フレームを取得する毎に、操作I/F作成部115が実行する操作I/Fテーブル更新処理の流れを示す。まず、操作I/F作成部115は、当該映像フレーム(処理対象フレーム)の画素情報を取得する(ステップS1401)。
そして、操作I/F作成部115は、操作I/Fテーブル620の全てのレコードについて、処理対象フレームの、重畳色628を、それぞれ決定する(ステップS1402)。この時、登録されているボタンなどのオブジェクトを非表示にする場合は、重畳色を決定しない(したがって空欄にする)ようにする。
操作I/Fテーブル620の全てのレコードについて、上記処理を終えると(ステップS1403)、次に、操作I/F作成部115は、操作I/Fテーブル630の全てのレコードについて、以下のステップS1404~S1408の処理を行う。
まず、操作I/F作成部115は、重畳対象オブジェクトを特定する(ステップS1404)。ここでは、マッピングテーブル601と、機能テーブル610と、オブジェクトテーブル680と、を参照する。そして、処理対象のレコードのSSVEP_ID604に対応づけられた機能ID603を特定する。そして、機能ID603に対応づけられたオブジェクトID616を特定する。そして、オブジェクトID616に対応づけられたオブジェクト682を、重畳対象オブジェクトとして特定する。
次に、操作I/F作成部115は、処理対象フレームの重畳対象オブジェクトを抽出する(ステップS1405)。ここでは、予め記憶部110に登録されている専用プログラムを用い、処理対象フレームの、オブジェクト682の画素領域を抽出する。抽出時は、取得した画素情報を用いる。例えば、オブジェクト682が燃料メータであれば、画素情報の中から、燃料メータに対応する画素領域を重畳対象オブジェクトとして抽出する。
そして、操作I/F作成部115は、抽出した重畳対象オブジェクトの形状と、当該映像フレーム内の画素位置と、色情報とを特定し、それぞれ、操作I/Fテーブル630の形状632と、挿入エリア633と、オリジナル色634と、に登録する(ステップS1406)。
なお、形状が複雑であると視認性が悪いため、オブジェクトの形状をそのまま重畳対象とせずに、図5の重畳エリアAA502のようにオブジェクトを取り囲む図形をオブジェクトの形状としてもよい。
最後に操作I/F作成部115は、映像のフレームレートと周波数623とオリジナル色634とに応じて、重畳時の色635を決定する(ステップS1407)。全てのレコードについて、ステップS1404~S1407の処理を終えると、本処理を終了する(ステップS1408)。
[表示フレーム作成処理]
次に、演算部124による表示フレーム作成処理を説明する。図13は、本実施形態の表示フレーム作成処理の処理フローである。本処理は、映像生成部106が映像フレームを生成する毎に、操作I/F作成部115が、操作I/Fテーブル更新処理を終えたことを受け、実行される。
演算部124は、最新の映像フレームの画素情報を取得する(ステップS1501)。そして、操作I/Fテーブル620および操作I/Fテーブル630を参照し、各レコードについて、以下の処理を行う。以下では、操作I/Fテーブル620、操作I/Fテーブル630の順に処理を行うものとする。なお、この順は逆であってもよい。
まず、処理対象レコードの、形状、サイズ624、エリア625により、ボタン等のアイコンの挿入画素位置を特定する(ステップS1502)。そして、重畳色628を参照し、当該画素位置の、表示色を決定し(ステップS1503)、表示フレームに反映する(ステップS1504)。このとき、表示色は、表示デバイス部125の特性に応じて規格化した値とする。
以上の処理を、操作I/Fテーブル620の、形状、サイズ624、エリア625、重畳色628の、登録のある全てのレコードについて行うと(ステップS1505)、次に、操作I/Fテーブル630の各レコードの処理に移行する。なお、ここで、図12のステップ1402において重畳色628を決定しなかった場合には、重畳色628には値が入力されていない。
操作I/Fテーブル630の形状632、挿入エリア633より、重畳対象オブジェクトの画素領域を特定する(ステップS1506)。そして、重畳時の色635により、当該重畳画素領域の表示色を決定し(ステップS1507)、表示フレームに反映する(ステップS1508)。このときも、表示色は、表示デバイス部125の特性に応じて規格化した値とする。
以上の処理を、操作I/Fテーブル630の、形状632、挿入エリア633の登録のある全てのレコードについて行うと(ステップS1509)、処理を終了する。なお、ここで、図12のステップ1404において重畳対象オブジェクトを特定できなかった場合には、操作I/Fテーブル630の挿入エリア633のデータは少なくとも空欄にする。
[視線周波数検出処理]
次に、脳波I/F部102における脳波分析部114による視線周波数検出処理の流れを説明する。図14(a)は、本実施形態の視線周波数検出処理の処理フローである。本処理は、視線周波数検出部123が、表示装置101の装着者であるユーザ130が注視している視覚対象の周波数を検出するために行う。
まず、前処理部121が、測定した脳波の前処理(ノイズ除去)を実行し(ステップ1601)、信号の増幅を行う(ステップ1602)。
次に、特徴抽出部122が、処理後の脳波をフーリエ変換し、周波数系列パワースペクトルを算出し(ステップ1603)、ピークのある周波数を検出する(ステップ1604)。最後に、視線周波数検出部123が、検出した周波数のうちでも最も小さい周波数を注視対象周波数として検出する(ステップ1605)。
[機能判定処理]
次に、本実施形態の機能判定部119による、機能判定処理の流れを説明する。図14(b)は、本実施形態の機能判定処理の処理フローである。機能判定部119は、ユーザ130が注視している対象の周波数の検出結果から、それに対応づけられている機能を判定する。
機能判定部119は、脳波分析部114から測定脳波の分析結果である注視対象周波数を取得する(ステップ1701)。
そして、機能判定部119は、当該注視対象周波数に対応する機能を判定する(ステップS1702)。ここでは、まず、操作I/Fテーブル620を参照し、前記注視対象周波数が周波数623として割り当てられたSSVEP_ID604を特定する。そして、マッピングテーブル601を参照し、対応する機能ID603を特定する。最後に機能テーブル610を参照し、当該機能ID603の機能概要614を抽出する。
機能判定部119は、ステップ1702で判定した機能ID603および機能概要614を、脳波制御部120に通知する。脳波制御部120は、実行部109で当該機能を実行するよう制御部112に要求する。
以上説明したように、本実施形態の表示装置101は、入力操作インタフェースとして、BCI(Brain Computer Interface)を備え、拡張現実、仮想現実および/または複合現実表示を行う。そして、BCIとして、視覚刺激信号の周波数に応じた周波数を有する脳波信号を検出し、機器の制御を行う脳波インタフェース装置であって、取得した各映像フレーム上の予め定めた領域である操作領域に、特定の周波数である特定周波数を有する前記視覚刺激信号を割り当て、特定周波数の逆数の周期で、予め定めた最大値と最小値との間、または色情報の差分変化量で、操作領域に対応する領域の色情報を変化させることにより当該特定周波数を有する前記視覚刺激信号を作成する操作I/F作成部115と、前記特定周波数を有する前記視覚刺激信号を表示デバイスに出力する演算部124と、前記特定周波数に、制御指示を対応づけて保持する対応データベースと、検出した脳波信号から前記特定周波数を抽出する脳波分析部114と、抽出した前記特定周波数に対応する前記制御指示を前記対応データベースから取得し、当該制御指示に従って制御を行う制御部112と、を備えることを特徴とする脳波インタフェース装置を用いる。
本実施形態の表示装置101は、映像フレーム上の、所定の操作領域の色情報を、4~75Hzの範囲で予め割り当てた周波数で、周期的に変化させ、SSVEP用の誘発刺激として機能させる。すなわち、本実施形態によれば、映像フレームそのものの所定の領域に、視覚刺激信号を挿入する。
所定の操作領域として、例えば、操作ボタンや文字入力キー等であれば、予め定めた2つの輝度値の間で、変化させる。また、映像そのものを変化させる場合、予め定めた輝度値変化量を用い、当該領域の画素値を変化させる。
ユーザ130が画面上の操作領域となる所定のボタンやキー、あるいは、映像領域を凝視することにより、当該領域に割り当てられた周波数の脳波が誘発される。そして、脳波検出部113で検出した測定脳波の中から、脳波分析部114でそのボタンやキーに割り当てた周波数を検出する。そして、検出された周波数により、ユーザ130が選択した操作、あるいはキーが判別でき、それぞれのボタンやキーに割り当てられた機能を実行できる。これにより、ユーザ130は、操作のためのボタンやキー、あるいは、領域を見つめるだけで、ユーザ130が意図した操作を実行できる。
このように、本実施形態によれば、注視による操作のみで、所望の機能を実行できる。注視による操作以外の操作が不要であるため、公共の場所であっても、問題なく使用できる。従って、使用場所に制約の少ない、I/Fを実現できる。
脳波を用いたBCI技術には、脳波の波形成分の特徴、P300や眼球停留関連電位を活用したものや、脳波の周波数成分の特徴である、事象関連同期(Event Related Synchronization、以下ERS)、事象関連脱同期(Event Related De-synchronization、以下ERD)、SSVEPを活用したものがある。このうち、SSVEPは性能、データ転送速度、必要となるトレーニング期間などの観点から見て最も優れた特徴を備える。しかし、従来のSSVEPを活用したBCI技術では、上述のように、SSVEPを誘発するための視覚刺激信号をフレーム間に挿入するため、基本視覚情報のフレームレートに依存して挿入可能な視覚刺激信号の数が制限され、利用可能な周波数が限定される。
しかしながら、本実施形態によれば、上述のように、SSVEPを用いたBCIにおいて、視覚刺激信号を、各映像フレーム上に直接挿入する。従って、フレームレートに依存せず、選択可能な周波数の範囲で、所望の周波数を、自由に挿入できる。従って、フレーム間に視覚刺激信号を挿入する従来手法に比べ、さらに、自由度の高いSSVEPを用いたBCIを実現できる。また、所望の周波数を自由に挿入できるため、視覚刺激信号を、入力キーや操作画面に効果的に割り当てることができる。
<変形例1>
なお、上記実施形態では、映像生成部106が生成した映像フレームに、視覚刺激信号を重畳し、映像フレームとともに表示デバイス部125に表示する場合を例にあげて説明したが、本実施形態は、これに限定されない。例えば、映像フレームではなく、ユーザが視覚的に認識している現実世界の操作領域に相当する領域に、視覚刺激信号のみを表示させてもよい。この場合、表示位置および表示画素値は、上記同様の手法で算出する。
<変形例2>
また、上記実施形態では、直接映像フレームに視覚刺激信号を重畳する場合、輝度値の変化量を、元の映像フレームのRGB値に加えている。しかし、この手法に限定されない。例えば、図15に示すように、元の映像フレームのRGB値は調整せず、新たに1つの色(輝度用の色、以下LC)を追加し、R,G,B,LCの4つの色チャンネルを使用して実現してもよい。
追加する色LCは、R、G、Bのいずれかを用いてよい。また、それらをミックスした色(例えばグレースケール)であってもよい。この追加する色LCに対して、SSVEP用の誘発刺激のための輝度値の変化量を調整する。
図15は、図5と同様に、飛行機の計器の映像(フレーム)に重畳する場合の例である。各計器が重畳対象オブジェクトである。本図の例においても、計器501を取り囲む長方形のエリアが重畳エリアAA502である。
重畳エリアAA502内の各画素のベース色は、実線のグラフ503のように変化する。本変形例においても、周波数曲線504をベースに、重畳エリアAA502に設定した特定周波数に応じて、画素ごとの輝度の変化量512を算出し、SSVEP用の刺激周波数重畳後の画素値(RGBLC値、505、506、507)を求める。
映像フレームごとに求めた重畳エリアAA502内の画素の輝度の変化量(508、509、510)と、重畳エリアAA502内の画素値とに基づいて重畳エリアAA502内の各画素のLC値533、534、535を算出する。その結果に基づいてフレームの画像を編集して表示し、SSVEPを誘発するための視覚刺激をユーザ130に呈示する。
なお、本変形例では、表示装置204は、図16(a)に示すように、映像表示用のLiquid Drystal Display(LCD)221(第一の表示デバイス)と、SSVEP誘発用の視覚刺激調整用のLCD222(第二の表示デバイス)とを備える。すなわち、映像用のLCD221とSSVEP誘発のための視覚刺激を作成するための輝度調整用のLCD222との2重構成で表示装置204は、構成される。
本変形例では、まず初めに入力光を輝度調整用のLCD222に入光させ、視覚刺激用の輝度調整を行った後、輝度調整した入力光を映像用のLCD221に入力する。この場合、ユーザは、最終的に映像用のLCD221からの映像を見ることになる。これにより、輝度調整後の映像を見る(知覚する)。
なお、本変形例の表示部103aの機能ブロックを図16(b)に示す。本変形例の表示部103aは、SSVEP誘発するための輝度調整を行うためのLCD222に対応する空間調光器131をさらに備える。空間調光器131は、操作I/F格納部116の結果(SSVEP誘発のための刺激を作成するために必要な画素の位置情報や輝度の変化量など)に基づき、変調に必要なRBG値を算出して出力を調整する。
この空間調光器131は、入力光を出射する照明器126と映像用のLCD221に該当する表示デバイス部125との間に配置される。
なお、図16(b)では、空間調光器131を独立して示しているが、これに限定されない。照明器126あるいは表示デバイス部125の中に組み込まれてもよい。
また、SSVEP誘発用の視覚刺激調整用のLCD222は、輝度だけではなく、色相や彩度も調整可能である。
なお、本変形例は、ボタン等のアイコンにより、視覚刺激信号を挿入する場合にも適用可能である。ボタン等のアイコンをLCD222に表示させる。
本変形例によれば、さらに、1つの追加色あるいは1つの追加機材(LCD222)を用いて、輝度を調整する。このため演算が少なくて済み、高速に処理できる。
<変形例3>
なお、上記実施形態では、表示装置101の各機能は、1つのハードウェアで実現しているが、これに限定されない。各機能を複数のハードウェアに分散して、表示装置を実現してもよい。
上記実施形態とは異なる構成を、図17に示す。図17に示す表示装置101aは、脳波I/F装置141と、制御装置143と、映像生成装置145と、表示装置146とを備える。
脳波I/F装置141は、脳波I/F部102と、通信部142とを備える。通信部142は、他装置、ここでは、制御装置143と通信(データの送受信)を行う。なお、脳波I/F部102の構成は、上記実施形態の同名の構成と同様である。
また、制御装置143は、制御部112と、記憶部110と、実行部109と、操作部107と、通信部105と、マイク/スピーカ104とを備える。各構成は、基本的に上記実施形態の同名の構成と同様の機能を実現する。ただし、通信部105は、脳波I/F装置141の通信部142と、映像生成装置145の通信部151と、表示装置146の通信部161とも、通信を行う。また、映像生成部106および表示部103は備えない。
映像生成装置145は、映像生成部106と、通信部151と、映像出力I/F部153と、映像生成制御部152とを備える。映像出力I/F部153は、表示装置146の映像入力I/F部163に接続され、映像および映像に関するデータの送受信を行う。映像生成制御部152は、映像生成装置145の全体および各コンポーネントの動作を制御する。
表示装置146は、表示部103と、通信部161と、表示制御部162と、映像入力I/F部163とを備える。表示制御部162は、表示装置146の全体および各コンポーネントの動作を制御する。なお、表示部103の構成は、上記実施形態の表示部103または103aの構成と同様である。
各装置141、143、145、146は、それぞれ通信部142、105、151、161を介して連結され、1つのシステムとして動作する。
図17に示すシステム構成において、脳波I/F装置141は、例えば、脳波計で実現できる。また、制御装置143は、例えば、PCやスマートフォンで実現できる。映像生成装置145は、例えば、カメラで実現できる。また、表示装置146は、例えば、ディスプレイで実現できる。
脳波I/F装置141の機能判定部119による判定結果は、通信部142、105を介して制御装置143に送信される。そして、制御装置143では、受信した判定結果に基づいて、映像生成装置145や表示装置146を制御する。
本変形例のように、脳波I/F装置141、制御装置143、映像生成装置145、表示装置146を、それぞれ独立した装置とすることにより、ヘッドマウントディスプレイやヘッドアップディスプレイ、プロジェクタなどの製品にも、表示装置101を適用可能である。
<変形例4>
[ヘッドアップディスプレイシステム]
また、上記実施形態の表示装置を、ヘッドアップディスプレイシステム(HUDシステム)に適用する場合の構成例を図18に示す。HUDシステム101bは、脳波I/F装置141と、映像装置147と、を備える。
脳波I/F装置141は、上記変形例3と同様の構成を有する。
映像装置147は、制御部112と、記憶部110と、実行部109と、操作部107と、映像生成部106と、通信部105と、マイク/スピーカ104と、表示部103とを備える。各構成は、基本的に上記実施形態の同名の構成と同様の機能を実現する。ただし、通信部105は、脳波I/F装置141の通信部142とも通信を行う。なお、表示部103は、上記実施形態の表示部103または103aと同様の構成を有する。
このように、HUDシステム101bは、上記実施形態の表示装置101から、脳波I/F部102が独立した構成を有する。
HUDシステム101bの脳波I/F装置141は、例えば、ヘッドセットタイプの脳波計、非接触の脳波計を実装したヘッドレスト、手の皮膚表面から脳波を測定可能な技術を実装したステアリングホイール、腕時計タイプの脳波測定装置等により、実現される。
なお、非接触で脳波を計測可能なセンサには、電界からの電位検出する光電界センサ、磁界から電位を検出するMagneto Impedanceセンサ(以下MIセンサ)などがある。これらの技術をヘッドレスト部分などに組み込むことで脳波I/F装置141とすることができる。この場合、脳波検出部113は、電極ではなく、光ファイバやMIセンサを使用する。
脳波I/F装置141の機能判定部119の判定結果は、通信部142、105を介して、映像装置147に送信される。
映像装置147の制御部112は、脳波I/F装置141から受信した判定結果に基づいて映像生成部106と表示部103とを制御する。
なお、脳波I/F装置141の機能判定部119の判定結果は、映像装置147の制御に限定されるわけではなく、通信機能をもつステアリグホイールや座席等の車内の他の機器と連携するために使用してもよい。
<変形例5>
[プロジェクタシステム]
また、上記実施形態の表示装置を、プロジェクタシステムに適用する場合の構成例を図19に示す。プロジェクタシステム101cは、脳波I/F装置141と、制御装置148と、表示装置146と、を備える。
脳波I/F装置141および表示装置146は、上記変形例3と同様の構成を有する。
制御装置148は、制御部112と、記憶部110と、実行部109と、操作部107と、映像生成部106と、通信部105と、マイク/スピーカ104と、映像出力I/F部153と、を備える。各構成は、基本的に上記実施形態の同名の構成と同様の機能を実現する。
ただし、表示部103は備えない。また、通信部105は、脳波I/F装置141の通信部142および表示装置146の通信部161とも通信を行う。また、映像出力I/F部153は、表示装置146の映像入力I/F部163に接続され、映像および映像に関するデータの送受信を行う。
このように、プロジェクタシステム101cは、上記実施形態の表示装置101から、脳波I/F部102および表示部103が独立した構成を有する。
プロジェクタシステム101cの脳波I/F装置141は、例えば、ヘッドセットタイプの脳波計、手から脳波を検出する腕時計タイプの脳波計、椅子やソファーなどのヘッドレストタイプの脳波計等により、実現される。
プロジェクタシステム101cの制御装置148は、例えばPCやスマートフォン等で実現される。また、プロジェクタシステム101cの表示装置146は、プロジェクタで実現される。
なお、表示装置146を実現するプロジェクタは、演算部124を持たなくてもよい。この場合、制御装置148が、代わりに演算部124を備えるよう構成する。
<<第二の実施形態>>
次に、本発明を適用する第二の実施形態を説明する。本実施形態においても、第一の実施形態同様、視覚刺激信号を表示する。第一の実施形態では、当該映像フレームを見たユーザ130の脳波の検出結果を用いて操作指示を行う。一方、本実施形態では、検出結果を、ユーザ130がオブジェクトを注視したか否かの判断に用いる。
本実施形態の概要を、図20(a)および図20(b)を用いて説明する。ここでは、図18に示すヘッドアップディスプレイ(以下HUD)システム101bを用いる場合を例にあげて説明する。
夜間や悪天候時に運転者に見えにくいオブジェクト541がある。たとえば、道路上を横切る人、車、障害物等である。このようなオブジェクト541を撮像した二次元あるいは三次元の画像を解析し、車に装備するHUDにおいて強調表示する技術がある。撮像は、例えば、車載の可視光カメラ、遠赤外カメラ、ステレオカメラ等によって行われる。また、オブジェクトは、例えば、動体検出プログラム(動体検出部)等により検出される。
本実施形態では、図20(a)に示すように、強調表示として、HUDの表示デバイス部125上に、マーカ542を表示するとともに、この強調表示部分(マーカ542)に、視覚刺激信号を重畳する。マーカ542の表示位置は、透過性の表示デバイス部125上の、ユーザ130がオブジェクト541の実像を見る領域(以下、オブジェクト541の実像に対応する領域と呼ぶ。)の近傍とする。ここでは、検出された道路横断中の高齢者(オブジェクト541)の実像の足元に対応する領域に、半円形の図形(強調表示用のマーカ542)を重畳する例を示す。なお、視覚刺激信号は、第一の実施形態の手法を用いて重畳する。ユーザが認識する映像の例を図20(b)に示す。
本実施形態のHUDシステム101bの構成は、基本的に第一の実施形態と同様の構成を有する。ただし、本実施形態では、記憶部110が、動体検出プログラムを備える。また、機能判定部119は、操作I/F格納部116も参照する。
本実施形態では、操作I/Fテーブル620に、周波数623と、形状、サイズ624と、使用色1(626)と、使用色2(627)と、重畳色628と、マーカ表示位置として、検出された動体に対する相対位置であるエリア625とが、予め、登録される。
ただし、本実施形態では、マーカ542の表示位置がフレーム毎に変化する。このため、本実施形態の操作I/F作成部115は、映像生成部106が映像フレームを生成する毎に、動体検出プログラムにて動体としてオブジェクト541を検出し、エリア625を登録する。なお、動体が複数ある場合は、異なる周波数623に対応づけて、それぞれ、登録する。また、映像フレーム毎に、同一の動体と考えられるものに対しては、同一の周波数623に対応づけて、エリア625を登録する。
演算部124は、映像生成部106が映像フレームを生成し、操作I/F作成部115が、操作I/Fテーブル620のエリア625を登録し、重畳色628を決定する毎に、操作I/Fテーブル620に従って、表示フレームを生成する。
なお、本実施形態では、マッピングテーブル601および機能テーブル610は、備えなくてもよい。
例えば、動体が複数検出された場合、脳波I/F装置141の機能判定部119は、SSVEP用の周波数が検出されると、操作I/F格納部116の操作I/Fテーブル620を参照し、検出したSSVEP用の周波数に対応するレコードの有無を判定する。
なお、本実施形態では、脳波I/F装置141として、脳波検出部113に、例えば、磁気センサや光電界センサを用いたヘッドレスト、手の表面から脳波測定するセンサを用いたステアリングホイール、植毛などのインプラント形態のセンサ等を用いたモバイル機器等を使用する。
次に、本実施形態のHUDシステム101bにおける注意喚起処理の流れを説明する。図22は、本実施形態の注意喚起処理フローである。以下の処理は、映像生成部106が、映像フレームを生成する毎に行われる。
映像装置147は、視野内のオブジェクト541を検出する(ステップS4101)。オブジェクト541は、路上周辺で動きのあるもの、障害となるオブジェクト541(例えば樹木の一部)などである。
次に、脳波I/F装置141と映像装置147とにより、HUDの表示デバイス部125上の、検出したオブジェクト541の近傍に特定周波数の視覚刺激信号が重畳される(ステップS4102)。上述のように、脳波I/F装置141の操作I/F作成部115が、操作I/Fテーブル620を作成する。そして、それに従って、演算部124が、表示フレームを生成する。これにより、表示デバイス部125上の、検出したオブジェクト541の近傍に当該マーカが表示されるとともに、当該マーカに特定周波数の視覚刺激信号が重畳される。
脳波I/F装置141は、脳波を測定する(ステップS4103)と、分析を行う(ステップS41104)。そして、機能判定部119は、操作I/Fテーブル620を参照し、重畳した特定周波数が、SSVEP用の周波数として検出されたか否かを判別する(ステップS4105)。
検出されていない場合は、映像装置147は、警告を出力する(ステップS4106)。警告は、例えば、マイク/スピーカ104を使用して音声で出力する。そして、映像装置147は、処理経過を、ドライブログとして、映像装置147の記憶部110に記録し(ステップ4107)、処理を終了する。
なお、ステップS4105で検出されている場合、そのままステップS4107へ移行する。
また、操作I/Fテーブル620に、複数のレコードが登録されている場合は、ステップS4105、ステップS4106の処理を、レコードの数分、繰り返す。
また、上記実施形態では、表示デバイス部125上の、検出したオブジェクト541の実像の近傍となる位置に、注意喚起のマーカ542を挿入し、そのマーカ542に視覚刺激信号を重畳する場合を例にあげて説明した。しかしながら、この手法に限定されない。例えば、表示デバイス部125上の、抽出したオブジェクト541の実像に対応する領域に、マーカを表示し、そのマーカに視覚刺激信号を重畳してもよい。重畳手法は、第一の実施形態と同様とする。
この場合の表示例を、図21(a)および図21(b)に示す。本図に示すように、表示デバイス部125上の、オブジェクト541に対応する領域にオブジェクト像543を配置し、当該オブジェクト像543に視覚刺激信号を重畳する。この場合も、第一の実施形態同様、操作I/F作成部115が、フレーム毎に、動体検出プログラムにて動体としてオブジェクト541を検出し、操作I/Fテーブル630を完成させる。そして、演算部124が、操作I/Fテーブル630に従って、表示フレームを生成する。
また、第一の実施形態同様、映像生成部106が生成した映像フレーム上にマーカ542を挿入してもよい。また、映像フレーム上のオブジェクト541の画像(オブジェクト像543)上に、視覚刺激信号を重畳してもよい。
また、本実施形態においては、視覚刺激信号の重畳方法を選択可能に構成してもよい。例えば、目的、ユーザの年齢、状況に応じて、選択可能とする。また、注意喚起用マーカの表示/非表示を切り替え可能に構成してもよい。
例えば、高齢者が運転している場合、あるいは長時間運転している場合には、注意力の低下が見込まれる。従って、このような状況では、ユーザの指示に従って、注意喚起用のマーカを付与する。また、記録したドライブログから、ユーザの注意の継続性や、注意が散漫になるような状況を学習できるように構成してもよい。そして、この学習結果に応じて、自動的に注意喚起用のマーカの表示/非表示を切り替えるよう構成してもよい。
このように、本実施形態では、検出された動体に対して、予め設定された位置(例えば、動体の直下、真上等)に、予め設定したマーカ用の図形(アイコン)等を挿入する。そして、当該マーカの表示色を、予め定めた2色の間で周期的に変化させることにより、視覚刺激信号を実現する。
本実施形態は、このような構成を有するため、運転者が、この半円形の強調表示のマーカ542を注視すると、脳波I/F装置141により重畳された周波数が検出される。これにより、運転者がこの強調表示部分を認知、すなわち注意を払っているかを把握できる。
本実施形態によれば、HUD上のオブジェクト541の近傍に、SSVEP誘発信号を表示することにより、運転者がオブジェクト541を注視しているかを確認でき、注視していない場合、警告を与えることができる。
なお、本実施形態では、HUDを例にマーカの重畳方法について説明した。しかしながら、第一の実施形態におけるAR装置やMR装置においても同様に、現実世界に本実施形態のマーカの重畳方法を適用し、マーカに視覚刺激信号を重畳することができる。具体的には、図5の重畳エリアAA502をマーカにしてそのマーカに視覚刺激を重畳できる。この場合は、実世界中の特定オブジェクトに重なるようにマーカが表示される。
<<第三の実施形態>>
次に、本発明の第三の実施形態を説明する。本実施形態では、脳波I/Fとして、上記各実施形態で説明したSSVEPを活用した方式に加え、事象関連脱同期(ERD:Event Related De-synchronization)方式を併用する。
ERDは、所定の周波数成分が、事象の前後で減少する現象のことをいう。ERD方式では、ERDという脳波の特徴により、体の動作あるいは動作イメージの種類を検出する。ERDが発生した脳の部位(主に運動野付近)を特定することにより、当該運動野が司る身体部位の動作あるいは動作イメージがなされた、と判定できる。動作あるいは動作イメージによりERDが検出される身体部位は、左手、右手、足などである。
分析の対象となる周波数は、たとえば、μ波(8~12Hz)やβ波(18~25Hz)である。ただし、これらの周波数に限定されるわけではない。以下、本実施形態では、μ波を例に説明する。
例えば、ユーザが右手を動作させることをイメージした場合、右手に関連する運動野(頭頂部左側の運動野)で測定した脳波をフーリエ変換すると、μ波(8~12Hz)の周波数の電位の大きさが、運動あるいは運動イメージ直後に減少する。この現象はたとえば、リラクゼーション時の脳波と比較することによって検出可能である。同様にして、左手の動作あるいは動作イメージ想起時の電位の変化が検出できる。
SSVEP方式では視覚刺激信号を表示するための表示装置が必要である。しかしながら、ERD方式では、体の動作のみ、あるいは、動作をイメージするだけでよいため、脳波による制御を実現するために脳波I/F装置以外の装置を必要としない。また、動作イメージだけでも操作できるので、操作時の制約が少ない。
以下、本実施形態では、上述のように、SSVEP方式とERD方式とを併用する場合を例にあげて説明する。
本実施形態の表示装置(AR装置)は、基本的に第一の実施形態の表示装置101と同様の構成を有する。ただし、上述のように、SSVEPだけでなく、ERDも併用する。このため、脳波分析部114aの構成が異なる。また、マッピング部117や操作I/F作成部115が作成し、対応する格納部に保持するテーブルも異なる。さらに、機能判定部119の処理も異なる。以下、第一の実施形態と異なる構成に主眼をおいて説明する。
まず、本実施形態の脳波分析部114aの構成を説明する。図23は、本実施形態の脳波分析部114aの機能ブロック図である。本図に示すように、本実施形態の脳波分析部114aは、第一の実施形態の各構成に加え、ERD検出部171をさらに備える。
ERD検出部171は、脳波検出部113が検出し、前処理部121を経て特徴抽出部122が抽出した特徴量を分析し、μ波の電位が減少した脳の部位(主に運動野付近)を特定する。そして、ユーザが身体のどの部位を動作させたか、あるいは身体のどの部位を動かすことをイメージしたかを検出する。そして、検出結果として、当該部位の動作あるいは動作イメージ実施を検出したことを出力する。ここでは、なお、ERD検出部171は、脳波検出部113から脳波が検出されている間、リアルタイムに周波数の変化を分析する。
なお、ERD検出部171が上記分析を行うため、複数箇所の電極から脳波を検出する。特に、前記周波数の変化を検出するのに適した電極の設置場所は、頭頂部付近の運動野(左脳から右脳わたる広範囲の領域)である。身体の部位によって電位に変化の出る場所が異なるため(例えば右手の動作は、左脳の運動野、左手の動作は右脳の運動野付近となる)、電極は運動野全般に配置する必要がある。ここで、全般とは、左脳だけ、右脳だけというように一部の領域に偏らないという意味である。なお、前記周波数の変化を検出するための電極の設置場所は頭頂部付近の運動野に限定されるわけではない。
また、マッピング部117が生成するテーブル、および、機能判定部119の処理の違いについて、以下の実例に沿って説明する。
SSVEP方式とERD方式とによる制御の実例を、図24を用いて説明する。ここでは、検出用の電極を、登頂部の3箇所(815、816、817)と、後頭部814とに配置する場合を例にあげて説明する。
ここでは、ERD方式による制御により、SSVEP方式のモードをON/OFFする場合の例を示す。すなわち、左手による実際の動作、あるいは、動作イメージ818をERDにより検出し、表示装置101の画面上に、SSVEP用の視覚刺激信号を表示(SSVEP ON)/非表示(SSEVP OFF)する場合の例である。
具体的には、表示装置101の画面上に、SSVEP用の視覚刺激信号が表示されている状態(SSVEP機能ON)811で、ユーザが左手を動作させた場合あるいは動作イメージを想起した場合は、SSVEP用の視覚刺激信号を非表示(SSVEP機能OFF)812にする。また、SSVEP機能OFF812の状態で、ユーザが左手を動作させた場合あるいは動作イメージを想起した場合は、SSVEP機能ON811にする。
ここでは、機能判定部119は、上述のように、脳波分析部114で分析した結果に基づき、機能テーブルを参照し、ユーザにより選択された機能を判定する。ここでは、機能判定部119は、SSVEP機能OFF812の状態でERD検出部171から左手の動き有りとの出力を受け取ると、ユーザにより選択された機能は、SSVEP機能をONにするものであると判定する。一方、SSVEP機能ON811の状態で、ERD検出部171から左手の動き有りとの出力を受け取ると、ユーザにより選択された機能は、SSVEP機能をOFFにするものであると判定する。
これを実現するため、マッピング部117は、ERD用のマッピングテーブル640、機能テーブル650を、操作I/F作成部115は、モード管理テーブル660を、作成する。これらの一例を、それぞれ、図25(a)、図25(b)、図25(c)に示す。
図25(a)に示すように、本実施形態では、ERD用のマッピングテーブル640には、例えば、機能ID643に対応づけて、ERD_ID644が登録される。マッピングテーブル640は、初期設定時に、ユーザが、操作部107を介して、制御部112、脳波制御部120、マッピング部117を制御することによって、マッピングデータ格納部118に保存する。
また、ERD用の機能テーブル650には、図25(b)に示すように、各機能ID643の、機能名653と、機能概要654とが登録される。なお、ERD用の機能テーブル650は、アプリケーションごとに用意されている機能を、脳波制御部120が受け取り、マッピング部117に指示を出して作成し、マッピングデータ格納部118に登録する。
ERD用のモード管理テーブル660は、SSVEP方式などの制御方式のON、OFF状態を管理する。このため、モード管理テーブル660には、図25(c)に示すように、各ERD_ID644の、モード種類663と状態664とが登録される。モード管理テーブル660は、脳波制御部120の指示により操作I/F作成部115が作成し、操作I/F格納部116に登録する。状態664には、ONとOFFの状態があり、それぞれ、例えば、1、0が割り当てられる。
本実施形態の機能判定部119は、まず、ERD検出部171から、ERDを検出した部位の情報を受け取ると、ERD用のマッピングテーブル640にアクセスし、当該部位の情報を示すERD_ID644に対応づけられている機能ID643を特定する。そして、その後、機能テーブル650にアクセスし、当該機能ID643に対応づけられている機能を特定する。また、併せてERD用のモード管理テーブル660にアクセスし、ERD_ID644から状態664を抽出し、行う処理を決定する。
次に、SSVEP方式の脳波制御にERD方式による制御を追加して、SSVEP方式のモードをON/OFFする場合の処理の流れを説明する。図26は、図24で説明した操作を実行する場合の処理のフローである。すなわち、左手の動作あるいは、動作イメージにより、SSVEP用の視覚刺激を表示(ON)/非表示(OFF)する。また、それ以外の運動や運動イメージには機能が割り当てられていない。
なお、右頭部の運動野のμ波帯の電位が減少した場合、左手の動作あるいは動作イメージが実行されたと判定され、左頭部の運動野のμ波帯の電位が減少した場合、右手の動作あるいは動作イメージが実行されたと判定される。
ERD検出部171は、運動野の複数の電極(814、815、816、817)で測定した脳波を、それぞれ、フーリエ変換し、μ波を検出する(ステップS5101)。
なお、図24の表示装置101では、右側と中央の電極のみ図示しているが、左側にも同様に電極817を備える。これにより、右側の脳の電位が変化したのか、左側の脳の電位が変化したのかがわかる。
次に、ERD検出部171は、左手に対応する運動野の電極815で測定した脳波のμ波が低下しているかを調べ(ステップS5102)、低下していれば左手の動作あるいは動作イメージを実行したものと判定する。ここでは、マッピングテーブル640のERD_ID644を、機能判定部119に伝達する。
機能判定部119は、ERD_ID644を、脳波制御部120に伝達する。また、機能テーブル650を参照して、ERD_ID644に対応する機能名や機能の概要を調べ、対応機能を特定しその結果を脳波制御部120に送信する(ステップS5103)。また、脳波制御部120は、受け取ったERD_ID644に基づき、モード管理テーブル660を参照し、状態664がONであるか否かを判別する(ステップS5104)。
ここで、状態664がONである場合、脳波制御部120は、SSVEP機能をOFFし(ステップS5105)、モード管理テーブル660の状態664に0を設定し(ステップS5106)、処理を終了する。
一方、ステップS5104において、状態664がOFFの場合、脳波制御部120は、SSVEP機能をONし(ステップS5107)、状態664に1を設定し(ステップS5108)、処理を終了する。
また、ステップS5102において、左手に対応する運動野の電極815で測定した脳波のμ波が低下していない場合、ERD検出部171は、右手に対応する運動野の電極815で測定した脳波のμ波が低下しているか調べ(ステップS5109)、その結果を、機能判定部119に伝達する。
機能判定部119は、対応するマッピングテーブル640のERD_ID644を脳波制御部120に伝達する。また、機能テーブル650を参照して、ERD_ID644に対応する機能名や機能の概要を調べ、対応機能を特定しその結果を脳波制御部120に送信する(ステップS5110)。その結果、対応する機能が割り当てられていないため、脳波制御部120は、操作ミスメッセージを表示部103に表示するよう指示を行う。表示部103は、それを受け、操作ミスメッセージを出力し(ステップS5111)、処理を終了する。
なお、ステップS5109で、右手に対応する運動野の電極817で測定した脳波のμ波が低下していなければ、ステップS5101に戻り、処理を繰り返す。
なお、本処理フローでは、左手の動作や動作イメージにモードON/OFF機能を割り当てているが、右手の動作や右手の動作イメージに割り当てることも可能である。また、右手と左手の動作あるいは動作イメージにそれぞれ異なる機能を割り当てることも可能である。
また、ERDによる操作として、SSVEPのON/OFFを割り当てているが、これに限定されない。例えば、表示装置101の電源のON/OFFに使用してもよい。また、複数のI/Fが用意されている場合、I/Fの切り替えに用いてもよい。
以上説明したように、本実施形態によれば、ERD方式を併用するため、手足を動作させたり、手足の動作をイメージしたりすることで、SSVEPモードのON/OFFだけではなく、表示装置の電源のON/OFF、I/Fの切り替えなどの操作制御ができる。これによりSSVEP方式が機能していない状態における表示装置の、脳波による制御が可能となる。
なお、本実施形態では、ERD方式を併用する場合を例にあげて説明したが、これに限定されない。例えば、さらに事象関連同期(ERS)を利用するERS方式を併用してもよい。また、ERD方式の代わりにERS方式を併用してもよい。
<変形例>
なお、上記各実施形態では、AR装置(表示装置)の操作部107の操作I/Fとして、SSVEPやERD等の脳波を用いたI/Fを利用する場合を例にあげて説明したが、表示装置の操作I/Fの種類は、1つに限定されない。例えば、複数種類のI/Fを備え、ユーザにより選択可能に構成してもよい。
以下では、脳波を用いたI/F(脳波インタフェース)と、ジェスチャインタフェース(ジェスチャI/F)と、音声インタフェース(音声I/F)と、を備える表示装置を例にあげて、ユーザによるI/Fの選択を受け付けた場合のI/F設定処理を説明する。
この場合、表示装置は、例えば、図18に示すHUDシステム101bのように、映像装置147と、脳波I/F装置141と、を備える。さらに、ジェスチャIFを実現するジェスチャI/F装置と、音声I/Fを実現する音声I/F装置と、を備える。また、映像装置147の制御部112は、I/Fの選択を受け付ける受付部として機能する。そして、制御部112は、選択されたI/Fを操作部107として設定する設定部として機能する。ここでは、選択されたインタフェースを有効にする。すなわち、選択されたI/Fからの指示のみを受け付ける。
なお、制御部112は、例えば、表示部103に、選択可能なI/F種を表示し、当該表示を介してユーザからの選択を受け付けるよう構成してもよい。
以下、図27に従って、I/F設定処理の流れを説明する。
制御部112は、表示部103に、選択可能なI/F種を表示し、操作部107を介したユーザからの選択指示を待つ。
制御部112は、脳波I/Fが選択されたか否かを判別し(ステップS6101)、選択された場合、脳波I/Fを、操作部107として設定し(ステップS6102)、処理を終了する。ここでは、脳波I/Fからの指示のみを操作指示として受け付けるよう設定する。例えば、他のI/F装置の通信部からのデータを受け付けない。
次に、制御部112は、脳波I/Fが選択されない場合、ジェスチャI/Fが選択されたか否かを判別し(ステップS6103)、選択された場合、ジェスチャI/Fを、操作部107として設定し(ステップS6104)、処理を終了する。
次に、制御部112は、ステップS6103において、ジェスチャI/Fが選択されない場合、音声I/Fが選択されたか否かを判別し(ステップS6105)、選択された場合、音声I/Fを、操作部107として設定し(ステップS6106)、処理を終了する。
ステップS6105において、音声I/Fが選択されない場合、制御部112は、設定可能なI/Fがないことをユーザに通知し、ステップS6101に戻り、処理を繰り返す。
なお、上記例では、ステップS6102、S6104、S6016において、それぞれのインタフェースを設定した後に処理を終了している。しかしながら、これに限定されない。例えば、S6102の後にS6103に、S6104の後にS6015に、それぞれ戻り、複数種類のI/Fを設定するよう構成してもよい。
複数種類のI/Fを設定可能に構成する場合、ユーザは複数のI/Fを同時に利用する可能性があるため、操作に対する各インタフェースの優先度を設定しておく。
また、上記I/Fの選択は、基本的に初期設定時に行う。しかしながら、I/Fを、機器の使用中に変更可能に構成してもよい。このように構成することで、例えば、ユーザは、使用環境によってI/Fを変更できる。例えば、乗り物の中などの公共の場所では、脳波I/Fを選択し、自宅に一人でいる場合には、音声I/Fを選択し、オフィス等の限られた空間では、ジェスチャI/Fを選択する。例えば、I/F変更指示を受け付けるボタンを表示装置に配置し、当該ボタンを介して選択指示を受け付ける。
また、これらのI/Fの選択を自動で行うよう構成してもよい。ユーザのいる空間は、例えば、空間ごとに設置されているセンサで取得した信号等を用いて判別する。
なお、上記各実施形態は、主にAR装置を例に説明しているが、本発明の適用先は、AR装置に限定されない。例えば、VR装置、複合現実(Mixed Reality、MR)装置等にも同様に適用可能である。
101:表示装置、101a:表示装置、101b:ヘッドアップディスプレイシステム、101c:プロジェクタシステム、102:脳波I/F部、103:表示部、103a:表示部、104:マイク/スピーカ、105:通信部、106:映像生成部、107:操作部、109:実行部、110:記憶部、112:制御部、113:脳波検出部、114:脳波分析部、114a:脳波分析部、115:操作I/F作成部、116:操作I/F格納部、117:マッピング部、118:マッピングデータ格納部、119:機能判定部、120:脳波制御部、121:前処理部、122:特徴抽出部、123:視線周波数検出部、124:演算部、125:表示デバイス部、126:照明器、127:投射レンズ、130:ユーザ、131:空間調光器、141:脳波I/F装置、142:通信部、143:制御装置、145:映像生成装置、146:表示装置、147:映像装置、148:制御装置、151:通信部、152:映像生成制御部、153:映像出力I/F部、155:操作I/F作成部、161:通信部、162:表示制御部、163:映像入力I/F部、171:ERD検出部、
202:CPU、203:脳波計、204:表示装置、205:カメラ、206:マイク/スピーカ、208:記憶装置、209:RAM、211:通信モジュール、212:入力I/F、213:操作装置、214:システムバス、221:LCD、222:LCD、
301:AR装置、302:バンド部分、303、304:テンプル部分、305~311:電極、312、313:メガネレンズ部分、314:フレーム本体、
401:ボタンA、402:色1、403:色2、404:中間色、405:実線、
501:計器、502:重畳エリアAA、503:グラフ、504:周波数曲線、505~507:RGB値、511:元のRGB値、512:変化量、533~535:LC値、541:オブジェクト、542:マーカ、543:オブジェクト像
601:マッピングテーブル、602:識別番号、603:機能ID、604:SSVEP_ID、610:機能テーブル、613:機能名、614:機能概要、615:重畳フラグ、616:オブジェクトID、620:操作I/Fテーブル、623:周波数、624:形状、サイズ、625:エリア、626:使用色1、627:使用色2、628:重畳色、630:操作I/Fテーブル、631:周波数、632:形状、633:挿入エリア、634:オリジナル色、635:重畳時の色、640:マッピングテーブル、643:機能ID、644:ERD_ID、650:機能テーブル、653:機能名、654:機能概要、660:モード管理テーブル、663:モード種類、664:状態、670:オブジェクトテーブル、672:オブジェクト、680:オブジェクトテーブル、682:オブジェクト、
711:エリアB、712:エリアC、713:エリアD、714:エリアE、721:テンキー、722:数値入力ボタン、723:数値入力ボタン、724:数値入力ボタン、725:数値入力ボタン、726:数値入力ボタン、727:数値入力ボタン、728:数値入力ボタン、729:数値入力ボタン、730:数値入力ボタン、731:数値入力ボタン、732:数字表示パッド、733:リターンキーボタン、734:クリアボタン、
811:SSVEP機能ON、812:SSVEP機能OFF、814:後頭部、815:電極、816:電極、817:電極、818:動作イメージ

Claims (12)

  1. 視覚刺激信号の周波数に応じた周波数を有する脳波信号を検出し、機器の制御を行う脳波インタフェース装置であって、
    取得した各映像フレームの、ユーザが視認するオブジェクト上の予め定めた領域である操作領域に、特定の周波数である特定周波数を割り当て、前記特定周波数の逆数の周期で、前記操作領域に対応する領域の色情報の値を、所定手法で変化させることにより、当該特定周波数を有する前記視覚刺激信号を作成する操作インタフェース作成部と、
    前記特定周波数を有する前記視覚刺激信号または前記特定周波数を有する前記視覚刺激信号を含む映像データを表示デバイスに出力する演算部と、
    前記特定周波数に、制御指示を対応づけて保持する対応データベースと、
    検出した脳波信号から前記特定周波数を抽出する脳波分析部と、
    抽出した前記特定周波数に対応する前記制御指示を前記対応データベースから取得し、当該制御指示に従って制御を行う制御部と、を備え、
    前記所定手法は、前記操作領域に対応する領域の、前記視覚刺激信号を作成前の画素の前記色情報の値である元色情報値を、予め定めた範囲で変化させる手法であり、
    前記対応データベースでは、前記特定周波数の中で、臨界融合周波数以上の周波数が割当周波数として前記制御指示に優先的に割り当てられ、当該割当周波数の中では、小さい周波数から優先的に使用頻度の高い機能の前記制御指示に割り当てられること
    を特徴とする脳波インタフェース装置。
  2. 請求項1記載の脳波インタフェース装置であって、
    前記所定手法では、
    前記映像フレームの前記操作領域に対応する領域の前記色情報の値として、前記元色情報値と、前記元色情報値に予め定めた変化量を加えた値とを、前記特定周波数に2を乗じた周波数の逆数である周期で交互に設定し、
    当該周期の間の前記映像フレームについては、
    前記操作領域に対応する領域の前記色情報の値として、前記元色情報値に前記変化量未満の値を加えた値を設定すること
    を特徴とする脳波インタフェース装置。
  3. 請求項1記載の脳波インタフェース装置であって、
    前記演算部は、各前記映像フレーム上の前記操作領域に前記視覚刺激信号を出力すること
    を特徴とする脳波インタフェース装置。
  4. 請求項1記載の脳波インタフェース装置であって、
    前記演算部は、前記表示デバイス上の、前記各映像フレームの前記操作領域に対応する領域に前記視覚刺激信号を出力すること
    を特徴とする脳波インタフェース装置。
  5. 請求項1記載の脳波インタフェース装置であって、
    前記色情報は輝度値であり、
    前記操作インタフェース作成部は、RGB値を変化させることにより、前記操作領域に対応する領域の前記輝度値を変化させること
    を特徴とする脳波インタフェース装置。
  6. 請求項1記載の脳波インタフェース装置であって、
    前記色情報は輝度値であり、
    前記操作インタフェース作成部は、RGB値は維持し、新たな輝度用色を変化させることにより、前記操作領域に対応する領域の前記輝度値を変化させること
    を特徴とする脳波インタフェース装置。
  7. 請求項1記載の脳波インタフェース装置であって、
    前記表示デバイスの、ユーザと反対側に第二の表示デバイスを備え、
    前記操作インタフェース作成部は、前記第二の表示デバイスの前記操作領域に対応する領域の前記色情報を変化させること
    を特徴とする脳波インタフェース装置。
  8. 請求項1記載の脳波インタフェース装置であって、
    前記各映像フレームから動体を検出する動体検出部をさらに備え、
    前記操作領域は、検出された前記動体に対する相対位置で定められること
    を特徴とする脳波インタフェース装置。
  9. 請求項1記載の脳波インタフェース装置であって、
    前記制御部は、前記脳波分析部が前記特定周波数を抽出しない場合、警告を出力すること
    を特徴とする脳波インタフェース装置。
  10. 請求項1記載の脳波インタフェース装置と、
    前記各映像フレームを取得するカメラと、を備え、
    前記視覚刺激信号に基づいて、拡張現実、仮想現実、および/または複合現実表示を行うこと
    を特徴とする表示装置。
  11. 請求項1記載の脳波インタフェース装置を備えるヘッドアップディスプレイシステム。
  12. 請求項1記載の脳波インタフェース装置を備えるプロジェクタシステム。
JP2019547886A 2017-10-13 2017-10-13 表示装置、脳波インタフェース装置、ヘッドアップディスプレイシステムおよびプロジェクタシステム Active JP7101696B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022108320A JP7367132B2 (ja) 2017-10-13 2022-07-05 脳波インタフェース装置
JP2023175951A JP2023178350A (ja) 2017-10-13 2023-10-11 脳波インタフェース装置、表示装置、ヘッドアップディスプレイシステム、及びプロジェクタシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/037224 WO2019073603A1 (ja) 2017-10-13 2017-10-13 表示装置、脳波インタフェース装置、ヘッドアップディスプレイシステム、プロジェクタシステムおよび視覚刺激信号の表示方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022108320A Division JP7367132B2 (ja) 2017-10-13 2022-07-05 脳波インタフェース装置

Publications (2)

Publication Number Publication Date
JPWO2019073603A1 JPWO2019073603A1 (ja) 2020-11-19
JP7101696B2 true JP7101696B2 (ja) 2022-07-15

Family

ID=66100524

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2019547886A Active JP7101696B2 (ja) 2017-10-13 2017-10-13 表示装置、脳波インタフェース装置、ヘッドアップディスプレイシステムおよびプロジェクタシステム
JP2022108320A Active JP7367132B2 (ja) 2017-10-13 2022-07-05 脳波インタフェース装置
JP2023175951A Pending JP2023178350A (ja) 2017-10-13 2023-10-11 脳波インタフェース装置、表示装置、ヘッドアップディスプレイシステム、及びプロジェクタシステム

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2022108320A Active JP7367132B2 (ja) 2017-10-13 2022-07-05 脳波インタフェース装置
JP2023175951A Pending JP2023178350A (ja) 2017-10-13 2023-10-11 脳波インタフェース装置、表示装置、ヘッドアップディスプレイシステム、及びプロジェクタシステム

Country Status (2)

Country Link
JP (3) JP7101696B2 (ja)
WO (1) WO2019073603A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102511641B1 (ko) * 2021-01-04 2023-03-21 한국과학기술원 귀-eeg를 이용한 음성 이미지 기반의 뇌-컴퓨터 인터페이스를 위한 데이터 획득 방법 및 시스템
CN113434040B (zh) * 2021-06-07 2024-01-05 西北工业大学 基于增强现实诱发的脑机接口技术方法
CN113349803B (zh) * 2021-06-30 2022-09-13 杭州回车电子科技有限公司 稳态视觉诱发电位诱发方法、装置、电子装置和存储介质
WO2023228337A1 (ja) * 2022-05-25 2023-11-30 日本電信電話株式会社 提示システム、提示方法及び提示プログラム

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008262474A (ja) 2007-04-13 2008-10-30 Toyota Infotechnology Center Co Ltd 警報装置
CN101571748A (zh) 2009-06-04 2009-11-04 浙江大学 一种基于增强现实的脑机交互系统
JP2010050613A (ja) 2008-08-20 2010-03-04 Nikon Corp 画像データ処理装置および画像処理プログラム
US20130127708A1 (en) 2010-05-28 2013-05-23 The Regents Of The University Of California Cell-phone based wireless and mobile brain-machine interface
JP2013117957A (ja) 2011-11-30 2013-06-13 Honeywell Internatl Inc 多数の自由度系の思考可能なハンズフリー制御
US20140347265A1 (en) 2013-03-15 2014-11-27 Interaxon Inc. Wearable computing apparatus and method
JP2015226723A (ja) 2014-06-02 2015-12-17 トヨタ自動車株式会社 脳波検出装置
JP2016189164A (ja) 2015-03-30 2016-11-04 東芝テック株式会社 電子機器及び表示装置
CN206162388U (zh) 2016-08-31 2017-05-10 博睿康科技(常州)股份有限公司 一种脑机交互穿戴系统
JP2017524394A (ja) 2014-05-30 2017-08-31 ザ リージェンツ オブ ザ ユニバーシティー オブ ミシガン 多肢選択式の解答の直接選択及び状態変更の特定を容易にするためのブレインコンピュータインターフェース

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011076177A (ja) * 2009-09-29 2011-04-14 Advanced Telecommunication Research Institute International 歯の接触によって誘発された脳波を利用した機器制御方法及び機器制御装置
KR101648017B1 (ko) * 2015-03-23 2016-08-12 현대자동차주식회사 디스플레이 장치, 차량 및 디스플레이 방법

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008262474A (ja) 2007-04-13 2008-10-30 Toyota Infotechnology Center Co Ltd 警報装置
JP2010050613A (ja) 2008-08-20 2010-03-04 Nikon Corp 画像データ処理装置および画像処理プログラム
CN101571748A (zh) 2009-06-04 2009-11-04 浙江大学 一种基于增强现实的脑机交互系统
US20130127708A1 (en) 2010-05-28 2013-05-23 The Regents Of The University Of California Cell-phone based wireless and mobile brain-machine interface
JP2013117957A (ja) 2011-11-30 2013-06-13 Honeywell Internatl Inc 多数の自由度系の思考可能なハンズフリー制御
US20140347265A1 (en) 2013-03-15 2014-11-27 Interaxon Inc. Wearable computing apparatus and method
JP2017524394A (ja) 2014-05-30 2017-08-31 ザ リージェンツ オブ ザ ユニバーシティー オブ ミシガン 多肢選択式の解答の直接選択及び状態変更の特定を容易にするためのブレインコンピュータインターフェース
JP2015226723A (ja) 2014-06-02 2015-12-17 トヨタ自動車株式会社 脳波検出装置
JP2016189164A (ja) 2015-03-30 2016-11-04 東芝テック株式会社 電子機器及び表示装置
CN206162388U (zh) 2016-08-31 2017-05-10 博睿康科技(常州)股份有限公司 一种脑机交互穿戴系统

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Bonkon Koo,他3名,Immersive BCI with SSVEP in VR Head-Mounted Display,2015 37th Annual International Conference of the IEEE Engineering in Medicine and Biology Society (EMBC),米国,IEEE,2015年08月25日,第1103-1106ページ
Josef Faller,他6名,A feasibility study on SSVEP-based interaction with motivating and immersive virtual and augmented reality,米国,arXiv,Cornell University,2017年01月,p.1-6,,インターネット<URL:https://arxiv.org/abs/1701.03981>
Shuto Horii,他2名,"AR-SSVEP for Brain-Machine Interface: Estimating User's Gaze in Head-mounted Display with USB camera,2015 IEEE Virtual Reality Conference,米国,IEEE,2015年03月23日,p.193-194
唐山英明,他1名,定常視覚誘発電位による没入仮想都市制御,映像情報メディア学会誌,日本,一般社団法人映像情報メディア学会,2008年06月01日,第62巻,第6号,p.875-879
棒谷英法,定常視覚誘発電位を用いたメニュー選択インタフェースの識別アルゴリズムの提案,人間工学,日本,一般社団法人日本人間工学会,2017年02月20日,p.8-15

Also Published As

Publication number Publication date
JP2023178350A (ja) 2023-12-14
WO2019073603A1 (ja) 2019-04-18
JP2022141738A (ja) 2022-09-29
JP7367132B2 (ja) 2023-10-23
JPWO2019073603A1 (ja) 2020-11-19

Similar Documents

Publication Publication Date Title
JP7367132B2 (ja) 脳波インタフェース装置
AU2019272052B2 (en) Display system and method
US10665206B2 (en) Method and system for user-related multi-screen solution for augmented reality for use in performing maintenance
KR101648017B1 (ko) 디스플레이 장치, 차량 및 디스플레이 방법
US7091928B2 (en) Intelligent eye
WO2017098822A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US11094283B2 (en) Head-wearable presentation apparatus, method for operating the same, and medical-optical observation system
US20120282585A1 (en) Interest-Attention Feedback System for Separating Cognitive Awareness into Different Left and Right Sensor Displays
US20240077937A1 (en) Devices, methods, and graphical user interfaces for controlling avatars within three-dimensional environments
US20220301264A1 (en) Devices, methods, and graphical user interfaces for maps
JP4599858B2 (ja) 画像表示装置
US20240103636A1 (en) Methods for manipulating a virtual object
US11660040B2 (en) Methods and systems for displaying eye images to subjects and for interacting with virtual objects
US20240103617A1 (en) User interfaces for gaze tracking enrollment
US20240118746A1 (en) User interfaces for gaze tracking enrollment
EP4283439A1 (en) Reducing spatial conflict between a virtual object and an individual
KR20230029782A (ko) 시각적 지원

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210302

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210701

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211019

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20211020

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20211214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220614

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220705

R150 Certificate of patent or registration of utility model

Ref document number: 7101696

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150