以下、初めに基礎的な情報を提供し、続いて、図面を参照しながら種々な実施形態を説明する。
<基礎情報>
成人の眼球の直径は約25mm。生後は17mm程度で、成長に伴い大きくなる。
成人男性の瞳孔間距離は約65mm。(一般市販のステレオカメラは65mmの間隔で作られている物が多い。)
成人女性の瞳孔間距離は男性に比べて数mm短い。
眼電位は数十mV。
眼球は角膜側にプラス、網膜側にマイナスの電位を持つ。これを皮膚の表面で測定すると数百μVの電位差として現れる。
なお、眼動検出に関係する眼球運動の種類および眼球の移動範囲としては、例えば以下のものがある:
<眼球運動(眼動)の種類>
(01)補償性眼球運動
頭や身体の動きにかかわらず、外界の像を網膜上で安定させるために発達した、非随意的な眼球運動。
(02)随意性眼球運動
視対像を網膜上の中心にくるようにするために発達した眼球運動であり、随意的なコントロールが可能な運動。
(03)衝撃性眼球運動(サッケード)
物を見ようとして注視点を変えるときに発生する眼球運動(検出し易い)。
(04)滑動性眼球運動
ゆっくりと移動する物体を追尾するときに発生する滑らかな眼球運動(検出し難い)。
<眼球の移動範囲(一般的な成人の場合)>
(11)水平方向
左方向: 50°以下
右方向: 50°以下
(12)垂直方向
下方向: 50°以下
上方向: 30°以下
(自分の意思で動かせる垂直方向の角度範囲は、上方向だけ狭い。(閉眼すると眼球が上転する「ベル現象」があるため、閉眼すると垂直方向の眼球移動範囲は上方向にシフトする。)
(13)その他
輻輳角: 20°以下。
<瞬目から推定しようとする対象に>ついて
・集中度の推定では、単純な瞬目頻度の変化から、ストーリーに対する時間軸上での瞬目発生タイミングを調べる。
・緊張/ストレスの推定では、瞬目の発生頻度の変化を調べる。
・眠気の推定では、瞬目群発、瞬目時間/瞬目速度の変化を調べる。
・感情や体調その他の心身状態の推定については、今後の研究に委ねられる部分が多いが、本願実施形態では、感情や体調その他の心身状態の推定を行おうとする技術思想があることを、例示している。
図1は、一実施の形態に係る心身状態推定装置用の情報処理部11が組み込まれたメガネ型アイウエア100を説明する図(EOG電極がノーズパッドに配置された例)である。この実施形態では、右アイフレーム(右リム)101と左アイフレーム(左リム)102がブリッジ103連結されている。左右アイフレーム102、101およびブリッジ103は、例えばアルミ合金、チタンなどで構成できる。左アイフレーム102の左外側は左ヒンジ104を介して左テンプルバー106に繋がり、左テンプルバー106の先端に左モダン(左イヤーパッド)108が設けられている。同様に、右アイフレーム101の右外側は右ヒンジ105を介して右テンプルバー107に繋がり、右テンプルバー107の先端に右モダン(右イヤーパッド)109が設けられている。
右テンプルバー107(または左テンプルバー106)内には、には、情報処理部11(数ミリ角の集積回路)が取り付けられている。この情報処理部11は、数十MIPS以上の処理能力を持つマイクロコンピュータ、数十MB以上のフリーエリアを持つフラッシュメモリ(EEPROM)、BlueTooth(登録商標)やUSBなどを利用した通信処理部、1以上のADC(Analog-to-Digital Converter)その他が集積されたLSIにより構成できる(情報処理部11の詳細については、図3を参照して後述する)。
リチウムイオン電池などの小型電池(BAT)が、例えば左テンプルバー106内(あるいは右テンプルバー107内、もしくはモダン108または109内)に埋め込まれ、メガネ型アイウエア100の動作に必要な電源となっている。
左ヒンジ104寄りの左アイフレーム102端部には、左カメラ13Lが取り付けられ、右ヒンジ105寄りの右アイフレーム101端部には、右カメラ13Rが取り付けられている。これらのカメラは、超小型のCCDイメージセンサを用いて構成できる。
これらのカメラ(13L、13R)は、ステレオカメラを構成するものでもよい。あるいはこれらのカメラの位置に赤外線カメラ(13R)とレーザー(13L)を配置し、赤外線カメラ+レーザーによる距離センサを構成してもよい。この距離センサは、超音波を集音する小型半導体マイク(13R)と超音波を放射する小型圧電スピーカー(13L)などで構成することもできる。
上記距離センサにより、ユーザの視線の先にある目視対象物と左右フレーム101/102との間の距離が分かる。メガネフレームのデザインにもよるが、ユーザの眼球位置は左右フレーム101/102から40〜50mmほど後頭部側へ奥まった位置にずれており、大人の瞳孔間距離は65mmくらいある。この瞳孔間距離65mmと、前記距離センサで測った距離をフレームから眼球位置までのずれで補正した距離とから、ユーザが目視対象物を見ているときの輻輳角(より目の角度)を、算出できる。フレームから目視対象物までの距離がフレームから眼球位置までのずれ量よりずっと大きいときは、このずれ量を無視しても、輻輳角を大まかに算出できる。
なお、左右カメラ13L/13Rの代わりに、あるいは左右カメラ13L/13Rに加えて、ブリッジ103部分に図示しない中央カメラを設ける実施形態も考えられる。逆に、カメラを全く装備しない実施形態もあり得る。(これらのカメラは、図3ではカメラ13として示されている。これらのカメラや外線カメラ+レーザーによる距離センサは、オプション扱いとすることができ、アイウエア100の用途に応じて適宜設ければよい。)
左アイフレーム102には左ディスプレイ12Lがはめ込まれ、右アイフレーム101には右ディスプレイ12Rがはめ込まれている。このディスプレイは、左右のアイフレームの少なくとも一方に設けられ、フィルム液晶などを用いて構成できる。具体的には、偏光板を用いないポリマー分散型液晶(PDLC)を採用したフィルム液晶表示デバイスを用いて、左右のディスプレイ12L、12Rの一方または両方を構成できる。(このディスプレイは、図3ではディスプレイ12として示されている。)
フィルム液晶を利用した透明な左右ディスプレイ12L/12Rは、メガネを通して見える現実の世界に数字や文字などの画像情報を付加させる拡張現実(AR:Augmented Reality)を提供する手段として、利用できる。
左右ディスプレイ12L/12Rのフィルム液晶は、3D映画(または3Dビデオ)を観賞する際に左右の映像を分離する液晶シャッタとして用いることもできる。なお、3Dメガネを構成するにあたっては、液晶シャッタ方式以外に、偏光方式も利用可能である。
ユーザの眼球位置と目視対象物との距離が事前に分かっているときは、距離センサがなくても前述した輻輳角を算出できる。例えば、映画館の客席中央でスクリーンから10m離れた座席(座席番号で特定できる位置にある)に座っている観客(瞳孔間距離65mm)の輻輳角は、tan-1[65/10000]くらいになる。左右ディスプレイ12L/12Rにおいて3Dの字幕をAR表示する際は、そのAR表示を見る際の輻輳角が、10m先のスクリーンに投影された3D映像を見るときの輻輳角と同じくらいになるように、AR表示する3D字幕の左右表示位置を制御することができる。そうすれば、AR表示された3D字幕と10m先の3Dスクリーン映像を見続ける際に、目の疲れを軽減できる。
3D映画の鑑賞に限らず一般化していうと、ディスプレイが左右に存在する場合は、所望の輻輳角に対応して、左右のディスプレイに表示する画像(図1のIM1、IM2)の映像を左右で逆方向にずらすことができる。これにより、現実世界で見える対象物とAR表示を交互に見る場合の目の負担を減らすことができる。
左右のアイフレーム102、101の間であって、ブリッジ103の下側には、ノーズパッド部が設けられる。このノーズパッド部は、左ノーズパッド150Lと右ノーズパッド150Rのペアで構成される。右ノーズパッド150Rには右ノーズパッド電極151a,151bが設けられ、左ノーズパッド150Lには左ノーズパッド電極152a,152bが設けられている。
これらの電極151a,151b,152a,152bは互いに電気的に分離され、絶縁された配線材(図示せず)を介して、3つのADコンバータ(ADC1510、1520、1512)に接続される。これらのADCからの出力は、アイウエア100を装着したユーザの眼の動きに応じて異なる信号波形を持ち、ユーザの眼動に応じたデジタルデータとして、情報処理部11に供給される。電極151a,151b,152a,152bは、視線検出センサとして用いられ、3つのADCとともに図3の眼動検出部15の構成要素となっている。なお、3つのADCは情報処理部11とともに1つのLSIに組み込むこともできる。また、使用するADCの数は、目的により適宜増減でき、3つという数は一例である(例えば目的が右側の瞬目によるEOG波形を検出するだけの場合は、使用するADCの数はADC1510の1つでよい。目的に応じて、ADCの数は1〜2個で済む場合もあれば4個以上使用する場合もある。)
右ノーズパッド150Rには右マイク(または右振動ピックアップ)16Rが設けられ、左ノーズパッド150Lには左マイク(または左振動ピックアップ)16Lが設けられている。左右のマイク16L/16Rは、例えば超小型のエレクトレットコンデンサマイクで構成できる。また、左右の振動ピックアップ16L/16Rは、例えば圧電素子で構成できる。笑い声、悲鳴、怒号、びっくりしたときの反射的な体動など大きな感情表出に伴い誘発された音や動きは、マイク(または振動ピックアップ)16L/16Rを用いて検出できる(これらのマイクまたは振動ピックアップは、図3ではマイク(または振動ピックアップ)16として示されている)。鼻をすする小さなすすり泣きは、左右のマイク16L/16Rで検出可能である。なお、ユーザの体動は、図3のセンサ部11eが内蔵する加速度センサやジャイロによって検出することもできる。
アイウエア100は、左右のノーズパッド(150L、150R)と左右のテンプルバー(106、107)と左右のモダン(108、109)によって、図示しないユーザの頭部に固定される。この実施形態では、ユーザの頭部(または顔面)に直接触れるのは、左右のノーズパッド(150L、150R)と左右のテンプルバー(106、107)と左右のモダン(108、109)だけでよいが、ADC(1510、1520、1512)とユーザのボディとの間の電圧合わせなどのために、それら(ノーズパッド、テンプルバー、モダン)以外の部分がユーザに触れる実施形態があってもよい。
図1の右ディスプレイ12Rのフィルム液晶には、例えば、日本語文字(ひらがなカタカナ漢字)、数字、アルファベット、所定形状のマーク、その他のアイコン群を含む右表示画像IM1を表示できる。左ディスプレイ12Lのフィルム液晶にも、IM1と同様な内容の左表示画像IM2を表示できる。
ディスプレイ12L、12Rの表示内容は、何でも良い。例えば緑内障の視野検査に用いる輝点をディスプレイ12Lまたは12Rで表示することができる。表示を行わないときは表示状態を全面黒表示にして、フィルム液晶を目隠しあるいは遮光シートとして用いることもできる。右ディスプレイ12R(または左ディスプレイ12L)に表示されるテンキーやアルファベットは、数字や文字を入力する際に利用できる。右ディスプレイ12R(または左ディスプレイ12L)に表示される文字列、マーク、アイコン等は、特定の情報項目を探したり、目的の項目の選択/決定したり、ユーザに注意喚起をする際に利用できる。
表示画像IM1、IM2は、メガネを通して見える現実の世界に数字、文字、マークなどの情報を付加させる拡張現実(AR)の表示手段として利用でき、このAR表示は適宜オンオフできる。表示画像IM1の内容と表示画像IM2は、実施形態に応じて、同じ内容(IM1=IM2)としても、異なる内容(IM1≠IM2)としてもよい。また、表示画像IM1(またはIM2)の表示は、右ディスプレイ12Rおよび/または左ディスプレイ12で行うことができる。AR表示の内容を、メガネ越しに見える現実世界に重なる(奥行きを伴った)3D画像としたいときは、IM1とIM2を左右別々の3D用画像とすることができる。
また、ディスプレイ(12R、12L)が左右に存在する場合、例えば輻輳角を調整して、左右の表示画像(IM1、IM2)の映像を左右で逆方向にずらすこともできる。これにより、現実世界で見える対象物とAR表示を交互に見る場合の目の負担を減らすことが考えられる。しかし、通常は、左右のディスプレイ(12R、12L)で同じ内容の画像を表示する。
ディスプレイ12L、12Rでの表示制御は、右テンプルバー107に埋め込まれた情報処理部11で行うことができる。(ディスプレイで文字、マーク、アイコンなどを表示する技術は周知。)情報制御部11その他の動作に必要な電源は、左テンプルバー106に埋め込まれた電池BATから得ることができる。
なお、実施形態に対応するアイウエア100の試作品をデザイナーや設計者が装着してみて重量バランスが悪いと感じる可能性がある。その主因が左テンプルバー106内のBATにあるならば、右テンプルバー107内に左テンプルバー106内のBATに見合った「おもり(または別の同重量バッテリ)」を入れておくことができる。
図2は、一実施の形態に係るメガネ型アイウエア100におけるEOG電極の実装例を説明する図である。右ノーズパッド150Rの上下には右ノーズパッド電極151a,151bが設けられ、左ノーズパッド150Lの上下には左ノーズパッド電極152a,152bが設けられている。右ノーズパッド電極151a,151bの出力はADC1510に与えられ、左ノーズパッド電極152a,152bの出力はADC1520に与えられ、左右ノーズパッドの下側電極151b,152b(または上側電極151a,152a)の出力はADC1512に与えられる。
ADC1510からは、ユーザの右側上下眼動に対応して変化するCh1信号が得られる。ADC1520からは、ユーザの左側上下眼動に対応して変化するCh2信号が得られる。ADC1512からは、ユーザの左右眼動に対応して変化するCh0信号が得られる。左右両眼の上下動については、ADC1510およびADC1520の出力の平均で評価してもよい。(Ch0,Ch1,Ch2の信号波形と眼動との関係については、図4を参照して後述する。)
<図1、図2に示される眼電位センサについての補足説明>
*ノーズパッドに設けるEOG電極について
上下方向の眼球移動検出用には最低限1組(151aと151bの組;または152aと152bの組)の測定電極を具備する。その場合は、左または右の(どちらか片方)のノーズパッドの上下に眼電位測定用の電極が設けられる(電極端子数は2個)。
上下方向の眼球移動検出精度向上に1組の測定電極を追加する。その場合は、左右(両方)のノーズパッド150L/150Rの上下に眼電位測定用の電極(151aと151b;および152aと152b)が設けられる(電極端子数は4個)。
*ADC(Analog-to-Digital Converter)について
上下方向の眼球移動検出用には最低限1個のADC(Ch1用またはCh2用)を具備する。
上下方向の眼球移動検出精度向上のために1個のADC(Ch2用またはCh1用)を追加する(その結果Ch1とCh2の双方に1個ずつADCが設けられる)。(精度向上用オプション)
左右方向の眼球移動検出用には更に1個のADC(Ch0用)を追加する。(機能向上用オプション)
図3は、種々な実施の形態に取り付け可能な情報処理部11と、その周辺デバイスとの関係を説明する図である。図3の例では、情報処理部11は、プロセッサ11a、不揮発性メモリ(フラッシュメモリ/EEPROM)11b、メインメモリ11c、通信処理部11d、センサ部11e、タイマ(フレームカウンタ)11f、デバイスID11gなどで構成されている。プロセッサ11aは製品仕様に応じた処理能力を持つマイクロコンピュータで構成できる。このマイクロコンピュータが実行する種々なプログラムおよびプログラム実行時に使用する種々なパラメータは、不揮発性メモリ11bに格納しておくことができる。不揮発性メモリ11bには、タイマ11fを用いたタイムスタンプ(および/またはフレームカウンタでカウントしたフレーム番号)とともに、種々な検出データを記憶しておくことができる。プログラムを実行する際のワークエリアはメインメモリ11cが提供する。
センサ部11eは、アイウエア100(あるいはこのアイウエアを装着したユーザの頭部)の位置および/またはその向きを検出するためのセンサ群を含んでいる。これらのセンサ群の具体例としては、3軸方向(x−y−z方向)の移動を検出する加速度センサ、3軸方向の回転を検出するジャイロ、絶対方位を検出する地磁気センサ(羅針盤機能)、電波や赤外線などを受信して位置情報その他を得るビーコンセンサがある。この位置情報その他の獲得には、iBeacon(登録商標)あるいはBluetooth(登録商標)4.0を利用できる。
情報処理部11に利用可能なLSIは、製品化されている。その一例として、東芝セミコンダクター&ストレージ社の「ウエアラブル端末向けTZ1000シリーズ」がある。このシリーズのうち、製品名「TZ1011MBG」は、CPU(11a、11c)、フラッシュメモリ(11b)、Bluetooth Low Energy(登録商標)(11d)、センサ群(加速度センサ、ジャイロ、地磁気センサ)(11e)、24ビットデルタシグマADC、I/O(USB他)を持つ。
プロセッサ11aで何をするかは、通信処理部11dを介して、ローカルサーバ(またはパーソナルコンピュータ)1000から、指令することができる。通信処理部11dでは、ZigBee(登録商標)、Bluetooth(登録商標)、Wi-Fi(登録商標)などの既存通信方式を利用できる。プロセッサ11aでの処理結果は、通信処理部11dを介して、ローカルサーバ1000にリアルタイムで送ることができる。また、メモリ11bに記憶された情報も、通信処理部11dを介して、ローカルサーバ1000に提供できる。ローカルサーバ1000は、1以上のアイウエア100の情報処理部11から送られてきた情報を、レコーダ/ローカルデータベース1002で記録し蓄積できる。レコーダ/ローカルデータベース1002に記録/蓄積された情報は、インターネットなどのネットワークを介して、メインサーバ10000に送ることができる。メインサーバ10000には1以上のローカルサーバ1000から種々な情報が送られてきており、それらの情報を統合してビッグデータのデータベースを構築できるようになっている。
情報処理部11のシステムバスには、ディスプレイ12(12Lと12R)、カメラ13(13Lと13R)、眼動検出部15、マイク(または振動ピックアップ)16等が接続されている。図3の各デバイス(11〜16)は、バッテリBATにより給電される。
図3の眼動検出部15は、視線検出センサを構成する4つの眼動検出電極(151a,151b,152a,152b)と、これらの電極から眼動に対応したデジタル信号を取り出す3つのADC(1510、1520、1512)と、これらADCからの出力データをプロセッサ11a側に出力する回路を含んでいる。プロセッサ11aは、ユーザの種々な眼動(上下動、左右動、瞬目、眼瞑りなど)から、その眼動の種類に対応する指令または状態を解釈し、その指令または状態に対応する処理を実行することができる。
眼動の種類に対応する指令の具体例としては、眼動が例えば眼瞑りなら視線の先にある情報項目を選択し(コンピュータマウスのワンクリックに類似)、連続した所定回数の両目の瞬目(あるいは片目の瞬目/ウインク)なら選択された情報項目に対する処理の実行を開始させる(コンピュータマウスのダブルクリックに類似)指令がある。
眼動の種類に対応する状態の具体例としては、所定数の瞬目、所定時間の目瞑り、視線の上下左右動がある、例えば、眼動が講演の節目における1〜2回の瞬目ならユーザが講演内容に集中し理解したことを推定できる。眼動が検査用映像の再生中における数秒以上の目瞑りならユーザが検査用映像の再生中に居眠りしたことを推定できる。眼動が睡眠中における上下左右動ならユーザがレム睡眠中であったことを推定できる。
上記眼動の種類に対応する指令または状態は、眼動検出部15を用いた情報入力Bの一例である。
<図3に示される構成要素についての補足説明>
*プロセッサ11aを構成するマイクロコンピュータユニットの動作について
マイクロコンピュータユニットのプログラミングにより瞬目などの検出エンジンを構成し、この検出エンジンを動作させることで、リアルタイムのADC生データではなくて、タイムスタンプ付の瞬目イベントを記録することができる。(例えば、タイマをスタートしてから5分10秒後に1〜2回連続する瞬目の発生イベントがあったなら、その瞬目のEOG波形をAD変換した生データを記録するのではなくて、代わりにそのような瞬目が発生したことを5分10秒のタイムスタンプとともに記録する。)このようにすれば、生データをそのまま記録するよりも記録に必要なメモリ容量を大幅に節約できる。なお、メモリ容量に十分な余裕があるときは、ADC生データを記録するようにしてもよい。
*不揮発性メモリ11bを構成するフラッシュメモリ/EEPROMについて
例えば映画館で映画を鑑賞している大勢の観客から瞬目の情報を収集する場合を考えてみる。その場合、全ての観客からリアルタイムで瞬目の情報を集め続けるよりも、個々の観客の瞬目情報を個々の観客のローカルメモリ(11b)に一時記憶しておき、映画終了後に全ての観客のローカルメモリ(11b)から記憶した瞬目情報を回収する方が、効率的な情報収集ができる。
*通信処理部11dについて
例えば映画が終了し、全ての観客のローカルメモリ(11b)で瞬目情報の一時記憶が終わったなら、一時記憶された瞬目情報(タイムスタンプ付き)を映画館のローカルサーバ(1000)で回収することができる。この回収は、例えば、映画館の座席または館内特定場所に設けたBlueTooth(無線)またはUSB(有線)を介して行うことができる。
*電源(電池/バッテリー)BATについて
以下の動作を行うための電源供給維持のために、小型バッテリーが用いられる。
・映画の上映中には、「瞬目」検出エンジンを動作させてEOG波形のAD変換結果から「瞬目」をリアルタイムで検出し、検出した「瞬目」イベントの情報をタイムスタンプと一緒にメモリ11bに記録してゆく。
・映画の上映終了後には、メモリ11bに記録した「瞬目」イベント情報を回収できるようにする。
図4は、アイウエア100を装着したユーザの種々な眼動(瞬目、目瞑り、眼球回転など;特に瞬目)と、図2に示す3つのアナログ/デジタルコンバータ(ADC)から得られる検出信号レベル(Ch0、Ch1、Ch2)との関係を例示する眼電図(EOG)である。縦軸は各ADCのサンプル値(EOG信号レベルに相当)を示し、横軸は時間を示す。
図4の上段に示すCh0のEOG波形のADCサンプル値において、視線が左を向いたときの凹波形と視線が右を向いたときの凸波形の組合せ波形Pr(またはPr*)により、左右方向の眼球回転が検出される。
図4の中段に示すCh1のEOG波形のADCサンプル値または、同図下段に示すCh2のEOG波形のADCサンプル値において、視線が上を向いたときの凸波形と視線が下を向いたときの凹波形の組合せ波形Pt(またはPt*)により、上下方向の眼球回転が検出される。
図4の中段に示すCh1のEOG波形のADCサンプル値または、同図下段に示すCh2のEOG波形のADCサンプル値において、1〜2回の瞬目は、瞬間的にレベル上昇して元に戻る凸パルス波形Pcにより検出される。
図4の中段に示すCh1のEOG波形のADCサンプル値または、同図下段に示すCh2のEOG波形のADCサンプル値において、3回の瞬目は、瞬間的にレベル上昇して元に戻る凸パルス波形Psにより検出される。(図示しないが、4回以上の瞬目も3回の場合と同様に検出できる。)
図4の中段に示すCh1のEOG波形のADCサンプル値または、同図下段に示すCh2のEOG波形のADCサンプル値において、瞬目より長い期間生じる目瞑りは、幅広な凸パルス波形Pfにより検出される。(図示しないが、より長い目瞑りはより広いパルス幅の波形で検出される。)
<図4のEOG波形と眼動との関係>
(01)視線が左右にきょろきょろと動いているときは、波形Pr(またはPr*)が表れる。視線が上下にきょろきょろと動いているときは、波形Pt(またはPt*)が表れる。視線が左右上下にきょろきょろと動いているときは、波形Pr(またはPr*)と波形Pt(またはPt*)が連続して表れる。つまり、EOG波形Prおよび/またはPt(Pr*および/またはPt*)から、「きょろつき」型眼動を検出できる。
(02)瞬目がなされると、瞬目の回数に応じたパルス波形Pc、Ps(またはPc*,Ps*)が表れる。つまり、EOG波形Pc、Ps(またはPc*,Ps*)から、種々な回数の「瞬目」型眼動を検出できる。なお、「瞬目」型眼動の検出さえできればよいのであれば、Ch0のADCは不要となる。「瞬目」型眼動の検出目的では、最低限、Ch1またはCh2のADCが1つあればよい。しかしCh1およびCh2の2つのADCを用い、両者の出力を合成すれば、信号対雑音比(S/N)を改善できる。その理由は、Ch1とCh2の間で相関性がある信号成分(Pc、Ps、Pf、Ptなど)は2つのADC出力の合成により+6dB増えるが、相関性がないランダムなノイズ成分は+3dBしか増えないからである。
(03)目瞑りがなされると、目瞑りの長さに応じたパルス波形Pf(またはPf*)が表れる。つまり、EOG波形Pf(またはPf*)から、種々な長さの「目瞑り」型眼動を検出できる。「目瞑り」型眼動はCh0のEOG波形にも少し表れるが、「目瞑り」型眼動の検出目的では、Ch0のADCはなくてもよい。
<眼動と心身状態の関係>
(11)EOGを利用した検査中(例えば緑内障の視野検査中)に「きょろつき」型眼動が検出されたときは、被験者の集中力が欠け落ち着きなない状態にあると推定することが考えられる。
(12)EOGを利用した検査中(例えば講演や授業の理解度調査中)に、要所(講演内容の意味の区切り箇所など)で少数回(例えば1〜2回)の「瞬目」型眼動が検出されたときは、被験者は集中しており理解が進んでいる状態にあると推定することが考えられる。
(13)EOGを利用した検査中(例えば接客店員の適性検査中)に、要所(「被験者が混雑した店内で複数客から矢継ぎ早に種々な注文を受ける」といった検査内容の箇所など)で数回以上(例えば3回以上)の「瞬目」型眼動が検出されたときは、被験者は緊張しており精神的にストレスを受けた状態にあると推定することが考えられる。
(14)EOGを利用した検査中(例えばドライブシミュレータを用いた検査において、単調な走行画面と単調な連続振動音の出力中)に短めの「目瞑り」型眼動が複数回検出されたときは、被験者は疲労しており検査項目に集中できない状態にあると推定することが考えられる。
(15)EOGを利用した検査中(例えば睡眠の調査中)に長期間の「目瞑り」型眼動が検出されたときは、被験者は睡眠(仮眠)しておりノンレム睡眠あるいはレム睡眠の状態にあると推定することが考えられる。
(16)EOGを利用した検査(例えば睡眠状態の検査)において、長時間の「目瞑り」型眼動が検出されている間に「きょろつき」型眼動が検出されたときは、被験者がレム睡眠の状態にあると推定することが考えられる。
(17)EOGを利用した検査(例えば睡眠からの覚醒の検査)において、長時間の「目瞑り」型眼動が検出されたあと(ノンレム睡眠あるいはレム睡眠の状態にあると推定される)、「瞬目」型眼動が検出されたときは、その「瞬目」型眼動の検出により睡眠から覚醒したものと推定することが考えられる。
<眼電位センシング技術を用いた劇場3Dメガネ向け感情(心身状態)推定/記録の要点>
*主要な検出対象は瞬目(瞬き)である。
ユーザの顔面に対して、最低限、上下方向(例えば左右ノーズパッドの片側の上下)に1組のEOG電極(使用するADCは最小限1個)を装着する。
ユーザの顔面に装着した1組以上のEOG電極からの検出結果に基づいて、ユーザのストレス、集中度、眠気、睡眠状態(レム睡眠/ノンレム睡眠)などが推定可能となる。
*これに以下を追加して、スクリーン映像や4Dシアターのギミックに対する観客のリアクションを収集できるようになる。すなわち
ユーザ(個々の観客)の顔面に対して左右方向に、最小1組(精度を上げるには2組)のEOG電極(使用するADCは合計2個以上)を追加して装着する。(例えば、左右ノーズパッドの一方側の上下と他方側の上または下、あるいは左右ノーズパッド各々の上下に、合計3個または4個のEOG電極を設ける。)
以上の追加構成により、左右方向を含めた眼球の回転方向(任意方向の視線移動または眼球回転)を推定できるようになる。
図5は、第1の実施形態に係る心身状態推定方法の一例を説明するフローチャートである。3Dビデオ再生は一般家庭では普及には至らなかったが、映画館における3D上映は継続的に行われている。図5は、3Dメガネを用いた3D映画(あるいは3Dメガネを用いた3D映画に振動など視聴覚以外の五感に対する効果を追加した4D映画)における観客の集中度・疲労度・ストレスなどを集計し記録する処理の一例を示している。さらに、図5は、或る期間に渡り上映された作品(3D/4D作品に限らず2D作品も含まれ得る)への不特定多数観客データを集計して、多数の観客の一般評価を判定し次回の作品プロデュースにフィードバックする処理も例示している。
いま、図3に示すようなローカルサーバ1000を図示しない映写室(あるいは事務室)に備えた3D/4D対応映画館が存在し、この映画館で或る3D(または4D)作品が上映される場合を想定してみる。その3D作品の上映が始まる前に、映画館の係員は、図1のようなアイウエア形態を持つ3Dメガネ100を入場者(観客)に配布する(ST10)。
配布する3Dメガネ100は男性用と女性用で色分けされ、大人用と子供用でサイズが分けられている。つまり、この3Dメガネ100には大人の男女用に2種類と、子供の男女用に2種類の、合計4種類がある、この4種類は、例えば図3のデバイスID11gの先頭ビットにより区分けできる(2ビットで4種類、4ビットなら16種類の区分けが可能)。また、3Dメガネ100個々の識別(配布人数分の識別)は、デバイスID11gの後続ビットにより区分けできる(12ビットで4096人分、14ビットで16384人分の区分けが可能)。デバイスID11gのビット数は、配布するメガネ100の区分け分類数と、配布するメガネ100の最大個数に応じて、適宜決定すればよい。
なお、図1に示すようなメガネ100では、画像IM1および/またはIM2において字幕をオン/オフ可能にAR表示できる。その際、デバイスIDが大人用を示しておればデフォルト表示される字幕を小さ目の「かな漢字交じり日本語または原語(英語など)」とすることができ、デバイスIDが子供用を示しておればデフォルト表示される字幕を大き目の「ひらがなまたはカタカナのみの日本語」とすることができる。
メガネ100を装着した観客が映画館の座席に着席したあと、上映開始時間になると、館内の照明が落とされ、上映が開始される。その上映開始と同時に、図3のローカルサーバ1000から各メガネ100へ上映開始の合図が送られる。この合図を通信処理部11dで受けると、各メガネ100のタイマ(またはフレームカウンタ)11fが自動的に(つまりメガネユーザが何もしなくても)スタートする。すると、メガネユーザ(個々の観客)の眼動(瞬目など)に対応したイベントが眼動検出部15で検出される毎に、あるいはメガネユーザの声や体動(笑い声やびっくりしたときの反射的な動き)に対応したイベントがマイク16やセンサ部15で検出される毎に、そのイベントを示す情報ビットにタイムスタンプ(またはフレームカウント値)の情報ビットを付加した検出データが、各メガネユーザのEOGデータとして、メモリ11bに連続記録される(ST12)。なお、メモリ11bの記憶容量が十分に大きいときは、AD変換したEOGの生データを各メガネユーザのEOGデータとしてメモリ11bに記録してもよい。
上記検出データは、デバイスID11gの情報ビットに、検出されたイベントの種類(眼動の種類、声の種類、体動の種類など)を示す情報ビットと、タイムスタンプ(またはフレームカウント値)の情報ビットを付加したものとすることもできる。用途にもよるが、検出データのビット数としては、80〜160ビット(10〜20バイト)くらいあれば十分実用に耐えると考えられる。
上記イベントの発生原因となる映像の表示形式は、3Dに限られず、2Dであっても、4Dであってもよい(4Dは、映像部分だけで言えば3Dと同等)。また、イベント発生の原因となり得る音声/音響効果(4Dでは振動その他の体感効果も加わる)は、モノラルでも、前方2〜3チャネルステレオでも、4チャネル以上の前後サラウンドステレオでもよい。これらの音声/音響効果は、映画のシーンによって適宜切り替えられても良い。どのような音声/音響効果があったのかは、タイマ(またはフレームカウンタ)11fから得られるタイムスタンプ(またはフレームカウント値)から特定できる。
フレームカウント値は1枚1枚の映像フレームを示しており、例えば動画の連続フレーム中に1ないし数枚のサブリミナル画像を挿入した場合に、そのサブリミナル画像フレームをフレームカウント値で特定することができる。また、フレームレートが例えば毎秒60フレームであれば、フレームカウント値を60で割ることによりそのフレームカウント値に対応するタイムスタンプを算出できる。従い、フレームカウンタはタイマと同様な機能を持つことができる。
メモリ11bに記録されたデータは、自身のデバイスID11gを含めて、所定のタイミングで(例えば5〜10分毎に)、Bluetoothなどを利用して通信処理部11dからローカルサーバ1000へ自動転送することができる(ST14)。ローカルサーバ1000は、(小分けにして)転送されてきたデータを、送り元のデバイスID11gを含めて、デジタルレコーダ1002に連続記録し、および/またはローカルデータベース1002に累積記録する。種々なメガネユーザのデータがレコーダ/ローカルデータベース1002の記録エリア上で不連続に分断記録されていても、デバイスID11gを選別キーとすることにより、個々のメガネユーザのデータを選別し纏めて取り出すことができる。
メモリ11bへのデータ記録(ST12)と記録データのローカルサーバ1000への小分け転送(ST14)は、上映作品が終了する前まで反復される(ST16ノー)。
上映作品が終了しエンドテロップが始まると(ST16イエス)、メモリ11b内の未転送分のデータがローカルサーバ1000へ転送される。これにより、観客に配布した全てのメガネ(全てのユーザメガネ)のデータがローカルサーバ1000で収集され、レコーダ/ローカルデータベース1002への記録が完了する(ST18)。なお、全てのメガネユーザのデータを収集するとデータ量が多くなりすぎるときは、デバイスIDをランダムに一定数決め、決めたデバイスIDのユーザデータだけを収集するようにしてもよい(あるいは、例えば奇数または偶数相当のデバイスIDのユーザデータだけを収集することで、データ量を半減できる)。
必要なユーザデータの収集が終わりその記録が完了したら、係員が配布した3Dメガネ100を退場するユーザ(観客)から回収する(ST20)。(または使用済みの3Dメガネを回収箱に入れてもらう。)回収されたメガネ100の通信機能は即座にオフされる。すると、未回収のメガネ100とローカルサーバ1000との間の通信回路は生きているので、メガネ100が持ち出されようとすると、劇場の出口にいる係員がビーコンセンサ11eなどによりそのメガネ100の持ち主を特定し、メガネ100の紛失を防止できる。
観客を入れ替えて再上映するときは(ST22イエス)、ST10〜ST20の処理を反復し、新たな観客からのデータを収集する。
その日の上映が全て終了したら(ST22ノー)、収集したデータの集計と記録の整理を行う(ST24)。例えば、収集したデータに基づいて、1以上のユーザ(観客)の特徴的なEOG波形変化(例えば瞬目に対応するイベント相当)と、その変化があったときのタイムスタンプ(またはフレーム番号)が示す上映内容(シーン、効果音、振動などの4Dエフェクトなど)と、ユーザの特徴(性別/年齢層など)等との対応関係を、スプレッドシート形式に纏めて集計する。すると、例えば大人の女性はあるシーンと効果音で驚き悲鳴を上げる頻度が多いが、男性ではその頻度は少ないなど、上映作品のシーンや効果音毎の観客の反応(心身状態)の程度を推定できるようになる。
1以上の映画館で一定期間(例えば1ヶ月)の間にローカルサーバ1000で集計したデータは、インターネットなどの通信回線を介して、メインサーバ10000へ継続的に送ることができる(ST26)。
例えば、検出データを10バイトで構成しそのうちの2バイトをデバイスID用に用いるとすると、検出イベントの種類に2バイトを割り当て、タイムスタンプ(またはフレームカウント値)等に6バイトを割り当てることができる。1回の映画上映で1人当たり平均1000イベントの検出がなされたとすると、1回の映画上映で1000人の観客から10Mバイトの情報が集まる。1ヶ月間に100回の上映があったとすると検出データ量は1つの映画館当たり月間間で1Gバイトとなる。100箇所の映画館から同様なデータが図3のメインサーバ10000に集まると、トータルで100Gバイトのデータとなり、年単位では1Tバイト以上のビッグデータとなる。
このビックデータは、データ収集当事の社会情勢も考慮して、次回映画作品のジャンル選択のヒントを与えてくれる。例えば、自爆テロが頻発する社会情勢において、ある3D映画中のテロリストとの戦闘シーンに対して観客の集中度が高いことがEOGデータの集合から推測できたなら、テロに立ち向かうヒーローの3D映画を次に製作しよう、という映画製作会社の企画が可能になる。
<第1の実施形態(図5)の纏め>
映画館の3D上映用の3Dメガネ(シャッター方式、偏光方式のどちらでもよい)に、眼電位センシングを応用した集中度・疲労・ストレス推定を組み合わせる。これにより、現在上映中の映画に対する観客の反応(シーン毎の集中度・疲労度・ストレス)を集計する事が可能となり、上映時間に合わせた本編の再編集や、更には、今後の新作映画の製作へ、顧客の声(Voice of the Customer:VOC)としてフィードバックできる。
上映中の作品に対する観客反応の検出・推定・(時間軸に沿った)記録を個々のメガネ単体で行うことにより、映画館に居る全員分の反応結果を集める事が可能になる。
図6は、第2の実施形態に係る心身状態推定方法の一例を説明するフローチャートである。ここでは、ARアイウエア(ARメガネ)100に眼電位センシング機能を設けて瞬目(瞬き)等の検出を行えるようにし、ARメガネ越しに(またはARメガネ上で)試験用映像(トレーニングビデオ)を表示しながら、「瞬目」等を基にした集中度・疲労・ストレス推定を行う。
まず、被験者(アイウエアのユーザ)が、EOG電極付きのARアイウエア(メガネ型またはゴーグル型)100を装着する(ST30)。試験用映像(ドライバの適性試験ならドライブシミュレータの映像など)の上映開始と同時に、タイマ(またはフレームカウンタ)11fをスタートさせて、被験者(長距離バスのドライバや高齢の自動車ドライバなど)のEOGデータ(例えば図4のEOG波形に対応したイベントの情報)の連続記録を、メモリ11bを用いて開始する(ST32)。試験用映像は、コンピュータグラフィックス(CG)でも実写映像でもアニメーションでもよい。映像の表示方法は、2D、3D、4Dのいずれでも良い。音声(4Dでは振動なども加わる)は、ステレオでもモノラルでもサラウンドでもよい。映像の表示方法や音声等の提示方法は、試験内容に応じて、適宜切替可能である。
試験映像には、所定のチェック箇所において、被験者の集中度、疲労度、ストレスなどを推定するためのEOG信号波形パターンに関連する映像内容(種々なストレス映像)が組み込まれている。例えば、車線が急に曲がりくねったり、突然、横側からボールや動物が飛び出てきたり、単調で眠くなるような景色が続くような映像が組み込まれている。このような所定のチェック箇所において被験者が付けたアイウエア100から得られたEOGデータ(瞬目発生などのイベントに対応したデータ)は、タイムスタンプまたはフレーム番号とともに、メモリ11bに一時的に記録される。このメモリ11bに記録されたデータの内容は、所定のタイミング(例えば試験映像内のシーンの区切れ)でローカルサーバ1000に転送され、レコーダ/ローカルデータベース1002で記録される(ST34)。
種々なストレス映像を含む試験映像を用いた被験者のデータ記録が済むと(ST36イエス)、レコーダ/ローカルデータベース1002で記録されたデータの評価が行われる(ST38)。ST38の評価では、今回の試験で得られたEOGデータがうまく取れているかどうかがチェックされる。(普通は瞬目反応がある映像箇所で瞬目が認められないなど疑義があれば再チェックし(ST40イエス)、そうでなければ次の処理に進む。)
今回の試験で被験者のEOGデータがうまくとれているようであれば(ST40ノー)、被験者の特徴的なEOG波形変化(瞬目、目瞑りなどに対応)と、その変化があったときのタイムスタンプ(またはフレーム番号)が示す試験映像の内容(シーン、効果音、振動や気温等の4Dエフェクト、その他)と、被験者(メガネユーザ)の特徴(性別/年齢/過去の経歴など)との対応関係を、その被験者について、ローカルサーバ1000において集計し、集計結果をレコーダ/ローカルデータベース1002に記録する(ST42)。
レコーダ/ローカルデータベース1002には、同じ被験者(長距離バスのドライバや高齢の自動車ドライバなど)が健常であったときの、同じ試験映像に対する過去の比較用EOGデータ、あるいは同じ業種で健常な平均的人物の、同じ試験映像に対する比較用EOGデータが、既に記録されている。今回の試験で得られた被験者のEOGデータは、既に記録されている比較用EOGデータと比較される。比較される両データの箇所は、同じタイムスタンプ(または同じフレームカウント値)の箇所である。比較の結果、今回の試験データから、単調な走行映像で居眠り(図4のPfなど)が認められたり、不意の飛び出し映像箇所で瞬目反応(図4のPc、Psなど)の発生がない箇所が散見されたときは、その発生状況に応じて、被験者(長距離バスのドライバや高齢の自動車ドライバなど)がこれからの業務(長時間に渡るバス運転など)を正常に行えるかどうか判定する(ST44)。
一定期間(たとえば1年)以上かけてローカルサーバ1000で集計したデータは、インターネットなどを介して、継続的にメインサーバ10000へ送られる。あちこちのローカルサーバ1000から継続的に送られてくる集計データは、メインサーバのデータベースに蓄積され、ビッグデータとなる(ST46)。このビッグデータを分析すれば、ST32の試験映像によりどのようなEOGデータが得られるのが健常者にとって普通なのかを推定できる。このような推定による知見は、疲労気味の労働者や高齢者の就業適性を判定することに役立つ。
適切な内容の試験映像を作成することにより、図6の試験は、自動車運転以外の業種の作業(インフラの保守作業や倉庫のピッキング作業など)における集中度・疲労度・ストレスなどの推定にも利用可能である。例えば、作業時/トレーニング時において、集中度低下・ストレス増大・神経異常をきたした事などを、リアルタイムに推定できる。「瞬目」の回数が多くなる現象は、不安・緊張・心の葛藤・ストレスなど心因性なものと、神経に異常をきたしているケースが考えられる。作業においてはどの状態も好ましいものではない。「瞬目」の検出/記録を行うことにより、作業者の負担を軽減するための環境作りや作業手順の改善等について、検討・対策を講じる事ができる。
また、トレーニング時の瞬目(瞬き)発生パターンより、理解度をリアルタイムに推定できる。説明を聞いている際、意味の切れ目に瞬きをしていれば良く理解されており、区切りではない箇所で瞬きをしていれば説明の聴講に集中できていないと推定できる。
「瞬目」の検出/記録を行うことにより、トレーニング効果の評価および、トレーニング内容の改善も可能となる。
作業時の「瞬目」および「目瞑り」の発生パターンより、居眠りをリアルタイムに推定できる。
視線を真上に向けた場合と、意図的に一定時間以上目を閉じた場合とでは、垂直方向の眼電位の絶対値に明らかな差が見られる(視線を真上に向けた場合 << 一定時間、例えば0.5秒以上の閉眼)。
日常的に一定時間(数秒)以上目を閉じ続ける事は無いため、「瞬目」および「目瞑り」を検出する事により、このような動作が作業中(例えば自動車の運転中)に発生した場合には、その発生を記録するだけでなく、作業者へアラートを出す事ができる。
また、ARアイウエア100に加速度センサ/ジャイロセンサ(図3の11e)を設けることにより、ARアイウエア100を装着したユーザの身体動作(居眠りに伴う頭部のこっくり等)の検出精度を(眼動検出部15だけしか使わない場合と比べて)向上できる。
図7は、第3の実施形態に係る心身状態推定方法の一例を説明するフローチャートである。ここでは、緑内障視野検査時の被験者の集中度(視線がキョロキョロ動いてていないか)・疲労度・ストレスなどを集計し記録する。まず、図示しない視野検査装置のアイフレームのEOG電極に被験者の眼周辺の顔面皮膚を接触させる(ST50)。
次に、タイムスタンプを提供するタイマ11fをスタートさせ、被験者の右眼(または左眼)の眼前で視野検査用の輝点(図示せず)を、所定のプログラム手順で発生させる。被験者は、輝点が見えたら、検査ボタン(図示せず)を押して、輝点が見えたことを装置に通知する。この検査ボタンを押したというイベントは、ボタンが押されたときのタイムスタンプと、そのときのEOGデータ(図4)ともに、検出データとしてメモリ11bに記録される(ST52)。
輝点発生のプログラムが終了したら(ST54イエス)、メモリ11bに記録された検出データの信頼性が評価される(ST56)。この評価では、ボタンが押されたときのEOGデータが「きょろつき」に対応する波形(Pr、Ptなど)あるいは「目瞑り」に対応する波形(Pfなど)のときは、誤操作でボタンが押されたものと推定する。検査技師あるいは眼科医師が「ボタンの誤操作が多すぎる」と判断したら、再検査となる(ST58イエス)。
検査技師あるいは眼科医師が「ボタンの誤操作発生頻度は診断に問題がない程度に少ない」と判断したら、メモリ11b内の検査結果をローカルサーバ(パーソナルコンピュータ)1000に転送する。転送された検査結果は、その被験者の過去の検査結果や医師の診断見解を含め、被験者のカルテの一部として、レコーダ/ローカルデータベース1002に記録される(ST60)。
なお、ST50〜ST60の処理は、被験者の片目(右眼または左眼)だけに対する場合と、被験者の両目に対する場合がある。
図8は、第4の実施形態に係る心身状態推定方法の一例を説明するフローチャートである。ここでは、被験者のレム睡眠とノンレム睡眠を眼動のEOGから検出し、レムからノンレムに移行する際に、被験者がどのような映像を見ていたのか、および/またはどのような音声・音楽を聴いていたのか等の情報を収集し記録する。また、被験者のレム睡眠とノンレム睡眠を眼動のEOGから検出し、レムからノンレムに移行するタイミングで被験者を強制的に覚醒させて、覚醒前に見ていた夢の情報を収集し記録する。
まず、被験者(アイウエアのユーザ)が、EOG電極付きのARアイウエア(メガネ型、ゴーグル型またはアイマスク型)100を装着する(ST70)。アイウエア100がメガネ型またはゴーグル型の場合は、AR表示スクリーン越しに、図示しない外部モニタに映し出されたビデオ映像を見ることができる。アイウエア100がアイマスク型の場合は、アイマスクの内側に有機ELなどを用いた板状の画像表示部(図示せず)を設け、その画像表示部でビデオ表示するように構成できる。
アイウエア100を装着する被験者は、睡眠を誘発しやすい環境におかれる。睡眠を誘発しやすい環境の一例として、適温(25℃位)適湿(50〜60%位)の薄暗い室内で、リクライニングシートに柔らかいシーツを被せた環境が考えられる。あるいは、寒い室内でコタツに入り横になっている環境でもよい。
このような睡眠を誘発しやすい環境において、睡眠誘導用ビデオの再生を開始する。このビデオ再生開始と同時に、タイマ(またはフレームカウンタ)11fをスタートさせて、被験者のEOGデータの連続記録を、メモリ11bを用いて開始する(ST72)。睡眠誘導用ビデオの映像は、コンピュータグラフィックス(CG)でも実写映像でもアニメーションでもよい。このビデオは、睡眠誘導だけを目的とするものに限らず、睡眠学習を意図した内容を含んでいてもよい。
映像の表示方法は、2D、3D、4Dのいずれでも良い。音声(4Dでは振動なども加わる)は、ステレオでもモノラルでもサラウンドでもよい。映像の表示方法や音声等の提示方法は、再生内容に応じて、適宜切替可能である。睡眠誘導ビデオの内容は、過去の実験で多数の人に対して睡眠誘導効果が認められた映像・音・ストーリーの作品から選択する(4D作品では振動や匂いなども適宜加わる)。被験者が眠りに付いたあと(目瞑りが継続される)は映像は見なくなるので、音(音楽など)や4D効果(振動など)が大きな意味を持つようになる。被験者が眠りについた後の音や4D効果の中身は、タイムスタンプ(またはフレーム番号)により特定できる。
なお、記録するEOGデータには、被験者の生理データ(呼吸数、脈拍、血圧など)を付加してもよい。毎分の呼吸数は、例えば図3のタイマ11fとマイク16(呼吸音を検出する)により検出できる。マイク16は、被験者の寝息やいびきの検出にも利用できる。血圧などの生理データは、例えばリストバンド型の小型血圧計(図示せず)を用いて得ることができる。EOGデータに生理データを適宜含めて検討すれば、被験者の心身状態の推定精度をより高めることができる。
長い目瞑り(および、寝息やいびきの発生、もしくは脈拍や血圧の低下)から被験者の入眠(睡眠開始)を検出する。一般的にいって、入眠すると最初にノンレム睡眠が表れ、その後にレム睡眠が表れ、以後目覚めるまでの間に、ノンレム睡眠(脳は眠っている)とレム睡眠(脳は活動している)が交互に表れる。レム睡眠は、例えば90分毎に表れ、20〜30分くらい続く。レム睡眠中は眼動がある(眼がきょろきょろ動く)ので、この眼動をEOG波形から検出することにより、レム睡眠をノンレム睡眠から区別できる。これにより、睡眠中の眼動の有無から、レム睡眠とノンレム睡眠を検出し、それらの検出イベントを、タイムスタンプとともにメモリ11bに記録する(ST74)。レム睡眠中は脳が活動しているので、夢を見ていることが多い。
レム睡眠からノンレム睡眠に切り替わると、睡眠中の眼動が検出されなくなるという変化が生じる。このような変化があったとき(ST76イエス)、被験者を強制的に覚醒させると、直前のレム睡眠中に見ていた夢を思い出せる可能性が高い。
そこで、夢の調査をする際は、被験者を強制的に覚醒させ(ST78イエス)、被験者に夢の内容を記録してもらう(夢の記録手段は問わない、マイク16を用いた音声記録でも、手書きメモでもよい)。夢の内容は、覚醒時のタイムスタンプとともに、メモリ11bに記録する(ST80)。覚醒以前のEOGデータは別途記録されており(ST72)、覚醒直前のレム睡眠中に再生されていたビデオの内容(特に視覚以外の五感に訴える情報:音楽や効果音あるいは、掛け算の九九のような、単純でリズミカルな音声など)は、タイムスタンプから特定できる。
別の夢のデータをとりたいといは、被験者に再度寝てもらい(ST82イエス)、ST72〜ST80の処理を繰り返す。そうでなければ(ST82ノー)、被験者毎に記録した全てのデータ(タイムスタンプ、EOGデータ、夢の内容メモなど)をローカルサーバ1000に送り、整理してからレコーダ/ローカルデータベース1002に記録する(ST84)。とくに、夢の内容が手書きメモのときは、覚醒後の被験者に意味の分かりやすい文書に書き直してもらい(例えば、夢に出てきた人が「ににんがし、にさんがろく」と言っていたなど)、その文書データをレコーダ/ローカルデータベース1002に記録するとよい。ローカルサーバ1000に記録したデータは、適宜、メインサーバ10000に送ってそのサーバに記録する。
ローカルサーバ1000および/またはメインサーバ10000に記録されたデータは、例えば次のような調査に利用できる。すなわち、1度の睡眠時間(3〜9時間位)の間に1度以上生じるレム睡眠とノンレム睡眠において、睡眠中に再生したビデオコンテンツがどのように夢に反映されたかを、調査できる(ST88)。この調査結果は、睡眠学習の開発に利用できる。
また、睡眠誘導用ビデオの再生を開始してから睡眠が始まるまで(あるいは最初のレム睡眠またはノンレム睡眠が検出されるまで)の睡眠誘導所用時間を、タイマ11fを用いて計測できる。複数の被験者に対して種々な睡眠誘導用ビデオV1、V2、V3、…を見せて、各ビデオV1、V2、V3、…の再生における個別の睡眠誘導所用時間データを複数の被験者から収集できる。これらの睡眠誘導所用時間データを分析すれば、「よく眠れる/快眠できるビデオ(映画)」の製作に役立てることができる。
図9は、他の実施形態におけるEOG電極の実装例を説明する図である。この実施形態は、例えば緑内障患者の視野検査における、きょろつき、集中度・ストレスチェックにおいて利用できる。図9の電極実装例では、ゴーグル型アイウエアのクッション面(ユーザの顔面皮膚に接触する面)において、図1とは異なる電極配置を行っている。
すなわち、例えばシリコーン製のクッションがゴーグルのフレーム110上に設けられ、このクッションの図示位置に所要の眼電位検出電極(EOG電極151a、151b、152a、152b)が取り付けられる。シリコーン製のクッションは、ユーザの顔面の凹凸に合うように柔らかく変形して、全てのEOG電極をユーザの皮膚面に安定接触させる。
また、ゴーグルのフレーム110上には、キャリブレーションマーカーとなる4つのLED(M01、M02、M11、M12)が(オプションで)取り付けられている。さらに、ユーザが正視する際のガイドとして、左右両眼の真正面(P1とP2の位置)にセンターマーカーが(オプションで)形成されている。センターマーカーは、例えば、フレーム110内に嵌め込まれる透明プラスチック板の所定箇所(P1とP2の位置)に罫書き加工することで、形成できる。このセンターマーカーに周辺のフレーム110に取り付けられたLEDからのサイド光が当ると、その光の一部がセンターマーカー部分で乱反射して、ユーザが視認できるような輝点となる。
なお、フレーム110内の透明板上にフィルム液晶などを用いたディスプレイが設けられているときは、そのディスプレイによりAR表示またはVR表示が可能となる。(ARは拡張現実:Augmented Realityの略で、ゴーグル越しに見える現実の世界に種々な情報を付加させるテクノロジーを指す。また、VRは仮想現実:Virtual Realityの略で、現実世界とは切り離された任意の情報を表示できる。視野検査用の輝度パターン表示も、VR表示の一種とみることができる。)このAR表示(またはVR表示)を用いてマーカー(M01、M02、M11、M12、P1、P2)をユーザに提示することもできる。
なお、12Lと12Rを有機ELパネルで作り。アイフレームの前面全体を遮光シートで覆えば、ビデオ表示(またはVR表示)機能付きのアイマスクになる。
図9の構造をモディファイして、顎紐つきの帽子(車掌帽などのヘッドマウントデバイス)にEOG電極を設けることもできる。図示しないが、制服を着た電車の車掌(ユーザ)がよく着用する顎紐つきの車掌帽には、ユーザの額に当接する額鍔と、着用した帽子をユーザの頭部に固定する顎紐が付いている。図示しないが、この額鍔の内側箇所に、図9のEOG電極151aと152aを設けることができる。図示しないが、図9のEOG電極151bは顎紐の右頬寄り部分にスライド可能に取り付けられ、図9のEOG電極12bは顎紐の左頬寄り部分にスライド可能に取り付けられる。この車掌帽のユーザは、体を動かしたり風を受けたりしても帽子が脱げ落ちないように、車掌帽を着用したあとに顎紐の長さを調整して、帽子を固定する。この固定後、に、ユーザは、電極151aと151gを結ぶ線上に右眼の中心(図9のP2)がくるように、顎紐の右側についているEOG電極151bを右耳付近でスライドさせる。同様に、ユーザは、電極152aと152gを結ぶ線上に左眼の中心(図9のP1)がくるように、顎紐の左側についているEOG電極152bを左耳付近でスライドさせる。
このようにすると、ユーザの左右眼球の眼電位が、車掌帽の額鍔と顎紐に設けられたEOG電極151a、151b、152a、152bにより検出される。
以上を纏めると、EOG電極を車掌帽に適用する場合は、
・車掌帽の額部内側に上側電極(151aと152a)を配置する;
・顎紐の耳下腺咬筋部(じかせんこうきんぶ)に上下方向へ可動可能な電極(151bと152b)を配置する。ここで、顎紐側の電極が上下方向で可動式になっているところがポイントである。左右それぞれの上下電極間を結ぶ線が左右それぞれの眼球中心付近を通過するように、顎紐上の電極位置を合わせる。これにより、瞬目や視線検出を行うに十分な振幅のEOG検出信号を得ることができる。
図10は、他の実施形態に係るメガネ型アイウエアにおけるEOG電極の実装例を説明する図(EOG電極が眼球周辺に配置されたARメガネの例)である。図10のアイウエア100は、EOG電極配置に関しては図9と類似しているが、以下の点で図1のアイウエア100と違っている。
すなわち、右ノーズパッド150RのEOG電極151aおよび151bが右アイフレーム101側に移動し、左ノーズパッド150LのEOG電極152aおよび152bが左アイフレーム102側に移動している。EOG電極151aおよび151bはユーザの右眼中心位置(図示せず)に対して略点対称となる位置に配置され、EOG電極152aおよび152bはユーザの左眼中心位置(図示せず)に対して略点対称となる位置に配置される。また、EOG電極151aおよび151bそれぞれを結ぶ右斜線とEOG電極152aおよび152bそれぞれを結ぶ左斜線は、ユーザの鼻筋に沿った垂直線(図示せず)に対して略線対称となっている。電極151a,151b,152a,152bは、弾性体(スポンジ、シリコーン製クッションなど)の先端に設けた導電性部材(金属、導電性高分子など)で構成できる。各EOG電極は、アイウエア100を装着したユーザの顔の皮膚面に、弾性体の弾性反発力で軽く圧接される。
図10のようなEOG電極配置構造を採ると、ノーズパッド部にEOG電極を配置する構造と比べて帯電した眼球の周囲にできる電界をより検知し易くなる。そのため、図1の実施形態よりも図10の実施形態の方が、より大きな振幅のEOG信号を検出できる。
図11は、さらに他の実施形態に係るゴーグル型アイウエア(左右両眼のアイフレームが連続したタイプ)100におけるEOG電極の実装例を説明する図(EOG電極が眼球周辺に配置されたARメガネの他の例)である。図11のような構造を採ると、図10の構造よりもEOG電極の皮膚接触安定性が高くなる。そのため、より高精度にEOG信号を検出することができる。また、図11の構造では、大型化した情報処理部11その他の装置を内蔵し易い。そのため、図11の構造では、デザイン性をさして気にすることなく、GPS付きスマートフォンの機能を仕込むことができる。その場合の画面表示は、フィルム液晶などを利用した左右のディスプレイ12L/12Rにおいて、AR表示により行うことができる。図示しないが、ゴーグルフレームの左右の耳付近に小型スピーカを取り付け、ノーズクッション付近に小型マイクを取り付けることもできる。また、スマートフォンに対するコマンド入力は、視線移動、瞬目、目瞑り、ウインクなどの眼動により行うことができる。図11のようなゴーグル型アイウエア100は、スキーヤー、スノーボーダーの集中度・ストレスチェックに利用できる。また、ゴーグル型アイウエア100は、AR表示に限らずVR表示にも対応できる。
図12は、さらに他の実施形態に係るゴーグル型アイウエア(左右両眼のアイカップが分離したタイプ)100におけるEOG電極の実装例を説明する図(EOG電極が眼球周辺に配置されたARメガネのさらに他の例)である。図12の実施形態では、図10の場合と同様な、EOG電極配置構造とセンサ部11eの配置構造を採用している。但し、図12のゴーグル構造は海中ダイビング使用(あるいはスカイダイビング使用)にも耐える。図12のゴーグルは、マリンダイバーやスカイダイバーの訓練中における、集中度・ストレスチェックに利用できる。
なお、VR表示機能の適用対象は、保護メガネとしてのゴーグル型アイウェアに限定されない。例えば図12に示すようなゴーグル100にVR表示機能を付加することができる。このVRゴーグル100で海中ダイビングやスカイダイビング(あるいはゲーム)のトレーニングビデオをユーザに見せることができる。(このトレーニングビデオは、初心者には対応が難しい訓練内容の、熟練者による対応実写、コンピュータグラフィック、あるいはアニメなどを含むことができる。)
トレーニングビデオの特定シーンでユーザがどのような眼動反応を示したのかは、VRゴーグル100のEOG電極(151a、151b、152a、152bのうち2つ以上)を用いて検出できる。また、眼動反応が検出されたときの特定シーンは、図3のタイマ/フレームカウンタ11fからのタイムスタンプ(またはフレーム番号)により特定できる。眼動反応の検出結果は、タイムスタンプ(またはフレーム番号)とともに、検出データとして図3のメモリ11bに一時記憶される。一時記憶された検出データは、トレーニングビデオ終了後にローカルサーバ(パーソナルコンピュータ)1000に取り込むことができる。
トレーナー(訓練教官)は、チェックポイントとなるビデオシーンにおいて、被験者(VRゴーグルユーザ)の集中度がどうであったのか等を、瞬目の発生パターンやその変化などから、分析できる。この分析には、ローカルサーバ1000のパーソナルコンピュータを利用できる。
チェックポイントとしては、多数の被験者がいずれも同じような眼動反応(瞬目の発生パターンやその変化タイミングが類似)をしたときのビデオ内容を用いることができる。そのチェックポイントのビデオ内容は、タイムスタンプ(またはフレーム番号)に基づき該当シーンを再生することにより、どんな内容であったのかを確認できる。例えばスカイダイビングの訓練ビデオにおいて、パラシュートのロープが体に絡み付いて開かなくなったシーンをチェックポイントとし、そのときの被験者の瞬目の出方が多くの被験者(あるいは熟練者)の場合と比べてどうであったのか(1〜2回の瞬目反応:落ち着いて集中できていたのか、あるいは眼瞑りや多数回の瞬目反応:パニック状態に陥っていたのか等)を調べることができる。
訓練ビデオのシーンが単調な空撮シーンのときに検出された瞬目(被験者が無意識に行う瞬きなど)については、その発生タイミングが被験者毎にばらばらとなるので、そのようなシーンはチェックポイントから外すことができる。
上記のようなVRゴーグル100の利用は、映画館用3Dメガネの適用と同様な効果を提供し得る。
本願のAR/VRアイウエアには、上記以外の応用も考えられる。例えば図1または図10のアイウエア100にはカメラ13L/13Rが組み込まれている。このカメラを用いて実写録画をしているときに、種々な眼動反応(瞬目の発生パターンやその変化タイミング)をタイムスタンプ(またはフレーム番号)とともにメモリ11bに記録できる(この場合はメモリ11bになるべく容量の大きいフラッシュメモリを用いることが望ましい)。
この実写録画の特定シーン(例えば駅のホームで電車を待っているときに突然後ろから人がぶつかってきたなど)とそのときに起きた眼動反応(例えば短い眼瞑りと多数回の瞬目)は、タイムスタンプ(またはフレーム番号)とともに記録し、その記録内容を適宜ローカルサーバ1000に転送できる。ローカルサーバ1000に転送されたデータは、アイウエア100のユーザが置かれた状況に応じてどんな緊張/ストレスが生じたのかの分析に役立てることができる。
<実施形態の纏め>
(a)例えば左右どちらかのノーズパッド上下に最小限1組の電極を配置し、最小限1個のADCを用いて眼電位センシングをおこなうことができる。これにより、3Dメガネにおいて低消費電力(ADCを用いた眼電位センシングに要する電力は、ワイヤレスで動作する心電計と同等)かつ、低コスト(「瞬目」検出用の特徴量計算を数MIPS〜数十MIPS程度で行うことにより、ワイヤレスで動作する心電計とコストは同程度)に「瞬目」(瞬時)および「目瞑り」(一定時間持続)の検出が可能となる。
(b)実施形態の技術によって、映画館の3D上映用3Dメガネ(シャッター方式、偏光方式のどちらにも対応可能))に眼電位センシングを応用でき、それに集中度・疲労・ストレス推定を組み合わせることができる。これにより、現在上映中の映画に対する観客の反応(時間軸に沿った、あるいはシーン毎の、集中度・疲労度・ストレス)を集計する事が可能となり、上映時間に合わせた本編の再編集や、更には、今後の新作映画の製作へVOC(Voice of the Customer:観客あるいは顧客の声)としてフィードバックする事ができる。
(c)更に、加速度センサやジャイロセンサを3Dメガネに付加することで、4Dと呼称される体験型/アトラクション型のシアターにおけるVOC収集の幅を広げる事ができる。(体験型/アトラクション型のシアターでは、シートが動く以外に、Air、Waterミスト、香り、泡、霧、風、フラッシュ、雪、雨の体験ができる。そのような体験ができるものとして、4DX、TOHO CINEMASのMediaMation MX4Dなどがある。)
ここで、眼電位センシングでは、瞬目、目瞑り(ADCが最小限1個)から視線方向(ADCが2〜3個)などの推定が可能であるが、これに加速度センサやジャイロセンサを加える事で、3Dメガネの向く方向(メガネユーザの頭部の向く方向)を含めて、VOCの情報収集が可能となる。
(d)
また、劇場3Dメガネでは字幕が読み難い(字幕も3D化され、一番手前に表示されるので、他の映像と視線を往復させると疲れる)と言う声があるため、ARメガネをベースとして輻輳角制御を含めて字幕表示するのも有効である(既知の方法も利用しつつ、それに眼電位センシングを利用したストレス推定をする事で、輻輳角制御を含むAR字幕表示の有効性を確認できる)。
<出願当初請求項の内容と実施形態との対応関係例>
[1]一実施の形態に係る心身状態推定装置は、アイウエア(100)のデバイス形態を採り、このアイウエアを装着したユーザの眼電位(図4のEOG)に基づいて前記ユーザの眼動を検出する眼動検出部(15)と、前記眼動が検出されるときのタイミングを計測するタイマ(11f)と、前記眼動に基づく情報処理を行う情報処理部(11)を備えている。この心身状態推定装置において、前記アイウエアを装着したユーザに外部刺激(例えば、種々なエンターテイメントシーンにおける五感への刺激;種々なストレス試験映像における五感への刺激;視野検査における視覚および精神的緊張への刺激;種々な夢における意識の刺激)が与えられたときの前記ユーザの特徴的な眼動(例えば、図4の瞬目Pc/Ps、目瞑りPf、眼球の上下左右動または回転Pr/Ptなどに対応したEOG)を前記眼動検出部(15)により検出する。
また、前記特徴的な眼動が検出されたときのタイミングを前記タイマ(11f)により計測し、前記計測タイミングにおける前記外部刺激の内容と前記計測タイミングにおける前記特徴的な眼動の内容(その眼動に対応するEOG波形)との対応関係から、前記ユーザの心身状態(外部刺激に対する個人評価に関係)を推定できるように構成する。
[2]前記[1]の装置は、各アイウエアで収集した情報を一時記憶するメモリを持つ。すなわち、この装置は、前記外部刺激の内容(種々な映画シーンなど)を特定する情報(タイマまたはフレームカウンタの出力)と、前記特徴的な眼動(瞬目など)の情報を記憶するメモリ(11b)をさらに具備することができる。
[3]前記[1]の装置は、外部のローカルサーバおよび/またはメインサーバが情報収集できるように構成される。すなわち、この装置は、前記外部刺激の内容(種々な映画シーンなど)を特定する情報(タイマまたはフレームカウンタの出力)と、前記特徴的な眼動(瞬目など)の情報とを相互に対応付けた調査情報を、外部サーバ(1000および/または10000)へ提供する手段(11a〜11d)をさらに具備することができる。
[4]前記[1]の装置が組み込まれたアイウエア(100)は、調査情報の提供元を特定できるように構成される。すなわち、この装置は、自身を特定できるデバイスID(11g)を持ち、このデバイスIDにより、個々の情報提供元となったアイウエアを特定できる。
[5]一実施の形態に係る心身状態推定方法は、アイウエア(100)を装着したユーザの眼電位(図4のEOG)に基づいて前記ユーザの眼動を検出し、前記眼動が検出されるときのタイミングを計測し、前記眼動に基づく情報処理を行う構成(図3)を用いる。この心身状態推定方法では、前記アイウエアを装着したユーザに外部刺激(例えば、種々なエンターテイメントシーンにおける五感への刺激;種々なストレス試験映像における五感への刺激;視野検査における視覚および精神的緊張への刺激;種々な夢における意識の刺激)を与え、外部刺激が与えられたときの前記ユーザの特徴的な眼動(例えば、図4の瞬目Pc/Ps、目瞑りPf、眼球の上下左右動または回転Pr/Ptなどに対応したEOG)を検出する(ST12;ST32:ST52;T72)。また、前記特徴的な眼動が検出されたときのタイミングを計測する(ST12;ST32;ST52;ST72)。そして、前記計測タイミングにおける前記外部刺激の内容と前記計測タイミングにおける前記特徴的な眼動の内容(その眼動に対応するEOG波形)との対応関係から、前記ユーザの心身状態(外部刺激に対する個人評価に関係)を推定する(ST24;ST42−ST44;ST56;ST74−ST88)。
[6]前記[5]の方法は、例えば映画館での3D/4D上映作品に対する観客の反応調査に利用できる。この方法では、検出された前記特徴的な眼動が所定回数未満(1〜2回)の瞬目(図4のPc)であれば、前記ユーザの心身状態が前記計測タイミングにおける前記外部刺激の内容(映画の痛快なシーンなど)に集中した状態であると推定する(図5のST24)。あるいは、検出された前記特徴的な眼動が所定回数以上連続した(3回以上)瞬目(図4のPs)であれば、前記ユーザの心身状態が前記計測タイミングにおける前記外部刺激の内容(映画の怖いシーンなど)にストレスを受けた状態であると推定する(ST24)。
[7]前記[5]の方法は、例えば長距離バスドライバの疲労度調査に利用できる。この方法では、検出された前記特徴的な眼動が所定時間未満(例えば3秒以上5分未満)の目瞑りに対応するもの(目瞑りが検出されてのち最初の瞬目が検出されるまでの時間が所定時間未満)であれば、前記ユーザの心身状態が前記計測タイミングにおいて疲労した状態あるいは居眠り(うたた寝)状態であると推定する(図6のST42)。あるいは、検出された前記特徴的な眼動が所定時間以上(例えば5分以上)の目瞑りに対応するもの(目瞑りが検出されてのち最初の瞬目が検出されるまでの時間間隔が所定時間以上)であれば、前記ユーザの心身状態が前記計測タイミング以降において仮眠(例えば15〜30分の睡眠)あるいは睡眠(例えば90以上の睡眠)状態であると推定する(ST42)。
この方法を用いた疲労度調査において、短時間(例えば30分以下)の調査中に居眠り状態が認められたり、長時間(例えば2時間以上)の調査中に仮眠あるいは睡眠状態が認められたときは、被験者がこれから長距離バス運転の勤務につくのを止めさせることができる。
[8]前記[5]の方法は、例えば緑内障患者の視野調査に利用できる。この方法では、輝点の有無または輝点の移動を被験者に対する検査用外部刺激として用いる。この視野検査において、検出された前記特徴的な眼動が所定回数未満(1〜2回)の瞬目(図4のPc)であれば、前記ユーザの心身状態が前記計測タイミング(視野検査中に検査ボタンを押したとき)における前記外部刺激の内容に集中した状態であると推定する(図7のST56)。あるいは、検出された前記特徴的な眼動が眼球の上下動または回転(きょろつき)を示す眼電波形(例えば図4のPr/Pt)であれば、前記ユーザの心身状態が前記計測タイミングにおける前記外部刺激の内容にストレスを受けた状態であると推定する(ST56)。
[9]前記[5]の方法は、例えば睡眠調査に利用できる。この方法では、ラピッドアイモーションの有無を被験者の睡眠中の状態変化検出に用いる。この睡眠検査において、検出された前記特徴的な眼動が、特定時間以上(例えば90分以上)の睡眠に対応するもの(長めの目瞑りが検出されてから、目覚めにより最初の瞬目が検出されるまでの時間間隔が90分以上)であり、その睡眠期間中にラピッドアイモーションを示す眼電波形(例えば図4のPr/Pt)が検出されれば、前記ユーザの心身状態がレム睡眠状態であると推定する(図8のST74)。あるいは、検出された前記特徴的な眼動が、特定時間以上(例えば90分以上)の睡眠に対応するもの(長めの目瞑りが検出されてから、目覚めにより最初の瞬目が検出されるまでの時間間隔が90分以上)であり、その睡眠期間中にラピッドアイモーションを示す眼電波形(例えば図4のPr/Pt)が検出されなければ、前記ユーザの心身状態がノンレム睡眠状態であると推定する(ST74)。
例えばレム睡眠からノンレム睡眠に変化したときを被験者の眼動のEOG波形から検知したら、被験者を強制的に覚醒させる。すると、覚醒する直前のレム睡眠時に見ていた夢を思い出せる可能性が高いので、被験者に夢の内容を(音声、文字、絵などで)記録してもらう。そして、覚醒時のタイムスタンプから覚醒直前に再生していたビデオ映像の内容(睡眠に入る前は映像と音、睡眠に入ったあとは音)と、被験者に記録してもらった夢の内容を比較する。この比較から、レム睡眠中に再生していたビデオの内容が夢にどのように反映されたかのチェックができる。このチェック結果は、睡眠学習に利用できる。
この発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。なお、開示された複数の実施形態のうちのある実施形態の一部あるいは全部と、開示された複数の実施形態のうちの別の実施形態の一部あるいは全部を、組み合わせることも、発明の範囲や要旨に含まれる。