JP4969462B2 - 注意領域を推定するシステムおよび方法 - Google Patents

注意領域を推定するシステムおよび方法 Download PDF

Info

Publication number
JP4969462B2
JP4969462B2 JP2007555872A JP2007555872A JP4969462B2 JP 4969462 B2 JP4969462 B2 JP 4969462B2 JP 2007555872 A JP2007555872 A JP 2007555872A JP 2007555872 A JP2007555872 A JP 2007555872A JP 4969462 B2 JP4969462 B2 JP 4969462B2
Authority
JP
Japan
Prior art keywords
user
gaze
attention area
estimating
sight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007555872A
Other languages
English (en)
Other versions
JPWO2007086222A1 (ja
Inventor
孝方 越膳
広司 辻野
雄二 長谷川
一幸 合原
基織 今
大慈 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of JPWO2007086222A1 publication Critical patent/JPWO2007086222A1/ja
Application granted granted Critical
Publication of JP4969462B2 publication Critical patent/JP4969462B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4029Detecting, measuring or recording for evaluating the nervous system for evaluating the peripheral nervous systems
    • A61B5/4035Evaluating the autonomic nervous system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Neurology (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • Pathology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Neurosurgery (AREA)
  • Physiology (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、ユーザが視界内で関心を持っている注意領域を推定する技術に関するものであり、より詳細には、ユーザの視線分布および自律神経系の生体情報に基づいて注意領域を推定する技術に関するものである。
人間は好むものを注視する傾向があり、この現象は選好注視(preferential looking)として知られている。この選好注視の特性を利用して、搭乗者(ユーザ)の視線に基づいて注視点(eye gaze point)を特定し、注視点に基づいて搭乗者が関心をもっている物体を推定する技術が知られている(例えば特開2005-6897号公報を参照)。
また、ユーザが関心を持って物体を見ている状態において頻繁に現れる特有の注視パターン(eye gaze pattern)を統計モデルにより抽出して、注視点の代わりにこの注視パターンに基づいてユーザが関心を持っている注意領域(attended area)を推定する手法が提案されている。例えば、Santellaらは、EMアルゴリズムを用いて、ユーザが注視している部分を統計的に抽出する手法を提案している(A. Santella and D. DeCarlo, “Robust clustering of eye movement recordings for quantification of visual interest”, eye tracking research and applications (ETRA) symposium 2004, pp. 27 - 34を参照)。本願発明者であるKoshizenらは、変分ベイズ法(Variational Bayes:VB)を用いて、ユーザの視線分布に基づき混合ガウス関数(Gaussian Mixture)を導出することによって、視線分布を幾つかの注視パターンに分離できることを示した。そして、これらの注視パターンのうち最大事後確率(Maximum A Posteriori)を示すものを視線停留モデル(fixation model)として抽出し、この視線停留モデルを用いて注視対象を推定した(T. Suzuki, T. Koshizen, et al, “Learning to estimate user interest utilizing the variational Bayes estimator”, ISDA 2005, pp. 94 - 99を参照)。
しかしながら、上述の従来手法は、ユーザの視線に関する情報だけを利用して注視領域を推定しており、ユーザの心理状態によっては、推定された注視領域にユーザが関心をもつ物体等が存在しない場合がある。人間は常に関心をもつものを見ているわけではなく、たとえば、初めてみるようなものを提示された場合には視線がそのものの方向に向く現象が知られている。また、ユーザの集中力が欠けている状態では、一点をただ漠然と見つめる状況がありうる。このように、従来手法では、視線停留モデルに基いて推定された注意領域の信頼性は、ユーザの心理状態に依存してしまい定常的なものではないので、注意領域の境界を一意に決めるのは困難であり、不確定性を伴う。
本発明の目的は、ユーザの心理状態を考慮して注意領域をより適切に推定することが可能なシステムを提供することである。
本発明は、ユーザが視界内で関心を持っている注意領域を推定するシステムを提供する。このシステムは、ユーザの視線方向を検出する手段と、ユーザの自律神経系の生体情報を検出する手段と、視線方向からユーザの視線分布を求め、統計学習手法を用いてこの視線分布を解析して、視界内でユーザの視線が留まっている度合いを表す視線停留モデルを推定する手段と、生体情報に基づいてユーザの覚醒度(arousal level)を推定する手段と、視線停留モデルのパラメータおよび覚醒度に基づいて、注意領域を推定する手段と、を有する。
この発明により、視線および自律神経系の生体情報に基づいて注意領域を推定するので、ユーザの心理状態を考慮して注意領域をより適切に推定することができる。
本発明の一実施形態によると、注意領域を推定する手段は、視線停留モデルのパラメータおよび覚醒度がそれぞれに設定されたしきい値以上のとき、視線停留モデルによって画定される領域を注意領域として推定する。
本発明の一実施形態によると、視線停留モデルのパラメータおよび覚醒度のしきい値は、事前に複数の視覚刺激を提示したときのユーザの視線方向および生体情報を計測し、しきい値のそれぞれを調整しながら、計測された視線方向および生体情報に基づいて複数の視覚刺激における注意領域を推定し、推定の結果とユーザの自己評価との一致率が最高となったしきい値の組み合わせを選択する。これにより、実施条件に応じた最適なしきい値を得ることができるので、注意領域をより適切に推定することができる。
本発明の一実施形態によると、統計学習手法が変分ベイズ法であり、視線停留モデルのパラメータが、視線停留時間と、混合ガウス分布の混合率とを含む。
本発明の一実施形態によると、生体情報が皮膚電位レベルである。
本発明の一実施形態によると、覚醒度を推定する手段は、皮膚電位レベルが所定のしきい値を超えた頻度により覚醒度を決定する。
本発明は、上述の注意領域を推定するシステムを備える、ユーザの活動を補助するシステムを提供する。このシステムは、推定された注意領域および覚醒度に応じて、ユーザの活動を補助する補助装置の動作を制御する手段を有する。
本発明の一実施形態によると、補助装置は、ユーザを搭乗させて移動することによりユーザの移動を補助する装置、ユーザの身体に力を作用させることでユーザの運動を補助する装置、または、ユーザに情報を提供することによりユーザの身体的または精神的活動を補助する装置を含む。
本発明は、ユーザが視界内で関心を持っている注意領域を推定する方法を提供する。この方法は、ユーザの視線方向を検出するステップと、ユーザの自律神経系の生体情報を検出するステップと、視線方向からユーザの視線分布を求め、統計学習手法を用いて視線分布を解析して、視界内でユーザの視線が留まっている度合いを表す視線停留モデルを推定するステップと、生体情報からユーザの覚醒度を推定するステップと、視線停留モデルのパラメータおよび覚醒度に基づいて、注意領域を推定するステップと、を含む。
本発明の一実施形態による注意領域推定システムの構成図である。 注意領域推定システムの機能ブロック図である。 ユーザの視線分布およびこの視線分布に基づき導出された混合ガウス関数を示す図である。 SPLおよびこのSPLに基づく覚醒検知結果の一例を示す図である。 注意領域を判定するための三次元空間を示す図である。 注意領域推定処理のフローチャートである。 注意領域を判定するしきい値d1、d2、fを決めるための予備実験の構成図である。 予備実験のフローチャートである。 注意領域を判定するしきい値d1、d2、fを決める処理のフローチャートである。 一致率を算出する処理の詳細を示すサブルーチンである。
符号の説明
10 注意領域推定システム
11 CCDカメラ
13 皮膚電位センサ
15 補助装置
17 視線検出部
19 視線分布解析部
21 SPL検出部
23 覚醒度推定部
25 注意領域推定部
27 制御部
次に図面を参照して、この発明の実施の形態を説明する。
図1は、本発明の一実施形態による注意領域推定システムの構成図である。
注意領域推定システム10は、補助装置15のユーザから計測した視線情報および皮膚電位レベル(Skin Potential Level:SPL)に基づいて、ユーザが視界内で関心をもっている注視領域を推定し、さらに、注意領域に応じた動作指令を補助装置15に送る。
注意領域推定システム10は、中央処理装置(CPU)およびメモリを備える汎用のコンピュータによって実現可能である。注意領域推定システム10の機能は、メモリに記憶されたプログラムをCPUが実行することにより実現される。注意領域推定システム10は、補助装置15に搭載されている形式でも良いし、遠隔から補助装置15と有線または無線で通信する形式でもよい。
CCDカメラ11は、ユーザの顔に向けて設置されており、ユーザの視線方向を検出するために利用する撮像データを注意領域推定システム10に提供する。CCDカメラ11は、高さおよび方向を調整するための機構を備えており、ユーザの座高などの身体的特徴に応じてユーザの顔を撮像するよう調整することができる。
皮膚電位センサ13は、ユーザの任意の皮膚表面(図1では前腕部)に貼付されており、ユーザの皮膚電位レベル(SPL)を検出するための電気信号を注意領域推定システム10に提供する。SPLは、ユーザの心理状態に応じて変動する特徴がある。
補助装置15は、ユーザの精神的または肉体的活動を補助するための装置であり、本実施形態では、電動車いすを例示している。電動車いすの場合、例えば、注意領域推定システム10が推定した注意領域を目標位置として設定し、この目標位置まで移動するように制御指令が電動車いすの移動機構に与えられる。
図2は、注意領域推定システム10の機能ブロック図である。
注意領域推定システム10は、視線検出部17、視線分布解析部19、SPL検出部21,覚醒度推定部23、注意領域推定部25、および制御部27を有する。注意領域推定システム10の機能ブロックは、コンピュータのメモリに記憶されたプログラムを、CPUを用いて実行することによって実現することができる。
視線検出部17は、CCDカメラ11の撮像データに基づいてユーザの視線方向を検出する。
視線分布解析部19は、視線検出部17で求められた視線方向に基づいてユーザの視線分布を求め、統計学習手法を用いてこの視線分布を解析して、視界内で前記ユーザの視線が留まっている度合いを表す視線停留モデルを推定する。
視線分布解析部19は、まず、視線検出部17で求められた視線方向の位置座標を所定の時間間隔で計測して、ユーザの視線の遷移を表す視線分布を求める。図3(a)は、任意の視覚刺激(visual stimuli)に対するユーザの視線分布の一例を示している。図3(a)のX軸およびY軸は、提示された視覚刺激の縦方向および横方向の位置座標に対応している。図3(a)を参照すると、円で囲まれた特定の部分に視線が多くプロットされていることがわかる。このことは、ユーザがこれらの円で囲まれた部分を頻繁に見ていることを示している。
視線分布解析部19は、次に、変分ベイズ法(Variational Bayes:VB)を利用して、視線分布に基づく確率密度関数を導出する。確率密度関数p(x;θ)は、次式のように混合ガウス関数(Gaussian Mixture)として近似することができる。
Figure 0004969462
ここで、xは二次元ベクトルであり、視線分布の各点の位置座標(x、y)を表す。N(x|μ, Σ)は、中心位置μ、分散Σのガウス関数を表す。φは混合比率(Mixing Proportion)である。θは、ガウス関数を構成するパラメータでθ=(μ、σ)である。
(1)式の混合ガウス関数は、それぞれがφm・N(x|μm, Σm)という確率密度分布をもつM個のコンポーネントから構成される。図3(b)は、図3(a)に示す視線分布に基づいて導出された混合ガウス関数を3次元表現した図である。図3(b)のx軸およびy軸は、図3(a)のx軸およびy軸に対応しており、視線分布の位置座標を表す。グラフの垂直方向は、(1)式で算出された確率密度pを表している。混合ガウス関数を構成する各コンポーネントmは、混合比率φmによって垂直方向の高さ(確率密度の大きさ)が決められ、分散Σmによって水平方向の広がりが決められる。
なお、変分ベイズ法による混合ガウス関数の導出方法は周知技術であり、具体的な方法については、例えば、S. Waterhouse, D. Mackay, and T. Robinson, “Bayesian Methods for Mixture of Experts”, Proc. NIPS8, pp. 351-357, 1995などを参照されたい。
視線分布解析部19は、次に、導出した混合ガウス関数に基づいて、ユーザの視線が留まっている度合いを表す視線停留モデルを抽出する。視線停留モデルによって画定される領域は、視線が停留する度合いが高いので、注意領域である可能性が高い。視線分布解析部19は、(1)式の混合ガウス関数のうち、混合比率φが最も大きいコンポーネントを1つ選択し、このコンポーネントを視線停留モデルとする。例えば、図3(b)を参照すると、混合比率φが最も大きく、確率密度が最大のコンポーネント31が視線停留モデルとして選択される。
そして、図3(b)に円33で示すように、たとえば、所定値以上の確率密度をもつ領域がユーザの注視領域の候補として選択される。そして、この注視領域の候補の中に視線が連続して存在する最長時間が、停留時間(Gaze Duration Time)として算出される。視線停留モデルの混合比率および停留時間は、注意領域推定部25に送られる。
SPL検出部21は、皮膚電位センサ13で計測された電気信号を増幅およびフィルタ処理して、ユーザの皮膚電位レベル(SPL)を求める。図4(a)は、SPLの一例を示している。SPLは所定の時間間隔で計測され、所定量のデータが蓄積されると覚醒度推定部23へ送られる。なお、この所定量とは、たとえば、視線分布解析部19において視線分布を作成するために必要な視線情報のデータ量と同一である。
覚醒度推定部23は、SPLに基づいてユーザの覚醒度を推定する。覚醒度推定部23は、まず、SPL検出部21から受け取ったSPLのデータセットの平均値μsplおよび標準偏差σsplを求める。そして、次式のように、覚醒検知しきい値τを求める。
τ=μspl+ε・σspl (2)
ここで、εは、覚醒検知の感度を決める係数であり、εの値が小さいほど覚醒が頻繁に検知されるようになる。εの値は、後述する予備実験により最適な値が予め設定されている。
覚醒度推定部23は、次に、(2)式で算出された覚醒検出しきい値τに基づいて覚醒検知を行なう。SPLのデータセットのそれぞれがしきい値τと比較される。しきい値τより大きいSPLデータは、有意に反応したデータとみなされ、高い覚醒状態として1をラベル付けされる。しきい値τ以下のSPLデータは0をラベル付けされる。図4(b)は、覚醒検知の結果を示す図である。1がプロットされる頻度が多いほど覚醒状態である可能性が高く、0がプロットされる頻度が多いほど覚醒状態である可能性が低い。
覚醒度推定部23は、続いて、SPLのデータセットのうち覚醒検知され1をラベル付けされた頻度を算出し、この頻度を0から1の間の値に正規化したものを覚醒度として定義する。求められた覚醒度は、注意領域推定部25に送られる。
なお、SPLから覚醒度を求める手法は周知技術であり、詳細については、J. Healey and R. Picard, “Digital processing of affective signals”, Proceedings of the Twenty-Sixth Annual Conference of the Cognitive Science Society, 1565, 1998などを参照されたい。
注意領域推定部25は、視線分布解析部19から受け取った混合比率および停留時間と、覚醒度推定部23から受け取った覚醒度とに基づいて、視線停留モデルが注意領域であるかどうかを判定する。この判定には、混合比率、停留時間、覚醒度についてそれぞれ軸をとる三次元座標を用いる。図5は、注意領域を判定するための三次元空間を示している。グラフのx軸は混合比率に関するものであり、y軸は停留時間に関するものであり、z軸は覚醒度に関するものである。混合比率にはd1、停留時間にはd2、覚醒度にはfという判定しきい値が設定されている。これらの判定しきい値は、後述する予備実験により最適な値が予め設定されている。
図5に示すような三次元空間において、混合比率がd1以上であり、停留時間がd2以上であり、覚醒度がf以上である空間35に視線停留モデルのパラメータが含まれるとき、この視線停留モデルが注意領域であると判定される。注意領域推定部25は、視線停留モデルを注意領域と判定すると、この注意領域の位置情報を制御部27に送る。
制御部27は、注意領域推定部25から注意領域の情報を受け取ると、これに応じた制御指令を生成し、補助装置15の動作を制御する。補助装置15が電動車椅子の場合、たとえば、注意領域を目標位置として移動する制御指令が生成される。また、覚醒度が高いときには移動を速くして、覚醒度が低いときには移動を遅くするように、覚醒度の大きさに応じて移動速度を設定してもよい。
図6は、注意領域推定処理のフローチャートである。
まず、ユーザの視線に基づく処理(S101〜S107)と、ユーザのSPLに基づく処理(S109〜S117)が並行して実施される。
ステップS101〜S107について説明する。視線分布検出部17が、カメラ11によるユーザの視線情報に基づいて視線分布を検出する(ステップS101)。視線分布解析部19が、視線分布に基づいて(1)式のような混合ガウス関数を算出し(S103)、混合比率φmが最大のコンポーネントを視線停留モデルとして選択し(S105)、視線停留モデルの停留時間を算出する(S107)。
ステップS109〜S117について説明する。SPL検出部21が、皮膚電位センサ13によって計測されたユーザの皮膚表面電位に基づいてSPLを検出し(S109)、SPLの平均値μおよび標準偏差σを算出する(S111)。覚醒検知の感度を決めるパラメータεをメモリから読出し(S113)、(2)式から求めたしきい値τに基づき、SPLを0または1でラベル付けする(S115)。すなわち、SPLがしきい値τより大きい場合に1をラベル付けし、しきい値τ以下の場合に0をラベル付けする。ここで、εは、後述する予備実験によって予め最適値が導出されている。そして、SPLのうち1がラベル付けされた割合を求め、これを覚醒度として設定する(S117)。
続いて、注意領域推定部25が、後述する予備実験で予め導出されている判定しきい値d1、d2、fを読出し(S119)、混合比率、停留時間、覚醒度のすべてが、それぞれの判定しきい値d1、d2、fより大きいとき(ステップS121〜S125が全てYES)、選択された視線停留モデルを注意領域と判定する(S127)。
次に、図7〜図10を参照して、注意領域を判定するしきい値d1、d2、fを決めるための予備実験について説明する。
図7は、予備実験の構成図である。被験者は、皮膚電位センサ13を装着された状態で固定された椅子(図示せず)に座っている。CCDカメラ11が被験者の視線を検出できるように設置されている。被験者の正面には視覚刺激(visual stimuli)を提示するためのディスプレイ41が配置されている。
ディスプレイ41には、複数の視覚刺激43およびコントロール刺激45が交互に表示される。視覚刺激およびコントロール刺激は、例えば、それぞれ25秒および30秒間提示される。視覚刺激43が表示されているときに、被験者の視線情報がCCDカメラ11で計測され、被験者のSPLが皮膚電位センサ13により計測される。
視覚刺激43の内容は、補助装置15の動作に関連するものであればよい。補助装置15が電動車椅子の場合、車いすの使用時にユーザが見るような風景の映像を所定時間ごとに分割して、それぞれを予備実験用の視覚刺激とする。
コントロール刺激45は、直前に提示された視覚刺激の影響を受けないように被験者の視線やSPLを標準的なレベルに戻すためのものであり、例えば、図7に示すように+マークなどを用いる。
このように計測された視線情報およびSPLを規準として利用して、最適な判定しきい値のセットが導出される。
図8は、予備実験のフローチャートである。
まず、画面にコントロール刺激45が提示された後(ステップS201)、視覚刺激43が提示される(ステップS203)。視覚刺激43を所定時間提示している間に、カメラ11により被験者の視線情報が検出され(ステップS205)、これと並行して、表面電位センサ13によって被験者のSPLが検出される(ステップS207)。所定時間経過後、被験者は、提示された視覚刺激43をどれくらいの注意度で見ていたかを5段階で自己評価する(ステップS208)。検出された視線情報およびSPLは、システムに含まれるメモリなどの記憶手段に記憶される。
用意された視覚刺激43がまだ有る場合には(ステップS209のYES)、ステップS201に戻り、新たな視覚刺激43に対して同様の計測を行なう。視覚刺激43をすべて提示した場合には(ステップS209のNO)、処理を終了する。
図9は、注意領域を判定するしきい値d1、d2、fを決めるための処理を表すフローチャートである。
まず、判定しきい値d1,d2,fと、覚醒検出の感度を決めるパラメータεを初期化する(ステップS301)。
次に、予備実験で測定した視線情報およびSPLがメモリから読出され(ステップS303)、図6のステップS101〜S107と同様の処理により、視覚刺激ごとに混合比率および停留時間が算出される(ステップS305)。
続いて、d1、d2が設定される(ステップS307)。d1、d2は、1回目の処理では初期値であり、以降のループでは所定のきざみ幅で変更される。
続いて、εを0.5〜3まで0.5ずつ変化させながら(ステップS309)、現在設定されているしきい値d1、d2、εにおいて、注意領域の推定結果と、ユーザの自己評価との適合度合いを示す一致率が算出される(ステップS311)。一致率を算出する処理については、図10を参照して後述する。
ステップS309〜S311の一致率を算出する処理は、しきい値d1、d2が所定範囲内の全ての組み合わせについて設定されたと判定されるまで(ステップS315のNO)、繰り返し実施される。
このように、所定の範囲内で判定パラメータd1、d2、εの全ての組み合わせにおける一致率が求められ、この中で最高の一致率となるd1、d2、f、εの組み合わせが、注意領域推定部25で用いる判定しきい値として設定される(ステップS317)。
図10は、ステップS311の一致率算出処理の詳細を示すサブルーチンである。
まず、一致率を計算するために使われる変数C1が初期化される(ステップS401)。
ステップS309で設定された現在のεの値に応じて、図6のステップS109〜S117と同様の処理により、視覚刺激ごとに覚醒度が算出される(ステップS403)。算出された各視覚刺激の覚醒度の平均値が求められ、この平均値が判定しきい値fとして記憶される(ステップS405)。
続いて、ステップS407〜S425において、視覚刺激ごとに、算出された覚醒度が、被験者の自己評価と比較される。
視覚刺激が選択されると(ステップS407)、覚醒度、混合比率、停留時間がそれぞれの判定しきい値f、d1、d2より大きい場合(S409〜S413が全てYES)、被験者の自己評価が4以上ならば(ステップS417のYES)、C1がインクリメントされる(ステップS423)。また、覚醒度、混合比率、停留時間がそれぞれの判定しきい値f、d1、d2以下である場合(S409〜S413が全てNO)、被験者の自己評価が3以下ならば(ステップS421のYES)、C1がインクリメントされる(ステップS423)。
ステップS407〜S423の処理は、ステップS425で全ての視覚刺激について処理が行なわれたと判定されるまで繰り返し行なわれる。
最終的に得られるC1の値は、予備実験で提示された視覚刺激のそれぞれにおいて、注意領域が抽出され、かつ被験者の集中度合いが高い状態、または注意領域が抽出されず、かつ被験者の集中度が低い状態の回数である。
そして、一致率=C1/視覚刺激数×100が算出され(ステップS427)、メインルーチンに戻る。
本発明による注意領域推定システムは、皮膚電位レベル(SPL)のような自律神経系の生体情報に基づいてユーザの覚醒度を推定し、この覚醒度を考慮して注意領域を推定するので、覚醒度が低いときには注意領域を選択しないように構成されている。したがって、本発明による注意領域推定システムは、人間の心理状態を考慮して注意領域をより適切に推定することができる。
なお、上述の実施形態では、電動車椅子15によってユーザの移動が補助されたが、他の実施形態として自動車などの他の移動体によってユーザの移動が補助されても良い。
また、たとえば特開2004―329510号公報に記載されているような歩行補助装置によって、ユーザの注意領域に応じてユーザの身体に力を作用させることで、その歩行運動が補助されてもよい。
さらに、ユーザの注意領域に応じて、画像表示装置や音響装置などを通じて当該ユーザに対して情報が提供されてもよい。これにより、たとえば美術館においてユーザの視野に含まれる複数の美術作品のうち、ユーザの注意が向けられた作品の案内情報が表示等されるので、ユーザの美術鑑賞に関する理解や試作などの精神的活動が補助される。
以上にこの発明を特定の実施例によって説明したが、この発明はこのような実施例に限定されるものではない。

Claims (14)

  1. ユーザが視界内で関心を持っている注意領域を推定するシステムであって、
    前記ユーザの視線方向を検出する手段と、
    前記ユーザの自律神経系の生体情報を検出する手段と、
    前記視線方向から前記ユーザの視線分布を求め、統計学習手法を用いて該視線分布を解析して、前記視界内で前記ユーザの視線が留まっている度合いを表す視線停留モデルを推定する手段と、
    前記生体情報に基づいて前記ユーザの覚醒度を推定する手段と、
    前記視線停留モデルのパラメータおよび前記覚醒度に基づいて、前記注意領域を推定する手段と、
    を有するシステム。
  2. 前記注意領域を推定する手段は、前記視線停留モデルのパラメータおよび前記覚醒度がそれぞれに設定されたしきい値以上のとき、前記視線停留モデルによって画定される領域を前記注意領域として推定する、請求項1に記載のシステム。
  3. 前記視線停留モデルのパラメータおよび前記覚醒度のしきい値は、事前に複数の視覚刺激を提示したときのユーザの視線方向および生体情報を計測し、前記しきい値のそれぞれを調整しながら、該計測された視線方向および生体情報に基づいて該複数の視覚刺激における注意領域を推定し、該推定の結果とユーザの自己評価との一致率が最高となった前記しきい値の組み合わせを選択する、請求項2に記載のシステム。
  4. 前記統計学習手法が変分ベイズ法であり、
    前記視線停留モデルのパラメータが、視線停留時間および混合比率を含む、請求項1に記載のシステム。
  5. 前記生体情報が皮膚電位レベルである、請求項1に記載のシステム。
  6. 前記覚醒度を推定する手段は、前記皮膚電位レベルが所定のしきい値を超えた頻度により覚醒度を決定し、
    該しきい値は次式により算出され、
    τ=μspl+ε・σspl
    ここで、τはしきい値を表し、μsplは前記皮膚電位レベルの平均値であり、σsplは前記皮膚電位レベルの標準偏差であり、εは覚醒検知の感度を決める正の値である、
    請求項5に記載のシステム。
  7. 請求項1乃至6に記載の注意領域を推定するシステムを備える、ユーザの活動を補助するシステムであって、
    前記推定された注意領域および覚醒度に応じて、前記ユーザの活動を補助する補助装置の動作を制御する手段を有するシステム。
  8. 前記補助装置は、ユーザを搭乗させて移動することにより該ユーザの移動を補助する装置、ユーザの身体に力を作用させることで該ユーザの運動を補助する装置、または、ユーザに情報を提供することにより該ユーザの身体的または精神的活動を補助する装置を含む、請求項7に記載のシステム。
  9. ユーザが視界内で関心を持っている注意領域を推定する方法であって、
    前記ユーザの視線方向を検出するステップと、
    前記ユーザの自律神経系の生体情報を検出するステップと、
    前記視線方向から前記ユーザの視線分布を求め、統計学習手法を用いて該視線分布を解析して、前記視界内で前記ユーザの視線が留まっている度合いを表す視線停留モデルを推定するステップと、
    前記生体情報から前記ユーザの覚醒度を推定するステップと、
    前記視線停留モデルのパラメータおよび前記覚醒度に基づいて、前記注意領域を推定するステップと、
    を含む方法。
  10. 前記注意領域を推定するステップは、前記視線停留モデルのパラメータおよび前記覚醒度がそれぞれに設定されたしきい値以上のとき、前記視線停留モデルによって画定される領域を前記注意領域として推定することを含む、請求項9に記載の方法。
  11. 事前に複数の視覚刺激を提示したときのユーザの視線方向および生体情報を計測し、前記しきい値のそれぞれを調整しながら、該計測された視線方向および生体情報に基づいて該複数の視覚刺激における注意領域を推定し、該推定の結果とユーザの自己評価との一致率が最高となった前記しきい値の組み合わせを、前記視線停留モデルのパラメータおよび前記覚醒度のしきい値として選択するステップをさらに含む、請求項10に記載の方法。
  12. 前記統計学習手法が変分ベイズ法であり、
    前記視線停留モデルのパラメータが、視線停留時間および混合比率を含む、請求項9に記載の方法。
  13. 前記生体情報が皮膚電位レベルである、請求項9に記載の方法。
  14. 前記覚醒度を推定するステップは、前記皮膚電位レベルが所定のしきい値を超えた頻度により覚醒度を決定することを含み、
    該しきい値は次式により算出され、
    τ=μspl+ε・σspl
    ここで、τはしきい値を表し、μsplは前記皮膚電位レベルの平均値であり、σsplは前記皮膚電位レベルの標準偏差であり、εは覚醒検知の感度を決める正の値である、
    請求項13に記載の方法。
JP2007555872A 2006-01-24 2006-12-25 注意領域を推定するシステムおよび方法 Expired - Fee Related JP4969462B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US76202306P 2006-01-24 2006-01-24
US60/762,023 2006-01-24
PCT/JP2006/325780 WO2007086222A1 (ja) 2006-01-24 2006-12-25 注意領域を推定するシステムおよび方法

Publications (2)

Publication Number Publication Date
JPWO2007086222A1 JPWO2007086222A1 (ja) 2009-06-18
JP4969462B2 true JP4969462B2 (ja) 2012-07-04

Family

ID=38309023

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007555872A Expired - Fee Related JP4969462B2 (ja) 2006-01-24 2006-12-25 注意領域を推定するシステムおよび方法

Country Status (2)

Country Link
JP (1) JP4969462B2 (ja)
WO (1) WO2007086222A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170057084A (ko) * 2015-11-16 2017-05-24 삼성전자주식회사 자율 주행을 위한 모델 학습 장치 및 방법과 자율 주행 장치

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5145569B2 (ja) * 2007-12-19 2013-02-20 株式会社国際電気通信基礎技術研究所 対象物特定方法および装置
JP5089470B2 (ja) * 2008-04-09 2012-12-05 本田技研工業株式会社 関心度推定装置および方法
JP5578603B2 (ja) * 2009-12-04 2014-08-27 国立大学法人佐賀大学 視線制御装置、視線制御方法、及びそのプログラム
JP6674321B2 (ja) * 2015-08-25 2020-04-01 パナソニック株式会社 生活支援システム、方法、及び自動昇降型椅子
JP6678334B2 (ja) * 2016-03-09 2020-04-08 パナソニックIpマネジメント株式会社 生活支援システム、歩行アシストロボット及び生活支援方法
CN111629653A (zh) 2017-08-23 2020-09-04 神经股份有限公司 具有高速眼睛跟踪特征的大脑-计算机接口
CN110151413A (zh) * 2019-05-28 2019-08-23 上海电力学院 一种太阳能机械臂式智能轮椅
WO2023135692A1 (ja) * 2022-01-13 2023-07-20 日本電信電話株式会社 注意対象推定装置、方法およびプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04241835A (ja) * 1991-01-14 1992-08-28 Nippondenso Co Ltd 皮膚電位検出装置
JPH04282129A (ja) * 1991-03-08 1992-10-07 Fujitsu Ltd 注視点解析装置
JP2005006897A (ja) * 2003-06-19 2005-01-13 Nara Institute Of Science & Technology 関心度推定装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04241835A (ja) * 1991-01-14 1992-08-28 Nippondenso Co Ltd 皮膚電位検出装置
JPH04282129A (ja) * 1991-03-08 1992-10-07 Fujitsu Ltd 注視点解析装置
JP2005006897A (ja) * 2003-06-19 2005-01-13 Nara Institute Of Science & Technology 関心度推定装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170057084A (ko) * 2015-11-16 2017-05-24 삼성전자주식회사 자율 주행을 위한 모델 학습 장치 및 방법과 자율 주행 장치
KR102137213B1 (ko) * 2015-11-16 2020-08-13 삼성전자 주식회사 자율 주행을 위한 모델 학습 장치 및 방법과 자율 주행 장치
US10791979B2 (en) 2015-11-16 2020-10-06 Samsung Electronics Co., Ltd. Apparatus and method to train autonomous driving model, and autonomous driving apparatus

Also Published As

Publication number Publication date
WO2007086222A1 (ja) 2007-08-02
JPWO2007086222A1 (ja) 2009-06-18

Similar Documents

Publication Publication Date Title
JP4969462B2 (ja) 注意領域を推定するシステムおよび方法
US10080513B2 (en) Activity analysis, fall detection and risk assessment systems and methods
Mastorakis et al. Fall detection system using Kinect’s infrared sensor
Foroughi et al. Intelligent video surveillance for monitoring fall detection of elderly in home environments
JP5863423B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6521845B2 (ja) 心拍に連動する周期的変動の計測装置及び計測方法
CN107427233B (zh) 脉波检测装置、以及脉波检测程序
WO2012105196A1 (ja) 関心度推定装置および関心度推定方法
KR20160078208A (ko) 생체 인증 장치 및 방법
JP2007229218A (ja) 覚醒度推定装置及びシステム並びに方法
Albawendi et al. Video based fall detection using features of motion, shape and histogram
JP6109288B2 (ja) 情報処理装置、情報処理方法及びプログラム
Taghvaei et al. Image-based fall detection and classification of a user with a walking support system
Kavya et al. Fall detection system for elderly people using vision-based analysis
Nguyen et al. Extracting silhouette-based characteristics for human gait analysis using one camera
KR20200087540A (ko) 비전 기반 심박수 측정 방법
Gold et al. The efficiency of biological motion perception
Merrouche et al. Fall detection using head tracking and centroid movement based on a depth camera
Dai Vision-based 3d human motion analysis for fall detection and bed-exiting
EP3882744B1 (en) State estimation device
KR101703690B1 (ko) 홍채 인식 장치 및 그 동작 방법
JP2010205015A (ja) グループ行動推定装置およびサービス提供システム
An et al. Support vector machine algorithm for human fall recognition kinect-based skeletal data
Silapasuphakornwong et al. A conceptual framework for an elder-supported smart home
Mirmahboub et al. View-invariant fall detection system based on silhouette area and orientation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120403

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120403

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150413

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4969462

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees