JP2011198141A - 注視エリア検出装置及び頭部装着型情報表示装置 - Google Patents
注視エリア検出装置及び頭部装着型情報表示装置 Download PDFInfo
- Publication number
- JP2011198141A JP2011198141A JP2010065165A JP2010065165A JP2011198141A JP 2011198141 A JP2011198141 A JP 2011198141A JP 2010065165 A JP2010065165 A JP 2010065165A JP 2010065165 A JP2010065165 A JP 2010065165A JP 2011198141 A JP2011198141 A JP 2011198141A
- Authority
- JP
- Japan
- Prior art keywords
- gaze area
- image
- eyeball
- gaze
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
【課題】処理負荷が軽く、検出までの処理速度が一定かつ高速な注視エリア検出装置、及び頭部装着型情報表示装置を提供する。
【解決手段】注視エリア検出装置は、眼球を撮像して第1の眼球像を生成する撮像素子(12)と、第1の眼球像に対して画像処理を行って第2の眼球像を生成する画像処理部(13)と、第2の眼球像から注視エリアを検出する注視エリア検出手段(14,15)とを備え、注視エリア検出部は、検出時間を一定とするように、第2の眼球像に対して確率統計を用いた確率統計処理を行って注視エリアを検出する。頭部装着型情報表示装置はこの注視エリア検出装置を備える。
【選択図】図1
【解決手段】注視エリア検出装置は、眼球を撮像して第1の眼球像を生成する撮像素子(12)と、第1の眼球像に対して画像処理を行って第2の眼球像を生成する画像処理部(13)と、第2の眼球像から注視エリアを検出する注視エリア検出手段(14,15)とを備え、注視エリア検出部は、検出時間を一定とするように、第2の眼球像に対して確率統計を用いた確率統計処理を行って注視エリアを検出する。頭部装着型情報表示装置はこの注視エリア検出装置を備える。
【選択図】図1
Description
本発明は、使用者の眼球を撮影した眼球像から、使用者の注視しているエリアを検出する注視エリア検出装置、及び注視エリア検出装置を備えた頭部装着型情報表示装置に関する。
従来の視線方向を検出する装置としては、顔画像から視線方向を検出する視線方向検出装置(例えば、特許文献1参照)や、眼球像から視線方向を検出する視線検出装置(例えば、特許文献2参照)など、種々提案されている。
特許文献1及び2に記載の装置は、瞳孔を円又は楕円として検出し、その中心座標を基にして視線の向いている方向や位置を特定するものであり、使用者がカメラのファインダーで見ている位置を特定したり、マウスカーソルを操作したりすることを目的とするものであった。そのため、高精度の検出方法が要求される。瞳孔を構成する円又は楕円を検出する手段として、ハフ変換や最小二乗法といった幾何学的方法が多く使用されている。
一方で、モバイル機器に接続する頭部装着型情報表示装置の操作に視線方向検出を使用した場合を考えると、一般に、頭部装着型装置が眼前に表示する画面のサイズは小さいため、マウスカーソルの操作よりも、むしろメニュー項目の選択といった比較的単純な操作が要求される。この要求に対して、従来の視線方向検出を使用することは可能であるが、視線方向検出で使用される幾何学的方法は処理の負荷が高いため、モバイル機器のような比較的低速な機器での使用には向いていないという問題があった。
また、頭部装着型情報表示装置において、使用者の視線方向によりメニュー項目の選択操作をする場合、視線方向を検出するためには、操作時のレスポンスを一定に保つために、視線方向検出の処理にかかる時間が一定であることが望ましい。しかし、ハフ変換や最小二乗法のような幾何学的方法を用いた場合、計算時間が眼球像において瞳孔の輪郭を構成するピクセル数に依存するため、検出までの処理時間が一定ではないという問題があった。
本発明の目的は、上記問題を解決するため、処理負荷が軽く、検出までの処理速度が一定かつ高速な注視エリア検出装置、及び注視エリア検出装置を備えた頭部装着型情報表示装置を提供することにある。
上記課題を解決するため、本発明に係る注視エリア検出装置は、使用者の眼球を撮像して使用者が注視している注視エリアを検出する注視エリア検出装置であって、眼球を撮像して第1の眼球像を生成する撮像素子と、前記第1の眼球像に対して画像処理を行って第2の眼球像を生成する画像処理手段と、前記第2の眼球像から注視エリアを検出する注視エリア検出手段とを備え、前記注視エリア検出手段は、検出時間を一定とするように、前記第2の眼球像に対して確率統計処理を行って注視エリアを検出することを特徴とする。
本注視エリア検出装置によれば、注視エリアの検出に確率統計処理を使用しているため、幾何学的方法と比較して、計算負荷が軽量となり、処理時間が一定となるため、モバイル機器での使用に適する。メニュー項目の選択といった操作に応用することができる。
また、本発明に係る注視エリア検出装置において、前記注視エリア検出手段は、前記第2の眼球像の撮像領域を複数のエリアに分割し、該複数のエリアの中のどのエリアを注視しているかを検出することを特徴とする。
本注視エリア検出装置によれば、眼球像の撮像領域(眼球が注視可能な領域)を分割したエリアを注視エリアとして検出するため、メニュー項目の選択といったユーザ操作に応用することができる。
また、本発明に係る注視エリア検出装置において、前記注視エリア検出手段は、正規分布を有する確率分布テーブルを有し、該確率分布テーブルを用いて前記確率統計処理を行うことを特徴とする。
本注視エリア検出装置によれば、予め用意した確率分布テーブルを用いるため、簡易な構成で注視エリアを検出することができる。
また、本発明に係る注視エリア検出装置において、前記注視エリア検出手段は、前記各エリアを注視した眼球像の教師画像に基づいて作成された、前記エリア数分の確率分布テーブルを用いて前記確率統計処理を行うことを特徴とする。
本注視エリア検出装置によれば、教師画像を使用者ごとに作成することで、使用者ごとに注視エリア検出処理を最適化することができる。
また、本発明に係る注視エリア検出装置において、前記注視エリア検出部は、単純ベイズ分類法により前記確率統計処理を行うことを特徴とする。
本注視エリア検出装置によれば、処理時間が一定なので、メニュー項目の選択といった操作に応用することができ、また、使用者ごとに注視エリア検出処理を最適化することができる。
また、頭部装着型情報表示装置は、上述の注視エリア検出装置を備えることを特徴とする。
本頭部装着型情報表示装置によれば、頭部装着型情報表示装置で表示したメニュー項目と、分割したエリアを重畳させることによって、使用者の注視による選択操作を提供することができる。
本発明によれば、モバイル機器に接続する頭部装着型装置の操作に要求される、メニュー項目の選択、一定の処理速度、及び軽量な処理負荷の全てを具備した注視エリア検出装置及び注視エリア検出装置を備えた頭部装着型情報表示装置を実現することができるようになる。
以下、本発明による第1の実施形態について、図面を参照して詳細に説明する。
(第1の実施形態)
図1は、第1の実施形態の注視エリア検出装置1の概略構成を示す機能ブロック図である。注視エリア検出装置1は、照明部11と、撮像素子12と、画像処理部13と、注視エリア検出部14と、確率分布テーブル記憶部15とを備える。
(第1の実施形態)
図1は、第1の実施形態の注視エリア検出装置1の概略構成を示す機能ブロック図である。注視エリア検出装置1は、照明部11と、撮像素子12と、画像処理部13と、注視エリア検出部14と、確率分布テーブル記憶部15とを備える。
照明部11は、少なくとも片眼の眼球を照明する。照明光としては、不可視光、例えば赤外光を用いる。
撮像素子12は、照明部11によって照明された眼球を撮像して眼球像(第1の眼球像)を生成し、画像処理部13に出力する。なお、照明部11は必須の構成要件ではなく、眼球をそのまま撮像することも可能であるが、ノイズに対する耐性を向上させるためには、照明部11により照明された眼球を撮像するのが好適である。
画像処理部13は、撮像素子12から取得した眼球像に対して画像処理理した眼球像(第2の眼球像)を生成し、注視エリア検出部14に出力する。図2は、画像処理部13の処理を説明する図であり、一例として、撮像素子から取得したグレースケールの眼球像を2値化する例を図示する。2値化とは、例えば8ビット(256階調)のグレースケール画像の場合、ある値(例えば、中間値である128)を境にして、それぞれのピクセルを0か1へ2値化し、結果として入力画像を白と黒の2色へ変換する方法である。画像処理部13は、瞳孔部分を強調した画像を得るという目的において同様の効果が得られるならば、他の方法を用いることもできる。例えば、エッジ強調フィルタ処理をした後に2値化処理を行ってもよい。
注視エリア検出部14は、画像処理部13から取得した眼球像を用いて、注視しているエリア(注視エリア)を検出し、注視エリアを示す注視エリア信号を外部に出力する。注視エリア検出部14は、眼球像の撮像領域を複数のエリアに分割し、該複数のエリアの中のどのエリアを注視しているかを検出する。
図3は、注視エリアを示す図である。図3(a)は、画像処理部13から取得した眼球像の撮像領域を、左上、右上、左下、右下の4つの領域(それぞれ「エリア0」、「エリア1」、「エリア2」、「エリア3」と称する。)に分割した場合を示す。画面の上、下、左、右のどの領域を注視しているかを検出できればよいため、分割された領域によって撮像領域の全域を覆われる必要はなく、撮像領域を図3(b)に示すように分割してもよい。また、検出したい注視エリアの目的に応じて、各エリアの面積が同じである必要はない。なお、同時に複数のエリアの全領域が瞳孔で覆われて判別が困難になることを防ぐために、各エリアの面積は眼球像で取得される瞳孔の面積よりも大きくすることが好適である。
確率分布テーブル記憶部15は、確率分布テーブルを分割したエリアの数だけ持っている。ここで、確率分布テーブルとは、撮像画像の各ピクセルに対応する確率値を有し、確率値を各エリアの中心から正規分布に従った確率分布の値としたテーブルのことをいう。表1は、眼球の撮像領域を100×100ピクセルとした場合の、エリア0の確率分布テーブルの例を示す表である。本実施形態の場合、確率分布テーブル記憶部15は、このような確率分布テーブルをエリア数分(本実施形態では4つ)記憶する。
図4は、図3(a)に示すように、眼球の撮像領域を4等分した領域を各エリアとした場合の、確率分布テーブルの確率分布を示す図である。図4(a)はエリア0に対応する確率分布テーブルを示し、エリア0の中心から正規分布に従った確率分布を有している。同様に、図4(b)はエリア1に対応する確率分布テーブルを示し、図4(c)はエリア2に対応する確率分布テーブルを示し、図4(d)はエリア3に対応する確率分布テーブルを示す。
注視エリア検出部14は、確率分布テーブル記憶部15に記憶された確率分布テーブルを参照し、画像処理部13から得られる眼球像の瞳孔がどのエリアに位置するかを検出する。
なお、注視エリアの検出率を向上させるためには、撮像素子12と眼球との相対位置がほぼ一定に保たれる必要がある。そのため、注視エリア検出装置1は、メガネ、ゴーグル、又はHMD(Head Mounted Display)などを用いて、装着者が保持できる構成とするのが好適である。
次に、第1の実施形態の注視エリア検出装置1の動作について説明する。
図5は、注視エリア検出装置1の動作を示すフローチャートである。ステップS101にて、照明部11及び撮像素子12によって、眼球像を取得する。ステップS102にて、画像処理部13によって、眼球像を画像処理して2値化する。
ステップS103〜ステップS108は、注視エリア検出部14の動作を示す。本実施形態では、撮像領域を100×100ピクセル、エリア数を4とする。まず、ステップS103にて、エリア番号i(i=0,1,2,3)を0に初期化し、エリアごとのループ処理を開始する。
ステップS104にて、エリアごとの確率の合計Piを0に初期化する。ここで、確率の合計とは、瞳孔を形成しているピクセルの、当該ピクセルに対応する確率分布テーブルの確率値の合計をいう。
ステップS105にて、ピクセル番号j(j=0,1,…,9999)を0に初期化し、ピクセルごとのループ処理を開始する。
ステップS106にて、画像処理部13から取得した眼球像のピクセル値が0か1かを判定し、ピクセル値が0の場合(すなわち、当該ピクセルが瞳孔を形成している場合)には処理をステップS107に進め、ピクセル値が1の場合(すなわち、当該ピクセルが瞳孔を形成していない場合)には処理をステップS108に進める。
ステップS107にて、確率分布テーブル記憶部15に記憶された確率分布テーブルを参照して当該ピクセルに対応する確率値を取得し、確率の合計Piに取得した確率値を加える。
ステップS108にて、全てのピクセルについて処理をしたか、すなわちピクセル番号j=9999であるか否かを判定する。ピクセル番号j=9999の場合には処理をステップS109に進め、ピクセル番号j=9999でない場合にはピクセル番号jに1を加算して、処理をステップS105に戻す。
ステップS109にて、全てのエリアついて処理をしたか、すなわちエリア番号i=3であるか否かを判定する。エリア番号i=3の場合には処理をステップS110に進め、エリア番号i=3でない場合にはiに1を加算して、処理をステップS103に戻す。
最後に、ステップS110にて、各エリアの確率の合計Piを比較して最大値を求める。確率の合計Piのうち、最大値を示す確率の合計をPk(k=0,1,2,3)とすると、エリアkを注視エリアと検出する。なお、瞳孔が注視エリアに存在しない場合には注視エリアが不定である旨を検出する。例えば、確率の合計の最大値Pkの値、確率の合計Piの平均値と確率の合計の最大値Pkとの差、確率の合計Piのうち2番目に大きな値と確率の合計の最大値Pkとの差などが閾値を越えているか判定し、閾値を越える場合にはエリアkを注視エリアと検出し、閾値以下の場合には不定という結果を返す。
ここで、注視エリア検出部14の処理時間について説明する。ループ回数の合計は、エリア数と、眼球像のピクセル数とで定まる。本実施形態の場合は、エリア数が4、ピクセル数が100×100なので、合計40,000回のループとなる。それに対して、ハフ変換により注視エリアを検出する場合は、眼球像のそれぞれのピクセルを円の中心とみなして、瞳孔を構成しているピクセルとの距離を算出する。本実施形態にハフ変換を適用したとすると、ループ回数の合計は、眼球像のピクセル数の3乗、つまり1,000,000回のループとなる。よって、本実施形態の処理のほうが、ハフ変換を適用した処理よりも軽量となる。
なお、図3(a)に示すように、各エリアの形状が等しい場合には、各エリアに共通の1つの確率分布テーブルのみ使用し、ステップS105〜ステップS107のループ処理を、撮像領域全体のピクセルについてではなく、各エリアのピクセルについてのみ行うようにすることもできる。この処理によれば、エリア数が4、ピクセル数が50×50なので、合計10,000回のループとなり、さらに処理を軽量化することができる。
次に、瞳孔を構成するピクセル数に対する依存性について説明する。高精度の最小二乗法(Least Median of Squares)の例として、最小メジアン法の場合は、まず瞳孔を構成するピクセルからランダムに5つの点を選択して楕円を抽出し、その楕円の中心から瞳孔を構成するピクセルとの距離を求め、その中間値を保持する。そして、これらの手順を様々な組み合わせの5つの点について計算を行い、最も中間値が小さくなる5つの点の組み合わせから構成される楕円を瞳孔の輪郭とみなす。この方法では、一定レベルの精度を保障するためには、瞳孔を構成するピクセルが多くなればなるほど、5つの点をランダムに選択する回数を多くする必要があるため、全体の処理時間が瞳孔を構成するピクセル数に依存することになる。一方、本実施形態では、前述のとおり、ループ回数の合計は、エリアの数と眼球像のピクセル数とで定まっており、瞳孔を構成するピクセル数には依存しない。
したがって、本実施形態における処理は、ハフ変換のような幾何学的方法と比較して軽量な計算であり、モバイル機器での実行に適している。また、最小二乗法とは異なり、瞳孔を形成しているピクセルの数に依存せず、処理時間が一定になる。さらに、瞳孔を形成しているピクセル数の合計を各エリアで計算して比較して判別する場合よりも、ノイズに対する耐性が向上する。
次に、本発明による第2の実施形態の注視エリア検出装置について、図面を参照して詳細に説明する。なお、第1の実施形態と同じ構成要素には同一の参照番号を付して説明を省略する。
(第2の実施形態)
図6は、第2の実施形態の注視エリア検出装置2の概略構成を示す機能ブロック図である。注視エリア検出装置2は、照明部11と、撮像素子12と、画像処理部13と、注視エリア検出部14と、確率分布テーブル記憶部15と、教師画像取得部16と、確率分布テーブル算出部17とを備える。第1の実施形態の注視エリア検出装置1(図1参照)と比較して、教師画像取得部16と、確率分布テーブル算出部17とを更に備える点で相違する。以下では、単純ベイズ分類法を使用する場合について説明する。ベイズ推定とは、仮説の統計学的推論にベイズの定理を使う方法をいい、ある証拠や観察されたデータ(眼球像)から、その原因になった事象(どのエリアを注視したか)を推定する技法である。ここで、単純ベイズ分類法とは、特に、眼球像のあるピクセルが瞳孔を構成するかどうかは、他のピクセルの状態に依存しない、という条件付き独立を仮定した方法をいう。
図6は、第2の実施形態の注視エリア検出装置2の概略構成を示す機能ブロック図である。注視エリア検出装置2は、照明部11と、撮像素子12と、画像処理部13と、注視エリア検出部14と、確率分布テーブル記憶部15と、教師画像取得部16と、確率分布テーブル算出部17とを備える。第1の実施形態の注視エリア検出装置1(図1参照)と比較して、教師画像取得部16と、確率分布テーブル算出部17とを更に備える点で相違する。以下では、単純ベイズ分類法を使用する場合について説明する。ベイズ推定とは、仮説の統計学的推論にベイズの定理を使う方法をいい、ある証拠や観察されたデータ(眼球像)から、その原因になった事象(どのエリアを注視したか)を推定する技法である。ここで、単純ベイズ分類法とは、特に、眼球像のあるピクセルが瞳孔を構成するかどうかは、他のピクセルの状態に依存しない、という条件付き独立を仮定した方法をいう。
教師画像取得部16は、エリア0〜エリア3を注視した際の眼球像の教師画像を取得し、確率分布テーブル算出部17に出力する。例えば、使用者にエリアごとに複数の点を注視するように指示し、エリアごとに複数の教師画像を取得する。図7(a)は、第2の実施形態の教師画像を示す図である。図中の黒丸は瞳孔を表しており、周囲の明るさによって瞳孔の面積が変化する様子を表している。
確率分布テーブル算出部17は、教師画像取得部16から入力される教師画像から、エリアごとの確率分布テーブルを算出し、確率分布テーブル記憶部15に出力する。図7(b)〜(e)は、第2の実施形態の確率分布テーブルの確率分布を示す図である。エリア番号iの確率分布テーブルの中のピクセル番号jに対応する確率Pi,jは、例えば次式(1)により算出される。
Pi,j=ピクセルjの値が0の教師画像数/エリアiの総教師画像数 (1)
ここで、ピクセルjはピクセル番号がjのピクセルを表し、エリアiはエリア番号がiのエリアを表す。これを全エリアの全ピクセルについてそれぞれ計算する。算出した確率分布テーブルは、確率分布テーブル記憶部15に記憶される。
ここで、ピクセルjはピクセル番号がjのピクセルを表し、エリアiはエリア番号がiのエリアを表す。これを全エリアの全ピクセルについてそれぞれ計算する。算出した確率分布テーブルは、確率分布テーブル記憶部15に記憶される。
次に、第2の実施形態の注視エリア検出装置2の動作について説明する。
図8は、注視エリア検出装置2の動作を示すフローチャートである。ステップS201にて、教師画像取得部16によって、教師画像を取得する。ステップS202にて、確率分布テーブル算出部17によって、確率分布テーブルを算出する。ステップS201及びステップS202の処理は、使用者ごとの瞳孔の形状に合わせて最適な注視エリア検出を行うためのものであり、最初に1度だけ行われる。注視エリア検出装置2の使用者が複数存在する場合には、使用者ごとにこの処理を行い、確率分布テーブルを算出する。
続いて、第1の実施形態の注視エリア検出装置1と同様に、ステップS203にて、照明部11及び撮像素子12によって眼球像を取得し、ステップS204にて、画像処理部13によって、眼球像を画像処理して2値化する。
ステップS205〜ステップS212は、注視エリア検出部14の動作を示す。本実施形態では、撮像領域を100×100ピクセル、エリア数を4とする。まず、ステップS205にて、エリア番号i(i=0,1,2,3)を0に初期化し、エリアごとのループ処理を開始する。
ステップS206にて、エリアごとの確率の合計Piを1に初期化する。
ステップS207にて、ピクセル番号j(j=0,1,…,9999)を0に初期化し、ピクセルごとのループ処理を開始する。
ステップS208にて、ピクセル値が0か1かを判定し、ピクセル値が0の場合(すなわち、当該ピクセルが瞳孔を形成している場合)には処理をステップS209に進め、ピクセル値が1の場合(すなわち、当該ピクセルが瞳孔を形成していない場合)には処理をステップS210に進める。
ステップS209にて、確率分布テーブルを参照して当該ピクセルに対応する確率値を取得し、確率の合計Piに取得した確率値を掛ける。
ステップS210にて、全てのピクセルについて処理をしたか、すなわちピクセル番号j=9999であるか否かを判定する。ピクセル番号j=9999の場合には処理をステップS211に進め、ピクセル番号j=9999でない場合にはピクセル番号jに1を加算して、処理をステップS207に戻す。
ステップS211にて、全てのエリアついて処理をしたか、すなわちエリア番号i=3であるか否かを判定する。エリア番号i=3の場合には処理をステップS212に進め、エリア番号i=3でない場合にはiに1を加算して、処理をステップS205に戻す。
最後に、ステップS212にて、各エリアの確率の合計Piを比較して最大値を求める。確率の合計Piのうち、最大値を示す確率の合計をPk(k=0,1,2,3)とすると、エリアkを注視エリアと検出する。第1の実施形態と同様に、エリアに瞳孔が存在しない場合には、注視エリアが不定である旨を検出する。
第2の実施形態のエリア検出装置2によれば、使用者ごとに教師画像を作成して確率分布テーブルを計算するため、瞳孔径の個人差に起因する誤判別を防ぐことができる。なお、本実施形態では単純ベイズ分類法を使用したが、使用者ごとに教師画像を作成可能で、かつ処理時間が一定であれば、他のアルゴリズムを用いても良い。
次に、上述した注視エリア検出装置1又は2を内蔵した頭部装着型情報表示装置3を第3の実施形態として、図面を参照して詳細に説明する。
(第3の実施形態)
頭部装着型情報表示装置とは、使用者の頭部に装着され、使用者の眼球の前に電子映像を表示する装置をいう。図9は、頭部装着型情報表示装置3を使用者Uが使用する例を示す図である。注視エリア検出装置1又は2を内蔵することにより、表示された電子映像のメニュー項目を、眼球を動かすだけで選択できるようになる。注視エリア検出装置を内蔵しない従来の頭部装着型情報表示装置については、例えば、特開2007−163634号公報に開示されているため、詳細な説明を省略する。なお、注視エリア検出装置が内蔵される頭部装着型情報表示装置は、上記公報に記載の装置に限定されるものではなく、メニュー項目を表示させる頭部装着型情報表示装置に対して広く適応することができる。
頭部装着型情報表示装置とは、使用者の頭部に装着され、使用者の眼球の前に電子映像を表示する装置をいう。図9は、頭部装着型情報表示装置3を使用者Uが使用する例を示す図である。注視エリア検出装置1又は2を内蔵することにより、表示された電子映像のメニュー項目を、眼球を動かすだけで選択できるようになる。注視エリア検出装置を内蔵しない従来の頭部装着型情報表示装置については、例えば、特開2007−163634号公報に開示されているため、詳細な説明を省略する。なお、注視エリア検出装置が内蔵される頭部装着型情報表示装置は、上記公報に記載の装置に限定されるものではなく、メニュー項目を表示させる頭部装着型情報表示装置に対して広く適応することができる。
図10は、頭部装着型情報表示装置3の概略構成を示す機能ブロック図である。頭部装着型情報表示装置3は、注視エリア検出装置1又は2と、インターフェース部31と、表示制御部32と、表示部33とを備える。
注視エリア検出装置1又は2は、上述したように、照明部11によって照明された眼球の反射光を入力し、注視エリアを検出し、注視エリア信号を表示制御部32に出力する。
インターフェース部31は、外部の情報提供装置4から表示部33に表示させる情報を無線又は有線で取得し、表示制御部32に出力する。なお、頭部装着型情報表示装置3の小型化のためには情報提供装置4を外部に備えるのが好適であるが、情報提供装置4を内蔵することも可能である。
表示制御部32は、表示パネルドライブ回路を有しており、情報提供装置4から取得した表示情報を表示部33に表示させる。また、注視エリア検出装置1又は2からエリア信号を取得し、エリア信号に対応する情報を、インターフェース部31を介して情報提供装置4から取得する。
次に、第3の実施形態の頭部装着型情報表示装置3の動作について説明する。
図11は、頭部装着型情報表示装置3のメニュー内容の取得動作を示すフローチャートである。ステップS301にて、表示制御部32によって、インターフェース部31を介して情報提供装置4からメニュー項目を取得する。
ステップS302にて、表示部33によって、ステップS301で取得したメニュー項目を表示する。図12は、表示部33に表示されるメニュー項目の一例を示す図である。この例では、使用者Uが道案内をして欲しい目的地が表示されている。
ステップS303にて、使用者Uはメニュー項目の中から選択したい項目を注視し、注視方向によりメニュー項目を選択する。表示部33で表示したメニュー項目と、眼球像の撮像領域を分割したエリアとを重畳させることによって、使用者Uの注視による選択操作を提供することができる。すなわち、図12のメニュー項目の「最寄駅」をエリア0と重畳させ、「居酒屋」をエリア1と重畳させ、「カラオケ」をエリア2と重畳させ、「コンビに」をエリア3と重畳させる。
ステップS304にて、注視エリア検出装置1又は2によって、注視エリアを検出する。
ステップS305にて、表示制御部32によって、ステップS304で検出した注視エリアと重畳して表示されるメニュー項目を特定し、インターフェース部31を介して情報提供装置4から、該メニュー項目に対応するメニュー内容を取得する。
ステップS306にて、表示部33によって、ステップS305で取得したメニュー内容を表示する。
このように、第3の実施形態の頭部装着型情報表示装置3によれば、使用者Uの注視による選択操作を提供することができる。
上述の各実施形態は、個々に代表的な例として説明したが、本発明の趣旨及び範囲内で、多くの変更及び置換ができることは当業者に明らかである。従って、本発明は、上述の実施形態によって制限するものと解するべきではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。例えば、各実施形態では片眼での注視エリア検出装置について述べたが、撮像素子と照明手段を別の眼球用にもう一つ設け、両眼で同じエリアの分割を適用することで、両眼での注視エリア検出に容易に拡張することができる。また、撮像領域を分割することなく注視エリアを検出することも可能である。
このように、本発明によれば、注視エリアを高速かつ一定の時間で検出することができるので、注視エリアを検出する任意の用途に有用である。
1,2 注視エリア検出装置
11 照明部
12 撮像素子
13 画像処理部
14 注視エリア検出部
15 確率分布テーブル記憶部
16 教師画像取得部
17 確率分布テーブル算出部
3 頭部装着型情報表示装置
31 インターフェース部
32 表示制御部
33 表示部
4 情報提供装置
11 照明部
12 撮像素子
13 画像処理部
14 注視エリア検出部
15 確率分布テーブル記憶部
16 教師画像取得部
17 確率分布テーブル算出部
3 頭部装着型情報表示装置
31 インターフェース部
32 表示制御部
33 表示部
4 情報提供装置
Claims (6)
- 使用者の眼球を撮像して使用者が注視している注視エリアを検出する注視エリア検出装置であって、
眼球を撮像して第1の眼球像を生成する撮像素子と、
前記第1の眼球像に対して画像処理を行って第2の眼球像を生成する画像処理手段と、
前記第2の眼球像から注視エリアを検出する注視エリア検出手段とを備え、
前記注視エリア検出手段は、検出時間を一定とするように、前記第2の眼球像に対して確率統計処理を行って注視エリアを検出することを特徴とする注視エリア検出装置。 - 前記注視エリア検出手段は、前記第2の眼球像の撮像領域を複数のエリアに分割し、該複数のエリアの中のどのエリアを注視しているかを検出することを特徴とする、請求項1に記載の注視エリア検出装置。
- 前記注視エリア検出手段は、正規分布を有する確率分布テーブルを有し、該確率分布テーブルを用いて前記確率統計処理を行うことを特徴とする、請求項2に記載の注視エリア検出装置。
- 前記注視エリア検出手段は、前記各エリアを注視した眼球像の教師画像に基づいて作成された、前記エリア数分の確率分布テーブルを用いて前記確率統計処理を行うことを特徴とする、請求項2に記載の注視エリア検出装置。
- 前記注視エリア検出手段は、単純ベイズ分類法により前記確率統計処理を行うことを特徴とする、請求項4に記載の注視エリア検出装置。
- 請求項1から5のいずれか一項に記載の注視エリア検出装置を備えることを特徴とする頭部装着型情報表示装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010065165A JP2011198141A (ja) | 2010-03-19 | 2010-03-19 | 注視エリア検出装置及び頭部装着型情報表示装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010065165A JP2011198141A (ja) | 2010-03-19 | 2010-03-19 | 注視エリア検出装置及び頭部装着型情報表示装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011198141A true JP2011198141A (ja) | 2011-10-06 |
Family
ID=44876231
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010065165A Pending JP2011198141A (ja) | 2010-03-19 | 2010-03-19 | 注視エリア検出装置及び頭部装着型情報表示装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011198141A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016082466A (ja) * | 2014-10-20 | 2016-05-16 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11175246A (ja) * | 1997-12-12 | 1999-07-02 | Toshiba Corp | 視線検出装置及びその方法 |
JP2007164617A (ja) * | 2005-12-15 | 2007-06-28 | Yamaguchi Univ | ガウス関数を用いたテンプレート作成方法および眼球運動を用いた視力入力コミュニケーション方法 |
-
2010
- 2010-03-19 JP JP2010065165A patent/JP2011198141A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11175246A (ja) * | 1997-12-12 | 1999-07-02 | Toshiba Corp | 視線検出装置及びその方法 |
JP2007164617A (ja) * | 2005-12-15 | 2007-06-28 | Yamaguchi Univ | ガウス関数を用いたテンプレート作成方法および眼球運動を用いた視力入力コミュニケーション方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016082466A (ja) * | 2014-10-20 | 2016-05-16 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9952667B2 (en) | Apparatus and method for calibration of gaze detection | |
JP6303297B2 (ja) | 端末装置、視線検出プログラムおよび視線検出方法 | |
JP5949319B2 (ja) | 視線検出装置及び視線検出方法 | |
JP6056323B2 (ja) | 視線検出装置、視線検出用コンピュータプログラム | |
JP4915655B2 (ja) | 自動追尾装置 | |
CN107272904B (zh) | 一种图像显示方法及电子设备 | |
WO2016088418A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US10489981B2 (en) | Information processing device, information processing method, and program for controlling display of a virtual object | |
JP2016149660A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP6957993B2 (ja) | ユーザの解答に対する自信レベルを推定する情報処理プログラム、情報処理装置及び情報処理方法 | |
EP2905680B1 (en) | Information processing apparatus, information processing method, and program | |
JP2016512765A (ja) | 軸上視線追跡システム及び方法 | |
JPWO2017033516A1 (ja) | 読影支援装置及び方法 | |
CN111095364A (zh) | 信息处理装置、信息处理方法和程序 | |
WO2019187487A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP6870474B2 (ja) | 視線検出用コンピュータプログラム、視線検出装置及び視線検出方法 | |
JP5668587B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP6728865B2 (ja) | 手上げ検出装置及び手上げ検出プログラム | |
KR101272811B1 (ko) | 인터페이스 시스템 및 방법 | |
CN110099209A (zh) | 图像处理装置、图像处理方法和存储介质 | |
JP5949389B2 (ja) | 検出装置、検出プログラムおよび検出方法 | |
US10642353B2 (en) | Non-transitory computer-readable storage medium, information processing apparatus, and information processing method | |
JP5995217B2 (ja) | 瞳孔部分を近似する楕円の検出を行う方法 | |
JP2008237625A (ja) | 見え方度判定装置 | |
US20160026863A1 (en) | Pupil detection device and pupil detection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130227 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140311 |