JP4203279B2 - 注目判定装置 - Google Patents
注目判定装置 Download PDFInfo
- Publication number
- JP4203279B2 JP4203279B2 JP2002218086A JP2002218086A JP4203279B2 JP 4203279 B2 JP4203279 B2 JP 4203279B2 JP 2002218086 A JP2002218086 A JP 2002218086A JP 2002218086 A JP2002218086 A JP 2002218086A JP 4203279 B2 JP4203279 B2 JP 4203279B2
- Authority
- JP
- Japan
- Prior art keywords
- circularity
- line
- sight
- presentation information
- pupil
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
【発明の属する技術分野】
本発明は、注目判定装置に関するものである。
【0002】
【従来の技術】
人物の視線や動作など、人間をセンシングして得られる情報と、物体センシングにより構築された周辺環境とから、その人の要望を察知し、その人の意図に適したサービスを提供することが提案されている。これらを実現するためには、人間とその周辺環境をセンシングし、その人が何を見て、どのような動作を行っているかを知ることが重要なこととなる。このとき、視線情報はその人が注目している物、又はその人の意図や状況を推定するのに欠かせない情報の1つである。
【0003】
【発明が解決しようとする課題】
しかしながら、単に視線を検出しても、その人が視線方向にある提示された情報(提示情報)を単に眺めているだけなのか、あるいはその提示情報に注目しているのかの相異を得ることができる方法及びその装置は未だ提案されていない。
【0004】
仮に、提示情報に注目していることが分かる方法及びその装置があるとすると、この方法及び装置によって得られた提示情報に対する人の注目度を分析することが可能となり、その提示情報に対する興味度や、市場性をも分析することが可能となる。
【0005】
本発明の目的は、上記問題点を解決するためになされたものであり、その目的は、提示情報に対する注目度を測ることができる注目判定装置を提供することにある。
【0006】
【課題を解決するための手段】
上記問題点を解決するために、請求項1の発明は、提示情報を所定方向に移動する移動手段と、前記提示情報の移動の期間中の人の視線を検出して視線の移動方向を推測する視線移動方向推測手段と、前記提示情報の所定方向の移動と、推測した前記人の視線の移動方向とが一致しているか否かを判定する判定手段とを備え、前記視線移動方向推測手段は、検出対象者を撮像する撮像手段と、前記撮像手段が撮像した画像データに含まれる顔の目領域から瞳領域を検出する瞳領域検出手段と、前記瞳領域検出手段が検出した瞳領域の形状に対して円形度を算出する円形度算出手段と、前記円形度算出手段が算出した円形度に基づいて視線を検出する視線検出手段と、前記視線検出手段によって検出された視線の移動方向を特定する特定手段とを備えている注目判定装置であることを特徴とする。
【0008】
請求項2の発明では、請求項1において、前記移動手段は、前記提示情報を画像表示する画像表示装置とし、前記画像表示装置における画面内で前記提示情報を移動するようにした。
【0010】
請求項3の発明では、請求項1又は請求項2において、互いに異なる位置に前記撮像手段を複数設け、前記視線検出手段は、各撮像手段から得た画像データに含まれる瞳領域の各円形度を比較することで視線を検出するものとした。
【0011】
請求4の発明では、請求項1乃至請求項3のいずれか1項において、前記円形度算出手段は、前記瞳領域を含む画像データをハフ変換し、ハフ変換の投票空間において、投票数が最大となる投票数最大点を含む第1領域、及び前記投票数最大点を含み前記第1領域よりも大きい第2領域における各投票数から円形度を算出するものとした。
【0012】
請求項5の発明では、請求項1乃至請求項3のいずれか1項において、前記円形度算出手段は、瞳領域の面積及び瞳領域の輪郭線の長さに基づいて円形度を算出するものとした。
【0015】
(作用)
請求項1の発明によれば、撮像手段が撮像した画像データに含まれる顔の目領域から瞳領域が瞳領域検出手段によって検出され、その検出された瞳領域の形状に対して円形度が円形度算出手段により算出される。そして、視線検出手段により、円形度算出手段が算出した円形度に基づいて視線が検出される。特定手段は、視線検出手段によって検出された視線の移動方向を特定する。判定手段は、特定手段によって特定された視線の移動方向が提示情報の移動方向に一致しているか否かを判定する。目領域の中から白目領域と容易に区別して検出可能な瞳領域を用いて視線検出を行うため、従来と異なり、瞳孔を検出可能なまで目領域を拡大して撮像する必要がない。このため、視線検出に瞳孔を用いる場合と比較して検出対象者の頭部位置の影響を受けにくく、人が提示情報に対して注目しているか否かを判定するために好適に視線を検出することができる。
また、請求項2の発明によれば、提示情報は、画像表示装置の画面内で移動される。提示情報を画面に表示する構成では、種々の提示情報を必要に応じて取り替えて表示することができる。
【0016】
請求項3の発明によれば、画像データは、互いに異なる位置に設けられた複数の撮像手段でそれぞれ取得され、各画像データに含まれる瞳領域の各円形度が前記視線検出手段により比較される。そして、この比較結果に基づいて視線が検出される。従って、算出された複数の円形度を比較することで視線を検出しているため、例えば、記憶装置に予め記憶されていた参照データと比較して視線を検出する従来と異なり、検出した瞳領域に対して前記参照データと比較可能な状態にするために較正(キャリブレーション)を行う必要がなく、簡便に視線検出が行われる。
【0017】
請求項4の発明によれば、前記瞳領域を含む画像データはハフ変換され、ハフ変換の投票空間において、投票数が最大となる投票数最大点を含む第1領域、及び前記投票数最大点を含み前記第1領域よりも大きい第2領域における各投票数から円形度算出手段により円形度が算出される。従って、ハフ変換の投票空間への投票数を利用して好適に円形度の算出が実現される。
【0018】
請求項5の発明によれば、円形度は、検出された瞳領域の面積及び瞳領域の輪郭線の長さに基づいて円形度算出手段により算出される。従って、面積及び輪郭線の長さを利用して好適に円形度の算出が実現される。
【0019】
【発明の実施の形態】
以下、本発明の視線検出装置を具体化した第1の実施形態を図1〜図10を参照して説明する。
【0020】
図1(a)に示すように、注目判定装置10は、撮像手段としての複数台(本実施形態では2台)のビデオカメラ11A,11Bと、カメラ用パソコン12A,12Bと、メインパソコン13と、画像表示装置14とを備えている。ビデオカメラ11A,11Bは、CCDカメラである。本実施形態におけるビデオカメラ11A,11B及び画像表示装置14は、全て所定の高さ(例えば、1.15m)に配置されており、画像表示装置14は、ビデオカメラ11A,11Bの設置個所の中間の位置に配設されている。
【0021】
ビデオカメラ11A,11Bにはカメラ用パソコン12A,12Bが接続されている。カメラ用パソコン12A,12Bには、ビデオカメラ11A,11Bで撮影された個々のフレーム(画像データ)が、ビデオレートのカラー画像(640×480)として入力されるようになっている。
【0022】
カメラ用パソコン12A,12Bは、メインパソコン13に接続されており、メインパソコン13は、各カメラ用パソコン12A,12Bとの通信をイーサネット(登録商標)を介したソケット通信で行うようにしている。また、ネットワーク・タイムサーバシステムが用いられており、メインパソコン13がタイムサーバとして設定され、各カメラ用パソコン12A,12Bの時刻がメインパソコン13に合わされるようになっている。又、メインパソコン13は、画像表示装置14に有線接続されている。メインパソコン13は、注目判定装置10の視線検出結果に応じて画像表示装置14における提示情報の表示及び提示情報の移動を制御する。なお、メインパソコン13と画像表示装置14とを有線接続せずに、画像表示装置14における画像表示を無線で制御する態様をとってもよい。
【0023】
(注目判定方法)
以下、第1の実施形態の注目判定方法について説明する。まず、注目判定装置10が行う注目判定の概要を説明する。
【0024】
各ビデオカメラ11A,11Bは、検出対象者Hを撮像し、撮像情報を各カメラ用パソコン12A,12Bに入力する。各カメラ用パソコン12A,12Bは、ビデオカメラ11A,11Bからの画像のキャプチャを行い、画像データから目領域16を検出する。そして、検出された目領域16から、瞳領域17を検出すると共に、瞳領域17の大きさを正規化し、この瞳領域17の形状に対して円形度を算出する。カメラ用パソコン12A,12Bは、その円形度の算出結果をメインパソコン13に送信し、メインパソコン13は、各円形度を比較することで視線を検出する。なお、「円形度」とは、真円に対する近似度合いを示すものであり、真円に近いほど円形度が高いと表現し、円が変形するほど円形度が低いと表現する。例えば、長軸の長さと短軸の長さとの差が大きい楕円になっていくほど、円形度が低くなる。そして、第1の実施形態においては、円形度は、後述する式(6)により算出される評価値Eに比例する。評価値Eが大きければ円形度は高く、評価値が小さければ円形度は低くなる。従って、第1の実施形態において、円形度を算出するというのは、後記する評価値Eを算出することを示す。
【0025】
視線が画像表示装置14の画面に向けられたとき、メインパソコン13は、画像表示装置14の画面に表示されている提示情報Qを移動させる。提示情報Qの移動に伴い、メインパソコン13は、検出される視線の移動方向を推測する。検出される視線の移動方向と提示情報Qの移動方向とが一致する場合、メインパソコン13は、視線が提示情報Qの移動に追従したとの判定を行う。
【0026】
図2及び図3は、注目判定装置10によって遂行される注目判定プログラムを表すフローチャートである。以下、このフローチャートを参照して注目判定装置10による注目判定を説明する。
【0027】
メインパソコン13からカメラ用パソコン12A,12Bへ開始要求信号が送信されると、このフローチャートは開始される。そして、メインパソコン13からカメラ用パソコン12A,12Bへ終了要求信号が送信されるまで、ステップS1の処理が繰り返し行われる。
【0028】
ステップS1において、まず、カメラ用パソコン12A,12Bは、ビデオカメラ11A,11Bからの画像のキャプチャを行うか否かの判定を行う。即ち、本実施形態では、ビデオカメラ11A,11Bからの画像のキャプチャは、所定間隔(例えば0.1秒)毎に行われるようになっており、各カメラ用パソコン12A,12Bは、その時刻か否かを判定する。そして、画像をキャプチャする時刻であると判断した場合(ステップS1がYES)、各カメラ用パソコン12A,12Bは、ビデオカメラ11A,11Bからの画像のキャプチャを行う(ステップS2)。一方、カメラ用パソコン12A,12Bが画像をキャプチャする時刻ではないと判断した場合(ステップS1がNO)、この判定を繰り返す。なお、各カメラ用パソコン12A,12Bの時刻は、メインパソコン13に合わされているため、各カメラ用パソコン12A,12Bは、同時刻に画像のキャプチャを行うようになっている。
【0029】
(顔領域検出)
各カメラ用パソコン12A,12Bは、ビデオカメラ11A,11Bからのフレーム〔画像データ、例えば図4(a)参照〕をキャプチャした後、顔領域検出を行う。顔領域検出は、色情報を用いた公知の肌色基準値による手法を用いている。本実施形態では、均等知覚色空間の1つであるCIE L*u*v 表色系を用いている。
【0030】
まず、入力された画像データから、画像の全領域に亘り、U,V座標値による2次元色ヒストグラムを求め、予め定めた肌色有効範囲内のピーク値(度数が最大の値)を肌色基準値とする。その基準値からの色差に対して公知の判別分析法を適用して閾値を決定し、その閾値に基づいて肌色領域とその他の領域に2値化する〔図4(b)参照〕。本実施形態では、検出対象者Hが一人の場合を想定しているため、複数の肌色領域が検出された場合には、各カメラ用パソコン12A,12Bは最大領域を顔領域15と判定する(ステップS3)。すなわち、抽出された複数の肌色領域にて、画素数(面積)を求め、最大面積Smax の領域を顔領域15とする。なお、以下の説明において、前記U,V座標値は、説明の便宜上UV値又はU値,V値というときもある。
【0031】
ステップS4では、メインパソコン13は、画像表示装置14に対して提示情報の表示を指示し、画像表示装置14は、画面上に提示情報Q〔図1(b)に図示〕を表示する。
【0032】
(視線検出)
次のステップS5〜S9の概要を説明すると、カメラ用パソコン12A,12Bは、顔領域15の中から目領域16を検出する。そして、さらにその目領域16の中から瞳領域17を検出すると共に、その瞳領域17の大きさを正規化する。そして、瞳領域17の形状に対して円形度を算出し、その算出結果をメインパソコン13に送信する。メインパソコン13は、各カメラ用パソコン12A,12Bから受信した各円形度の算出結果を比較して視線を検出する。
【0033】
(目領域検出)
ステップS5において、まず、カメラ用パソコン12A,12Bは、画像データについて肌色基準値を再算出し、肌色領域を抽出する。抽出された肌色領域のうち、最大領域を顔領域15と判定する。
【0034】
カメラ用パソコン12A,12Bは、その顔領域15に基づき、4方向面特徴と色差面特徴を用いたテンプレートマッチング手法により、それぞれ目領域16、並びに口領域を検出する。
【0035】
今回の画像データの1つ前に本フローチャートを用いて処理された画像データにおいて、ステップS5で目領域16及び口領域が検出されていたとする。その場合には、前回の検出結果に基づいて、今回得られた顔領域15を所定領域削除し、顔領域15が前記所定領域分狭められた探索範囲として設定されるようになっている。そして、今回の画像データに関しては、前記探索範囲が用いられ、テンプレートマッチング手法により目領域16及び口領域の検出が行われる。なお、テンプレートマッチングを行った結果、前記探索範囲に対して目領域16及び口領域が検出されなかった場合は、再度、顔領域15に対して目領域16及び口領域の検出が行われるようになっている。
【0036】
ここで、前記テンプレートマッチング手法について説明する。
この手法は、得られた画像データから、前述した4方向面特徴抽出にて4方向面特徴(方向面)、及びU,V座標値による色差面特徴を抽出し、肌色領域抽出で得られた肌色領域(顔領域15)又は探索範囲に対して、右目、左目、口の各テンプレートを用いて類似度を計算する。
【0037】
なお、前記色差面特徴は、肌色基準値からのU値の差、及びV値の差を示すものである。また、前記テンプレートとは、予め、右目、左目、口の画像を複数枚用意し、4方向面特徴及び色差面特徴を抽出した画像データを、所定比率で縮小し、横幅を所定ピクセル(例えば32ピクセル)に揃え、大きさの正規化を行ったものである。そして、4方向面特徴に関しては、エッジ方向情報を4方向に分解し、さらに、4方向面特徴及び色差面特徴に対してガウシャンフィルタで平滑化し、各画像データを8×8の解像度に変換したものである。このテンプレートは、記憶装置(図示しない)に記憶されている。
【0038】
そして、テンプレートTと画像データ(入力画像)Iとの4方向面特徴の類似度aを以下の式(1)で算出し、色差面特徴の類似度bを以下の式(2)で算出する。
【0039】
【数1】
【0040】
【数2】
式(1),(2)中、Iは入力画像を示し、Tはテンプレートを示す。iは1〜mの整数値であり、jは1〜nの整数値である。i,jは、m×n画素のテンプレート及び入力画像に対応している。(x,y)は入力画像の左上座標を示す。また、式(2)中Tu,TvはテンプレートのUV値、Iu,Ivは画像データのUV値を示し、Umax ,Vmax はUV値の最大範囲を示す。本実施形態では、CIE L*u*v 表色系を用いており、このCIE L*u*v 表色系において、処理の高速化及び記憶装置の空間を節約するため、Umax =256、Vmax =256としている。
【0041】
次いで、これらの式(1),(2)で算出した、各類似度a,bに基づいて、以下の式(3)により、最終的な類似度kを算出する。
k=Wa ×a+Wb ×b ・・・(3)
式(3)中、Wa ,Wb は、重み付けとして、各類似度a,bに掛け合わせられる所定の定数であり、Wa +Wb =1を満たしている。本実施形態では、Wa =Wb =0.5としている。
【0042】
類似度kの算出結果を基に、類似度kが予め設定された閾値以上の箇所を目の候補領域とする。そして、入力画像(画像データ)には、左上座標が予め付与されており、その座標に基づき、目、口の位置関係が把握できる。従って、その座標に基づいて、例えば、目は口より上にある、右目と左目の配置等、目、口の大まかな位置関係(座標位置)を満たし、最も類似度kの高い組み合わせを目領域16並びに口領域として決定する。この結果、顔領域15の中で目領域16が検出される。
【0043】
(瞳領域検出)
次にステップS6において、検出された目領域16からカメラ用パソコン12A,12Bは、瞳領域17の検出を行う。本実施形態では、ステップS5にて検出された目領域16のうち何れか一方(例えば右目)の目領域16について、以下に説明する瞳領域検出を行う。
【0044】
まず、目領域画像の彩度値ヒストグラムを作成して、公知の判別分析法を適用し、顔領域15を目領域16と肌領域(顔領域の目領域16以外の領域)とに分離する。一般的に、肌領域の彩度は高く、目領域16の彩度は低い。このため、この分離処理はその特性を利用している。次いで、前記目領域画像の輝度ヒストグラムを作成して、公知の判別分析法を適用し、分離された目領域16を、瞳領域17と白目領域18とに分割する。このとき、白目領域18と瞳領域17の彩度の違いは明らかであるため、例えば瞳領域17を瞳孔と虹彩とに分割する場合と比較して、拡大された画像データでなくても簡便に分割処理ができる。
【0045】
その後、瞳領域17の検出結果を基に、瞳領域17を縮小又は拡大し、所定の大きさに正規化する。そして、瞳領域17に対して円形状の補完を行う。この際、前述したように、彩度値ヒストグラム及び輝度ヒストグラムにそれぞれ判別分析法を適用して分割することで得られた瞳領域17内には、図5(a)に示すように、瞼による陰影171の存在が考えられる。このとき、通常、画像の濃淡値を8ビットで表した場合、濃淡値0が黒、濃淡値256が白となる。そこで、領域分割結果における濃淡値0(黒色)の領域に対して、図5(b)に示すような水平射影ヒストグラムを作成する。そして、同ヒストグラムにおいて縦軸方向〔図5(b)において上下方向〕の上部に示されるように、極端なピークをもつ部分を予め設定された閾値に基づいて削除する。つまり、瞼による陰影171の部分は、該ヒストグラム上でピークとして現れ、それを削除することで、図5(c)に示すような、瞳領域17のみが抽出される。
【0046】
(円形度算出)
次に、ステップS7において、カメラ用パソコン12A,12Bは、検出された瞳領域17に対して円のハフ変換を行い、このハフ変換で用いられるパラメータ空間における投票数によって円形度の算出を行う。
【0047】
まず、目領域16に対して、白目領域18と検出された瞳領域17との濃淡の違いを利用して、Prewitt オペレータを用い、図5(d)に示すような瞳領域17のエッジ画像を生成することで、エッジ(輪郭)172を抽出する。その後、そのエッジ172を構成する点(以下「エッジ点」という)群に対して公知の円のハフ変換を行う。
【0048】
ここで、円のハフ変換について図6(a)及び図6(b)を用いて簡単に説明する。
図6(a)に示すようなあるx−y平面において、円は次の方程式(4)で表される。
【0049】
(x−a)2+(y−b)2=r2・・・(4)
x−y平面上の1つの円は、円の中心(a,b)及び半径rに関する(a,b,r)パラメータ空間(以下、単に「パラメータ空間」という)では1点で表現される。円のハフ変換は、x−y平面を円の特徴を示す3次元のパラメータ空間に変換する。そして、この円のハフ変換は、式(4)を変換した次式(5)で実現する。
【0050】
b=±√{r2−(x−a)2}+y ・・・(5)
この式(5)を利用して、x−y平面における円上の任意の点(x0,y0)をハフ変換すると、パラメータ空間では、b=±√{r2−(x0−a)2}+y0上に乗った画素〔点(a,b,r)〕に投票がなされる。すると、パラメータ空間において、投票結果である点群は、(x0,y0)を通る全ての円の集まりで表現される。例えば、図6(a)に示したx−y平面上の3点e(x1,y1)、f(x2,y2)、g(x3,y3)を式(5)でパラメータ空間に投射すると、それぞれの半径の値rに対するa−b平面について、各点e,f,gが図6(b)に示すような1つずつの円に変換される。なお、図6(b)は、r=r0におけるa−b平面を示している。このハフ変換によって得られた円をハフ曲線という。
【0051】
前記ハフ曲線は、パラメータ空間において互いに交じり合うため、交点が複数生じる。そして、交わるハフ曲線の数(即ち、投票数)が最大の交点を見つけることにより、x−y平面の円の中心座標と半径が検出可能になっている。なお、図6(b)においては、交点(a0,b0,r0)において、3つのハフ曲線が交わり、交点に対する投票数は3となっている。それに対して、それ以外の点では投票数が2以下であるため、x−y平面の円の中心座標は(a0,b0)となり、半径はr0と決定される。
【0052】
さて、瞳領域17のエッジ画像におけるエッジ点群には左上座標(x,y)が付与される。そして、前記円のハフ変換を行い、図5(d)に示すようなエッジ点群が付されたx−y平面を、図7に示すような瞳領域17の中心座標(a1,b1)と半径r1を示すための3次元パラメータ空間へ変換する。そして、x−y平面における各エッジ点が、パラメータ空間において、式(5)を満たす所定の画素〔点(a,b,r)〕に投票する。そして、図形空間におけるエッジ172をくまなく走査して、パラメータ空間において、最大投票数を得た点が瞳中心点Cとなる。前記瞳中心点Cが投票数最大点に相当し、パラメータ空間が投票空間に相当する。なお、図7のa軸及びb軸の値は中心座標を示し、r軸の値は半径を示す。また、瞳領域17の半径rの範囲(rmin 〜rmax )は予めカメラ用パソコン12A,12Bの記憶装置(図示しない)に記憶されており、ハフ変換の際には、その範囲(rmin 〜rmax )内の所定の画素〔点(a,b,r)〕に投票がなされる。
【0053】
ところで、図8に示すように、例えば検出対象者Hがビデオカメラ11Aを真正面から直視しているとき、ビデオカメラ11Aにて撮像された画像における瞳(瞳領域17)の形状は、図9(a)に示すように真円になる。また、このとき、ビデオカメラ11Aの近傍に位置するビデオカメラ11Bの方向から検出対象者Hを見ると、同検出対象者Hは他の方向を見ていることになる。そのため、ビデオカメラ11Bにて撮像された画像における瞳(瞳領域17)の形状は、図9(b)に示すように、楕円のような変形した円になる。
【0054】
つまり、検出対象者Hの視線が向けられていれば、撮像した瞳(瞳領域17)の形状は、真円若しくは真円に近い形を示すのである。その一方で、視線が外れていれば、外れるほど撮像した瞳(瞳領域17)の形状は、短軸の長さと長軸の長さとの差が広がった楕円を示すのである。本実施形態においては、ビデオカメラ11A,11Bは全て同じ高さに配置されているため、図9(b)に示す視線が外れた状態の瞳(瞳領域17)の形状は縦長の楕円となる。従って、複数のビデオカメラ11A,11Bで撮像した瞳(瞳領域17)の形状を比較して、ある瞳(瞳領域17)の形状がより真円に近いということは、検出対象者Hがそのビデオカメラ11Aへ視線を向けていることを示す。
【0055】
一方、ハフ変換を行った際のパラメータ空間での投票数において、x−y平面たるエッジ画像の瞳領域17(エッジ172)の形状が真円に近いほど、図10(a)に示すように瞳中心点Cとされる点(a1,b1,r1)に投票数が集中し、その周辺の投票数との差が大きくなるという特性がある。また、エッジ画像の瞳領域17(エッジ172)の形状が楕円形になった場合、その長軸の長さと短軸の長さとが異なるほど投票数がばらつき、図10(b)に示すように、瞳中心点Cとされる点(a1,b1,r1)の投票数とその周辺の投票数との差が開きにくくなるという特性がある。なお、図10(a),(b)に示す3次元空間は、中心座標(a1,b1)を示すためのa−b平面に、投票数を示すv軸が直交した三次元空間を示し、図7に示すパラメータ空間とは異なる。また、図10(a),(b)は、共に半径r=r1のa−b平面における投票数を示している。
【0056】
以上の結果により、パラメータ空間において決定された瞳中心点Cの投票数Vcと、この瞳中心点Cを中心とした比較領域P〔図9(a),(b)に図示〕内の投票数Vrとから、次式(6)により円形度を示す評価値Eを算出する。なお、以下においては、瞳中心点Cの投票数Vcを「中心投票数」といい、瞳中心点Cを中心とした比較領域P〔図9(a),(b)に図示〕内の投票数Vrを「領域投票数」ということにする。
【0057】
E=k×Vc/Vr ・・・(6)
式(6)中、kは、重み付けとして掛け合わせられる所定の定数である。また、本実施形態において、比較領域Pとは、瞳中心点Cにおける中心座標(a1,b1)を中心として5×5画素の範囲を示す。領域投票数Vrは、図10(a),(b)に示すようなr=r1における投票数だけではなく、比較領域Pに含まれたそれぞれのrにおける投票数も含む。瞳中心点Cが第1領域に相当し、比較領域Pが第2領域に相当する。
【0058】
そして、前述したように、瞳領域17が真円に近くなるほど、瞳中心点Cに投票数が集中するため、式(6)においては、分子の中心投票数Vcが大きくなり、評価値Eも大きくなる。また、瞳領域17が真円から離れるほど投票数がばらつくため、式(6)においては、分子の中心投票数Vcが小さくなる一方で、分母の領域投票数Vrが大きくなり、評価値Eが小さくなる。この結果、評価値Eが大きくなれば円形度が高くなり、評価値Eが小さくなれば円形度は低くなる。
【0059】
カメラ用パソコン12A,12Bは、前記のようにして算出された円形度(評価値E)の結果をメインパソコン13に送信する。なお、各カメラ用パソコン12A,12Bの時刻は、メインパソコン13に合わされているため、各カメラ用パソコン12A,12Bから送信される円形度(評価値E)の算出結果は、それぞれ同時刻にキャプチャした画像データから算出されたものになっている。
【0060】
(視線検出)
ステップS8において、メインパソコン13は、カメラ用パソコン12Aから受信した評価値Eaと、カメラ用パソコン12Bから受信した評価値Ebとの差を演算する。評価値Eaと評価値Ebとの差|Ea−Eb|が予め設定された閾値Δよりも小さい場合、メインパソコン13は、視線が画像表示装置14の画面上の提示情報Qに向けられているとの判定を行う(ステップS9がYES)。評価値Eaと評価値Ebとの差|Ea−Eb|が閾値Δよりも大きい場合、メインパソコン13は、視線が画像表示装置14の画面上の提示情報Qに向けられていないとの判定を行う(ステップS9がNO)。
【0061】
視線が画像表示装置14の画面上の提示情報Qに向けられていないとの判定が行われた場合、メインパソコン13は、この結果を記憶する(ステップS20)。
【0062】
視線が画像表示装置14の画面上の提示情報Qに向けられているとの判定が行われた場合、メインパソコン13は、提示情報Qを右側へ(ビデオカメラ11A側からビデオカメラ11B側へ)、又は左側へ(ビデオカメラ11B側からビデオカメラ11A側へ)の移動を画像表示装置14に指示する。画像表示装置14は、この指示に基づいて提示情報Qを右側へ、又は左側へ向けて移動させる(ステップS10)。
【0063】
提示情報Qが移動開始した後、ステップS2,S3と同じ画像収集(ステップS12)及び顔領域検出(ステップS13)が遂行される。次に、ステップS5〜S7と同じ目領域検出(ステップS14)、瞳領域検出(ステップS15)及び円形度算出(ステップS16)が遂行される。ステップS16の遂行後、メインパソコン13は、カメラ用パソコン12Aから受信した評価値Eaと、カメラ用パソコン12Bから受信した評価値Ebとの大小関係を比較すると共に、この比較結果を記憶する(ステップS17)。提示情報Qの移動期間t0は、例えば3秒というように予め設定されている。メインパソコン13は、提示情報Qの移動開始時からの経過時間が移動期間t0に達したか否かを判断している(ステップS18)。ビデオカメラ11A,11Bからの画像のキャプチャは、所定間隔(0.1秒)毎に行われており、ステップS17における比較は、提示情報Qの移動開始時からの経過時間が移動期間t0に達するまでの間、所定間隔(0.1秒)毎に行われている。従って、評価値Eaと評価値Ebとの大小関係の比較結果〔差(Ea−Eb)〕の記憶は、0.1秒毎に3秒/0.1秒=30回分だけ行われる。
【0064】
提示情報Qの移動開始時からの経過時間が移動期間t0に達すると、メインパソコン13は、記憶した比較結果に基づいて、視線が提示情報Qの移動に追従したか否かの判定を行う(ステップS19)。
【0065】
メインパソコン13が提示情報Qの左側への移動を指示したとする。つまり、提示情報Qがビデオカメラ11B側からビデオカメラ11A側へ移動したとする。この場合、視線が提示情報Qの移動に追従したか否かの判定基準は、例えば以下のようである。
【0066】
〈1〉評価値Eaと評価値Ebとの差(Ea−Eb)が前回の差(Ea’−Eb’)よりも大きい場合が少なくともz回(zは、例えば10といった複数)ある。
【0067】
なお、前回の差(Ea’−Eb’)とは、差(Ea−Eb)を得たときよりも0.1秒前に得られた差(Ea’−Eb’)のことである。
メインパソコン13が提示情報Qの右側への移動を指示したとする。つまり、提示情報Qがビデオカメラ11A側からビデオカメラ11B側へ移動したとする。この場合、視線が提示情報Qの移動に追従したか否かの判定基準は、例えば以下のようである。
【0068】
〈2〉評価値Eaと評価値Ebとの差(Ea−Eb)が前回の差(Ea’−Eb’)よりも小さい場合が少なくともz回(zは、例えば10といった複数)ある。
【0069】
判定基準〈1〉が満たされるか、あるいは判定基準〈2〉が満たされた場合、メインパソコン13は、視線の移動方向を特定すると共に、視線が提示情報Qの移動に追従したとの判定を行う。判定基準〈1〉及び判定基準〈2〉がいずれも満たされない場合、メインパソコン13は、視線が提示情報Qの移動に追従しなかったとの判定を行う。
【0070】
メインパソコン13は、判定結果を記憶する(ステップS20)。
第1の実施形態では、カメラ用パソコン12A,12Bは、撮像手段が撮像した画像データに含まれる顔の目領域から瞳領域を検出する瞳領域検出手段に相当する。又、カメラ用パソコン12A,12Bは、瞳領域検出手段が検出した瞳領域の形状に対して円形度を算出する円形度算出手段に相当する。メインパソコン13は、円形度算出手段が算出した円形度に基づいて視線を検出する視線検出手段に相当する。又、メインパソコン13は、視線検出手段によって検出された視線の移動方向を特定する特定手段、及び提示情報の所定方向の移動と推測した人の視線の移動方向とが一致しているか否かを判定する判定手段に相当する。
【0071】
第1の実施形態によれば、以下のような効果を得ることができる。
(1)提示情報Qが所定方向(右側又は左側)に移動するときに人の視線が検出される。この視線検出に基づいて視線の移動方向が推測される。この推測された視線の移動方向と、提示情報Qの移動方向とが一致しているか否かの判定が行われる。本実施形態では、判定基準〈1〉又は判定基準〈2〉が満たされていれば、視線の移動方向と提示情報Qの移動方向とが一致しているとの判定が行われる。人の視線が静止している提示情報に向けられている場合には、人が視線方向にある提示情報を単に眺めているだけなのか、あるいはその提示情報に注目しているのかが判然としない。しかし、視線の移動方向と提示情報Qの移動方向とが一致しているとの判定が行われた場合には、人が提示情報Qに注目しているものと特定することができる。
【0072】
視線が提示情報Qの移動に追従したとの判定や、視線が提示情報Qの移動に追従しなかったとの判定は、提示情報Qに対する人の注目度を分析することを可能にし、その提示情報に対する興味度や、市場性をも分析することが可能となる。
【0073】
(2)1台のビデオカメラのみによって得られた評価値Eから追従判定を行う場合、提示情報Qの移動中に1台のビデオカメラのみによって得られた今回の評価値と前回の評価値との差を評価して追従判定を行うことになる。本実施形態では、提示情報Qの移動中に2台のビデオカメラ11A,11Bによって得られた評価値Ea,Ebの差を評価して追従判定を行っている。つまり、評価値Ea,Ebの差と前回の評価値Ea,Ebの差との大小関係を把握することによって追従判定を行っている。提示情報Qが左側に移動するとすると、評価値Eaは、視線が提示情報Qの移動に追従するにつれて大きくなってゆくが、評価値Ebは、視線が提示情報Qの移動に追従するにつれて小さくなってゆく。
【0074】
図9(a)の鎖線で示す瞳領域17aは、画像表示装置14の画面上の移動前の提示情報Qを見ているときにビデオカメラ11Aで撮像されたものである。図9(a)の鎖線で示す瞳領域17bは、画像表示装置14の画面上の移動前の提示情報Qを見ているときにビデオカメラ11Bで撮像されたものである。そこで、図9(a),(b)の鎖線で示す瞳領域17a,17bは、ビデオカメラ11A,11Bによって前回得られたものとする。図9(a),(b)の実線で示す瞳領域17,17は、ビデオカメラ11A,11Bによって今回得られたものとする。そして、1台のビデオカメラ11Aのみによって得られた前回の評価値E〔図9(a)の鎖線で示す瞳領域17の大きさに対応〕と今回の評価値E〔図9(a)の実線で示す瞳領域17の大きさに対応〕との差をΔ1(>0)とする。又、1台のビデオカメラ11Bのみによって得られた前回の評価値E〔図9(b)の鎖線で示す瞳領域17の大きさに対応〕と今回の評価値E〔図9(b)の実線で示す瞳領域17の大きさに対応〕との差をΔ2(>0)とする。
【0075】
そうすると、2台のビデオカメラ11A,11Bによって得られた前回の評価値Ea,Ebの差は、零であるが、2台のビデオカメラ11A,11Bによって得られた今回の評価値Ea,Ebの差は、(Δ1+Δ2)である。従って、前回の評価値Ea,Ebの差と、今回の評価値Ea,Ebの差との差は、(Δ1+Δ2)である。つまり、2台のビデオカメラによって得られた今回の評価値Ea,Ebの差と前回の評価値Ea,Ebの差との違いは、1台のビデオカメラのみによって得られた評価値と前回の評価値との差よりも大きい。従って、2台のビデオカメラ11A,11Bを用いた注目判定の精度は、1台のビデオカメラを用いた注目判定の精度よりも高くなる。つまり、2台のビデオカメラ11A,11Bを用いた注目判定方法は、1台のビデオカメラを用いた注目判定方法よりも正確な注目判定を行うことができる。
【0076】
(3)提示情報Qは、画像表示装置14の画面内で移動される。提示情報Qを画面に表示する構成では、種々の提示情報を必要に応じて簡単に取り替えて表示することができ、多数の提示情報に対する人の注目度を分析することが容易である。
【0077】
(4)本実施形態では、カメラ用パソコン12A,12Bは、ビデオカメラ11A,11Bにより撮像した画像データに含まれる目領域16から瞳領域17を検出し、この瞳領域17の形状に対して円形度を算出する。そして、カメラ用パソコン12A,12Bは、その算出結果をメインパソコン13に送信し、メインパソコン13は、その円形度に基づいて視線を検出する。従来と異なり、視線検出に瞳孔を利用せず、瞳孔よりも大きく、目領域16の中から白目領域18と容易に区別できる瞳領域17の円形度に基づいて視線検出を行ったため、瞳孔を検出可能な位まで目領域16を拡大して撮像する必要がない。そのため、ビデオカメラ11A,11Bにて検出対象者Hを捕捉可能な範囲が広がる。従って、検出対象者Hの位置に影響されることなく、人が提示情報Qに対して注目しているか否かを判定するために好適に視線を検出することができる。
【0078】
(5)本実施形態では、視線検出空間内に複数のビデオカメラ11A,11Bを互いに異なる位置に配置し、各ビデオカメラ11A,11Bでそれぞれ同時に検出した各瞳領域17の円形度をメインパソコン13により比較して視線検出を向行っている。従って、従来と異なり、カメラ用パソコン12A,12Bで算出された円形度(評価値E)を予め記憶した参照データと比較しないため、検出した瞳領域17に対して較正(キャリブレーション)を行う必要がなく、簡便に視線検出を行うことができる。
【0079】
(6)本実施形態では、2つのビデオカメラ11A,11Bしか用いていないが、設置するビデオカメラは、カメラ用パソコンを介してメインパソコン13に接続するだけで容易に追加できる。このため、視線検出の精度向上及び検出領域の拡張を容易に図ることができる。
【0080】
(7)円形度の適正な把握は、提示情報Qに対する人の注目度を判定する上で重要である。本実施形態では、瞳領域17のエッジ画像をハフ変換し、変換先のパラメータ空間において、投票数が最大となる瞳中心点Cと、瞳中心点Cを含む比較領域Pにおける各投票数から円形度を示す評価値Eを算出した。従って、パラメータ空間における投票数を利用して好適に円形度の算出が実現できる。
【0081】
(8)本実施形態では、メインパソコン13において、2つのカメラ用パソコン12A,12Bから受信した評価値Eが所定の許容範囲内(閾値Δ以下)で等しいと判断した場合は、両ビデオカメラ11A,11Bのほぼ中央を見ているものと判断する。このときには人の視線が提示情報Qに向けられており、この状態から提示情報Qを右あるいは左のどちらに移動しても、追従判定を行うことができる。
【0082】
本発明では、図11(a),(b)に示すように、ビデオカメラ11を1台だけ用いた第2の実施形態も可能である。第1の実施形態と同じ構成部には同じ符号が用いてある。
【0083】
画像表示装置14は、上から見てビデオカメラ11の光軸よりも左側に設置されている。カメラ用パソコン12は、第1の実施形態のカメラ用パソコン12A,12Bと同じ役割を果たす。カメラ用パソコン12A,12Bは、算出された円形度(評価値E)の結果をメインパソコン13Cに送信する。メインパソコン13Cは、カメラ用パソコン12から受信した評価値Eに基づいて、視線が画像表示装置14の画面上の提示情報に向けられているか否かの判定を行う。評価値Eが最大の場合、メインパソコン13Cは、視線が提示情報に向けられているとの判定を行う。この判定後、提示情報を右へ移動し、これに伴って視線が右へ移動した場合には、視線が提示情報の移動に追従したとの判定を行う。メインパソコン13Cは、提示情報の移動中に1台のビデオカメラ11のみによって得られた今回の評価値が前回の評価値よりも大きい場合には、視線が右へ移動したとの特定を行う。メインパソコン13Cは、提示情報の移動中に1台のビデオカメラ11のみによって得られた今回の評価値が前回の評価値よりも小さい場合には、視線が左へ移動したとの特定を行う。
【0084】
第2の実施形態においても、人が提示情報に注目しているのか否かを特定することができる。
本発明では以下のような実施形態も可能である。
【0085】
・ビデオカメラ、視線検出用光源、受光センサ、記憶装置、及び判定制御装置等を備えた視線検出装置を本発明の注目判定装置の視線移動方向推測手段の一部として用いること。記憶装置には、視線検出判定を行うための参照データが予め記憶されている。
【0086】
注目判定に用いる前記視線検出装置では、ビデオカメラによって検出対象者を拡大して撮像し、拡大した目領域の画像データから瞳孔を検出する。このとき、前記参照データとの比較処理に利用可能な状態にするために、検出した瞳孔に対して較正(キャリブレーション)を行う。また、前記視線検出用光源から検出対象者に赤外光を照射して、同赤外光を検出対象者の眼部に照射し、前記受光センサにより眼部(瞳孔と角膜)にて反射する反射光を受光する。瞳孔と反射光との位置関係と、前記参照データとが判定制御装置において比較され、視線が検出される。
【0087】
この場合にも、人が提示情報に注目しているのか否かを把握することができる。
・第1の実施形態において、提示情報を左側(又は右側)へ移動して止めた後、右側(左側)へ移動し、この提示情報の移動の間における視線の移動方向を検出すること。この場合、提示情報の左側への移動に視線の移動が追従し、かつ提示情報の右側への移動に視線の移動が追従した場合には、視線が提示情報Qの移動に追従したとの判定を行うようにすればよい。このようにすれば、人が提示情報に注目しているのか否かを一層確実に把握することができる。
【0088】
・第1の実施形態において、顔領域の検出を省略し、目領域を拡大して撮像して視線検出を行うようにすること。
・第1の実施形態では、カメラ用パソコン12A,12Bにおける円形度(即ち、評価値E)の算出に、瞳領域17のエッジ画像をハフ変換する際におけるパラメータ空間の投票数を利用したが、以下の方法で円形度を算出してもよい。すなわち、ステップS6,S15において検出され、円形状の補完が行われた瞳領域17全体の画素数から面積Sを求め、瞳領域17のエッジ画像からエッジ172の画素数を数えることでエッジ172(即ち、輪郭線)の長さLを求める。そして、各カメラ用パソコン12A,12Bでは、次式(7)から円形度を示す評価値Rateを算出する。
【0089】
Rate=4πS/L2 ・・・(7)
これによれば、円形度は式(7)により算出される評価値Rateに基づいて決定され、評価値Rateが1に近づくほど円形度は高く、1から離れるほど円形度は低くなる。従って、この別例においては、円形度を算出するというのは評価値Rateを算出することを示す。このようにしても、瞳領域17の面積S及びエッジ172の長さLを利用して好適に円形度の算出が実現できる。
【0090】
・第1の実施形態では、式(6)における分子の中心投票数Vcは、投票数が最大である瞳中心点Cのみの投票数であった。これに代えて、例えば、瞳中心点Cとその隣の点を合せた領域の投票数の合計を中心投票数Vcとする等、少なくとも比較領域Pよりも狭い領域の投票数であれば、中心投票数Vcとしてもよい。この場合、瞳中心点Cとその隣の点を合せた領域が第1領域に相当し、比較領域Pが第2領域に相当する。
【0091】
・第1の実施形態では、ステップS8,S15における瞳領域検出を、ステップS5,S14において検出された目領域16のうち何れか一方の目領域16について行ったが、右・左の両方の目領域16に対して行ってもよい。この場合、各瞳領域17から算出された円形度(評価値E)の平均値が算出され、その値が、各画像データの円形度とされ、比較される。このようにすれば、片目について円形度を算出する場合と比較して、高精度に視線検出を行うことができ、注目判定の精度が一層向上する。
【0092】
・第1の実施形態では、複数台のビデオカメラ11A,11Bを視線検出空間内に設け、各ビデオカメラ11A,11Bのカメラ用パソコン12A,12Bにて算出された円形度(評価値E)をメインパソコン13が比較することで、視線を検出した。これに代えて、撮像された画像データに基づく各円形度同士の比較ではなく、予めメインパソコン13に記憶した閾値との比較で視線を検出してもよい。すなわち、各カメラ用パソコン12A,12Bから送信された評価値Eと前記閾値との比較を行って視線検出を行う。なお、この場合、複数の円形度を比較することはないため、設置するビデオカメラ11A,11Bを1台としてもよい。
【0093】
・第1の実施形態では、メインパソコン13と各カメラ用パソコン12A,12Bとの通信をイーサネットを介したソケット通信にて行っていたが、無線電波にて行ってもよい。
【0094】
・第1の実施の形態では、ビデオカメラ11A,11B及び画像表示装置14が全て同じ高さに配置されていたが、それぞれ異なる高さに配置してもよい。
・提示情報を描いた看板を機械的な移動手段によって移動させるようにすること。
【0095】
【発明の効果】
以上詳述したように本発明では、提示情報に対する注目度を測ることができるという優れた効果を奏する。
【図面の簡単な説明】
【図1】第1の実施形態を示し,(a)は、注目判定装置の構成を示すブロック図。(b)は画像表示装置の画面に表示された提示情報を示す画面図。
【図2】注目判定方法を示すフローチャート。
【図3】注目判定方法を示すフローチャート。
【図4】(a)はビデオカメラが撮像した画像データの説明図、(b)は肌色基準で抽出した画像データの説明図。
【図5】(a),(c)は瞳領域検出を示す説明図。(b)は水平射影ヒストグラムを示す説明図。(d)は瞳領域のエッジ画像を示す説明図。
【図6】(a),(b)は円のハフ変換の説明図。
【図7】パラメータ空間を示す説明図。
【図8】ビデオカメラ11Aを直視した検出対象者を示す概念図。
【図9】(a)は円形度が高い瞳領域を示す説明図。(b)は円形度が低い瞳領域を示す説明図。
【図10】(a),(b)は投票数と中心座標の関係を示す説明図。
【図11】(a)は第2の実施形態の注目判定装置の構成を示すブロック図。(b)は提示情報を示す画面図。
【符号の説明】
H…検出対象者。Q…提示情報。P…第2領域としての比較領域。C…第1領域としての瞳中心点。11A,11B…ビデオカメラ(撮像手段)。12…カメラ用パソコン(視線移動方向推測手段を構成する瞳領域検出手段及び円形度算出手段)。13…メインパソコン(判定手段、視線移動方向推測手段を構成する視線検出手段及び特定手段)。14…画像表示装置(移動手段)。15…顔領域。16…目領域。17,17a,17b…瞳領域。
Claims (5)
- 提示情報を所定方向に移動する移動手段と、
前記提示情報の移動の期間中の人の視線を検出して視線の移動方向を推測する視線移動方向推測手段と、
前記提示情報の所定方向の移動と、推測した前記人の視線の移動方向とが一致しているか否かを判定する判定手段とを備え、
前記視線移動方向推測手段は、検出対象者を撮像する撮像手段と、前記撮像手段が撮像した画像データに含まれる顔の目領域から瞳領域を検出する瞳領域検出手段と、前記瞳領域検出手段が検出した瞳領域の形状に対して円形度を算出する円形度算出手段と、前記円形度算出手段が算出した円形度に基づいて視線を検出する視線検出手段と、前記視線検出手段によって検出された視線の移動方向を特定する特定手段とを備えていることを特徴とする注目判定装置。 - 前記移動手段は、前記提示情報を画像表示する画像表示装置であり、前記提示情報は、前記画像表示装置における画面内で移動される請求項1に記載の注目判定装置。
- 前記撮像手段は互いに異なる位置に複数設けられ、前記視線検出手段は、各撮像手段から得た画像データに含まれる瞳領域の各円形度を比較することで視線を検出する請求項1又は請求項2に記載の注目判定装置。
- 前記円形度算出手段は、前記瞳領域を含む画像データをハフ変換し、ハフ変換の投票空間において、投票数が最大となる投票数最大点を含む第1領域、及び前記投票数最大点を含み前記第1領域よりも大きい第2領域における各投票数から円形度を算出する請求項1乃至請求項3のいずれかに記載の注目判定装置。
- 前記円形度算出手段は、瞳領域の面積及び瞳領域の輪郭線の長さに基づいて円形度を算出する請求項1乃至請求項3のいずれかに記載の注目判定装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002218086A JP4203279B2 (ja) | 2002-07-26 | 2002-07-26 | 注目判定装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002218086A JP4203279B2 (ja) | 2002-07-26 | 2002-07-26 | 注目判定装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004062393A JP2004062393A (ja) | 2004-02-26 |
JP4203279B2 true JP4203279B2 (ja) | 2008-12-24 |
Family
ID=31939379
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002218086A Expired - Fee Related JP4203279B2 (ja) | 2002-07-26 | 2002-07-26 | 注目判定装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4203279B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010143377A1 (ja) | 2009-06-08 | 2010-12-16 | パナソニック株式会社 | 注視対象判定装置及び注視対象判定方法 |
CN105917268A (zh) * | 2014-02-20 | 2016-08-31 | Lg电子株式会社 | 头戴式显示器及其控制方法 |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4510562B2 (ja) * | 2003-09-09 | 2010-07-28 | 富士フイルム株式会社 | 円中心位置検出方法および装置並びにプログラム |
JP4586963B2 (ja) * | 2004-05-06 | 2010-11-24 | ノーリツ鋼機株式会社 | 自動瞳補正方法 |
JP2006185271A (ja) * | 2004-12-28 | 2006-07-13 | Matsushita Electric Ind Co Ltd | 画像処理装置、画像処理方法、およびプログラム並びに記録媒体 |
CN101326546B (zh) | 2005-12-27 | 2011-10-12 | 松下电器产业株式会社 | 图像处理装置 |
JP5771127B2 (ja) * | 2011-11-15 | 2015-08-26 | 日本放送協会 | 注目度推定装置およびそのプログラム |
US20130205314A1 (en) * | 2012-02-07 | 2013-08-08 | Arun Ramaswamy | Methods and apparatus to select media based on engagement levels |
KR20140090552A (ko) * | 2013-01-09 | 2014-07-17 | 엘지전자 주식회사 | 시선 캘리브레이션을 제공하는 헤드 마운트 디스플레이 및 그 제어 방법 |
US9619021B2 (en) | 2013-01-09 | 2017-04-11 | Lg Electronics Inc. | Head mounted display providing eye gaze calibration and control method thereof |
JP2016028669A (ja) | 2014-07-23 | 2016-03-03 | 株式会社Jvcケンウッド | 瞳孔検出装置、および瞳孔検出方法 |
JP2016224142A (ja) * | 2015-05-28 | 2016-12-28 | 富士通株式会社 | 評価方法、プログラム及び評価装置 |
WO2017203769A1 (ja) * | 2016-05-23 | 2017-11-30 | アルプス電気株式会社 | 視線検出方法 |
EP3305176A1 (en) | 2016-10-04 | 2018-04-11 | Essilor International | Method for determining a geometrical parameter of an eye of a subject |
-
2002
- 2002-07-26 JP JP2002218086A patent/JP4203279B2/ja not_active Expired - Fee Related
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010143377A1 (ja) | 2009-06-08 | 2010-12-16 | パナソニック株式会社 | 注視対象判定装置及び注視対象判定方法 |
US8678589B2 (en) | 2009-06-08 | 2014-03-25 | Panasonic Corporation | Gaze target determination device and gaze target determination method |
CN105917268A (zh) * | 2014-02-20 | 2016-08-31 | Lg电子株式会社 | 头戴式显示器及其控制方法 |
CN105917268B (zh) * | 2014-02-20 | 2019-03-12 | Lg 电子株式会社 | 头戴式显示器及其控制方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2004062393A (ja) | 2004-02-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6942488B2 (ja) | 画像処理装置、画像処理システム、画像処理方法、及びプログラム | |
JP6700752B2 (ja) | 位置検出装置、位置検出方法及びプログラム | |
JP4085959B2 (ja) | 物体検出装置、物体検出方法、および記録媒体 | |
JP4203279B2 (ja) | 注目判定装置 | |
JP3761059B2 (ja) | ヒトの顔を検出する方法および装置、ならびに観察者トラッキングディスプレイ | |
US6677969B1 (en) | Instruction recognition system having gesture recognition function | |
JP4597391B2 (ja) | 顔領域検出装置およびその方法並びにコンピュータ読み取り可能な記録媒体 | |
JP5613741B2 (ja) | 画像処理装置、方法、及びプログラム | |
JPH0944685A (ja) | 顔画像処理装置 | |
JP4729188B2 (ja) | 視線検出装置 | |
JP2003070742A (ja) | 視線検出装置及び視線検出方法 | |
CN114894337B (zh) | 一种用于室外人脸识别测温方法及装置 | |
RU2370817C2 (ru) | Система и способ отслеживания объекта | |
US20230394832A1 (en) | Method, system and computer readable media for object detection coverage estimation | |
JP4235018B2 (ja) | 移動物体検出装置、移動物体検出方法及び移動物体検出プログラム | |
JP4348028B2 (ja) | 画像処理方法、画像処理装置、撮像装置及びコンピュータプログラム | |
CN112633217A (zh) | 基于三维眼球模型计算视线方向的人脸识别活体检测方法 | |
JP6331761B2 (ja) | 判定装置、判定方法及び判定プログラム | |
JP3862402B2 (ja) | 3次元モデル生成装置および3次元モデル生成プログラムを記録したコンピュータ読取可能な記録媒体 | |
JP5876121B2 (ja) | 画像処理装置、方法、及びプログラム | |
JP3963789B2 (ja) | 眼検出装置、眼検出プログラム、そのプログラムを記録する記録媒体及び眼検出方法 | |
JP2016194847A (ja) | 画像検出装置、画像検出方法およびプログラム | |
JP4664805B2 (ja) | 顔端検出装置、顔端検出方法、及び、プログラム | |
JP2021009493A (ja) | 画像処理装置、画像処理装置の制御方法及びプログラム | |
JPH11283040A (ja) | 操作制御装置および動作解析プログラムを記録したコンピュ―タ読み取り可能な記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20031031 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20040129 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20050315 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20050315 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050712 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20050907 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080610 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080804 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080916 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20081010 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111017 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141017 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |