JP4729188B2 - 視線検出装置 - Google Patents
視線検出装置 Download PDFInfo
- Publication number
- JP4729188B2 JP4729188B2 JP2001089886A JP2001089886A JP4729188B2 JP 4729188 B2 JP4729188 B2 JP 4729188B2 JP 2001089886 A JP2001089886 A JP 2001089886A JP 2001089886 A JP2001089886 A JP 2001089886A JP 4729188 B2 JP4729188 B2 JP 4729188B2
- Authority
- JP
- Japan
- Prior art keywords
- pupil
- personal computer
- camera
- detection
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Eye Examination Apparatus (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
【発明の属する技術分野】
本発明は、視線検出装置に関するものである。
【0002】
【従来の技術】
従来より、人物の視線や動作など、人間をセンシングして得られる情報と、物体センシングにより構築された周辺環境とから、その人の要望を察知し、その人の意図に適したサービスを提供することが提案されている。これらを実現するためには、人間とその周辺環境をセンシングし、その人が何を見て、どのような動作を行っているかを知ることが重要なこととなる。このとき、視線情報はその人が注目している物又は、その人の意図や状況を推定するのに欠かせない情報の1つである。
【0003】
視線を検出する視線検出方法としては、以下のようなものが知られている。即ち、視線検出用光源を有するゴーグル型の視線検出装置を検出対象者の頭部に装着させ、前記光源から赤外光を眼部に照射する。そして、視線検出装置内に設けられた受光センサが眼部(瞳孔と角膜)にて反射する反射光を受光し、その反射光に基づいて視線を検出する。
【0004】
【発明が解決しようとする課題】
しかしながら、上記のような視線検出方法では、頭部(眼部)にいちいちゴーグル型の装置を装着しなくてはならず、非常に煩わしいという問題があった。また、通常ゴーグル型の視線検出装置は、検出した視線に基づいて所定の処理や制御を行う制御用コンピュータ等に有線接続されているため、移動範囲が規制され、広い室内空間等では使用できないという問題があった。
【0005】
本発明は上記問題点を解決するためになされたものであり、その目的は、装置を検出対象者に装着させることなく、広い室内空間でも好適に視線を検出することができる視線検出装置を提供することにある。
【0006】
【課題を解決するための手段】
上記問題点を解決するために、請求項1に記載の発明は、撮像装置が撮像した画像データから、人物の顔領域を検出する第1検出部と、該人物の瞳領域と、瞳孔領域とを検出する第2検出部と、第2検出部が検出した瞳領域と瞳孔領域の位置関係に基づいて視線を推定する推定部とを備えたことを要旨とする。
【0007】
請求項2に記載の発明は、請求項1において、第1検出部が検出した顔が正面顔か否かを判定する判定部をさらに備え、推定部は判定部が正面顔と判定した画像データのみを対象に推定を行うことを要旨とする。
【0014】
(作用)
請求項1の発明によれば、第1検出部が撮像装置が撮像した画像データから、人物の顔領域を検出し、第2検出部が該人物の瞳領域と、瞳孔領域とを検出して、推定部が第2検出部が検出した瞳領域と瞳孔領域の位置関係に基づいて視線を推定する。
【0015】
請求項2の発明によれば、さらに判定部が第1検出部が検出した顔が正面顔か否かを判定し、推定部は判定部が正面顔と判定した画像データのみを対象に推定を行う。
【0019】
【発明の実施の形態】
以下、本発明の視線検出装置を具体化した一実施の形態を図1〜図10を参照して説明する。
【0020】
本実施形態の視線検出装置10は、複数台の電気機器17(例えば、テレビ、オーディオ、エアコン等)をオンオフ等の制御をする場合に、視線検出装置10が検出した視線上の電気機器17に対して対応するコマンド信号を付与するためのものである。
【0021】
例えば、テレビがオフ状態(又はオン状態)の際に、テレビが配置されている方向に視線が向けられた際に、その視線を検出して、コマンド信号としてオン信号(又はオフ信号)を付与する。
【0022】
視線検出装置10は、撮像手段としての複数台(本実施形態では4台)のビデオカメラ(CCDカメラ)11、カメラ用パソコン14、メインパソコン16等を備えている。前記ビデオカメラ11は、複数台の電気機器17(例えば、テレビ、オーディオ、エアコン等)が配置された地点と同一箇所に配置されている。本実施形態ではカメラ用パソコン14が顔向き推定手段、判定手段、目領域検出手段、瞳孔検出手段、及び瞳検出手段に相当し、メインパソコン16が視線推定手段に相当する。また、ビデオカメラ11は任意の位置に配置されており、各ビデオカメラ11の位置が所定ポイントに相当する。
【0023】
各ビデオカメラ11には、カメラ用パソコン14がそれぞれ接続されている。カメラ用パソコン14には、ビデオカメラ11で撮影された個々のフレーム(画像データ)が、ビデオレートのカラー画像(640×480)として入力されるようになっている。
【0024】
カメラ用パソコン14はメインパソコン16に接続されており、メインパソコン16は、各カメラ用パソコン14との通信をイーサネット(登録商標)を介したソケット通信で行うようにしている。また、ネットワーク・タイムサーバシステムが用いられており、メインパソコン16がタイムサーバとして設定され、各カメラ用パソコン14の時刻がメインパソコン16に合わされるようになっている。又、メインパソコン16は、各電気機器17(例えば、テレビ、オーディオ、エアコン等)に電気的に接続されており、視線検出装置10の視線検出結果に応じてオンオフ制御する。すなわち、現在の電気機器17の状態に応じたコマンド信号を出力する。例えば、電気機器17がオン状態のときには、コマンド信号としてオフ信号が、オフ状態のときには、コマンド信号としてオン信号が出力される。なお、メインパソコン16と各電気機器17を有線接続せずに、赤外線でコントロールしてもよく、つまり無線で制御する態様をとってもよい。
【0025】
(作用)
以下、本実施形態の視線検出装置10の作用について説明する。まず、視線検出装置10が行う視線検出の概要を説明する。
【0026】
各ビデオカメラ11は、検出対象者Hを撮像し、各カメラ用パソコン14に入力する。各カメラ用パソコン14はビデオカメラ11からの画像のキャプチャを行い、続いて肌色領域抽出、顔向き推定を行い、顔向き推定結果が所定条件を満たすか否かを判定し、条件を満たす画像データから目領域32を検出する。そして、検出された目領域32から、瞳の大きさを正規化し、瞳の中心部位(瞳中心)C1及び瞳内の瞳孔の位置(瞳孔中心)C2を算出し(図9参照)、2点間の距離を算出(計測)する。カメラ用パソコン14はその距離の演算結果をメインパソコン16に送信し、メインパソコン16は、その距離の大小を比較することで複数のビデオカメラ11のうち何れのビデオカメラ11に視線を送っているか、即ち視線を検出する。
【0027】
以下、図2のフローチャートを参照して詳細に説明する。
メインパソコン16からカメラ用パソコン14へ、開始要求信号が送信されるとこのフローチャートは開始される。そして、メインパソコン16からカメラ用パソコン14へ、終了要求信号が送信されるまで、S1〜S11の処理が繰り返し行われる。
【0028】
ステップ(以下「S」と略す)1において、まず、カメラ用パソコン14は、ビデオカメラ11からの画像のキャプチャを行うか否かの判定を行う。即ち、本実施形態では、ビデオカメラ11からの画像のキャプチャは所定間隔(例えば0.3秒)毎に行われるようになっており、各カメラ用パソコン14は、その時刻か否かを判定する。そして、画像をキャプチャする時刻であると判断した場合は(S1がYES)、各カメラ用パソコン14はビデオカメラ11からの画像のキャプチャを行う(S2)。一方、カメラ用パソコン14が画像をキャプチャする時刻ではないと判断した場合は(S1がNO)、この判定を繰り返す。なお、各カメラ用パソコン14の時刻はメインパソコン16に合わされているため、各カメラ用パソコン14は、同時刻に画像のキャプチャを行うようになっている。
【0029】
(顔領域検出)
各カメラ用パソコン14は、ビデオカメラ11からのフレーム(画像データ、例えば図3参照)をキャプチャした後、顔領域検出を行う。顔領域検出は、色情報を用いた公知の肌色基準値による手法を用いている。本実施形態では、均等知覚色空間の1つであるCIE L*u*v 表色系を用いている。
【0030】
まず、入力された画像データから、画像の全領域に亘り、U,V座標値による2次元色ヒストグラムを求め、予め定めた肌色有効範囲内のピーク値(度数が最大の値)を肌色基準値とする。その基準値からの色差に対して公知の判別分析法を適用して閾値を決定し、その閾値に基づいて肌色領域とその他の領域に2値化する(図4参照)。本実施形態では、検出対象者Hが一人の場合を想定しているため、複数の肌色領域が検出された場合には、各カメラ用パソコン14は最大領域を顔領域31と判定する(S3)。すなわち、抽出された複数の肌色領域にて、画素数(面積)を求め、最大面積Smax の領域を顔領域31とする。なお、以下の説明において、前記U,V座標値は、説明の便宜上UV値又はU値,V値というときもある。
【0031】
(顔向き推定)
次に、S4において、各カメラ用パソコン14は対応するビデオカメラ11から得た画像データに基づいて顔向き推定を行う。
【0032】
本実施形態では、顔向き推定は、4方向面特徴抽出した結果を線形判別分析により、顔向きの判別空間を作成する方法で行っている。
4方向面特徴抽出では、画像データの濃淡値の勾配により各画素での4方向(縦、横、右斜め45度、左斜め45度)のベクトル場を求め、方向別に分割したエッジ画像を得る。得られたエッジ画像は方向性を持った濃淡画像となる。
【0033】
具体的には、S3において入力した画像データからPrewitt オペレータを用いて、微分フィルタとしてのプレヴィットフィルタ処理を行い、水平(横)、垂直(縦)、右上がり45度(右斜め45度)、右下がり45度(左斜め45度)の4方向のそれぞれのエッジ画像を生成する。これらのエッジ画像を、以下、方向面という。次に、これらの4方向面のそれぞれの画像を顔領域31で正規化し、8×8に低解像度化して、各方向面の画素の濃淡値を特徴量(以下、特徴ベクトルという。)として抽出する。
【0034】
この特徴ベクトルは4つの方向面に分けてから解像度を低くしているため、入力画像の解像度を直接低くする場合よりも、高解像度でエッジ情報が保持される。その結果、位置ずれや、形状変化の影響を受けにくく、かつ計算コストを削減して処理の高速化が可能となる。
【0035】
次に、各カメラ用パソコン14は線形判別分析を行う。なお、線形判別分析は、抽出された特徴量(特徴ベクトル:xi)が、どのクラスに属するかを判別するためのものであり、クラス内の分散が小さく、各クラスの平均特徴ベクトルが互いに離れるような判別空間を構成すると高い判別力が得られる。図5は判別分析に係るクラスを示した概念図である。
【0036】
本実施形態では、予め、学習データに基づいた係数行列Aが各カメラ用パソコン14の記憶装置(図示しない)に記憶されている。
なお、学習データは、複数の検出対象者Hである人物を撮像して得た画像データに基づいたデータである。すなわち、図7に示すように、光軸を室内中心に向けるように等角度間隔(本実施形態では22.5度間隔)で放射状に配置された16台のビデオカメラ11により、16方向から得た画像データを得て、上記と同様に顔領域検出と、同顔領域31における4方向面特徴抽出を行い、特徴ベクトルxを求める。
【0037】
x={x1,x2,……x256}
なお、16台のビデオカメラ11を使用する代わりに、例えば、1台のビデオカメラ11を使用して、検出対象者Hが室内中心を中心に等角度毎に回転するたびに撮像し、そのときの画像データを学習用データに使用しても良い。
【0038】
この特徴ベクトルxから判別空間の特徴ベクトルy(=Ax)へ線形写像する係数行列Aが求められており、かつ各クラス(本実施形態では学習データを取り込むときに使用した22.5度間隔に配置したビデオカメラ11に応じた16のクラス)が生成され、クラスの平均特徴ベクトルyj が算出されている。そして、前記係数行列Aと、各クラスの平均特徴ベクトルyj のデータが、予め各カメラ用パソコン14の記憶装置に格納されている。
【0039】
なお、本実施形態では、クラス番号jは、0、22.5、45、67.5、90、112.5、135、157.5、180、−157.5、−135、−112.5、−90、−67.5、−45、−22.5の等差となる16の値である。図7に示すように、各クラス番号(数値)はカメラ用パソコン14に係るビデオカメラ11の光軸(カメラ方向)に対する相対顔方向(相対的な顔向き)とのなす角度と一致する。図7は検出対象者Hを中心に22.5度間隔で16方向に配置したビデオカメラ11の配置を示し、各カメラから検出対象者Hを撮像した場合の、各カメラから得られる画像データに対するクラス付与の内容を示している。同図において、例えば−22.5が付与されたカメラから検出対象者Hを撮像した画像データには、クラス−22.5が付与される。本実施形態では、相対顔方向に係るクラス番号0度が、正面顔を撮像した場合としている。なお、「−」は、図7において、当該ビデオカメラ11の光軸から反時計回り方向の角度を示す。
【0040】
そして、未知データの識別を行う線形判別分析では、前記係数行列Aに基づいて、未知データから抽出した4方向面特徴に係る特徴ベクトルxi を写像変換し、特徴ベクトルyi (=Axi )を生成する。次に、生成された特徴ベクトルyi と、各クラスの平均特徴ベクトルyj とのユークリッド距離の2乗である距離(以下、2乗距離という)Dijを、以下の式(1)で演算し、2乗距離Dijが最小値となるクラスを決定することにより、パターン認識を行う(図6参照)。その後、最小値を含む下位3つの2乗距離Dijの値に対応したクラスを用いて以下の式(2)にて、カメラ方向(ビデオカメラ11の光軸γが向く方向、図1参照)と相対顔方向(光軸γに対する相対的な顔向き)βとのなす角度Fを推定する。なお、図6中のDjは、iが省略されており、本明細書中では、Dijに相当する。
【0041】
Dij=|yi −yj |2 …(1)
【0042】
【数1】
なお、式(2)において、iはクラス番号を示し、本実施形態ではn=3を想定している。このため、最小値を含む下位3つの2乗距離Dijに対応したクラス番号が、最小値に対応するクラス番号から順にiに代入される。θは各クラスにおける顔向きの相対角度(カメラ方向に対する相対顔方向のなす角度=クラス番号)を示す。また、式(2)中において、2乗距離Dijはj が省略されている。
【0043】
(顔向き判定)
S5においては、各カメラ用パソコン14はS4で行った顔向き推定の結果を利用して、相対顔方向においてその推定された顔向きの角度が所定角度(本実施形態では±20度)範囲内であるか否かを判定する。そして、所定角度内であれば(S5がYES)、S6に進む。なお、この推定された角度が所定角度(例えば±20度)範囲内であるか否かという条件を、本実施形態では所定条件ということがある。
【0044】
このとき、ビデオカメラ11は、一定間隔毎に配置していないため、相対顔方向の角度Fが所定角度(±20度)内である画像データ、換言すれば、前述した所定条件を満たす画像データは1つとは限らない。従って、本実施形態では、相対顔方向の角度Fが所定角度内の正面顔を撮像したカメラ11が2つあり、ビデオカメラ11A及びビデオカメラ11Bで捉えた画像データが視線が向けられた候補、即ち、所定条件を満たし、後述する目領域検出の対象として判断されたものとして、以下の説明を続ける。なお、推定された顔向きの角度Fが所定条件を満たしていない(S5がNO)と判定したカメラ用パソコン14は、今回の画像データについては、以下のステップを行わず、このフローチャートを終了する。
【0045】
(視線検出)
次のS6〜S10の概要を説明すると、ビデオカメラ11A及びビデオカメラ11Bにおけるカメラ用パソコン14は、顔領域31の中から目領域32を検出する(図9参照)。そして、瞳領域35を検出すると共に、その瞳領域35の大きさを正規化し、さらにそこから瞳孔領域36を検出し、瞳中心C1と瞳孔中心C2を算出して両位置間の距離を演算(計測)する。そして、その距離の演算結果をメインパソコン16に送信する。メインパソコン16はビデオカメラ11A,11Bの各カメラ用パソコン14から受信した前記距離の演算結果を比較して視線を検出(推定)する。本実施形態では、瞳中心C1が第1所定部位、瞳孔中心C2が第2所定部位にそれぞれ相当する。
【0046】
(目領域検出)
さて、S6において、まず、カメラ用パソコン14は、画像データについて肌色基準値を再算出し、肌色領域を抽出する。抽出された肌色領域のうち、最大領域を顔領域31と判定する。
【0047】
カメラ用パソコン14は、その顔領域31に基づき、4方向面特徴と色差面特徴を用いたテンプレートマッチング手法により、それぞれ目領域32、並びに口領域を検出する。
【0048】
ところで、今回の画像データの1つ前に本フローチャートを用いて処理された画像データにおいて、このS6で目領域32及び口領域が検出されていた場合は、前回の検出結果に基づいて、今回得られた顔領域31を所定領域削除し、顔領域31が前記所定領域分狭められた探索範囲として設定されるようになっている。そして、今回の画像データに関しては、前記探索範囲が用いられ、テンプレートマッチング手法により目領域32及び口領域の検出が行われる。なお、テンプレートマッチングを行った結果、前記探索範囲に対して目領域32及び口領域が検出されなかった場合は、再度、顔領域31に対して両領域の検出が行われるようになっている。
【0049】
ここで、前記テンプレートマッチング手法について説明する。
この手法は、得られた画像データから、前述した4方向面特徴抽出にて4方向面特徴(方向面)、及びU,V座標値による色差面特徴を抽出し、肌色領域抽出で得られた肌色領域(顔領域31)又は探索範囲に対して、右目、左目、口の各テンプレートを用いて類似度を計算する。
【0050】
なお、前記色差面特徴は、肌色基準値からのU値の差、及びV値の差を示すものである。また、前記テンプレートとは、予め、右目、左目、口の画像を複数枚用意し、4方向面特徴及び色差面特徴を抽出した画像データを、所定比率で縮小し、横幅を所定ピクセル(例えば32ピクセル)に揃え、大きさの正規化を行う。そして、4方向面特徴に関しては、エッジ方向情報を4方向に分解し、さらに、4方向面特徴及び色差面特徴に対してガウシャンフィルタで平滑化し、各画像データを8×8の解像度に変換したものである。このテンプレートは、記憶装置(図示しない)に記憶されている。
【0051】
そして、前記テンプレートTと画像データ(入力画像)Iとの4方向面特徴の類似度aを以下の式(3)で算出し、色差面特徴の類似度bを以下の式(4)で算出する。
【0052】
【数2】
(3)、(4)式中、Iは入力画像を示し、Tはテンプレートを示す。i、jは、1〜m、1〜nの値であり、m×n画素のテンプレート及び入力画像に対応している。(x,y)は入力画像の左上座標を示す。また、(4)式中Tu,TvはテンプレートのUV値、Iu,Ivは画像データのUV値を示し、Umax ,Vmax はUV値の最大範囲を示す。本実施形態では、CIE L*u*v 表色系を用いており、このCIELUV表色系において、処理の高速化及び記憶装置の空間を節約するため、Umax =256,Vmax =256としている。
【0053】
次いで、これらの式(3),(4)で算出した、各類似度a,bに基づいて、以下の式(5)により、最終的な類似度cを算出する。
c=Wa ×a+Wb ×b …(5)
(5)式中Wa,Wbは、重み付けとして、各類似度a,bに掛け合わせられる所定の定数であり、Wa +Wb =1を満たしている。なお、本実施形態では、Wa =Wb =0.5としている。
【0054】
その演算結果を元に、前記類似度cが予め設定された閾値以上の箇所を、目の候補領域とする。そして、入力画像(画像データ)には、左上座標が予め付与されており、その座標に基づき目、口の位置関係が把握できる。従って、その座標に基づいて、例えば、目は口より上にある、右目と左目の配置等、目、口の大まかな位置関係(座標位置)を満たし、最も類似度cの高い組み合わせを目領域32並びに口領域として決定する。この結果、顔領域31の中で目領域32が検出される。
【0055】
(瞳検出)
次にS7において、検出された目領域32からカメラ用パソコン14は瞳の中心C1を検出する瞳検出を行う。なお、本実施形態では、S6にて検出された目領域32のうち何れか一方(例えば右目)の目領域32について、以下に説明する瞳検出及び瞳孔検出を行う。
【0056】
まず、目領域画像の彩度値ヒストグラムを作成して、公知の判別分析法を適用し、顔領域31を目領域32と肌領域(顔領域の目領域32以外の領域)とに分離する。一般的に、肌領域の彩度は高く、目領域32の彩度は低い。このため、この分離処理はその特性を利用している。次いで、前記目領域画像の輝度ヒストグラムを作成して、公知の判別分析法を適用し、分離された目領域32を、瞳領域35と白目領域34とに分割する。
【0057】
その後、瞳領域35の検出結果を元に、瞳領域35を縮小又は拡大し、所定の大きさに正規化する。そして、瞳領域35に対して円形状の補完を行う。この際、前述したように、彩度値ヒストグラム及び輝度ヒストグラムにそれぞれ判別分析法を適用して分割することで得られた瞳領域35内には図8(a)に示すように、瞼による陰影35aの存在が考えられる。このとき、通常、画像の濃淡値を8ビットで表した場合、濃淡値0が黒、濃淡値256が白となる。従って、領域分割結果における濃淡値0(黒色)の領域に対して、水平射影ヒストグラムを作成し(図8(b)参照)、同ヒストグラムにおいて縦軸方向の上部に示されるように、極端なピークをもつ部分を予め設定された閾値に基づいて削除する。つまり、瞼による陰影35aの部分は該ヒストグラム上でピークとして現れ、それを削除することで、図8(c)に示すような、瞳領域35のみが抽出される。なお、本実施形態では、縦軸方向は、図8(a)〜(c)及び図9において上下方向を示し、横軸方向は、図8(a)〜(c)及び図9において左右方向を示す。
【0058】
次に、目領域32に対して、白目領域34と瞳領域35の濃淡の違いを利用して、Prewitt オペレータを用い図8(c)に示す瞳領域35のエッジ画像を生成することで、輪郭(エッジ)を抽出する。その後、その輪郭を構成する点群に対して公知のハフ変換を用いて瞳領域35の円方程式を求める。この結果、前記円方程式から瞳中心C1が検出される(図9参照)。
【0059】
(瞳孔検出)
次いで、S8において、検出された瞳領域35からカメラ用パソコン14は瞳孔の中心C2を検出する瞳孔検出を行う。このとき、瞳孔領域36は非常に小さいため、瞳領域34までを検出していた画像データでは、瞳孔と虹彩の濃淡の違いを判別してエッジ抽出を行うことができず、これに伴い瞳孔中心C2を検出できない。このため、ビデオカメラ11A,11Bがズームアップされ、図9に示すように、目領域32を拡大した画像データが取得される。
【0060】
そして、瞳領域35(虹彩)と瞳孔領域36の濃淡の違いを利用して、Prewitt オペレータを用い、瞳孔領域36のエッジ画像を生成することで、輪郭(エッジ)を抽出する。その後、瞳の大きさに基づいて瞳孔の大きさを推定し(例えば、瞳の1/3〜1/5)、その推定結果を利用して、前記輪郭を構成する点群に対して公知のハフ変換にて瞳孔領域36の円方程式を求める。このとき、瞳には、様々なものが映し出されるため、前記Prewitt オペレータによる瞳孔領域36のエッジ抽出の際には、瞳孔領域36以外の輪郭(エッジ)が検出されるおそれがある。このため、瞳中心C1近辺で検出されたエッジのみを用い、瞳孔領域36の検出精度を高めている。そして、前記円方程式から瞳孔中心C2が検出される(図9参照)。
【0061】
(視線決定(カメラ決定))
次いで、S9において、図9に示すように、カメラ用パソコン14は演算された瞳中心C1及び瞳孔中心C2から、両位置間の距離、即ち、瞳中心C1に対する瞳孔中心C2のズレ量を算出(計測)する。そして、算出したズレ量の結果を各カメラ用パソコン14は、メインパソコン16に送信する。なお、各カメラ用パソコン14の時刻はメインパソコン16に合わされているため、各カメラ用パソコン14から送信されるズレ量はそれぞれ同時刻にキャプチャした画像データから算出されたものになっている。
【0062】
S10において、メインパソコン16は、ビデオカメラ11Aのカメラ用パソコン14から受信したズレ量と、ビデオカメラ11Bのカメラ用パソコン14から受信したズレ量とを比較し、視線が向けられているビデオカメラを決定する。このとき前記ズレ量が小さい方を視線が向けられているビデオカメラとする。視線が決定すると、メインパソコン16は、視線が向けられたビデオカメラに対応する電気機器17へコマンド信号を出力する(S11)。このようにして視線は検出される。
【0063】
従って、上記実施形態によれば、以下のような効果を得ることができる。
(1)上記実施形態では、カメラ用パソコン14は、推定した顔向きの角度に基づいて、画像データが所定角度範囲内の正面顔を捉えているか否かを判定し、その条件を満たす画像データの目領域32における瞳領域35の大きさを正規化した後に、瞳中心C1と瞳孔中心C2を算出し、両位置のズレ量を算出する。そして、メインパソコン16は、各ビデオカメラ11A,11Bに対応したそれぞれのズレ量を比較し、そのズレ量が最も小さいビデオカメラ11Aに視線を向けているという視線推定を行う。このため、従来と異なり、頭部に装置を装着することなく、広い室内空間でも好適に視線を検出できる。また、正面顔を撮像するビデオカメラが複数存在する場合でも、ズレ量の比較により、視線が向けられているカメラを正確に推定できる。
【0064】
(2)上記実施形態では、瞳孔検出を目領域32を拡大した画像データを取得した上で行った。このため、瞳孔と虹彩の濃淡の違いを確実に判別することができ、好適に瞳孔検出を実現できる。
【0065】
(3)上記実施形態では、視線を検出するために行う瞳孔検出を、ズームアップしたビデオカメラ11で捉えた画像データに対して、Prewitt オペレータを用いて輪郭(エッジ)を抽出し、さらにその点群に対してハフ変換を行うことで実現した。このため、例えば各ビデオカメラ11に光源を設け、その光源からそれぞれ赤外光を照射し、瞳領域35(瞳孔)から反射した反射光に基づいて、瞳孔中心C2を検出する場合と異なり、赤外光が乱れ飛び合い、赤外光同士がノイズとなるという問題が発生することはなく、簡便に瞳孔中心C2の検出ができる。
【0066】
(4)上記実施形態では、視線を検出するために、瞳中心C1を検出し、更に瞳孔中心C2を検出する。そして、視線の最終判断において、瞳中心C1と瞳孔中心C2とのズレ量に基づいて、どのビデオカメラに視線を向けているかを決定した。このため、目領域32内における他の部位同士のズレ量を元に視線を検出する場合と異なり、最も正確に視線の方向を検出できる。
【0067】
(5)上記実施形態では、瞳孔検出に際して、瞳中心C1近辺で検出されたエッジのみを用いて、ハフ変換で瞳孔領域36の円方程式を求めている。通常、瞳孔は、瞳中心C1の近辺に位置することが多いため瞳孔領域36の検出精度を高めることができる。
【0068】
なお、上記実施形態は以下のように変更してもよい。
・上記実施形態において、瞳孔検出を以下のような手法で行ってもよい。即ち、赤外光を照射するための光源をビデオカメラ11に備える。赤外光を用いた場合、瞳孔領域は白く映し出される。このとき、輝度の高い範囲が瞳孔領域36に相当し、輝度の低い範囲が虹彩領域に相当する。そして、閾値に基づく2値化により、瞳孔領域36(輝度の高い(明るい)範囲)を検出する。そして、前記瞳孔領域36の重心を算出し、その重心を瞳孔中心C2とする。なお、この際も、瞳孔領域36を好適に捉えるためにビデオカメラ11によるズームアップは行われる。
【0069】
このようにした場合、瞳領域35に赤外光が照射されるタイミングはメインパソコン16によって制御される。即ち、S4において、各カメラ用パソコン14で推定された相対顔方向の角度Fがメインパソコン16に入力され、その角度Fが所定条件を満たしているか否かの判断(S5の処理)がメインパソコン16で行われる。そして、メインパソコン16は所定条件を満たしているカメラ用パソコン14に対して制御信号を出力し、所定のビデオカメラ11A,11Bにおいて、各光源から順次赤外光を照射させるとともに、そのカメラ11A,11Bに対応するカメラ用パソコン14にS6〜S9の処理を再び行わせる。なお、メインパソコン16から制御信号出力されなかったカメラ用パソコン14については、今回の画像データに関してはS6以降の処理は行わない。
【0070】
このようにしても、各ビデオカメラ11A,11Bの光源からタイミングが制御された赤外光が照射されるため、赤外光が乱れ飛び合い、赤外光同士がノイズとなることはなく、簡便に瞳孔中心C2の検出ができる。また、赤外光により、瞳領域内において瞳孔領域を明確に判別できる。この場合、メインパソコン16が判定手段に相当する。
【0071】
・また、赤外光を用いた場合でも、瞳孔領域36を、Prewitt オペレータを用いたエッジ抽出及びハフ変換にて瞳孔中心C2を検出してもよい。
・上記実施形態では、視線の最終判断は、瞳中心C1と瞳孔中心C2とのズレ量に基づいて行われたが、瞳中心C1又は瞳孔中心C2の代わりに瞳領域35における他の部位を用いて、ズレ量を求めてもよい。
【0072】
・上記実施形態では、メインパソコン16と各カメラ用パソコン14との通信をイーサネット(登録商標)を介したソケット通信にて行っていたが、無線電波にて行ってもよい。
【0073】
・上記実施形態では、瞳領域35の円方程式の算出をハフ変換で行ったが、以下の手法で行ってもよい。即ち、Prewitt オペレータを用いて抽出された輪郭を構成する点群から公知の4点サンプリング法で4点をサンプリングする。そして、その4点を用いて、公知の最小二乗法によって瞳領域35の円方程式を求める。
【0074】
・上記実施形態では、S7及びS8における瞳検出、瞳孔検出を、S6において検出された目領域32のうち何れか一方の目領域32について行ったが、右・左、両方の目領域32に対して行ってもよい。この場合、各目領域32において算出されたズレ量の平均値が算出され、その値が、各画像データのズレ量とされ、比較される。このようにすれば、片目について、ズレ量を算出する場合と比較して、高精度に視線検出を行うことができる。
【0075】
・上記実施形態では、視線検出を瞳中心C1と瞳孔中心C2のズレ量に基づいて行ったが、瞳孔中心C2の代わりに、図10に示すように、目領域32の重心C3を用いてもよい。この場合、S6において、目領域32が検出された後に、その目領域32を拡大又は縮小して所定の大きさに正規化し、その正規化後の目領域32に対して、重心C3を求める。そして、S9において、瞳中心C1と目領域32の重心C3とのズレ量を算出し、視線を推定する。このようにすれば、瞳孔中心C2を利用する場合と比較して、ビデオカメラ11をズームアップする必要なしに視線検出ができる。即ち、瞳孔を検出できない低解像度の画像データからでも簡単な演算でズレ量を求めることができる。なお、このようにした場合、S8は必要なくなる。
【0076】
・上記実施形態では、複数台のビデオカメラ11が所定角度内の正面顔を撮像したとして、各カメラ用パソコン14で算出された瞳中心C1と瞳孔中心C2とのズレ量をメインパソコン16が比較することで、視線を検出したが、ズレ量同士の比較ではなく、閾値との比較で視線を検出してもよい。すなわち、例えば、1台のビデオカメラ11に対応するカメラ用パソコン14のみが、相対顔方向の角度Fが所定角度内であると判断した場合は、メインパソコン16はカメラ用パソコン14から送信されたズレ量と予め設定された閾値とを比較する。そして、前記閾値を超えた場合に、検出対象者Hがビデオカメラ11に視線を向けているという視線検出を行う。
【0077】
このようにしても、好適に視線検出を行うことができる。また、複数のカメラ用パソコン14からズレ量がメインパソコン16に送信された場合でも、各ズレ量をそれぞれ閾値と比較して視線検出を行うことも可能である。また、上記実施形態では、複数台のビデオカメラ11を設置したが、1台でもよい。
【0078】
次に、上記実施形態及び各別例から把握できる技術的思想について、それらの効果と共に以下に記載する。
(1)請求項1乃至請求項4のうちいずれか1項の視線検出装置において、前記所定ポイントは複数あり、前記判定手段が複数の画像データを正面顔であると判定した際は、前記視線推定手段は、距離計測手段が計測した距離を比較することで視線を検出する視線検出装置。このようにすれば、複数のポイントから検出対象者を撮像した場合でも、好適に視線検出を行うことができる。
【0079】
(2)請求項3に記載の視線検出装置において、前記瞳孔検出手段による瞳孔検出は、前記撮像手段が検出対象者の目領域を拡大撮像した画像データに基づいて行われる視線検出装置。このようにすれば、簡便に瞳孔検出を実現できる。
【0080】
【発明の効果】
以上詳述したように、請求項1の発明によれば、装置を検出対象者に装着させることなく、広い室内空間でも好適に視線を検出することができる。
【0081】
請求項2の発明によれば、請求項1の発明の効果に加えて、推定部が判定部により正面顔と判定された画像データのみを対象とするため、より好適に視線を検出することができる。
【図面の簡単な説明】
【図1】本発明に係る実施形態の視線検出装置の構成を示すブロック図。
【図2】同じくフローチャート。
【図3】ビデオカメラが撮像した画像データの説明図。
【図4】肌色基準で抽出した画像データの説明図。
【図5】判別分析に係るクラスを示した概念図。
【図6】パターン認識の概念図。
【図7】ビデオカメラの光軸(カメラ方向)と相対顔方向とのなす角度に対する学習データ取得の説明図。
【図8】(a)、(c)は瞳検出を示す説明図、(b)は瞳検出における水平射影ヒストグラムを示す説明図。
【図9】目領域を示した説明図。
【図10】別の実施形態における目領域を示した説明図。
【符号の説明】
H…検出対象者、C1…瞳中心、C2…瞳孔中心、
11…ビデオカメラ(撮像手段)、14…カメラ用パソコン(顔向き推定手段、判定手段、目領域検出手段、瞳孔検出手段、瞳検出手段)、16…メインパソコン(視線推定手段)、31…顔領域、32…目領域。
Claims (2)
- 撮像装置が撮像した画像データから、人物の顔領域を検出する第1検出部と、
該人物の瞳領域と、瞳孔領域とを検出する第2検出部と、
第2検出部が検出した瞳領域と瞳孔領域の位置関係に基づいて視線を推定する推定部とを備えたことを特徴とする視線検出装置。 - 第1検出部が検出した顔領域から、画像データが正面顔か否かを判定する判定部をさらに備え、
推定部は判定部が正面顔と判定した画像データのみを対象に推定を行う、請求項1に記載の視線検出装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001089886A JP4729188B2 (ja) | 2001-03-27 | 2001-03-27 | 視線検出装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001089886A JP4729188B2 (ja) | 2001-03-27 | 2001-03-27 | 視線検出装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002282210A JP2002282210A (ja) | 2002-10-02 |
JP4729188B2 true JP4729188B2 (ja) | 2011-07-20 |
Family
ID=18944748
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001089886A Expired - Fee Related JP4729188B2 (ja) | 2001-03-27 | 2001-03-27 | 視線検出装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4729188B2 (ja) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004177315A (ja) * | 2002-11-28 | 2004-06-24 | Alpine Electronics Inc | 視線方向判定装置及びそれを利用した対話システムならびに運転支援システム |
CN100342388C (zh) * | 2003-07-18 | 2007-10-10 | 万众一 | 视觉跟踪智能控制方法 |
JP2005100367A (ja) * | 2003-09-02 | 2005-04-14 | Fuji Photo Film Co Ltd | 画像生成装置、画像生成方法、及び画像生成プログラム |
JP4565445B2 (ja) * | 2004-03-18 | 2010-10-20 | 国立大学法人 奈良先端科学技術大学院大学 | 顔情報計測システム |
JP4738914B2 (ja) * | 2005-06-29 | 2011-08-03 | 富士フイルム株式会社 | 監視システム、監視方法、及び監視プログラム |
JP4881185B2 (ja) * | 2007-03-02 | 2012-02-22 | 富士フイルム株式会社 | 画像ソート装置および方法並びにプログラム |
JP2010033305A (ja) * | 2008-07-29 | 2010-02-12 | Hitachi Ltd | 画像情報処理方法、及び装置 |
US8345922B2 (en) | 2008-09-03 | 2013-01-01 | Denso Corporation | Apparatus for detecting a pupil, program for the same, and method for detecting a pupil |
JP2010282339A (ja) * | 2009-06-03 | 2010-12-16 | Seiko Epson Corp | 目における瞳の位置を補正する画像処理装置、画像処理方法、画像処理プログラム、および、印刷装置 |
JP2012038106A (ja) * | 2010-08-06 | 2012-02-23 | Canon Inc | 情報処理装置、情報処理方法、およびプログラム |
JP5538160B2 (ja) * | 2010-09-24 | 2014-07-02 | パナソニック株式会社 | 瞳孔検出装置及び瞳孔検出方法 |
JP5828167B2 (ja) * | 2011-03-30 | 2015-12-02 | 株式会社国際電気通信基礎技術研究所 | 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム |
JP6214047B2 (ja) * | 2014-06-10 | 2017-10-18 | 株式会社エンファシス | 視線検出による信号発信装置 |
JP6711346B2 (ja) * | 2017-12-13 | 2020-06-17 | オムロン株式会社 | 状態推定装置とその方法およびプログラム |
JP7103443B2 (ja) * | 2021-01-05 | 2022-07-20 | 日本電気株式会社 | 情報処理装置、情報処理方法、およびプログラム |
CN113052064B (zh) * | 2021-03-23 | 2024-04-02 | 北京思图场景数据科技服务有限公司 | 基于面部朝向、面部表情及瞳孔追踪的注意力检测方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05298015A (ja) * | 1992-04-23 | 1993-11-12 | Matsushita Electric Ind Co Ltd | 視線検出システムおよび情報処理システム |
JPH06274269A (ja) * | 1993-03-24 | 1994-09-30 | Nissan Motor Co Ltd | 視線入力装置 |
JPH09251342A (ja) * | 1996-03-15 | 1997-09-22 | Toshiba Corp | 注視箇所推定装置とその方法及びそれを使用した情報表示装置とその方法 |
JPH1091325A (ja) * | 1996-09-13 | 1998-04-10 | Toshiba Corp | 視線検出システム |
JPH11175246A (ja) * | 1997-12-12 | 1999-07-02 | Toshiba Corp | 視線検出装置及びその方法 |
JP2000331190A (ja) * | 1999-05-20 | 2000-11-30 | Atr Media Integration & Communications Res Lab | 仮想変身装置 |
JP2001101429A (ja) * | 1999-09-28 | 2001-04-13 | Omron Corp | 顔面の観測方法および顔観測装置ならびに顔観測処理用の記録媒体 |
-
2001
- 2001-03-27 JP JP2001089886A patent/JP4729188B2/ja not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05298015A (ja) * | 1992-04-23 | 1993-11-12 | Matsushita Electric Ind Co Ltd | 視線検出システムおよび情報処理システム |
JPH06274269A (ja) * | 1993-03-24 | 1994-09-30 | Nissan Motor Co Ltd | 視線入力装置 |
JPH09251342A (ja) * | 1996-03-15 | 1997-09-22 | Toshiba Corp | 注視箇所推定装置とその方法及びそれを使用した情報表示装置とその方法 |
JPH1091325A (ja) * | 1996-09-13 | 1998-04-10 | Toshiba Corp | 視線検出システム |
JPH11175246A (ja) * | 1997-12-12 | 1999-07-02 | Toshiba Corp | 視線検出装置及びその方法 |
JP2000331190A (ja) * | 1999-05-20 | 2000-11-30 | Atr Media Integration & Communications Res Lab | 仮想変身装置 |
JP2001101429A (ja) * | 1999-09-28 | 2001-04-13 | Omron Corp | 顔面の観測方法および顔観測装置ならびに顔観測処理用の記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
JP2002282210A (ja) | 2002-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4729188B2 (ja) | 視線検出装置 | |
JP6942488B2 (ja) | 画像処理装置、画像処理システム、画像処理方法、及びプログラム | |
US9818023B2 (en) | Enhanced face detection using depth information | |
JP5538909B2 (ja) | 検出装置およびその方法 | |
US6404900B1 (en) | Method for robust human face tracking in presence of multiple persons | |
US20190220685A1 (en) | Image processing apparatus that identifies object and method therefor | |
JP4597391B2 (ja) | 顔領域検出装置およびその方法並びにコンピュータ読み取り可能な記録媒体 | |
JP2013089252A (ja) | 映像処理方法及び装置 | |
JP2003070742A (ja) | 視線検出装置及び視線検出方法 | |
JP2021503139A (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
JP4203279B2 (ja) | 注目判定装置 | |
JP2011210054A (ja) | 対象物検知装置及びその学習装置 | |
CN112712059A (zh) | 基于红外热图像和rgb图像的活体人脸识别方法 | |
JP2018088049A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP3377743B2 (ja) | 移動体識別装置 | |
JPH08287216A (ja) | 顔面内部位認識方法 | |
KR20020022295A (ko) | 3차원 정보를 이용한 얼굴 인식 장치 및 방법 | |
JP4390487B2 (ja) | 頭部領域抽出装置 | |
CN113689365A (zh) | 一种基于Azure Kinect的目标跟踪定位方法 | |
JP5217917B2 (ja) | 物体検知追跡装置,物体検知追跡方法および物体検知追跡プログラム | |
CN110363192A (zh) | 物件影像辨识系统及物件影像辨识方法 | |
JP7386630B2 (ja) | 画像処理装置、画像処理装置の制御方法及びプログラム | |
JP2018185623A (ja) | 物体検出装置 | |
CN112183383A (zh) | 一种复杂化环境下测量人脸图像的信息处理方法和装置 | |
JP3569641B2 (ja) | 画像中の物体の検出装置、方法およびこの方法を記録した記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20031031 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20040129 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20050315 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20050907 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080204 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101027 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101124 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110121 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110405 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110418 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140422 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees | ||
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |