JP4978227B2 - 画像検出装置 - Google Patents

画像検出装置 Download PDF

Info

Publication number
JP4978227B2
JP4978227B2 JP2007034872A JP2007034872A JP4978227B2 JP 4978227 B2 JP4978227 B2 JP 4978227B2 JP 2007034872 A JP2007034872 A JP 2007034872A JP 2007034872 A JP2007034872 A JP 2007034872A JP 4978227 B2 JP4978227 B2 JP 4978227B2
Authority
JP
Japan
Prior art keywords
image
eye
detection
eyes
physical quantity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007034872A
Other languages
English (en)
Other versions
JP2008198078A (ja
Inventor
貴志 内藤
真一 小島
勇彦 田中
岳史 流石
太司 津田
文男 菅谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2007034872A priority Critical patent/JP4978227B2/ja
Publication of JP2008198078A publication Critical patent/JP2008198078A/ja
Application granted granted Critical
Publication of JP4978227B2 publication Critical patent/JP4978227B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像検出装置に係り、特に、撮像された画像から、検出対象物に関する情報を検出する画像検出装置に関する。
従来より、画像からの検出対象物とその状態量との検出が求められる具体的事例の一つとして、画像から目の開閉度を検出する事例が挙げられる。例えば、画像濃淡値の微分情報を用いて、目領域は横に長く、かつ凸型の弓形形状であるとの仮定の基に、目領域候補を選定し、その目領域に対して2値化画像処理を施して、その目領域の縦方向の高さから目の開閉度を算出する開閉眼判定装置が知られている(特許文献1)。この開閉眼判定装置では、まず目の位置を検出して目の領域を特定し、次に目領域における画像情報から目の開閉度を検出している。
特開平10−44824号公報
しかしながら、上記特許文献1に記載の技術では、目の位置を検出した後に、目の開閉度を検出するため、処理に時間がかかってしまう、という問題がある。
本発明は、上記の問題点を解決するためになされたもので、検出対象物に関する情報を検出する処理において、処理の高速化を図ることができる画像検出装置を提供することを目的とする。
第1の発明に係る画像検出装置は、検出対象者の顔を撮像するための撮像手段と、複数の入力ユニットを備えた入力層と複数の出力ユニットを備えた出力層とを含むニューラルネットワークであって、かつ、複数の画像の各々の複数の画素の画像特徴量の各々を前記複数の入力ユニットの各々に入力すると、前記複数の画像の各々に対応する前記検出対象者の目の有無を示す第1の物理量、及び前記検出対象者の目の開閉度を示す第2の物理量が前記複数の出力ユニットから出力されるように学習されたニューラルネットワークを用いて、前記撮像手段によって撮像された画像内を走査した各検出領域について、前記検出領域の複数の画素の画像特徴量から、出力される前記検出領域に対する前記第1の物理量及び前記第2の物理量を取得し、前記第1の物理量が最大となる検出領域の位置を、前記検出対象者の目の位置として検出し、前記第1の物理量が最大となる位置において取得された前記第2の物理量を、前記検出対象物の前記第2の物理量として検出する検出手段とを含んで構成されている。
の発明に係る画像検出装置によれば、まず、複数の画像の各々の複数の画素の画像特徴量の各々を複数の入力ユニットの各々に入力すると、複数の画像の各々に対応する検出対象者の目の有無を示す第1の物理量、及び検出対象者の目の開閉度を示す第2の物理量が複数の出力ユニットから出力されるようにニューラルネットワークを学習しておく。
そして、撮像手段によって、検出対象物を撮像し、検出手段によって、ニューラルネットワークを用いて、撮像手段によって撮像された画像の複数の画素の画像特徴量から、画像に対する第1の物理量、及び前記第2の物理量を取得し、第1の物理量が最大となる検出領域の位置を、前記検出対象者の目の位置として検出し、前記第1の物理量が最大となる位置において取得された前記第2の物理量を、前記検出対象物の前記第2の物理量として検出する。
このように、画像に対応する検出対象者の目の有無を示す物理量、及び目の開閉度を示す物理量を出力するように学習されたニューラルネットワークを用いて、撮像された画像について、検出対象者の目の有無を示す物理量、及び目の開閉度を示す物理量を検出することにより、目の位置及び目の開閉度を同時に検出することができるため、検出対象者の目の位置及び目の開閉度を検出する処理において、処理の高速化を図ることができる。
の発明に係る画像検出装置は、撮像手段によって撮像された画像において、検出対象者の顔を検出可能な所定領域を特定する領域特定手段を更に含み、検出手段は前記ニューラルネットワークを用いて、前記領域特定手段によって特定された所定領域の画像内を走査した各検出領域について、出力される前記検出領域に対する前記第1の物理量及び前記第2の物理量を取得することができる。検出対象者の顔を検出可能な所定領域を特定して、ニューラルネットワークを用いて、検出対象者の目の位置及び開閉度を検出するため、更に処理の高速化を図ることができる。
以上説明したように、本発明の画像検出装置によれば、画像に対応する検出対象者の目の有無を示す物理量、及び目の開閉度を示す物理量を出力するように学習されたニューラルネットワークを用いて、撮像された画像について、検出対象者の目の有無を示す物理量、及び目の開閉度を示す物理量を検出することにより、目の位置及び目の開閉度を同時に検出することができるため、検出対象者の目の位置及び目の開閉度を検出する処理において、処理の高速化を図ることができる、という効果が得られる。
以下、図面を参照して本発明の実施の形態を詳細に説明する。なお、本実施の形態では、画像から検出対象物としての目の位置を検出すると共に、検出対象物に関する有無及び位置以外を示す物理量としての目の開閉度を検出する目開閉度検出装置に本発明を適用した場合を例に説明する。
図1に示すように、本実施の形態に係る目開閉度検出装置10は、検出対象物としての目を有する検出対象者12を撮像するためのカメラ14と、カメラ14によって撮像された画像を撮り込む画像撮り込み装置16と、画像撮り込み装置16で得られた画像に対して所定の画像処理を行う画像処理装置18とを備えている。
カメラ14は、画像信号を生成するCCDイメージセンサと、CCDイメージセンサで生成された画像信号をA/D変換するA/D変換部とを備えている。また、画像取り込み装置16は、カメラ14でA/D変換された画像信号を一時的に格納するためのメモリを備えている。
画像処理装置18は、画像処理を行うCPUと、ワークエリアであるRAMと、CPUの制御プログラムが記憶されているROMと、後述する学習用の画像を複数記憶したハードディスクとを備えている。また、ハードディスクには、後述する学習処理ルーチンや目検出処理ルーチンを実行するためのプログラムや、その他のプログラムが記憶されている。
画像処理装置18では、パターン識別機としてニューラルネットワークを用いており、このニューラルネットワークは、入力された画像について、特に目の有無および目の開閉度を同時に検出するネットワーク構造となっている。
ここで、画像処理装置18で用いられるニューラルネットワークについて説明する。図2に示すように、入力層、中間層、及び出力層からなる3層構成のニューラルネットワークであり、入力層にはn個の入力ユニット(nは2以上の自然数)、中間層にはm個の中間ユニット、出力層には2つの出力ユニットを各々備えている。ここで、nは画像から得られる画像特徴量の次元数に依存し、例えば、入力される画像の画素数と等しい値である。また、mはnに応じて経験的に定めておく値である。
次に、図3を用いて、目の有無および目の開閉度を検出するためにニューラルネットワークの入力ユニットに入力される画像特徴量について説明する。まず、図3(A)に示すような右目の探索領域画像から、目位置及び目開閉度を検出するための検出領域(図3(A)の破線矩形参照)を切り出して、図3(B)に示すような検出領域の濃淡画像を生成し、次に、この濃淡画像に対してソーベルオペレータによる微分処理を施して、図3(C)に示すようなエッジ画像を取得する。
そして、エッジ画像の複数の画素の強度値を、複数の画像特徴量として、ニューラルネットワークの各入力ユニットへの入力データとする。なお、図3(C)のエッジ画像の横がw画素、縦がh画素である場合には、ニューラルネットワークの入力層の入力ユニット数nはw*hとなる。
なお、上記では、画像特徴量として、ソーベルオペレータによる微分処理の強度値を例に示したが、プレビットオペレータによるエッジ情報や、4つのプレビットオペレータを用いた4方向面特徴などを、入力ユニットへの画像特徴量として用いてもよい。更には、切り出した濃淡画像やエッジ画像に対して、リサイズ処理などを施した後のデータを、目位置及び目開閉度の検出領域の画像特徴量として、ニューラルネットワークへの入力データとしてもよい。
また、図3(C)の各画素の画像特徴量が、ニューラルネットワークの入力層の複数の入力ユニットに入力されると、その結果として出力層の2つの出力ユニットから出力値O1、O2が出力され、出力値O1から、検出領域内に目があるか否かを示す値を得て、また、出力値O2から、検出領域内に存在する目の開閉度を得る。
出力値O1は、入力される検出領域内に目があれば1.0に近い値となり、目が存在しないのであれば0.0に近い値となる。また、出力値O2は、目が存在し、かつ目が大きく開いている場合には1.0に近い値となり、目が閉じている場合には0.0に近い値となる。
次に、ニューラルネットワークの学習について説明する。まず、ニューラルネットワークを学習させるための学習画像として、図4に模式的に示すように、学習被験者の目の画像(以下、目画像と呼ぶ。)を複数用意しておく。なお、開眼から閉眼までの状態を表す画像を複数用意しておくことが好ましい。
ここで、これらの学習画像を用いたニューラルネットワークの興奮学習について説明する。まず、図4(A)に示すように、検出領域の中心位置が被験者の目の中心位置と一致するように検出領域を設定し、検出領域の画像の各画素に関する上述した画像特徴量を、ニューラルネットワークの入力層の各入力ユニットに入力する。ここで、図4(A)の検出領域の画像は、目を含んでおり、かつ目の開度がほぼ全開であるため、教師信号として、O1、O2各々に1.0を与えて、誤差伝播法によりニューラルネットワークの学習を行う。また、図4(B)に示すような検出領域の画像の各画素の画像特徴量を、ニューラルネットワークの入力層の各入力ユニットに入力すると共に、この検出領域の画像は目を含んでいるため、教師信号O1=1.0を与え、図4(A)の画像に比べて若干目を閉じているため、教師信号O2=0.75を与えて学習を行う。また、図4(C)に示すような検出領域の画像の各画素の画像特徴量を各入力ユニットに入力する場合には、この検出領域の画像に含まれる目が更に目を閉じているため、教師信号O1=1.0、教師信号O2=0.25を与えて学習を行う。
また、図4(D)に示すような検出領域の画像の各画素の画像特徴量を各入力ユニットに入力する場合には、検出領域の画像は目を含んでいるが、目をほとんど閉じているため、教師信号O1=1.0、教師信号O2=0.0を与えて学習を行う。なお、教師信号O2の設定方法については後述する。
さらには、正しく目の位置を検出できるように、逆に言えば検出領域内に目が存在していても、目の中心が検出領域の中心からずれている場合は、教師O1の値が大きくならないように、目に対する抑制学習を行う。具体的には、図4(E)〜(H)に示すように、検出領域内に目がある程度含まれている状態で、かつ検出領域の中心位置が目の中心位置からずれるように検出領域を設定して、上記と同様に誤差伝播法による学習を行う。なおこの抑制学習を行う場合、教師信号O1、O2の値はすべて0.0として学習を行う。
また、目を表していない画像(以下、非目画像と呼ぶ。例えば風景画像などである。)を複数用意しておいて、図4(E)〜(H)と同様の抑制学習を行って、目のみに反応するようにニューラルネットワークの学習を行う。この抑制学習においても、教師信号O1、O2の値はすべて0.0として学習を行う。
なお、図4では、ある一人の被験者を用いた学習例を示しているが、一般的なニューラルネットワークの学習方法と同様に、多数の被験者の画像および非目画像を用いて学習することが好ましい。これにより、ニューラルネットワークの汎化性能を高めることができる。
ここで、前述のニューラルネットワークの目に対する興奮学習で用いる目の開閉度を表す教師信号O2の値の算出方法について説明する。図5(A)〜(D)は、上述した図4(A)〜(D)と同様であり、目を模式的に現した画像である。
目の開閉度O2の算出方法の一例としては、図5の被験者において、図5(A)の状態のように、一般的にもっともまぶたを開いた状態であれば、この状態の画像に対する目の開閉度O2を1.0とする。また、このときの上まぶたと下まぶたとでもっとも離れた位置での間隔がh1であり、図5(B)〜(D)の状態のように、上まぶたと下まぶたとでもっとも離れた位置での間隔が、それぞれh2、h3、h4であれば、h2/h1、h3/h1、h4/h1の各々を目の開閉度O2の値とする。
なお、上記の算出方法に限定されるものではなく、例えば、図5(A)における目の幅をw1とすれば、この画像に対する目の開閉度O2をh1/w1としてもよい。また、図5(B)〜(D)についても同様に、目の幅w2、w3、w4とまぶた間隔h2、h3、h4の比(h2/w2、h3/w3、h4/w4)から目の開閉度O2を決定し、ニューラルネットワークの学習に用いてもよい。
次に、画像処理装置18で実行されるニューラルネットワークを学習させるための学習処理ルーチンについて図6を用いて説明する。まず、学習画像として上述した図4に示すようなN枚の目画像を用意しておく。なお、N枚の目画像は様々な人の目や様々な開閉度の目を含んでいることが好ましい。また、N枚の目画像各々について、目の中心位置(xc、yc)とその目の開閉度e(0.0≦e≦1.0)を求めておく。また、M枚の非目画像(例えば風景画像など)も用意しておく。
学習処理ルーチンのステップ100において、ニューラルネットワークの繰り返し学習の回数を示す変数lに初期値0を設定し、ステップ102において、学習画像を識別するための変数iに初期値0を設定する。
そして、ステップ104において、i番目の学習用の目画像niを用いて、上記図4(A)〜(D)に示したように、目の中心位置が中心位置となる検出領域の画像を設定し、この検出領域の画像を用いて目の興奮学習を行う。次のステップ106では、i番目の学習用の目画像niを用いて、上記図4(E)〜(H)に示したように、目の中心位置が中心位置からずれた位置となる検出領域の画像を設定し、この検出領域の画像を用いて目の抑制学習を行う。なお、抑制学習における目の検出領域の位置について、学習用の目画像niの目の中心位置(x、y)に対して、検出領域の中心位置が、一定距離の範囲で離れた位置になるようにランダムに設定して学習する。ここで一定距離の範囲とは例えば5画素以上20画素以下の範囲とする。
そして、ステップ108では、変数iをインクリメントし、ステップ110で、変数iが学習用の目画像数N以下であるか否かを判定し、N枚の学習用の目画像のうち、上記ステップ104、106を行っていない学習用の目画像がある場合には、ステップ104へ戻るが、全ての学習用の目画像について上記ステップ104、106を行った場合には、学習用の目画像について1回の学習が終わったと判断し、ステップ112へ移行する。
ステップ112では、学習用の非目画像を識別するための変数jに初期値0を設定し、ステップ114において、j番目の学習用の非目画像mjを用いて、抑制学習を行う。そして、ステップ116では、変数jをインクリメントし、ステップ118で、変数jが学習用の非目画像数M以下であるか否かを判定し、M枚の学習用の非目画像のうち、上記ステップ114を行っていない学習用の非目画像がある場合には、ステップ114へ戻るが、全ての学習用の非目画像について上記ステップ114を行った場合には、学習用の非目画像について1回の学習が終わったと判断し、ステップ120へ移行する。
ステップ120では、学習回数を示す変数lをインクリメントし、ステップ122で、変数lが規定の学習回数L以下であるか否かを判定し、上記の学習をL回行っていない場合には、ステップ102へ戻るが、L回の学習を終了した場合には、ニューラルネットワークの学習を終了したと判断し、学習処理ルーチンを終了する。
上記の学習処理ルーチンを実行することにより、ニューラルネットワークは、入力される画像の各画素の画像特徴量に対して、出力値O1が、入力される画像が目を含んでいるか否かを示す値となり、出力値O2が、入力される画像が含む目の開閉度を示す値となるように学習される。
次に、画像処理装置18で実行される撮像した画像から、目の位置及び目の開閉度を検出する検出処理ルーチンについて図7を用いて説明する。
まず、ステップ130において、検出対象者12の顔を観察するカメラ14から、撮像した画像を取り込み、ステップ132において、目およびその開閉度を検出するための探索領域を設定する。上記ステップ132では、撮像した画像から顔を検出し、検出された顔の位置情報から目の探索領域を設定することとする。顔の検出には、例えばニューラルネットワークを用いた方法として、H. Rowleyらの方法(“Neural Network−based Face Detection”、IEEE Transactions on Pattern Analysis and Machine Intelligence、Vol.20、No.1、1998、pp.23−38)を用いればよい。
その他にも、Harr特徴量とブースティング技法とを組み合わせた検出方法として、P. Violaらの方法(“Robust Real−time Face Detection”、International Journal of Computer Vision、No2. 2004、pp. 137−154)などを用いることで、画像中から顔を検出してもよい。
例えば、図8(A)に示すような撮像画像が与えられると、図8(B)に示すように、画像内のある位置において矩形破線で示される顔検出領域を設定する。そして、矩形の顔検出領域Paの画像特徴量から、ニューラルネットワークなどのパターン識別機によって、顔検出領域Pa内に顔があるか否かを判定する。また、図8(B)に示すように、顔検出領域を画像全体に走査して、同様に判定を行うことで、撮像画像中での顔の位置を検出する。図8(B)の例では、顔検出領域Pbの位置で顔が検出される。
そして、顔が検出された位置を基準に、目の探索領域を左右各々について設定する。具体的には、図9(A)に示すように、顔位置(xc、yc)が検出されると、次の(1)式、(2)式を用いて、右目の探索領域の中心位置(xr、yr)を設定する。
xr=xc−xoffset ・・・(1)
yr=yc−yoffset ・・・(2)
ここで、xoffset及びyoffsetは、顔の大きさに依存した定数(>0)であり、あらかじめ定義しておくパラメータである。
そして、図9(A)に示すように、(xr、yr)を中心として幅We、高さHeの矩形領域を右目探索領域として設定する。なお、矩形領域の大きさWe、Heは、顔の大きさに依存した定数(>0)であり、あらかじめ定義しておくパラメータである。
また同様に、左目についても、図9(B)に示すように、左目の探索領域の中心位置(xl、yl)を次の(3)式、(4)式より求め、その位置を中心として幅We、高さHeの矩形領域を左目探索領域として設定する。
xl=xc+xoffset ・・・(3)
yl=yc−yoffset ・・・(4)
そして、ステップ134では、左右各々の目探索領域に対して、目の有無と目の開閉度とを検出可能な上記のニューラルネットワークを適用して、ニューラルネットワークの出力値に基づいて、探索領域から目の位置及びその開閉度を検出するための画像特徴位置強度画像及び画像特徴状態画像を生成する。
以下では、図10に示すような右目の探索領域に対して、目の有無と目の開閉度とを検出するニューラルネットワークを適用する場合を例に説明する。図10は図9(A)の右目の探索領域を示しており、図10の破線矩形は、目位置および目開閉度を検出するための検出領域を示している。例えば、図10の検出領域Qaにおいて、その破線矩形内の各画素の画像特徴量を上記のニューラルネットワークの各入力ユニットに入力し、出力値O1、O2から、その検出領域内に目があるか否か、及び目の開閉度を検出する。そして、上記ステップ132における顔検出の場合と同様に、検出領域を右目探索領域全体に走査して、各位置での検出領域の各画素の画像特徴量を入力したときのニューラルネットワークの出力値O1、O2に基づいて、後述する画像特徴位置強度画像及び画像特徴状態画像を生成し、生成された画像特徴位置強度画像及び画像特徴状態画像から、探索領域内の目位置強度及び目の開閉度を算出する。
以下に、上記ステップ134における画像特徴位置強度画像及び画像特徴状態画像を生成する画像生成処理ルーチンについて、図11を用いて説明する。
まず、ステップ150において、検出領域Qの左上Y座標yを0に設定し、ステップ152において、左上X座標xを0に設定する。これにより、初期設定として、図12(A)における検出領域Qaの位置に検出領域Qが設定される。
そして、ステップ154では、上述したニューラルネットワークを用いて、検出領域Qの各画素の画像特徴量を入力として、出力値O1、O2を算出し、ステップ156において、上記ステップ154で算出された出力値O1、O2を用いて、画像特徴位置強度画像及び画像特徴状態画像を更新する。図12(B)、(C)に示すように、画像特徴位置強度画像及び画像特徴状態画像における座標(x、y)の画素の輝度値として、算出された出力値O1、O2を各々代入する。例えば、図12(A)の検出領域Qaのように、検出領域内に目が存在しない場合には、画像特徴位置強度画像の座標(x、y)の画素の輝度値に、0に近い値が代入され、同様に、画像特徴状態画像の座標(x、y)の画素の輝度値についても、同様に0に近い値が代入される。
そして、ステップ158では、左上X座標xをインクリメントし、ステップ160において、探索領域の横幅をWe、検出領域Qの横幅をwsとすると、検出領域Qの左上X座標xが(We−ws)より小さいか否かを判定し、xが(We−ws)より小さい場合には、検出領域Qが探索領域内に収まっていると判断し、上記ステップ154へ戻り、画像特徴位置強度画像及び画像特徴状態画像を更新する。一方、x=We−wsとなった場合には、検出領域Qが探索領域内に収まっていないと判断し、ステップ162において、探索領域の縦高さをHe、検出領域Qの縦高さをhsとすると、検出領域Qの左上Y座標yが(He−hs)より小さいか否かを判定し、yが(He−hs)より小さい場合には、検出領域Qが探索領域内に収まっていると判断し、上記ステップ152へ戻り、検出領域Qの左上X座標xに初期値0を代入して、再び画像特徴位置強度画像及び画像特徴状態画像を更新する。一方、y=He−hsとなった場合には、図12(C)に示す検出領域Qcまで走査され、検出領域Qが探索領域内全体を走査され、画像特徴位置強度画像及び画像特徴状態画像が生成されたと判断し、画像生成処理ルーチンを終了する。
上記の画像生成処理ルーチンでは、例えば、図12(A)の検出領域Qbのように、右目を含んでいる場合には、その際のニューラルネットワークの出力値O1は1に近い値になるため、図12(B)に示すように、その座標の画素の輝度値は1に近い値になる。また、図12(A)のように、右目が開眼している場合には、検出領域Qbのように右目を含んでいる検出領域に対するニューラルネットワークの出力値O2が1に近い値になるため、図12(C)に示すように、この検出領域に対する座標の画素の輝度値は1に近い値になる。
そして、検出処理ルーチンのステップ136において、上記ステップ134で生成された画像特徴位置強度画像及び画像特徴状態画像から、探索領域内に目が存在しているか否かを検出すると共に、存在しているならば存在している目の位置及び開眼度を検出して、検出処理ルーチンを終了する。例えば、図12に示すような画像特徴位置強度画像から、最大輝度値Imaxとその座標値(xm、ym)を求め、次の(5)式を満たす場合、位置(xm、ym)に目が存在すると判断する。
max>Othresh ・・・(5)
ここで、Othreshは、目が存在するか否かを判断するためのしきい値であり、例えば、0.5を予め設定しておく。また、画像特徴状態画像の座標(xm、ym)における輝度値を目の開閉度として取得する。
一方、上記(5)式を満たさない場合には、探索領域内には目が存在しないと判断する。また、上記と同様に、左目探索領域にも処理を行うことで、左右の目の位置及び目の開閉度を同時に検出することができる。
以上説明したように、第1の実施の形態に係る目開閉度検出装置によれば、入力された画像に対応する目の有無を示す出力値及び目の開閉度を出力するように学習されたニューラルネットワークを用いて、撮像された画像の検出領域の画像の各画素の画像特徴量を入力して、目の有無を示す値及び目の開閉度を検出することにより、目の有無及び開閉度を同時に検出することができるため、目に関する物理量を検出する処理において、処理の高速化を図ることができる。
また、目の位置及び開閉度を検出する際に、目を検出可能な探索領域を特定して、探索領域内を走査した各検出領域の画像について、ニューラルネットワークを用いて、目の有無及び開閉度を検出し、各検出領域で検出された目の有無及び開閉度に基づいて、撮像された画像に含まれる目の位置及び開閉度を検出するため、更に処理の高速化を図ることができる。
また、目の位置とその開閉度を同時に計測することができる。例えば、撮像された画像の中から目を検出し、さらにその開閉度を測定したい場合、本実施の形態によれば、目の検出および目の開閉度の検出を同時に行っているため、処理の高速化を図ることができる。
また、目を閉じている状態の画像を学習用の目画像として用いているため、画像が表す目が閉じている状態であっても、目の有無及び目の開閉度の検出が可能であり、閉じた目に対する誤検出などを低減することができる。
また、目が開いた状態の学習画像と、目を閉じた状態の学習画像と、およびその間の過渡的状態の学習画像とを用いて、ニューラルネットワークを学習させることで、目の有無と共に、目の開眼度も同時に検出することができる。
次に、第2の実施の形態について説明する。なお、第1の実施の形態と同様の構成となっている部分については、同一符号を付して説明を省略する。
第2の実施の形態では、ニューラルネットワークを適用した場合の出力値が、目の位置と目の開閉度とを示す値となるように、ニューラルネットワークが構成されている点が第1の実施の形態と異なっている。
第2の実施の形態では、図13に示すように、ニューラルネットワークの出力層において、検出領域内に目が存在するか否かを出力する出力ユニットO1を、画像と同様に2次元に分布する複数のユニットで構成し、目の中心位置に相当するユニットは1.0を、それ以外のユニットは0.0を出力するように学習して、出力ユニットの複数のユニットにより、目の中心位置を検出する。そして、目の検出時には、出力ユニットO1の2次元配列のユニットの各出力値を、画像特徴位置強度画像の対応する領域に足し合わせて更新し、上記(5)式と同様に、画像特徴位置強度画像の最大輝度値Imaxとその座標値(xm、ym)とから、目の位置及び目の開閉度を算出する。
なお、出力ユニットO1のユニット数は、例えば、上記図3(C)のエッジ画像と同様に、w*hとする。あるいは、(0.5*w)*(0.5*h)のように、検出領域に対して縮小したサイズで構成して、出力値を画像特徴位置強度画像に足し合わせて更新する際に、出力ユニットO1の大きさをw*hサイズに変換して、画像特徴位置強度画像に足し合わせてもよい。
また、学習の際には、図14に示すように、検出領域内で目の中心位置に相当する出力ユニットO1の何れかのユニットには、教師信号1.0を与え、それ以外のユニットには教師信号0.0を与えて、誤差伝播法で目の興奮学習を行う。たとえば、図14(A)においては、目の中心位置が、検出領域の中心位置と一致しているため、出力ユニットO1の中心のユニットに対して1.0を教師信号として与え、それ以外のユニットには0.0を教師信号として与えて学習を行う。また、図14(B)、(C)の場合は、目の中心位置がそれぞれ検出領域の右下、左上であるため、その位置に対応した出力ユニットO1のユニットに1.0を教師信号として与えて学習を行う。一方、図14(D)の場合は、目の領域が検出領域からはみ出しているため、検出領域内に目の中心位置が存在しても、出力ユニットO1の全てのユニットに0.0を教師信号として与えて学習を行う。このように学習することで、目全体の特徴を含み、かつその中心位置を正確に検出するように、ニューラルネットワークを学習させることができる。
上記のようにニューラルネットワークを学習させることにより、ニューラルネットワークは、入力される画像の各画素の画像特徴量に対して、出力ユニットO1の複数のユニットの出力値が、入力される画像が含んでいる目の位置を示し、出力値O2が、入力される画像が含んでいる目の開閉度を示す値となるように学習される。
なお、目開閉度検出装置の構成や目検出処理ルーチンの処理は、第1の実施の形態と同様であるため、説明を省略する。
以上説明したように、第2の実施の形態に係る目開閉度検出装置によれば、入力された画像に対応する目の位置を示す複数の出力値及び目の開閉度を示す出力値を出力するように学習されたニューラルネットワークを用いて、撮像された画像の検出領域の各画素の画像特徴量を入力して、目の位置を示す複数の出力値及び目の開閉度を示す出力値を検出することにより、目に関する複数種類の物理量を同時に検出することができるため、目に関する物理量を検出する処理において、処理の高速化を図ることができる。
なお、上記の実施の形態では、ニューラルネットワークを用いて、目の位置および目の開閉度を同時に検出する場合を例に説明したが、これに限定されるものではなく、例えば、口の位置および口の開閉度を同時に検出するようにニューラルネットワークを構成してもよい。この場合には、口を表す画像の各画像の画像特徴量をニューラルネットワークの各入力ユニットに入力し、入力画像に対する口の位置及び口の開閉度の各々を示す教師信号を与えて、ニューラルネットワークを学習させればよい。また、目及び口の両者について、両者の位置及び両者の開閉度を画像から検出するように、ニューラルネットワークを学習させて、ニューラルネットワークを用いて、目及び口の位置と、目及び口の開閉度とを同時に検出するようにしてもよい。
また、ニューラルネットワークを用いて、目の位置とその開閉度とを検出する場合を例に説明したが、目の位置ではなく、目に関する異なる二種類の状態量を同時に検出するようにニューラルネットワークを構成してもよい。例えば、画像中における目の位置は、他の手法により既に求められているとして、その目領域に対してニューラルネットワークを適用することにより、2つの状態量である目の開閉度及び目領域における黒目の位置を検出するように構成してもよい。この場合、目領域における黒目の位置について、例えば、目領域の左側に黒目がある場合は0を出力し、右端にある場合は1を出力するように、ニューラルネットワークを学習させて、目の開閉度及び目領域における黒目の位置を同時に検出するように構成すればよい。
また、目、口などの画像特徴に限らず、本ニューラルネットワークの構成、学習および検出方法により、学習画像に応じて、様々な画像特徴とその状態量とを同時に検出するように構成してもよい。
本発明の第1の実施の形態に係る目開閉度検出装置の構成を示す概略図である。 本発明の第1の実施の形態に係る目開閉度検出装置で用いられるニューラルネットワークを示すイメージ図である。 ニューラルネットワークに入力する画像特徴量を得る方法を説明するためのイメージ図である。 学習用の目画像を示すイメージ図である。 目の開閉度の算出方法を説明するためのイメージ図である。 本発明の第1の実施の形態に係る目開閉度検出装置における画像処理装置で実行される学習処理ルーチンの内容を示すフローチャートである。 本発明の第1の実施の形態に係る目開閉度検出装置における画像処理装置で実行される目検出処理ルーチンの内容を示すフローチャートである。 (A)入力された撮像画像を示すイメージ図、及び(B)画像の顔検出領域を示すためのイメージ図である。 (A)右目の探索領域を説明するためのイメージ図、及び(B)左目の探索領域を説明するためのイメージ図である。 探索領域内に設定される検出領域を説明するためのイメージ図である。 本発明の第1の実施の形態に係る目開閉度検出装置における画像処理装置で実行される画像生成処理ルーチンの内容を示すフローチャートである。 (A)探索領域内に設定される検出領域を説明するためのイメージ図、(B)画像特徴位置強度画像のイメージ図、及び(C)画像特徴状態画像のイメージ図である。 本発明の第2の実施の形態に係る目開閉度検出装置で用いられるニューラルネットワークを示すイメージ図である。 学習用の目画像及び教師信号の内容を示すイメージ図である。
符号の説明
10 目開閉度検出装置
12 検出対象者
14 カメラ
16 画像取り込み装置
18 画像処理装置

Claims (2)

  1. 検出対象者の顔を撮像するための撮像手段と、
    複数の入力ユニットを備えた入力層と複数の出力ユニットを備えた出力層とを含むニューラルネットワークであって、かつ、複数の画像の各々の複数の画素の画像特徴量の各々を前記複数の入力ユニットの各々に入力すると、前記複数の画像の各々に対応する前記検出対象者の目の有無を示す第1の物理量、及び前記検出対象者の目の開閉度を示す第2の物理量が前記複数の出力ユニットから出力されるように学習されたニューラルネットワークを用いて、前記撮像手段によって撮像された画像内を走査した各検出領域について、前記検出領域の複数の画素の画像特徴量から、出力される前記検出領域に対する前記第1の物理量及び前記第2の物理量を取得し、
    前記第1の物理量が最大となる検出領域の位置を、前記検出対象者の目の位置として検出し、前記第1の物理量が最大となる位置において取得された前記第2の物理量を、前記検出対象物の前記第2の物理量として検出する検出手段と、
    を含む画像検出装置。
  2. 前記撮像手段によって撮像された画像において、前記検出対象者の顔を検出可能な所定領域を特定する領域特定手段を更に含み、
    前記検出手段は、前記ニューラルネットワークを用いて、前記領域特定手段によって特定された所定領域の画像内を走査した各検出領域について、出力される前記検出領域に対する前記第1の物理量及び前記第2の物理量を取得する請求項1記載の画像検出装置。
JP2007034872A 2007-02-15 2007-02-15 画像検出装置 Active JP4978227B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007034872A JP4978227B2 (ja) 2007-02-15 2007-02-15 画像検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007034872A JP4978227B2 (ja) 2007-02-15 2007-02-15 画像検出装置

Publications (2)

Publication Number Publication Date
JP2008198078A JP2008198078A (ja) 2008-08-28
JP4978227B2 true JP4978227B2 (ja) 2012-07-18

Family

ID=39756938

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007034872A Active JP4978227B2 (ja) 2007-02-15 2007-02-15 画像検出装置

Country Status (1)

Country Link
JP (1) JP4978227B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10127439B2 (en) 2015-01-15 2018-11-13 Samsung Electronics Co., Ltd. Object recognition method and apparatus
US10565703B2 (en) 2016-09-27 2020-02-18 Nec Corporation Image inspection device, image inspection method, and image inspection program

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9081416B2 (en) 2011-03-24 2015-07-14 Seiko Epson Corporation Device, head mounted display, control method of device and control method of head mounted display
JP5953714B2 (ja) * 2011-11-24 2016-07-20 セイコーエプソン株式会社 装置、頭部装着型表示装置、装置の制御方法および頭部装着型表示装置の制御方法
JP6348431B2 (ja) * 2015-02-24 2018-06-27 株式会社日立製作所 画像処理方法、画像処理装置
JP6727543B2 (ja) 2016-04-01 2020-07-22 富士ゼロックス株式会社 画像パターン認識装置及びプログラム
JP6858101B2 (ja) * 2017-08-31 2021-04-14 株式会社Pfu 座標検出装置及び学習済みモデル
CN111626087A (zh) * 2019-02-28 2020-09-04 北京市商汤科技开发有限公司 神经网络训练及眼睛睁闭状态检测方法、装置及设备

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0736200B2 (ja) * 1990-01-31 1995-04-19 名古屋大学長 目標物体の位置と大きさを表現するニューラルネットワーク
JP2546415B2 (ja) * 1990-07-09 1996-10-23 トヨタ自動車株式会社 車両運転者監視装置
JPH09223218A (ja) * 1996-02-15 1997-08-26 Toyota Motor Corp 走路検出方法及び装置
JP2007025902A (ja) * 2005-07-13 2007-02-01 Canon Inc 画像処理装置、画像処理方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10127439B2 (en) 2015-01-15 2018-11-13 Samsung Electronics Co., Ltd. Object recognition method and apparatus
US10565703B2 (en) 2016-09-27 2020-02-18 Nec Corporation Image inspection device, image inspection method, and image inspection program

Also Published As

Publication number Publication date
JP2008198078A (ja) 2008-08-28

Similar Documents

Publication Publication Date Title
JP4978227B2 (ja) 画像検出装置
CN110348319B (zh) 一种基于人脸深度信息和边缘图像融合的人脸防伪方法
EP3637320A1 (en) Computer program, learning apparatus, detecting apparatus, learning method, and detecting method
CN108222749B (zh) 一种基于图像分析的智能自动门控制方法
CN105740780B (zh) 人脸活体检测的方法和装置
CN111862044B (zh) 超声图像处理方法、装置、计算机设备和存储介质
CN104103033B (zh) 图像实时处理方法
JP6842481B2 (ja) 深層学習を用いた網膜層の3d定量解析
CN114998210B (zh) 一种基于深度学习目标检测的早产儿视网膜病变检测系统
CN110765865B (zh) 基于改进的yolo算法的水下目标检测方法
CN111368666B (zh) 一种基于新型池化及注意力机制双流网络的活体检测方法
KR20200118076A (ko) 생체 검출 방법 및 장치, 전자 기기 및 저장 매체
CN109978882A (zh) 一种基于多模态融合的医疗影像目标检测方法
CN104977313A (zh) 一种焊缝x射线图像缺陷检测与识别方法和装置
JP2007122218A (ja) 画像分析装置
CN109360179A (zh) 一种图像融合方法、装置及可读存储介质
CN111582155A (zh) 活体检测方法、装置、计算机设备和存储介质
JP2005025568A (ja) 頭部領域抽出装置
JP2006343989A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP5513960B2 (ja) 画像処理装置
CN116934686A (zh) 基于多方向图像融合的oct图像检测方法及装置
JP2021053251A (ja) 画像処理装置、画像処理方法、プログラム
JPH11306348A (ja) 対象物検出装置及び対象物検出方法
CN110120029A (zh) 基于感知哈希算法的图像融合方法
KR100621883B1 (ko) 학습에 기반을 둔 적응형 실시간 얼굴검출방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100202

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20100528

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20100528

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110830

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120110

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120321

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120403

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150427

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4978227

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151