JP5272819B2 - 情報処理装置及び方法、並びにプログラム - Google Patents

情報処理装置及び方法、並びにプログラム Download PDF

Info

Publication number
JP5272819B2
JP5272819B2 JP2009060957A JP2009060957A JP5272819B2 JP 5272819 B2 JP5272819 B2 JP 5272819B2 JP 2009060957 A JP2009060957 A JP 2009060957A JP 2009060957 A JP2009060957 A JP 2009060957A JP 5272819 B2 JP5272819 B2 JP 5272819B2
Authority
JP
Japan
Prior art keywords
face
detected
image
orientation
human
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009060957A
Other languages
English (en)
Other versions
JP2010217980A (ja
Inventor
武 庄司
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2009060957A priority Critical patent/JP5272819B2/ja
Publication of JP2010217980A publication Critical patent/JP2010217980A/ja
Application granted granted Critical
Publication of JP5272819B2 publication Critical patent/JP5272819B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、情報処理装置及び方法、並びにプログラムに関し、特に、顔向きの検出精度をより一段と向上させた情報処理装置及び方法、並びにプログラムに関する。
従来、車両の運転者をカメラで監視するシステム(以下、監視カメラシステムと称する)が存在する。
監視カメラシステムにおいては、カメラもしくは車に対する運転者の顔の方向(以下、顔向きと称する)の検出が必要になる場合がある。
ところが、運転者自体は顔向きを動かしていない(例えば全時間帯正面を向いていた)としても、監視カメラシステムは、運転者の顔とカメラとの位置関係が変化した場合には、画像に写る運転者から顔向きを推定するので、顔向きが変わったと認識してしまう。即ち、実際の顔向きと、推定された顔向きとでは異なることが多々ある。
このため、監視カメラシステムは、実際の顔向きを検出するために、画像に写る運転者から推定した顔向きをそのまま検出結果として用いずに、推定した顔向きを適宜補正している。
このような補正手法が、例えば特許文献1に開示されている。
特許文献1の補正手法とは、画像から検出した顔の位置に基づいて、顔向きの角度の補正量を取得して、その補正量を用いて顔向きを補正する、という手法である。
特開2007−249352号公報 特開2001−331790号公報 特開平6−293227号公報 PAUL VIOLA, MICHAEL J. JONES, "Robust Real-Time Face Detection", International Journal of Computer Vision 57(2), 137-154, 2004
しかしながら、特許文献1の補正手法で実現される補正精度、即ち、顔向きの検出精度(実際の顔向きにどれだけ近いのかという精度)は十分ではない。
画像から検出する顔の位置は顔向きや髪型によって精度が低下するためである。このことについて、特許文献2、特許文献3、非特許文献1を用いて説明する。
例えば、特許文献2には、画像中の円形部分を頭部の輪郭として検出する手法が開示されている。しかしながら、背景と輪郭のコントラストが小さい場合やいわゆるアフロヘアーのような髪型の場合は,頭部の輪郭として検出された領域が実際のものと大きく異なってしまうことになる。
例えば、特許文献3には、運転者の背後から照明を点灯し影となった部分を頭の輪郭として検出する手法が開示されている。しかしながら、アフロヘアーのような髪型の場合は、頭部の輪郭として検出された領域が実際のものと大きく異なることになる。また、専用の別照明が必要だというデメリットも存在する。
例えば、非特許文献1には、目、鼻、口などの特徴的な部位が集まる顔の表面を顔領域として、画像から顔の位置を検出する手法が開示されている。しかしながら、顔向きが大きく変わると、目、鼻、口などの部位は移動するため、顔向きが大きく変わると画像から検出される顔の位置が移動してしまうことになる。
このように、特許文献1の補正手法では、顔向きが大きく変化した場合や、いわゆるアフロヘアーのように頭の輪郭と髪型が大きく違う場合などに、画像から検出する顔の位置が変わってしまう。従って、このような場合には、顔向きの角度の補正量の精度が低下してしまうことになる。
本発明は、このような状況に鑑みてなされたものであり、顔向きの検出精度をより一段と向上させるものである。
本発明の一側面の情報処理装置は、人間の顔を含む撮影画像から、前記人間の画像上の顔向きを検出する顔向き検出手段と、前記撮影画像に含まれる前記人間の顔の特定部位を検出する特定部位検出手段と、顔の形状に関する既知の知識前記特定部位検出手段により検出された前記特定部位、および、前記顔向き検出手段により検出された顔向きに基づいて、前記人間の顔の基準線または基準点を顔基準情報として検出する顔基準情報検出手段と、前記顔基準情報検出手段により検出された前記顔基準情報に基づいて、前記撮影画像に含まれる人間の顔向きの変化量を補正角度として算出する補正角度算出手段と、前記補正角度算出手段により算出された前記補正角度を用いて、前記顔向き検出手段により検出された前記顔向きを補正する顔向き補正手段とを備えることを特徴とする。
本発明の一側面の情報処理装置においては、人間の顔を含む撮影画像から、前記人間の画像上の顔向きが検出され、前記撮影画像に含まれる前記人間の顔の特定部位が検出され、顔の形状に関する既知の知識前記特定部位検出手段により検出された前記特定部位、および、前記顔向き検出手段により検出された顔向きに基づいて、前記人間の顔の基準線または基準点が顔基準情報として検出され、検出された前記顔基準情報に基づいて、前記撮影画像に含まれる人間の顔向きの変化量が補正角度として算出され、算出された前記補正角度を用いて、検出された顔向きが補正される。
これにより、顔向きの検出精度をより一段と向上させることができる。また、処理時間を削減でき、計算結果が安定するようになる。
顔向き検出手段、特定部位検出手段、顔基準情報検出手段、補正角度算出手段、および補正手段の各手段は、ハードウエア若しくはソフトウエア、または、それらの組み合わせにより構成される。なお、2以上の手段がまとめられて、1つのハードウエア等として構成されてもよい。
前記顔基準情報検出手段は、前記顔の形状に関する既知の知識、前記特定部位検出手段により検出された前記特定部位、および、前記顔向き検出手段により検出された顔向きに加えてさらに、前記撮影画像を撮影した撮影手段から前記人間の顔までの距離に基づいて、前記顔基準情報を検出することができる。
これにより、計算結果の精度をより一段と向上させることができる。
本発明の一側面の情報処理方法およびプログラムは、上述した本発明の一側面の情報処理装置に対応する方法およびプログラムである。
本発明によれば、顔向きの検出精度をより一段と向上させることができる。
回転の軸を説明する図である。 回転の軸の交点を説明する図である。 本発明の顔向き補正手法の概略を説明する図である。 本発明を適用した情報処理システムの第1実施形態としての監視カメラシステムの構成例を示している。 画像上の顔の基準線や基準点といった顔基準情報の生成手法の一例を説明する図である。 補正角度の取得手法の概略を説明する図である。 基準点と基準線との比較を示す図である。 基準線が画像中の斜めに写る場合の取り扱いについて説明するための図である。 第1実施形態の顔向き補正処理を説明するフローチャートである。 頭部モデルの一例を説明する図である。 補正角度の具体的な算出手法の一例を説明する図である。 本発明を適用した情報処理システムの第2実施形態としての監視カメラシステムの構成例を示している。 第2実施形態の顔向き補正処理を説明するフローチャートである。 頭部モデルの一例を説明する図である。 本発明を適用した情報処理システムの第3実施形態としての監視カメラシステムの構成例を示している。 第3実施形態の顔向き補正処理を説明するフローチャートである。 本発明が適用されるコンピュータのハードウエアの構成例を示す図である。
以下、図面を参照して、本発明が適用される情報処理装置の実施の形態として、3つの実施の形態(以下、それぞれ第1乃至第3実施形態とそれぞれ称する)について説明する。よって、説明は以下の順序で行う。
1.本発明の概要
2.第1実施形態
3.第2実施形態
4.第3実施形態
<1.本発明の概要>
はじめに、本発明の理解を容易なものとすべく、その概要について説明する。
本発明が適用される監視カメラシステムは、運転者がカメラもしくは車に対して実際にはどちらの方向を向いているのかを知るために、運転者が映っている画像から、運転者の顔向きを推定する。そして、監視カメラは、推定した顔向きを、実際の顔向きとなるように補正する。なお、以下、かかる補正手法のうち、本発明が適用される手法を、特に、本発明の顔向き補正手法と称する。
本発明の顔向き補正手法では、運転者の顔の基準を示す情報(以下、顔基準情報と称する)が必要になる。そこで、図1と図2を参照して、顔基準情報について説明する。
以下、カメラの撮影領域に対して、水平方向を左右方向と称し、垂直方向を上下方向と称する。
図1は、回転の軸を説明する図である。
図1のAの左方の画像21は、その右方の図に示されるように、カメラ12のレンズの光軸上に運転者の顔の中心が存在し、その顔向きがカメラ12のレンズの中心方向である場合に、カメラ12により撮影された結果得られた画像である。
図1のBの左方の画像22は、その右方の図に示されるように、図1のAの状態から運転者の顔が左右方向に動いた場合に、カメラ12により撮影された結果得られた画像である。
図1のAとBとを比較すると容易にわかることであるが、運転者の顔向きが左右方向に変わる際の頭部11に着目すると、左右方向への回転の軸(画像21と画像22に描画された実線が示す軸)が存在する。運転者の顔向きが左右方向に変わる場合には、この回転の軸を中心に頭部11が回転する。
図1のCの左方の画像23は、その右方の図に示されるように、カメラ12のレンズの光軸上に運転者の顔の中心が存在し、その顔向きがカメラ12のレンズの中心方向である場合に、カメラ12により撮影された結果得られた画像である。
図1のDの左方の画像24は、その右方の図に示されるように、図1のCの状態から運転者の顔が上下方向に動いた場合に、カメラ12により撮影された結果得られた画像である。
図1のCとDとを比較すると容易にわかることであるが、運転者の顔向きが上下方向に変わる際の頭部11に着目すると、上下方向への回転の軸(画像23と画像24に描画された実線が示す軸)が存在する。運転者の顔向きが上下方向に変わる場合には、この回転の軸を中心に頭部11が回転する。
このように、運転者の顔向きが上下方向または左右方向に変わる場合には、それぞれの回転の軸を中心に頭部11が回転する。これらの回転の軸の画像中の位置(画像21乃至24に描画されている各実線の位置)は、カメラ12と顔の位置関係が変わらない限り、顔向きや髪型が変わっても変わらない。従って、顔基準情報として、画像中における回転の軸を示す線(画像21乃至24に描画されている各実線)を採用することができる。以下、かかる線を、基準線と称する。
図2は、回転の軸の交点を説明する図である。
図2の画像21乃至24のそれぞれは、図1の対応する符号の画像と同様の画像である。
図2のAとBとを比較すると容易にわかることであるが、運転者の顔向きが左右方向に変わる際の頭部11に着目すると、2つの回転の軸(画像21と画像22の上下方向と左右方向に描画された各実線が示す2つの軸)の交点が存在する。運転者の顔向きが左右方向に変わる場合には、この回転の軸の交点を中心に頭部11が回転する。
同様に、図2のCとDとを比較すると容易にわかることであるが、運転者の顔向きが上下方向に変わる際の頭部11に着目すると、2つの回転の軸(画像23と画像24の上下方向と左右方向に描画された各実線が示す2つの軸)の交点が存在する。運転者の顔向きが上下方向に変わる場合には、この回転の軸の交点を中心に頭部11が回転する。
このように、運転者の顔向きが上下方向または左右方向に変わる場合には、それぞれの回転の軸の交点を中心に頭部11が回転する。これらの回転の軸の交点の画像中の位置(画像21乃至24に描画されている各交点の位置)は、カメラ12と顔の位置関係が変わらない限り、顔向きや髪型が変わっても変わらない。従って、顔基準情報として、画像中における2以上の基準線の交点(画像21乃至24に描画されている各交点)を採用することができる。以下、かかる交点を、基準点と称する。
以上まとめると、本発明の顔向き補正手法では、顔基準情報として、特許文献1の従来の補正手法のように画像における顔領域の相対位置が採用されるのではなく、基準線または基準点が採用される。以下、図3を参照して、基準線または基準点を用いた本発明の顔向き補正手法の概略について説明する。
図3は、本発明の顔向き補正手法の概略を説明する図である。
運転者が顔向きを変えずに左右方向に移動した場合における、図3のAに示される顔31A、顔31B、および顔31Cについて考える。なお、以下、顔31A、顔31B、および顔31Cのカメラ12との各位置関係を考慮する必要がない場合、それらをまとめて、顔31と称する。
図3のAに示されるように、顔31Aの中心は、カメラ12の光軸上に位置する。即ち、顔31Aの中心とカメラ12のレンズ中心を結ぶ線分のカメラの光軸に対する、左右方向へのなす角度は0度である。以下、かかる角度を、顔のYaw角という表現を用いる。即ち、顔31のYaw角は0度である。
また、顔31BのYaw角は+15度である。ただし、カメラの光軸に対して右回りの方向が「+」とされている。顔31CのYaw角は+30度である。
この場合、図3のAに示されるカメラ12と各顔31の位置関係の違いから明らかなように、画像上に映る顔向きは、図3のCに示されるように、顔のYaw角の変化量に応じて変化することになる。しかしながら、図3のAに示されるように、各顔31A乃至31Cの実際の顔方向は、同図中下方向のまま変化がない。そこで、本発明の顔向き補正手法では、この顔のYaw角の変化量を補正角度として用いて、顔向きの補正が行われる。
ここで、注目すべき点は、かかる補正角度を演算するために必要となる顔基準情報は、画像上に写る顔の位置ではなく、図3のBに示されるように、画像中の顔の基準線または基準点の位置が用いられる点である。
すなわち、画像中の顔の基準線や基準点は、上述したように、カメラ12と顔31の位置関係が変わらない限り、顔向きや髪型が変化しても、画像中の位置は変化しない。換言すると、図3のBの画像41A乃至41Cに示されるように基準線や基準点の位置が変化しているということは、カメラ12と顔31の位置関係が変化していることを意味している。
このため、本発明の顔向き補正手法では、画像中の顔の基準線または基準点の位置から、画像上に写る顔向きの変化量が求められる。その結果、顔向きや髪型の変化によらず、画像上に写る顔向きの変化量の精度は低下しないことになる。よって、このような変化量が補正角度として用いられて顔向きが補正されることで、顔向きの検出精度がより一段と向上するのである。
<2.第1実施形態>
以下、本発明の顔向き補正手法が適用された情報処理システムの実施の形態について説明する。
なお、本明細書において、システムとは、複数の装置や処理部により構成される装置全体を表すものである。即ち、後述する監視カメラシステムは、1つの装置と把握することも可能である。
図4は、本発明を適用した情報処理システムの第1実施形態としての監視カメラシステムの構成例を示している。
図4の例では、監視カメラシステムには、カメラ12、顔向き検出部51、特定部位検出部52、記憶部53、顔基準情報検出部54、補正角度取得部55、および顔向き補正部56が設けられている。
カメラ12は、運転者TSの顔を被写体として撮影し、その結果得られる画像を、顔向き検出部51と特定部位検出部52に供給する。
なお、運転席に座った運転者TSの顔を撮影できれば、カメラ12の設定位置は問わない。例えば、ステアリングコラムの上にカメラ12を設置させて正面から撮影させることが可能である。また例えば、車両内のルームミラーの根元付近にカメラ12を設置させて左斜め上から撮影させることが可能である。
顔向き検出部51は、カメラ12により撮影された画像から、運転者TSの画像上の顔向きを検出する。顔向き検出部51の検出結果は、外部に出力されるとともに、顔向き補正部56に供給される。
なお、顔向きの検出手法自体は、特に限定されず、例えば特許2982204号公報に開示された手法等を採用できる。もっとも、顔の向きをより迅速かつ正確に検出できる手法を採用する方が好ましい。
ここで、図5を参照して、特定部位検出部52、記憶部53、および顔基準情報検出部54について説明する。
図5は、画像上の顔の基準線や基準点といった顔基準情報の生成手法の一例を説明する図である。
図5の例では、画像61がカメラ12により撮影されて、特定部位検出部52に供給される。特定部位検出部52は、画像61上の顔の特定部位62の位置(座標)を検出し、その検出結果とともに画像61を顔基準情報検出部54に供給する。
記憶部53には、顔の形状に関する知識の情報、例えば、図5の例では、特定部位の各点と基準点の関係を表す頭部モデルが記憶されている。
顔基準情報検出部54は、特定部位62の座標を用いて、記憶部53に記憶された頭部モデルを画像61にあてはめ、そのときの顔基準情報、即ち、顔の基準線または基準点を検出する。
なお、特定部位62は、図5の例では、両目が採用されたが、記憶部53に記憶された頭部モデルを画像61にあてはめることが可能な部位であれば、特に限定されない。換言すると、例えば鼻、口、耳、眉などの顔の基準点との位置関係が定まるものであれば、任意の部位を特定部位62として採用することができる。
また、特定部位62の検出手法自体は、特に限定されず、例えば特開2006−65640号公報に開示された手法等を採用できる。もっとも、特定部位62をより迅速かつ正確に検出できる手法を採用する方が好ましい。
図4に戻り、顔基準情報検出部54により検出された顔の基準線または基準点は、補正角度取得部55に供給される。
補正角度取得部55は、画像上の顔の基準線または基準点の位置から、画像上に写る顔向きの変化量を取得し、それを補正角度として顔向き補正部56に供給する。顔向き補正部56は、この補正角度を用いて、顔向き検出部51により検出された顔向きを補正し、補正後の顔向きを出力する。
ここで、図6乃至図8を参照して、補正角度取得部55による補正角度の取得手法について説明する。
図6は、補正角度の取得手法の概略を説明する図である。
顔基準情報検出部54により顔基準情報として基準線が検出された場合には、図6のAに示されるように、補正角度取得部55は、基準線と中心線のズレ量に基づいて、画像上に写る顔向きの変化量、即ち補正角度を求める。また例えば、顔基準情報検出部54により顔基準情報として基準点が検出された場合には、図6のBに示されるように、補正角度取得部55は、基準点と中心点とのズレ量、すなわち、2以上の中心線とのズレ量に基づいて、画像上に写る顔向きの変化量、即ち補正角度を求める。
図7は、基準点と基準線との比較を示す図である。
図7に示されるように、顔基準情報として基準点が採用された場合には、3次元の頭部モデルが記憶部53に記憶され、特定部位検出部52により検出される特定部位の座標は2次元座標(X,Y)となる。よって、補正角度取得部55において求まる補正角度は、左右方向と上下方向の両者になる。
これに対して、顔基準情報として基準線が採用された場合には、2次元の頭部モデルが記憶部53に記憶され、特定部位検出部52により検出される特定部位の座標は1次元座標X若しくはYとなる。よって、補正角度取得部55において求まる補正角度は、左右方向と上下方向のうちどちらか一方になる。
図8は、基準線が画像中の斜めに写る場合の取り扱いについて説明するための図である。
図8のAに示されるように、画像中の顔71が斜めを向いている場合には、左右方向の基準線もまた斜め方向になる。このような場合、ズレ量が一意に決まらないため、顔71の移動が一意に求められないことになる。よって、このような場合には、例えば「画像上で上下に顔は移動しない」などの制約をつけるようにすれば、顔71の移動を一意に求めることができるようになる。
なお、図8のBに示されるように、画像中の顔71が水平方向を向いている場合には、左右方向の基準線は垂直方向(真っ直ぐな方向)になるため、ズレ量が一意に決まり、その結果、顔71の移動を一意に求めることができ、特に問題とならない。
次に、図9を参照して、図4の構成の監視カメラシステムが補正後の顔向きを出力するまでの一連の処理(以下、このような処理を顔向き補正処理と称する)について説明する。
図9は、第1実施形態の顔向き補正処理を説明するフローチャートである。
ステップS1において、カメラ12は、運転者TSの画像を取得する。
ステップS2において、顔向き検出部51は、画像上の顔向きを検出する。
ステップS3において、顔向き検出部51は、顔向きを検出できたか否かを判定する。
顔向き検出部51は、顔向きを検出できなかった場合、ステップS3においてNOであると判定し、ステップS4において、顔向き検出エラーを出力する。これにより、顔向き補正処理は終了となる。
これに対して、顔向き検出部51は、顔向きの検出ができた場合、ステップS3においてYESであると判定し、次のようなステップS5以降の処理を実行する。
ステップS5において、特定部位検出部52は、特定部位の位置(座標)を検出する。
なお、図9の例の顔向き補正処理では、頭部モデルとしては、後述する図10の例のモデルが使用される。この頭部のモデルには、3軸の回転、スケール、および2軸の並進といった6つのパラメータが存在する。このため、顔の基準点を推定するために3ケ所以上の特定部位62の位置が必要である。
ステップS6において、特定部位検出部52は、特定部位を検出できたか否かを判定する。
検出すべき3ケ所以上の特定部位のうち、少なくとも1ケ所の特定部位が検出されなかった場合、ステップS6においてNOであると判定されて、ステップS4において、顔向き検出エラーが出力されて、顔向き補正処理が終了する。
これに対して、検出すべき3ケ所以上の特定部位の全てが検出された場合、ステップS6においてYESであると判定されて、処理はステップS7に進む。
ステップS7において、顔基準情報検出部54は、特定部位の位置を用いて、顔の基準点を推定する。
具体的には例えば、図10に示される頭部モデルが記憶部53に記憶されているとする。
図10は、頭部モデルの一例を示している。
図10の頭部モデルにおいて、n番目の三次元座標をBnと既述すると、次の式(1)のように表わされる。
Figure 0005272819
・・・(1)
なお、特定部位は、図10の例では3ケ所とされているが、当然ながら4ケ所以上でもよい。
また、図10の頭部モデルには、次の式(2)に示されるような6つのパラメータが存在するとする。
Figure 0005272819
・・・(2)
この場合、顔基準情報検出部54は、次のようなステップ7−1乃至7−4の処理に従って、図10の頭部モデルを、ステップS1の処理で取得された画像にあてはめる。
ステップS7−1において、顔基準情報検出部54は、3軸の回転角で頭部モデルを回転させる。具体的には例えば、顔基準情報検出部54は、回転角から回転行列Rを作成し、頭部モデルの座標に掛ける。即ち、回転後の座標をBn'と記述すると、次の式(3)のような演算が行われる。
Figure 0005272819
・・・(3)
ステップS7−2において、顔基準情報検出部54は、透視投影変換により頭部モデルの座標を画像座標に変換する。具体的には例えば、カメラの焦点距離をfと記述し、n番目の画像座標をbn=(xn , yn)と記述すると、次の式(4)のような演算が行われる。
Figure 0005272819
・・・(4)
ステップS7−3において、顔基準情報検出部54は、投影後の座標をスケールを使って拡大縮小する。具体的には例えば、拡大縮小後の座標をn番目の画像座標をbn =(xn , yn )と記述すると、次の式(5)のような演算が行われる。
Figure 0005272819
・・・(5)
ステップS7−4において、顔基準情報検出部54は、並進を行い、画像上の特定部位の位置に合わせる。具体的には例えば、並進後の座標をn番目の画像座標をbn ‘’=(xn ’‘ , yn ‘’)と記述すると、次の式(6)のような演算が行われる。
Figure 0005272819
・・・(6)
このようなステップS7−1乃至S7−4により、画像に当てはめた頭部モデルの座標bn ‘’=(xn ’‘ , yn ‘’)が求まることになる。
そこで、顔基準情報検出部54は、画像に当てはめた頭部モデルの座標bn ‘’ と、ステップS5の処理で画像から検出された特定部位の位置との誤差が最小になるパラメータを求めることで、顔の基準点を求める。
具体的には、画像に当てはめた頭部モデルの座標bn ‘’=(xn ’‘ , yn ‘’)のうち、xn ’‘ 座標は次の式(7)に示されるように、yn ‘’座標は次の式(8)に示されるように、それぞれ示される。
Figure 0005272819
・・・(7)
Figure 0005272819
・・・(8)
ここで、R11乃至R33は、次の式(9)に示される回転行列Rの各要素であり、3軸の回転角のパラメータから決定される。
Figure 0005272819
・・・(9)
画像から検出された特定部位の座標をPn=(xpn , ypn)と記述すると、次の式(10)を最小化するようなパラメータを求めることで、顔の基準点が求まることになる。
Figure 0005272819
・・・(10)
これは非線形の最適化問題に他ならない。よって、その解法自体については、特に限定されず、最急降下法など公知の各種手法の他、今後登場するであろう各種手法を採用することが可能である。
顔基準情報検出部54は、この最適化問題を解いて得られたパラメータを用いて、顔の基準点の座標b ‘’=(x ’‘ , y ‘’)を推定演算することができる。
このようにして、図9のステップS7の処理で顔の基準点の座標b ‘’=(x ’‘ , y ‘’)が推定演算されると、処理はステップS8に進む。
ステップS8において、補正角度取得部55は、頭の回転中心の座標から顔向きの補正角度を算出する。
この場合の補正角度の算出手法は、特に限定されない。例えば、特開2007−249352号公報に開示されているように、回転中心の座標に対応する補正角度を記録したテーブルを予め持ち、このテーブルに従って補正角度を算出するという手法を採用できる。
また例えば、カメラの焦点距離に基づいて、カメラの光軸からのずれ角度を補正角度として算出するという手法を採用できる。
図11は、かかる補正角度の具体的な算出手法の一例を説明する図である。
図11に示される横方向のずれ角度θは、式(11)のように表わされる。なお、縦方向のずれ角度θも、式(11)に表わされている。
Figure 0005272819
・・・(11)
なお、xcenterは、画像中心のX座標を示し、ycenterは画像中心のY座標を示している。
即ち、式(11)は、式(12)の関係から、式(13)のように表わされる。
Figure 0005272819
・・・(12)
Figure 0005272819
・・・(13)
このようにして、ステップS8の処理で補正角度が算出されると、処理はステップS9に進む。
ステップS9において、顔向き補正部56は、画像上の顔向きを、補正角度を用いて補正する。これにより、カメラ12から見た顔向きが、車両の正面方向を基準とした顔向きに補正される。具体的には、カメラ12から見た顔向きの角度から、補正角度を引くことで、車両の正面方向を基準とした顔向きが得られることになる。
ステップS10において、顔向き補正部56は、補正後の顔向きを出力する。
これにより、顔向き補正処理は終了となる。
以上説明したように、第1実施形態では、図4の監視カメラシステムが、図9のフローチャートに従った顔向き補正処理を実行することができる。これにより、顔向きが大きく変化したり、髪型が頭部輪郭に対して大きく異なる場合でも、補正角度の精度は低下しない。
以上、本発明を適用した情報処理システムの第1実施形態としての監視カメラシステムについて説明した。
<3.第2実施形態>
次に、本発明を適用した情報処理システムの第2実施形態としての監視カメラシステムについて説明する。
図12は、本発明を適用した情報処理システムの第2実施形態としての監視カメラシステムの構成例を示している。
図12において、図4と対応する箇所には対応する符号を付してあり、それらの説明については適宜省略する。
図12の構成の第2実施形態の監視カメラシステムの構成要素自体は、図4の構成の第1実施形態の監視カメラシステムの構成要素と変わりない。
ただし、第1実施形態の顔基準情報検出部54は、画像上の顔の基準線や基準点を求めるためには、上述の如く、非線形の最適化問題を解く必要があった。このため、処理時間が長くなったり、計算結果が収束しない場合があった。
そこで、第2実施形態の監視カメラでは、顔基準情報検出部54には、顔向き検出部51により検出された画像上の顔向きが入力される。顔基準情報検出部54においては、画像上の顔向きを用いることで、画像上の顔の基準線や基準点を求めるための計算式を線形にすることができる。これにより、第1実施形態に比較して処理時間を削減でき、また、計算結果が安定する(必ず収束する)ようになる。また、画像上の顔の基準線や基準点の演算に必要な特定部位の数を削減できるようになる。
次に、図13を参照して、図12の構成の監視カメラシステムが実行する顔向き補正処理について説明する。
図13は、第2実施形態の顔向き補正処理を説明するフローチャートである。
図13のステップS21乃至S24の処理は、図9のステップS1乃至S4の処理と基本的に同様の処理であるため、ここではその説明については省略する。
顔向き検出部51は、顔向きの検出ができた場合、ステップS23においてYESであると判定し、次のようなステップS25以降の処理を実行する。
ステップS25において、特定部位検出部52は、特定部位の位置として両目の位置(座標)を検出する。
なお、図13の例の顔向き補正処理では、後述する図14の例のモデルが使用される。この頭部のモデルは、両目の2点と回転中心点の3点で作成されているため、ステップS25の処理では両目の位置が検出される。ただし、頭部のモデルは、図13の例に限定されず、両目以外の2点、例えば、鼻と片目の2点、鼻と口の2点または耳と眉毛の2点などを用いて作成するようにしてもよい。また、回転中心以外の点として、2点だけではなく3点以上を用いて頭部のモデルを作成するようにしてもよい。即ち、特定部位検出部52は、頭部モデルの作成に用いられた各点(回転中心点除く)のそれぞれを特定部位として、ステップS25の処理で、各特定部位の位置を検出すればよい。
ステップS26において、特定部位検出部52は、両目を検出できたか否かを判定する。
両目のうちの少なくとも一方の目が検出されなかった場合、ステップS26においてNOであると判定されて、ステップS24において、顔向き検出エラーが出力されて、顔向き補正処理が終了する。
これに対して、両目が検出された場合、ステップS26においてYESであると判定されて、処理はステップS27に進む。
ステップS27において、顔基準情報検出部54は、両目の位置を用いて、顔の基準点を推定する。
具体的には例えば、図14に示される頭部モデルが記憶部53に記憶されているとする。
図14の頭部モデルにおける三次元座標B,B,Bは、次の式(14)のように表わされる。
Figure 0005272819
・・・(14)
この場合、顔基準情報検出部54は、顔の基準点の座標Bを、頭部モデルの原点座標とすることで、顔向きの変化による回転と頭部モデルの回転を一致させる。即ち、顔基準情報検出部54は、次のようなステップ27−1乃至27−4の処理に従って、図14の頭部モデルを、ステップS21の処理で取得された画像にあてはめる。
ステップS27−1において、顔基準情報検出部54は、画像上の顔向き角度を用いて頭部モデルを回転させる。
具体的には例えば、顔基準情報検出部54は、画像上の顔向き角度θLR,θUD,θrotを用いて回転行列Rを作成する。そして、顔基準情報検出部54は、回転行列Rを用いて、回転後の頭部モデルの座標を演算する。
回転後の座標を次の式(15)のように記述すると、次の式(16)のような演算が行われる。
Figure 0005272819
・・・(15)
Figure 0005272819
・・・(16)
ステップS27−2において、顔基準情報検出部54は、透視投影変換により頭部モデルの座標を画像座標に変換する。具体的には例えば、カメラの焦点距離をfと記述し、顔の基準点を透視投影変換した後の座標標x , yc は、次の式(17)のように演算される。
Figure 0005272819
・・・(17)
他点についても同様の演算が行われ、その結果、次の式(18)のような透視投影変換した後の座標が得られる。
Figure 0005272819
・・・(18)
ステップS27−3において、顔基準情報検出部54は、両目の間の距離に基づいて、透視投影変換後の頭部モデルのサイズを合わせる。
具体的には例えば、左右の目の座標により求められる両目の間の距離をLAと記述すると、次の式(19)のような演算が行われる。
Figure 0005272819
・・・(19)
一方、変換後の頭部モデルの座標により求められる両目の間の距離をLBと記述すると、次の式(20)のような演算が行われる。
Figure 0005272819
・・・(20)
距離をLAと距離をLとの比をrateと記述すると、即ち、rate=LB/LAとすると、サイズを合わせた後の顔の基準点の座標x ’‘ , yc ‘’は、次の式(21)のように演算される。
Figure 0005272819
・・・(21)
他点についても同様な演算が行われ、その結果、次の式(22)に示されるような画像に当てはめた頭部モデルの各座標、即ち、サイズを合わせた後の顔、左目、右目のそれぞれの二次元座標が得られることになる。
Figure 0005272819
・・・(22)
そこで、顔基準情報検出部54は、式(22)に示される座標と、ステップS25の処理で画像から検出された目の位置に基づいて、顔の基準点を求める。
具体的には、次の式(23)に示されるように、サイズを合わせた後の目の位置と、画像から検出された目の位置との差分が求められる。
Figure 0005272819
・・・(23)
式(23)の演算結果に基づいて、次の式(24)に示されるように、顔の基準点の二次元座標が求められることになる。
Figure 0005272819
・・・(24)
このようにして、図13のステップS27の処理で顔の基準点の座標bが推定演算されると、処理はステップS28に進む。
図13のステップS28乃至S30の処理は、図9のステップS8乃至S10の処理と基本的に同様の処理であるため、ここではその説明については省略する。
以上、本発明を適用した情報処理システムの第2実施形態としての監視カメラシステムについて説明した。
<4.第3実施形態>
次に、本発明を適用した情報処理システムの第3実施形態としての監視カメラシステムについて説明する。
図15は、本発明を適用した情報処理システムの第3実施形態としての監視カメラシステムの構成例を示している。
図15において、図12と対応する箇所には対応する符号を付してあり、それらの説明については適宜省略する。
図15の構成の第3実施形態の監視カメラシステムには、図4の構成の第1実施形態や図12の構成の第2実施形態の監視カメラシステムの構成要素と同様の構成要素が存在する他さらに、距離計測部61が設けられている。
距離計測部61は、カメラ12から運転者TSの顔までの距離を計測し、その計測結果を顔基準情報検出部54に供給する。
なお、距離の計測手法自体は、特に限定されず、例えば距離センサを用いる手法や、特開2005−66023号公報に開示されている画像処理で求める手法等を採用できる。もっとも、顔までの距離をより迅速かつ正確に検出できる手法を採用する方が好ましい。
即ち、顔基準情報検出部54には、特定部位検出部52により検出された顔の特定部位の画像上の位置(座標)、顔向き検出部51により検出された画像上の顔向き、記憶部53に記憶された頭部モデルに加えてさらに、距離計測部61の計測結果が供給される。
そこで、顔基準情報検出部54は、顔の特定部位の画像上の位置(座標)、画像上の顔向き、頭部モデルに加えてさらに、距離計測部61の計測結果(カメラ12から運転者TSの顔までの距離)を用いて、画像上の顔の基準線や基準点を求める。
このように、画像上の顔の基準線や基準点の計算に、距離計測部61の計測結果(カメラ12から運転者TSの顔までの距離)を加えることで、未知数を減らすことができ、その結果、計算結果の精度が向上する。また、かかる計算のために必要な特定部位の数を削減することもできるようになる。
次に、図16を参照して、図15の構成の監視カメラシステムが実行する顔向き補正処理について説明する。
図16は、第3実施形態の顔向き補正処理を説明するフローチャートである。
図16のステップS41乃至S46の処理は、図13のステップS21乃至S26の処理と基本的に同様の処理であるため、ここではその説明については省略する。
両目が検出された場合、ステップS46においてYESであると判定されて、処理はステップS47に進む。
ステップS47において、距離計測部61は、カメラ12から運転者TSの顔までの距離を検出する。
距離の検出に失敗した場合、ステップS48においてNOであると判定されて、ステップS44において、顔向き検出エラーが出力されて、顔向き補正処理が終了する。
これに対して、距離の検出に成功した場合、ステップS48においてYESであると判定されて、処理はステップS49に進む。
ステップS49において、顔基準情報検出部54は、両目の位置を用いて、顔の基準点を推定する。
第3実施形態における顔の基準点の推定手法は、第2実施形態における顔の基準点の推定手法、即ち、上述したステップS27−1乃至S27−4に従った手法に類似している。そこで、以下、第3実施形態における顔の基準点の推定手法の説明として、第2実施形態における顔の基準点の推定手法とは異なる個所についてのみ、説明する。
第3実施形態における顔の基準点の推定手法では、上述したステップS27−1とS27−2との間に、カメラ12から運転者TSの顔までの距離に基づいて、頭部モデルが平行移動される。具体的には、顔までの距離をZfaceと記述し、頭部モデルの各点のZ座標をZ ’’,Z ’’,Z ’’とそれぞれ記述すると、次の式(25)のような演算が行われる。
Figure 0005272819
・・・(25)
また、第3実施形態における顔の基準点の推定手法では、ステップS27−2の処理後には、ステップS27−3の処理は実行されずに、ステップS27−4の処理が実行される。上述の式(25)に従って頭部モデルのZ座標を変更したことは、ステップS27−3の処理で行われるサイズ合わせと同等の意味を有するからである。
図16のステップS49の処理で顔の基準点の座標bが推定演算されると、処理はステップS50に進む。
図16のステップS50乃至S52の処理は、図13のステップS28乃至S30の処理と基本的に同様の処理であるため、ここではその説明については省略する。
以上、本発明を適用した情報処理システムの第3実施形態としての監視カメラシステムについて説明した。
ところで、上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、プログラム記録媒体からインストールされる。このプログラムは、例えば、専用のハードウエアに組み込まれているコンピュータにインストールされる。または、このプログラムは、各種のプログラムをインストールすることで各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータ等にインストールされる。
図17は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータにおいて、CPU201、ROM(Read Only Memory)202、およびRAM(Random Access Memory)203は、バス204により相互に接続されている。
バス204には、さらに、入出力インタフェース205が接続されている。入出力インタフェース205には、キーボード、マウス、マイクロホン等よりなる入力部206、ディスプレイ、スピーカ等よりなる出力部207、ハードディスクや不揮発性のメモリ等よりなる記憶部208が接続されている。さらに、入出力インタフェース205には、ネットワークインタフェース等よりなる通信部209、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等のリムーバブルメディア211を駆動するドライブ210が接続されている。
以上のように構成されるコンピュータでは、CPU201が、例えば、記憶部208に記憶されているプログラムを、入出力インタフェース205及びバス204を介して、RAM203にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU201)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)であるリムーバブルメディア211に記録して提供される。プログラムは、パッケージメディアであるリムーバブルメディア211に記録して提供される。なお、パッケージメディアとしては、光ディスク(CD−ROM(Compact Disc−Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリ等が用いられる。あるいは、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
そして、プログラムは、リムーバブルメディア211をドライブ210に装着することにより、入出力インタフェース205を介して、記憶部208にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部209で受信し、記憶部208にインストールすることができる。その他、プログラムは、ROM202や記憶部208に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
本発明の実施形態は、上述した実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
11 頭部
12 カメラ
51 顔向き検出部
52 特定部位検出部
53 記憶部
54 顔基準情報検出部
55 補正角度取得部
56 顔向き補正部
61 距離計測部
201 CPU
202 ROM
203 RAM
208 記憶部
211 リムーバブルメディア

Claims (4)

  1. 人間の顔を含む撮影画像から、前記人間の画像上の顔向きを検出する顔向き検出手段と、
    前記撮影画像に含まれる前記人間の顔の特定部位を検出する特定部位検出手段と、
    顔の形状に関する既知の知識前記特定部位検出手段により検出された前記特定部位、および、前記顔向き検出手段により検出された顔向きに基づいて、前記人間の顔の基準線または基準点を顔基準情報として検出する顔基準情報検出手段と、
    前記顔基準情報検出手段により検出された前記顔基準情報に基づいて、前記撮影画像に含まれる人間の顔向きの変化量を補正角度として算出する補正角度算出手段と、
    前記補正角度算出手段により算出された前記補正角度を用いて、前記顔向き検出手段により検出された前記顔向きを補正する顔向き補正手段と
    を備える情報処理装置。
  2. 前記顔基準情報検出手段は、前記顔の形状に関する既知の知識、前記特定部位検出手段により検出された前記特定部位、および、前記顔向き検出手段により検出された顔向きに加えてさらに、前記撮影画像を撮影した撮影手段から前記人間の顔までの距離に基づいて、前記顔基準情報を検出する
    請求項に記載の情報処理装置。
  3. 情報処理装置が、
    人間の顔を含む撮影画像から、前記人間の画像上の顔向きを検出し、
    前記撮影画像に含まれる前記人間の顔の特定部位を検出し、
    顔の形状に関する既知の知識前記特定部位検出手段により検出された前記特定部位、および、前記顔向き検出手段により検出された顔向きに基づいて、前記人間の顔の基準線または基準点を顔基準情報として検出し、
    検出された前記顔基準情報に基づいて、前記撮影画像に含まれる人間の顔向きの変化量を補正角度として算出し、
    算出された前記補正角度を用いて、検出された顔向きを補正する
    ステップを含む情報処理方法。
  4. 情報処理装置を制御するコンピュータに、
    人間の顔を含む撮影画像から、前記人間の画像上の顔向きを検出し、
    前記撮影画像に含まれる前記人間の顔の特定部位を検出し、
    顔の形状に関する既知の知識前記特定部位検出手段により検出された前記特定部位、および、前記顔向き検出手段により検出された顔向きに基づいて、前記人間の顔の基準線または基準点を顔基準情報として検出し、
    検出された前記顔基準情報に基づいて、前記撮影画像に含まれる人間の顔向きの変化量を補正角度として算出し、
    算出された前記補正角度を用いて、検出された顔向きを補正する
    ステップを含む制御処理を実行させるプログラム。
JP2009060957A 2009-03-13 2009-03-13 情報処理装置及び方法、並びにプログラム Active JP5272819B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009060957A JP5272819B2 (ja) 2009-03-13 2009-03-13 情報処理装置及び方法、並びにプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009060957A JP5272819B2 (ja) 2009-03-13 2009-03-13 情報処理装置及び方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2010217980A JP2010217980A (ja) 2010-09-30
JP5272819B2 true JP5272819B2 (ja) 2013-08-28

Family

ID=42976810

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009060957A Active JP5272819B2 (ja) 2009-03-13 2009-03-13 情報処理装置及び方法、並びにプログラム

Country Status (1)

Country Link
JP (1) JP5272819B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6722878B2 (ja) * 2015-07-30 2020-07-15 パナソニックIpマネジメント株式会社 顔認証装置
JP7081844B2 (ja) * 2020-11-11 2022-06-07 株式会社コムテック 検出システム
CN113920557B (zh) * 2021-09-01 2022-09-13 广州云硕科技发展有限公司 一种基于视觉的可信身份识别方法和系统

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4173083B2 (ja) * 2003-09-12 2008-10-29 日産ディーゼル工業株式会社 覚醒状態判定装置及び覚醒状態判定方法
JP4826506B2 (ja) * 2007-02-27 2011-11-30 日産自動車株式会社 視線推定装置
JP4858516B2 (ja) * 2008-09-11 2012-01-18 トヨタ自動車株式会社 顔向き検出装置

Also Published As

Publication number Publication date
JP2010217980A (ja) 2010-09-30

Similar Documents

Publication Publication Date Title
JP5906493B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム及び記録媒体
US8649593B2 (en) Image processing apparatus, image processing method, and program
US9609181B2 (en) Image signal processor and method for synthesizing super-resolution images from non-linear distorted images
JP2016500547A5 (ja)
JP2006252473A (ja) 障害物検出装置、キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム
JP2008034966A (ja) 画像表示装置
JP7441917B2 (ja) 顔に対する射影歪み補正
TW201030632A (en) Image processing apparatus, image processing method, and storage medium for storing program
US20090028390A1 (en) Image Processing for Estimating Subject Distance
JP2009053914A (ja) 画像処理装置および画像処理方法
JP5272819B2 (ja) 情報処理装置及び方法、並びにプログラム
JP2007257333A (ja) 車両乗員顔向き検出装置および車両乗員顔向き検出方法
JP5769755B2 (ja) 画像処理システム、画像処理装置及び画像処理方法
JP2013156680A (ja) フェーストラッキング方法、フェーストラッカおよび車両
JP2012050013A (ja) 撮像装置、画像処理装置、画像処理方法及び画像処理プログラム
JP2011155412A (ja) 投影システムおよび投影システムにおける歪み修正方法
JP6513941B2 (ja) 画像処理方法、画像処理装置及びプログラム
JP2019121945A (ja) 撮像装置、その制御方法及びプログラム
JP4871315B2 (ja) 複眼撮影装置およびその制御方法並びにプログラム
JP4867729B2 (ja) 情報処理装置および方法、記録媒体、並びに、プログラム
WO2018096669A1 (ja) レーザ加工装置、レーザ加工方法、及びレーザ加工プログラム
JP2019220130A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP2007094536A (ja) 対象物追跡装置及び対象物追跡方法
JP2007322403A (ja) 画像処理装置及びその処理方法
JP2011118767A (ja) 表情モニタリング方法および表情モニタリング装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130429

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5272819

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250