JP6452235B2 - 顔検出方法、顔検出装置、及び顔検出プログラム - Google Patents

顔検出方法、顔検出装置、及び顔検出プログラム Download PDF

Info

Publication number
JP6452235B2
JP6452235B2 JP2014235232A JP2014235232A JP6452235B2 JP 6452235 B2 JP6452235 B2 JP 6452235B2 JP 2014235232 A JP2014235232 A JP 2014235232A JP 2014235232 A JP2014235232 A JP 2014235232A JP 6452235 B2 JP6452235 B2 JP 6452235B2
Authority
JP
Japan
Prior art keywords
face
face posture
coordinate system
posture
pupil
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014235232A
Other languages
English (en)
Other versions
JP2016099759A (ja
Inventor
嘉伸 海老澤
嘉伸 海老澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shizuoka University NUC
Original Assignee
Shizuoka University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shizuoka University NUC filed Critical Shizuoka University NUC
Priority to JP2014235232A priority Critical patent/JP6452235B2/ja
Publication of JP2016099759A publication Critical patent/JP2016099759A/ja
Application granted granted Critical
Publication of JP6452235B2 publication Critical patent/JP6452235B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、顔検出方法、顔検出装置、及び顔検出プログラムに関する。
自動車技術などの分野では、ドライバーの視線及び頭部姿勢を計測し、これらデータに基づいてドライバーの運転支援を行う技術が検討されている。特許文献1〜3には、瞳孔と角膜反射像とを利用して、被験者の視線を高精度に検出する視線検出装置が開示されている。また、特許文献4〜6には、被験者の頭部姿勢を検出する装置が開示されている。ここで、頭部姿勢とは、被験者の眼球の回転とは関係の無い、頭蓋骨の位置と方向をいう。特許文献4,5の頭部姿勢検出装置は、いわゆるステレオマッチング法を利用している。具体的には、ステレオ較正された光学系を利用して被験者の頭部画像データを取得する。次に、2枚の頭部画像データをステレオマッチングして、被験者の瞳孔及び鼻孔の各三次元座標を求める。これら三次元座標を利用して瞳孔と鼻孔間中点の重心を算出し、この重心を頭部位置としている。また、瞳孔と鼻孔間中点を通る平面を算出し、この平面の法線を頭部方向としている。また、特許文献6の頭部姿勢検出方法は、1台の光学系によって瞳孔と鼻孔間中点といった特徴点の三次元位置を推定する。すなわち、特許文献6の頭部姿勢検出方法は、いわゆるステレオマッチング法を利用していない。この方法では、1台の光学系によって得た画像データと、2個の瞳孔と各鼻孔との互いの距離を拘束条件とを利用して、瞳孔と鼻孔間中点の三次元位置を推定する。
特開2005−230049号公報 特開2005−198743号公報 特開2005−185431号公報 特開2005−266868号公報 特開2007−26073号公報 特開2007−271554号公報
特許文献4,5の頭部姿勢検出装置は、ステレオマッチング法を利用しているため、ランダムノイズが大きくなる傾向にある。特許文献6の頭部姿勢検出方法は、2個の瞳孔と各鼻孔との互いの距離を拘束条件として与えているため、頭部と眼球との相対的な姿勢関係によっては、偏り誤差が大きくなる傾向にある。
そこで、本発明は、精度のよい顔検出の結果が得られる顔検出方法、顔検出装置、及び顔検出プログラムを提供する。
本発明の一形態に係る顔検出方法は、対象者の顔姿勢と視線との間の第1角度及び基準顔姿勢と顔姿勢の間の第2角度の関係を規定する係数を含み、顔姿勢を補正するための関数を導出する関数導出ステップと、顔姿勢を導出する顔姿勢導出ステップと、関数導出ステップにおいて導出された関数を利用して、顔姿勢を補正する顔姿勢補正ステップと、を有し、顔姿勢は、対象者の左瞳孔、右瞳孔、及び左右の鼻孔の何れか一方の3つの組み合わせである基準部位群における部位間の距離と、対象者の顔画像において検出される基準部位群の二次元的位置とを利用して、基準部位群を含む平面の法線を算出することによって導出され、視線及び基準顔姿勢は、2枚の対象者の顔画像をステレオマッチングすることによって導出される。
この顔検出方法は、基準部位群における部位間の距離を拘束条件として利用する方法によって顔姿勢を導出する。従って、ランダムノイズの少ない安定した結果を得ることができる。そして、顔検出方法では、関数を利用して顔姿勢を補正する。この関数は、対象者の視線と顔姿勢の間の第1角度及び顔姿勢と基準顔姿勢の間の第2角度の関係を規定する係数を含んでいるので、導出された顔姿勢を基準顔姿勢に相当する結果に変換する。ここで、基準顔姿勢は、ステレオマッチングにより導出された結果であるので、真の顔姿勢に対する偏りが小さい。このため、ランダムノイズの少ない安定した顔姿勢が、真の顔姿勢に対する偏りが小さい顔姿勢に補正される。従って、精度のよい顔検出の結果が得られる。
関数導出ステップは、顔姿勢を導出するステップと、視線及び基準顔姿勢を導出するステップと、第1角度及び第2角度に基づいて、係数を導出するステップと、を含むこととしてもよい。この関数導出ステップによれば、第1角度及び第2角度の関係を規定する係数を含む関数を導出することができる。
関数導出ステップを1回実行した後に、顔姿勢導出ステップと顔姿勢補正ステップと、を繰り返し実行することとしてもよい。この方法では、顔姿勢導出ステップと、顔姿勢補正ステップを実行するときに、補正のための関数が既に得られている。従って、顔姿勢導出ステップと、顔姿勢補正ステップを実行し始めた直後から、精度のよい顔検出の結果が得ることができる。
顔検出方法では、関数導出ステップと顔姿勢導出ステップと顔姿勢補正ステップと、この順で繰り返し実行することとしてもよい。この方法によれば、顔姿勢導出ステップと顔姿勢補正ステップを実行する毎に、関数導出ステップも実行される。関数導出ステップの繰り返しにより係数が更新されて所定の値に収束する。従って、事前に関数を準備することなく、顔姿勢を検出し始めることができる。
顔姿勢補正ステップは、第1の座標系に基づく視線と第1の座標系に基づく顔姿勢とを、第1の座標系とは異なる第2の座標系に基づくように座標変換するステップと、第2の座標系に基づく視線と第2の座標系に基づく顔姿勢とを利用して、第2の座標系に基づく第1角度を取得し、当該第1角度と関数とを利用して、第2の座標系に基づく第2角度を取得するステップと、第2の座標系に基づく第2角度を利用して、第2の座標系に基づく顔姿勢を補正するステップと、補正された顔姿勢を第1の座標系に基づくように座標変換するステップと、を含むこととしてもよい。この方法によれば、顔姿勢の検出精度を高めることができる。
本発明の別の形態に係る顔姿勢検出装置は、対象者の顔を撮像する少なくとも2台の撮像手段と、撮像手段で撮像された顔画像に基づいて、対象者の顔姿勢を導出する処理手段と、を備え、処理手段は、対象者の顔姿勢と視線との間の第1角度及び基準顔姿勢と顔姿勢の間の第2角度の関係を規定する係数を含み、顔姿勢を補正するための関数を導出する関数導出部と、顔姿勢を導出する顔姿勢導出部と、関数導出部において導出された関数を利用して、顔姿勢を補正する顔姿勢補正部と、を有し、顔姿勢は、対象者の左瞳孔、右瞳孔、及び左右の鼻孔の何れか一方の3つの組み合わせである基準部位群における部位間の距離と、対象者の顔画像において検出される基準部位群の二次元的位置とを利用して、基準部位群を含む平面の法線を算出することによって導出され、視線及び基準顔姿勢は、2枚の対象者の顔画像をステレオマッチングすることによって導出される。
この顔検出装置は、上述した顔検出方法と同様の効果を得ることができる。すなわち、顔検出装置は、基準部位群における部位間の距離を拘束条件として利用することにより顔姿勢を導出する。従って、ランダムノイズの少ない安定した結果を得ることができる。そして、顔検出装置では、関数を利用して顔姿勢を補正する。この関数は、対象者の視線と顔姿勢の間の第1角度及び顔姿勢と基準顔姿勢の間の第2角度の関係を規定する係数を含んでいるので、導出された顔姿勢を、基準顔姿勢に相当する結果に変換する。ここで、基準顔姿勢は、ステレオマッチングにより導出された結果であるので、真の顔姿勢に対する偏りが小さい。このため、ランダムノイズの少ない安定した顔姿勢が、真の顔姿勢に対する偏りが小さい顔姿勢に補正される。精度のよい顔検出の結果が得られる。
顔姿勢補正部は、第1の座標系に基づく視線と第1の座標系に基づく顔姿勢とを、第1の座標系とは異なる第2の座標系に基づくように座標変換する第1の座標変換部と、第2の座標系に基づく視線と第2の座標系に基づく顔姿勢とを利用して、第2の座標系に基づく第1角度を取得し、当該第1角度と関数とを利用して、第2の座標系に基づく第2角度を取得する角度取得部と、第2の座標系に基づく第2角度を利用して、第2の座標系に基づく顔姿勢を補正する方向補正部と、補正された顔姿勢を第1の座標系に基づくように座標変換する第2の座標変換部と、を含むこととしてもよい。この構成によれば、顔姿勢の検出精度を高めることができる。
本発明の更に別の形態に係る顔検出プログラムは、コンピュータを、対象者の顔姿勢と視線との間の第1角度及び基準顔姿勢と顔姿勢の間の第2角度の関係を規定する係数を含み、顔姿勢を補正するための関数を導出する関数導出部と、顔姿勢を導出する顔姿勢導出部と、関数導出部において導出された関数を利用して、顔姿勢を補正する顔姿勢補正部と、して機能させ、顔姿勢は、対象者の左瞳孔、右瞳孔、及び左右の鼻孔の何れか一方の3つの組み合わせである基準部位群における部位間の距離と、対象者の顔画像において検出される基準部位群の二次元的位置とを利用して、基準部位群を含む平面の法線を算出することによって導出され、視線及び基準顔姿勢は、2枚の対象者の顔画像をステレオマッチングすることによって導出される。
この顔検出プログラムは、上述した顔検出方法及び顔検出装置と同様の効果を得ることができる。すなわち、顔検出プログラムは、基準部位群における部位間の距離を拘束条件として利用することにより顔姿勢を導出する。従って、ランダムノイズの少ない安定した結果を得ることができる。そして、顔検出装置では、関数を利用して顔姿勢を補正する。この関数は、対象者の視線と顔姿勢の間の第1角度及び顔姿勢と基準顔姿勢の間の第2角度の関係を規定する係数を含んでいるので、導出された顔姿勢を、基準顔姿勢に相当する結果に変換する。ここで、基準顔姿勢は、ステレオマッチングにより導出された結果であるので、真の顔姿勢に対する偏りが小さい。このため、ランダムノイズの少ない安定した顔姿勢が、真の顔姿勢に対する偏りが小さい顔姿勢に補正される。精度のよい顔検出の結果が得られる。
本発明の一形態に係る顔検出方法、顔検出装置及び顔検出プログラムによれば、精度のよい顔検出の結果が得られる。
実施形態に係る顔検出装置を示す図である。 特徴点を説明する図である。 拘束条件法において発生する誤差を説明するための図である。 拘束条件法において発生する誤差を説明するための図である。 顔姿勢補正の原理を説明する図である。 顔姿勢補正の原理を説明する図である。 実施形態に係る顔検出方法の主要なステップを示す図である。 実施形態に係る顔検出方法の効果を説明するための図である。 瞳孔用カメラ及び鼻孔用カメラのレンズ部分を示す図である。 実施形態に係る画像処理装置のハードウェア構成を示す図である。 実施形態に係る顔検出装置の機能構成を示す図である。 世界座標系とカメラ座標系の関係を説明するための図である。 カメラ座標系と顔座標系との位置関係を示す図である。 鼻孔用カメラのレンズの中心を原点とした二次元座標系における画像平面と特徴点の三次元座標との関係を示す図である。 視線の検出を説明するための図である。 係数の決定方法を説明するための図である。 実施形態に係る顔検出プログラムの構成を示す図である。
以下、添付図面を参照しながら本発明を実施するための形態を詳細に説明する。図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。
本発明の一形態に係る顔検出方法は、図1に示される顔検出装置1により実行される。顔検出装置1は、対象者Aの視線及び顔姿勢を検出するコンピュータシステムであり、このシステムにより、顔検出方法が実施される。対象者Aとは、視線及び顔姿勢を検出する対象となる人であり、被験者ともいうことができる。視線とは、対象者Aの瞳孔中心と該対象者の注視点(対象者が見ている点)とを結ぶ線である。なお、「視線」という用語は、起点、終点、及び方向の意味(概念)を含む。顔姿勢は、顔の方向及び重心とで定まり、後述する顔姿勢ベクトルで表される。すなわち、顔姿勢とは骨格(頭蓋骨)の位置と方向を意味し、眼球の回転とは無関係である。顔検出装置1及び顔検出方法の利用目的は何ら限定されず、例えば、よそ見運転の検出、運転者の眠気の検出、商品の興味の度合いの調査、コンピュータへのデータ入力などに利用することができる。
まず、本実施形態に係る顔検出方法の基本原理について説明する。図2に示されるように、対象者Aの顔姿勢を示す顔姿勢ベクトルVは、対象者Aの瞳孔及び鼻孔を利用して導出される。例えば、顔姿勢ベクトルV,Vは、左瞳孔の座標P、右瞳孔の座標P、及び鼻孔間中心の座標Pの3点を通る平面の法線ベクトルとして導出される。これら左瞳孔、右瞳孔、左鼻孔中心、右鼻孔中心及び鼻孔間中心は、特徴点である。ここで特徴点の三次元座標を算出する方法として、所定の拘束条件を利用して算出する方法と、ステレオマッチングを利用して算出する方法と、がある。以下の説明において、便宜上、拘束条件を利用する方法を「拘束条件法」と呼び、ステレオマッチングによる方法を「ステレオ法」と呼ぶことにする。
拘束条件法では、特徴点の三次元座標の算出において、特徴点の間の距離(以下「特徴点間距離」又は単に「距離」という)を拘束条件として利用している。特徴点間距離とは、例えば、左瞳孔の座標Pと右瞳孔の座標Pとの間の距離L、左瞳孔の座標Pと鼻孔間中心の座標Pとの間の距離L及び右瞳孔の座標Pと鼻孔間中心の座標Pとの間の距離Lである。拘束条件法により導出される顔姿勢は、安定性が高いという利点を有する。この安定性とは、対象者Aの頭部を固定した状態で顔姿勢を検出したときに現れる時間的なランダムノイズによって示される特性をいう。すなわち、安定性が高いとは、ランダムノイズが小さいことを意味する。また、ステレオ法の実施には光学系(例えばカメラ)が2個必要であるところ、拘束条件法は1個の光学系だけで実施可能である。従って、2個の光学系を離間して配置し、それぞれの光学系を利用して拘束条件法を実施することにより、顔方向の検出範囲を光学系の離間方向に拡大することが可能になる。2個の光学系と拘束条件法を利用した場合の顔方向検出範囲は、2個の光学系とステレオ法を利用した場合の顔方向検出範囲よりも広い。なお、以下の説明において、拘束条件法で導出された結果を、単に「顔方向」(顔姿勢)と呼ぶ。
しかし、拘束条件法は、顔方向に対して視線が動いた場合に、特徴点間距離が変化する。例えば、対象者Aが頭部を動かすことなく視線のみを移動させた場合や、対象者Aがある点を注視した状態で頭部のみを移動させた場合が挙げられる。この場合には、特徴点間距離が変化する。図3(a)は、顔方向(顔姿勢ベクトルVの方向)と視線Gが一致しているときに、3個の特徴点の座標P,P,Pにより規定される平面B1と、その法線ベクトル(顔姿勢ベクトルV)を示す。図3(b)は、図3(a)の状態から顔方向を固定したままで視線を変化させた場合における、3個の特徴点の座標P,P,Pにより規定される平面B2と、その法線ベクトル(顔姿勢ベクトルV)を示す。理想的には、顔方向は固定されたままであるので、顔姿勢ベクトルVも変化しないはずである。しかし、図3(b)に示されるように、視線を変化させることによって、3個の特徴点の座標P,P,Pにより規定される平面B2が変化している。換言すると、距離L,L,Lが変化している。従って、実際の特徴点間距離と、顔方向の導出に利用する特徴点間距離とに差異が生じ、導出される顔方向に誤差(偏り誤差)が発生する。すなわち、拘束条件法では、顔方向と視線とのずれに起因する誤差が生じ得る。図4に示されるように、対象者Aの顔方向nをディスプレイ装置40の中心の点Aに向けた状態で、視線Gだけをディスプレイ装置40の左斜め下に設定した点A2に向けると、導出される顔方向は点neになる。例えば、対象者Aの顔方向を固定した状態で、視線だけを左右に±10度ほど動かすと、顔方向は真値から左右に±5度程度偏って検出される。視線は左右に±30度程度までは検出できるため、顔方向は更に大きく偏って検出されることになる。
一方、ステレオ法では、顔方向と視線とのずれに起因する誤差はほとんど問題にならない。なぜならば、ステレオ法では、特徴点の三次元座標をステレオマッチングにより独立に検出する。このような三次元座標を利用して導出される顔姿勢ベクトルは、顔方向と視線との間でずれが発生した状態であっても、ほとんどその影響を受けない。この理由は、眼球が眼窩の中で±30程度回転しても、瞳孔の奥行き方向の位置は大きく変化しないためである。しかし、ステレオ法は、ステレオマッチングの処理過程において、顔画像毎に含まれる独立したノイズが、算出される特徴点の三次元座標にも影響を与え、ひいては顔姿勢ベクトルにも影響を及ぼす。具体的には、顔画像に含まれたノイズは、顔姿勢ベクトルにおけるランダムノイズの要因となり得る。このランダムノイズは、平均化処理により低減することが可能である。この平均化処理された顔姿勢ベクトルは、拘束条件法で導出される顔姿勢ベクトルに比べて真の顔方向に対するずれが小さい。なお、以下の説明においてステレオ法で導出された結果を「基準顔方向」(基準顔姿勢)と呼ぶ。
発明者らは、基準顔方向と視線との間の第1角度は、顔方向と基準顔方向と間の第2角度と関係があることを見出した。本実施形態の顔検出方法は、拘束条件法で導出した顔方向に対して、顔方向と視線とのずれに起因して生じる誤差を補正することにより、安定度が高く且つ正確な顔方向を導出する。具体的には、拘束条件法で導出した顔方向から、ステレオ法で導出した顔方向を推定する。
具体的な原理について図5を用いて説明する。Gは視線であり、Hは拘束条件法で検出された顔方向であり、Hはステレオ法で検出された基準顔方向であるとする。視線Gと基準顔方向Hの間の角度は角度∠Gである。基準顔方向Hと顔方向Hとの間の角度は角度∠Hである。
図6(a)に示されるように、基準顔方向Hと視線Gが一致するときには、顔方向Hは、基準顔方向Hと一致する。一方、図6(b)に示されるように、基準顔方向Hが視線Gと一致しないときには、顔方向Hは、基準顔方向Hに対して偏る。ここで、新たな角度∠G’を定義する。角度∠G’は式(1)により示される。すなわち、角度∠G’は顔方向Hと視線Gとの間の角度であるともいえる。そして、角度∠G’と角度∠Hとの間には、下記式(2)により示される線形関係があると仮定する。ここで、式(2)における係数k,kは、対象者の顔方向Hと視線Gとの間の角度∠G’(第1角度)及び基準顔方向Hと顔方向Hの間の角度∠H(第2角度)の関係を規定する係数である。
Figure 0006452235

Figure 0006452235

まず、対象者の顔方向(頭部方向)と視線Gとのそれぞれをいろいろな方向へ向けながら角度∠G’と角度∠Hとを有するデータを収集する。それらデータは、図16に示されるように、横軸が角度∠G’であり縦軸が角度∠Hである二次元座標にプロットされる。角度∠G’と角度∠Hとは、式(2)の関係を有する。従って、例えば最小二乗法等を利用して近似式を算出することにより、係数k,kを求めることができる。そうすると、係数k,kによって決定された関数を利用して、角度∠G’から角度∠Hを算出することが可能になる。そして、角度∠Hと顔方向Hとを角度∠Hの定義に適用すると、真値に近い基準顔方向Hを推定できる。なお、角度∠Hが大きくなった場合には、非線形成分を考慮することが望ましい。その場合には、下記式(3)に示される非線形関係式を使用してもよい。
Figure 0006452235
なお、式(1)〜(3)は、X軸とY軸とにおいて、それぞれ独立に求めることが可能である。ただし、ここでいうX軸、Y軸とは、顔座標系における軸である。すなわち、式(1)〜(3)は、顔座標系の上で成立する。顔方向Hの検出にあたっては、まず、様々な方向へ視線Gと顔方向Hを向けて、それらの方向を計測する。この計測は、世界座標系(第1の座標系)を基準として行われる。次に、世界座標系を基準とした視線Gと顔方向Hを顔座標系(第2の座標系)に変換する。次に、顔座標系において上記関係式(1)〜(3)を利用して、補正された顔方向Hを算出する。そして、顔座標系における補正された顔方向Hを、世界座標系に基づくように座標変換する。これらの処理により、精度の良い顔方向Hが取得される。図2におけるZ軸は顔方向である。X軸はZ軸に直交する水平軸である。Y軸はZ軸に直交する垂直軸である。例えば、X軸に沿って顔方向が移動するということは、Y軸を周りに頭部が回転することを意味する。
このように、顔座標系に変換した上での補正は、頭部を左右に傾けた時に、特に有効である。なぜならば、世界座標系で対象者が左右に視線を動かしても、顔座標系では、純粋にY軸周りの眼球回転だけでなく、X軸周りの眼球回転成分も含まれるためである。すなわち、頭蓋骨に対して視線が斜め方向に動くためである。また、人間の場合、正面を見た時に、2個の瞳孔に対して、鼻孔間中心が前方に突出している。そうすると、顔座標系を基準とした顔方向は対象者が正面と思っている方向よりも上方を向く。従って、この場合に、対象者が視線をX軸方向に動かしたとしても、顔座標系の上では、Y軸方向の成分が現れる。
上述したように、対象者が感じる正面に対して計測される顔正面(顔方向)は大きく上にずれている。従って、図6や図8で示されるように画面の中央に顔座標系を基準とした顔方向を向けるためには、頭部を大きく下に傾けることになる。これを解決するためには、顔方向(正面)の補正を行う。具体的には、注視点(視線)較正を行うにあたって、画面の中央に視標を提示し一点較正を行う。この一点較正を行うとき、対象者は予め画面の中央に顔の正面を向ける。この間に、世界座標系において、顔位置から画面中央へ向かう方向ベクトルを求める。ここで、顔位置は、一例として、重心や瞳孔間中点と規定することができる。なぜならば、視線も片眼毎ではなく、瞳孔間中点から画面中央へ直線と考えた方がよいためである。すなわち、起点を同じにする意味で理想的である。更に、このベクトルを顔座標系におけるベクトルに変換する。これにより、頭蓋骨に対する顔正面を意味する顔正面ベクトルが決定される。その後は、フレーム毎に、世界座標系における顔座標系の姿勢を求めて、それから顔座標系から世界座標系への座標変換式を求める。その座標変換式を利用して、先に求めた顔座標系における顔正面ベクトルを、顔座標系から世界座標系に変換すれば、顔方向ベクトルが求まる。この顔方向ベクトルの方向に顔位置を起点として直線を伸ばし、その直線と画面との交点を画面上の正面位置をすることができる。
図7に示されるように、顔検出方法は、主要なステップとして、画像取得ステップS1と、前処理ステップS2と、関数導出ステップS3と、画像取得ステップS4と、前処理ステップS5と、顔姿勢導出ステップS6と、顔姿勢補正ステップS7と、を有する。顔検出方法では、関数導出ステップS3を予め実施し、関数導出ステップS3で導出された関数(式(2)参照)をもって顔姿勢導出ステップS6及び顔姿勢補正ステップS7を繰り返し実施する。なお、顔検出方法では、関数導出ステップS3、顔姿勢導出ステップS6、顔姿勢補正ステップS7をこの順で繰り返し実施してもよい。この場合には、処理を繰り返す毎に、関数が更新され、徐々に顔方向の検出精度が向上することになる。
まず、画像取得ステップS1を実施する。画像取得ステップS1では、瞳孔用カメラ(撮像手段)10と鼻孔用カメラ20を制御して、複数の画像データ(顔画像)を取得する。画像データには、明瞳孔画像、暗瞳孔画像、鼻孔画像がある。画像取得ステップS1の詳細については、後述する。画像取得ステップS1の後に、前処理ステップS2を実施する。前処理ステップS2では、画像取得ステップS1で取得された画像データ(顔画像)を利用して、対象者Aの顔方向及び視線を導出する。ここで、前処理ステップS2は、角度∠G’と角度∠Hとを世界座標系(第1の座標系)において取得するステップS2aと、角度∠G’と角度∠Hとを顔座標系(第2の座標系)に座標変換するステップS2bとを含む。また、導出される顔方向は、ステレオ法により導出された結果と、拘束条件法により導出された結果とを含む。更に、導出される視線は、ステレオ法により導出された結果を含む。前処理ステップS2の詳細については、後述する。前処理ステップS2の後に、関数導出ステップS3を実施する。関数導出ステップS3では、前処理ステップS2で導出された顔方向及び視線を利用して、顔方向を補正するための関数(式(2)参照)を導出する。関数導出ステップS3は、上記式(2)に示された係数k,kを算出することにより関数(式(2))を決定するステップS3aを含む。式(2)に示されるように、関数は、係数k,k含む。関数を導出するとは、この係数k,kを決定することである。関数導出ステップS3の詳細については、後述する。
以上の画像取得ステップS1、前処理ステップS2、関数導出ステップS3は、顔検出装置1の起動毎、又は、所望のタイミングで実行される。
次に、画像取得ステップS4を実施して画像データ(顔画像)を取得し、画像取得ステップS4の後に前処理ステップS5を実施する。続いて、前処理ステップS5の後に、顔姿勢導出ステップS6を実施する。顔姿勢導出ステップS6では、拘束条件法を利用して、顔方向を導出する。顔姿勢導出ステップS6では、特徴点間距離を拘束条件として利用する。この特徴点間距離は、予め取得された値を利用してもよいし、前処理ステップS2においてステレオ法を利用して算出した特徴点の三次元座標を利用してもよい。これは、視線検出(注視点検出)をするとき、1秒程度の注視をする間に同時に行うことができる。顔姿勢導出ステップS6の詳細については後述する。
顔姿勢導出ステップS6の後に、顔姿勢補正ステップS7を実施する。顔姿勢補正ステップS7では、関数と前処理ステップS2で検出された視線とを利用して、顔方向を補正する。顔姿勢補正ステップS7の詳細については、後述する。そして、再び画像取得ステップS4を実施する。これら画像取得ステップS4、前処理ステップS5、顔姿勢導出ステップS6、顔姿勢補正ステップS7を繰り返し実行する。
この顔検出方法は、基準部位群における部位間の距離を拘束条件として利用する拘束条件法によって顔方向Hを導出する。従って、ランダムノイズの少ない安定した結果を得ることができる。そして、顔検出方法では、関数(式(2))を利用して顔方向Hを補正する。この関数は、対象者Aの視線Gと基準顔方向Hの間の第1角度、及び顔方向Hと基準顔方向Hの間の第2角度の関係を規定する係数k,kを含んでいるので、導出された顔方向Hを、基準顔方向Hに相当する結果に変換する。ここで、基準顔方向Hは、ステレオマッチングにより導出された結果であるので、真の顔方向に対する偏りが小さい。このため、ランダムノイズの少ない安定した顔方向Hが、真の顔方向に対する偏りが小さい顔方向に補正される。従って、顔検出における精度を向上することができる。
また、顔検出方法によれば、拘束条件法により得られた顔方向Hを、フレーム毎に補正することができる。この顔検出方法により得られた顔方向は、拘束条件法が有する高い安定性と、ステレオ法が有する正確性とを有している。
関数導出ステップS3は、係数k,kを導出するステップを含む。この関数導出ステップS3によれば、第1角度及び第2角度の関係を規定する係数k,kを含む関数(上記式(2))を導出することができる。
関数導出ステップS3を1回実行した後に、顔姿勢導出ステップS6と顔姿勢補正ステップS7と、を繰り返し実行する。この方法では、顔姿勢導出ステップS6と、顔姿勢補正ステップS7を実行するときに、既に補正のための関数が得られている。従って、顔姿勢導出ステップS6と、顔姿勢補正ステップS7を実行し始めた直後から、顔検出における検出精度を向上することができる。
顔検出方法では、関数導出ステップS3と前処理ステップS5と顔姿勢導出ステップS6と顔姿勢補正ステップS7と、この順で繰り返し実行することとしてもよい。この方法によれば、顔姿勢導出ステップS6と顔姿勢補正ステップS7を実行する毎に、関数導出ステップS3も実行される。関数導出ステップS3の繰り返しにより係数k,kが更新されて所定の値に収束する。従って、事前に関数を準備することなく、顔姿勢導出ステップS6と、顔姿勢補正ステップS7とを実行することができる。
顔検出方法は、世界座標系を基準として取得された角度∠G’と角度∠Hとを顔座標系に座標変換した後に関数を決定し、得られた関数を世界座標系に座標変換する。この方法によれば、顔姿勢の検出精度を高めることができる。
<実施例>
顔検出方法における顔方向の補正効果を確認した。まず、ディスプレイ装置40の中心から75cm離間した位置に対象者Aの顎を固定する台を配置した。対象者は、この台に顎を載せて顔面をディスプレイ装置40に対して正対させた。この状態では、対象者Aの顔方向は、ディスプレイ装置40の中心に向かう方向である。この状態において、まず注視点の一点較正を実施した。次に、対象者Aは、ディスプレイ装置40上に表示した9個の視標Tに順次視線を向けた。各視標Tを注視する時間はおよそ1秒間である。図8(a)は、顔検出方法に係る補正を行わなかった場合の結果を示し、図8(a)は、顔検出方法に係る補正を行った場合の結果を示す。破線の丸印Cは、顔検出装置1によって検出された顔方向を示す。図8(a)に示されるように、補正を行わない場合、実際の顔方向は固定されているにも関わらず、導出される顔方向は、二点鎖線に示される領域D1の範囲でばらついた。具体的には、領域C1の範囲は、40mm〜50mm程度であった。一方、図8(b)に示されるように、補正を行った場合、二点鎖線に示される領域D2の範囲が縮小した。具体的には、領域C2の範囲は、10mm以下であった。従って、顔検出方法によれば、顔方向の誤差を低減できることが確認できた。
以下、本実施形態に係る顔検出方法の具体的な形態、顔検出方法を実施するための顔検出装置1及び顔検出プログラムについて詳細に説明する。
<顔姿勢検出装置>
図1に示されるように、顔検出装置1は、ステレオカメラとして機能する一対の瞳孔用カメラ(撮像手段)10と、一対の鼻孔用カメラ20と、画像処理装置(処理手段)30とを備える。以下では、必要に応じて、一対の瞳孔用カメラ10を、対象者Aの左側にある左側瞳孔用カメラ10と、対象者Aの右側にある右側瞳孔用カメラ10とに区別する。また、一対の鼻孔用カメラ20を、対象者Aの左側にある左側鼻孔用カメラ20と、対象者Aの右側にある右側鼻孔用カメラ20とに区別する。本実施形態では、顔検出装置1は、対象者Aが見る対象であるディスプレイ装置40を更に備えるが、顔検出装置1の利用目的は上記のように限定されないので、対象者Aの視線の先にあるものはディスプレイ装置40に限定されず、例えば自動車のフロントガラスでもあり得る。従って、ディスプレイ装置40は顔検出装置1における必須の要素ではない。4台のカメラ10,20は何れも画像処理装置30と無線又は有線により接続され、各カメラ10,20と画像処理装置30との間で各種のデータ又は命令が送受信される。各カメラ10,20に対しては予めカメラ較正が行われる。
瞳孔用カメラ10及び鼻孔用カメラ20は何れも対象者Aの顔を撮像する装置である。瞳孔用カメラ10は特に対象者Aの瞳孔及びその周辺を撮影するために用いられる。鼻孔用カメラ20は特に対象者Aの瞳孔、鼻孔、及びこれらの周辺を撮影するために用いられる。瞳孔用カメラ10は瞳孔光学系であり、鼻孔用カメラ20は鼻孔光学系である。本明細書では、瞳孔用カメラ10により得られる画像を瞳孔画像(明瞳孔画像または暗瞳孔画像)といい、鼻孔用カメラ20により得られる画像を鼻孔画像という。
瞳孔用カメラ10及び鼻孔用カメラ20は、対象者Aが眼鏡をかけているときの顔画像における反射光の写り込みを防止する目的で、対象者Aの顔より低い位置に設けられる。一対の瞳孔用カメラ10は水平方向に沿って所定の間隔をおいて配される。一対の鼻孔用カメラ20は、一対の瞳孔用カメラ10より低くかつ水平方向に沿って所定の間隔をおいて配される。鼻孔用カメラ20を瞳孔用カメラ10より下に配置するのは、対象者が顔を下に向けた場合でも鼻孔を検出できるようにするためである。水平方向に対する瞳孔用カメラ10及び鼻孔用カメラ20の仰角は、瞳孔の確実な検出と対象者Aの視野範囲の妨げの回避との双方を考慮して、例えば20度〜35度の範囲に設定される。あるいは、瞳孔用カメラ10の仰角が20度〜30度の範囲に設定され、鼻孔用カメラ20の仰角が25度〜35度程度の範囲に設定されてもよい。
本実施形態では、瞳孔用カメラ10及び鼻孔用カメラ20は、インターレーススキャン方式の一つであるNTSC方式のカメラである。NTSC方式では、1秒間に30枚得られる1フレームの画像データ(顔画像)は、奇数番目の水平画素ラインで構成される奇数フィールドと、偶数番目の水平画素ラインで構成される偶数フィールドから構成され、奇数フィールドの画像と偶数フィールドの画像とが1/60秒の間隔で交互に撮影されることで生成される。従って、一つのフレームは、一対の奇数フィールド及び偶数フィールドに相当する。瞳孔用カメラ10及び鼻孔用カメラ20はそれぞれ、画像処理装置30からの命令に応じて対象者Aを撮像し、画像データ(顔画像)を画像処理装置30に出力する。
瞳孔用カメラ10及び鼻孔用カメラ20は光源を備える。図9に示されるように、瞳孔用カメラ10及び鼻孔用カメラ20は、対物レンズ11が円形状の開口部12に収容され、開口部12の外側に光源13が設けられている。光源13は、対象者Aの顔に向けて照明光を照射するための機器であり、複数の発光素子13aと複数の発光素子13bとから成る。発光素子13aは、出力光の中心波長が850nmの半導体発光素子(LED)であり、開口部12の縁に沿って等間隔でリング状に配される。発光素子13bは、出力光の中心波長が940nmの半導体発光素子であり、発光素子13aの外側に等間隔でリング状に配される。従って、瞳孔用カメラ10の光軸から発光素子13bまでの距離は、該光軸から発光素子13aまでの距離よりも大きい。それぞれの発光素子13a,13bは、瞳孔用カメラ10の光軸に沿って照明光を出射するように設けられる。なお、光源13の配置は図2に示す構成に限定されず、カメラをピンホールモデルとみなすことができれば他の配置であってもよい。なお、鼻孔用カメラ20は、光源13を備えていなくてもよい。この場合には、鼻孔用カメラ20は、瞳孔用カメラ10の光源13により照らされた対象者Aの顔を撮影する。すなわち、鼻孔用カメラ20は光源13からの光を利用して撮影を行う。
鼻孔は後述する角膜反射に比べて寸法が大きいので、瞳孔用カメラ10より分解能が低いカメラを鼻孔用カメラ20として用いても鼻孔を検出することができる。すなわち、鼻孔用カメラ20の分解能は瞳孔用カメラ10の分解用カメラより低くてもよい。例えば、瞳孔用カメラ10の分解能が640ピクセル×480ピクセルであるのに対して、鼻孔用カメラ20の分解能が320ピクセル×240ピクセルであってもよい。
画像処理装置30は、瞳孔用カメラ10及び鼻孔用カメラ20の制御と、対象者Aの視線及び顔方向の算出(検出)とを実行するコンピュータである。画像処理装置30は、据置型又は携帯型のパーソナルコンピュータ(PC)により構築されてもよいし、ワークステーションにより構築されてもよいし、他の種類のコンピュータにより構築されてもよい。あるいは、画像処理装置30は複数台の任意の種類のコンピュータを組み合わせて構築されてもよい。複数台のコンピュータを用いる場合には、これらのコンピュータはインターネットやイントラネットなどの通信ネットワークを介して接続される。
図10に示されるように、画像処理装置30は、CPU(プロセッサ)101と、主記憶部102と、補助記憶部103と、通信制御部104と、入力装置105と、出力装置106とを備える。CPU101は、オペレーティングシステムやアプリケーション・プログラムなどを実行する。主記憶部102は、ROM及びRAMで構成される。補助記憶部103は、ハードディスクやフラッシュメモリなどで構成される。通信制御部104は、ネットワークカードあるいは無線通信モジュールで構成される。入力装置105は、キーボードやマウスなどを含む。出力装置106は、ディスプレイやプリンタなどを含む。
後述する画像処理装置30の各機能要素は、CPU101又は主記憶部102の上に所定のソフトウェアを読み込ませ、CPU101の制御の下で通信制御部104や入力装置105、出力装置106などを動作させ、主記憶部102又は補助記憶部103におけるデータの読み出し及び書き込みを行うことで実現される。処理に必要なデータやデータベースは主記憶部102又は補助記憶部103内に格納される。
図11に示すように、画像処理装置30は機能的構成要素として画像取得部31、前処理部32、関数導出部33、顔姿勢導出部34及び顔姿勢補正部36を備える。画像取得部31は、瞳孔用カメラ10及び鼻孔用カメラ20の撮影タイミングと瞳孔用カメラ10の光源13の発光タイミングとを制御することで、瞳孔用カメラ10及び鼻孔用カメラ20から画像データ(顔画像)を取得する機能要素である。前処理部32は、画像データ(顔画像)に基づいて顔姿勢ベクトル及び視線を算出する機能要素である。前処理部32は、角度取得部32aと、座標変換部(第1の座標変換部)32bと、を有する。角度取得部32aは、角度∠G’及び角度∠Hを世界座標系において取得する。座標変換部32bは、世界座標系において取得された角度∠G’及び角度∠Hを、世界座標系とは異なる顔座標系に変換する。関数導出部33は、特徴点の三次元座標に基づいて顔方向を補正するための関数を導出する機能要素である。関数導出部33は、関数決定部33aを有する。関数決定部33aは、上記式(2)に示された係数k,kを算出する。顔姿勢導出部34は、拘束条件法を利用して顔方向を導出する機能要素である。顔姿勢補正部36は、顔姿勢導出部34により導出された顔方向を補正する機能要素である。顔姿勢補正部36は、第1の座標変換部36aと、角度取得部36bと、方向補正部36cと、第2の座標変換部36dとを有する。補正された顔方向の出力先は何ら限定されない。例えば、画像処理装置30は結果を画像、図形、又はテキストでモニタに表示してもよいし、メモリやデータベースなどの記憶装置に格納してもよいし、通信ネットワーク経由で他のコンピュータシステムに送信してもよい。
この顔検出装置1は、上述した顔検出方法と同様の効果を得ることができる。すなわち、顔検出装置1は、基準部位群における部位間の距離を拘束条件として利用する拘束条件法によって顔方向Hを導出する。従って、ランダムノイズの少ない安定した結果を得ることができる。そして、顔検出装置では、関数(式(2))を利用して顔方向Hを補正する。この関数は、対象者Aの視線Gと基準顔方向Hの間の第1角度、及び顔方向Hと基準顔方向Hの間の第2角度の関係を規定する係数kを含んでいるので、導出された顔方向H1を、基準顔方向Hに相当する結果に変換する。ここで、基準顔方向Hは、ステレオマッチングにより導出された結果であるので、真の顔方向に対する偏りが小さい。このため、ランダムノイズの少ない安定した顔方向Hが、真の顔方向に対する偏りが小さい顔方向に補正される。従って、顔検出における精度を向上することができる。
また、顔検出装置1は、2台以上の鼻孔用カメラ20を互いに離間させて配置しているので、顔方向Hの検出範囲を広げることができる。例えば、顔検出装置1は、鼻孔用カメラ20を正面にして各方向に±30度〜±40度の範囲で対象者Aの顔方向Hを検出できる。ここで、基準顔方向Hの検出用光学系(図1における右側瞳孔用カメラ10、左側瞳孔用カメラ10)は、例えば互いに30度程度離れているとする。この場合に、対象者Aから向かって左に15度のところに存在する左側瞳孔用カメラ10では、対象者Aが右側に30度を超えた位置を注視したときには顔方向を検出できない(光学系を正面にして左右±45度の範囲で検出できる)。このような場合に、1枚の画像データ(顔画像)によって顔方向を導出できる拘束条件法が有利である。
以下、顔検出方法における、画像取得ステップS1、前処理ステップS2、関数導出ステップS3、画像取得ステップS4、前処理ステップS5、顔姿勢導出ステップS6、及び顔姿勢補正ステップS7の具体的態様について詳細に説明する。
<画像取得ステップS1>
眼に入った光は網膜で乱反射し、反射光のうち瞳孔を通り抜けた光は強い指向性をもって光源へ戻る性質がある。カメラの開口部近くにある光源が発光した時にカメラを露光させると、網膜で反射した光の一部がその開口部に入るため、瞳孔が瞳孔周辺よりも明るく写った画像を取得することができる。この画像が明瞳孔画像である。これに対して、カメラの開口部から離れた位置にある光源が発光した時にカメラを露光させると、眼から戻ってきた光はカメラの開口部にほとんど戻らないため、瞳孔が暗く写った画像を取得することができる。この画像が暗瞳孔画像である。また、透過率が高い波長の光を眼に照射すると、網膜での光の反射が多くなるので瞳孔が明るく写り、透過率が低い波長の光を眼に照射すると、網膜での光の反射が少なくなるので瞳孔が暗く写る。
(明瞳孔画像と暗瞳孔画像の取得)
画像取得部31は、瞳孔用カメラ10の奇数フィールドに合わせて発光素子13aを点灯させて明瞳孔画像を撮影し、瞳孔用カメラ10の偶数フィールドに合わせて発光素子13aを点灯させて暗瞳孔画像を撮影する。画像取得部31は2個の瞳孔用カメラ10の間で作動タイミングをわずかにずらし、個々の瞳孔用カメラ10の露光時間はそのずらし時間以下に設定される。画像取得部31は、瞳孔用カメラ10の露光時間中に、対応する発光素子13a及び発光素子13bを交互に発光させることで、一方の瞳孔用カメラ10の光源13からの光が他方の瞳孔用カメラ10の画像に影響を与えないようにする(クロストークが起こらないようにする)。
画像取得部31は、これらの一連の制御により得られる明瞳孔画像及び暗瞳孔画像を取得する。得られる画像データは、奇数フィールド又は偶数フィールドのみに有効画素を有しているため、画像取得部31は、隣接する有効画素の画素ラインの輝度平均をそのライン間の画素値に埋め込むことによって、明瞳孔画像又は暗瞳孔画像を生成する。画像取得部31は明瞳孔画像及び暗瞳孔画像を前処理部32に出力する。
(鼻孔画像の取得)
画像取得部31は、光源13の点灯に同期させて鼻孔画像を撮影する。点灯される発光素子は、発光素子13a,13bの何れでもよい。画像取得部31は鼻孔画像を前処理部32に出力する。
<前処理ステップS2>
前処理ステップS2は、瞳孔位置を検出するステップと、鼻孔を検出するステップと、ステレオ法による顔姿勢ベクトルの導出ステップと、拘束条件法による顔姿勢ベクトルの導出ステップと、視線の検出ステップと、を有する。
(瞳孔位置の検出)
前処理部32は、2画像の差分を取ることで差分画像を生成する。そして、前処理部32は差分画像から対象者Aにおける左右の瞳孔の位置を算出する。連続する2フィールドの一方は明瞳孔画像であり他方は暗瞳孔画像である。i番目のフィールドの画像が撮影されてから(i+1)番目のフィールドの画像が撮影されるまでの間に対象者Aの頭部が動かなければ、単純に明瞳孔画像及び暗瞳孔画像の差を取ることで、瞳孔部分が浮かび上がった差分画像を生成することができる。
ここで、前処理部32は、差分を取る前に、連続する2フィールドの画像のうち、先に得られた画像の位置を後から得られた画像の位置に合わせ(この処理を位置補正という)を実行してもよい。具体的には、前処理部32は、差分画像を得る前に明瞳孔画像及び暗瞳孔画像に対して位置補正を実行してもよい。i番目のフィールドの画像が撮影されてから(i+1)番目のフィールドの画像が撮影されるまでの間のわずかな時間に対象者Aの頭部が動くと、これら2画像の間で瞳孔の位置に偏りが生じ、その結果、良好な差分画像を得ることができない。従って、瞳孔用カメラ10及び鼻孔用カメラ20のフレームレートが高速ではない場合に、位置補正の適用が有効である。本実施形態での位置補正には、顔方向の予測に基づく位置補正と、その後に行われる、角膜反射に基づく位置補正の2種類がある。
瞳孔検出の方法は前フィールド(i番目のフィールド)での瞳孔の検出結果(前回の瞳孔検出結果)によって下記の3種類に分類される。
(1)前フィールド(前回の瞳孔検出)で両瞳孔を検出できた場合。
(2)前フィールド(前回の瞳孔検出)で片方の瞳孔のみを検出できた場合。
(3)前フィールド(前回の瞳孔検出)で両瞳孔を検出できなかった場合。
前フィールドで両瞳孔を検出できた場合には、前処理部32は瞳孔追跡により両瞳孔を決定し、左右の瞳孔の中心座標を算出する。まず、前処理部32は、予測瞳孔位置の三次元座標を、後述する式(6)を用いて撮像平面(瞳孔画像)上の二次元座標に変換する。また、前処理部32は、次フィールド((i+1)番目のフィールド)の瞳孔画像を画像取得部31から取得する。続いて、前処理部32は予測瞳孔位置の二次元座標を中心とする小ウィンドウ(例えば70ピクセル×70ピクセル)を次フィールドの瞳孔画像に設定する。一方、前フィールドの画像に対しては、前処理部32は既に検出されている二次元座標を中心とする小ウィンドウを設定する。続いて、前処理部32は前フィールドのウィンドウの位置を次フィールドのウィンドウの位置に合わせ、明瞳孔画像と暗瞳孔画像との差分を取る。続いて、前処理部32は、その処理で得られた差分画像に対してPタイル法によって決定された閾値で2値化を行った後、孤立点除去及びラベリングを行う。続いて、前処理部32は、瞳孔らしい面積、サイズ、面積比、正方形度、及び瞳孔特徴量等の形状パラメータに基づいて、ラベルづけされた画素の連結成分の中から瞳孔候補を選択する。そして、前処理部32は二つの瞳孔候補の関係が所定の関係にあるものを左右の瞳孔として決定し、画像データにおける左右の仮の瞳孔位置を求める。すなわち、前処理部32は、ピンホールモデルを用いて顔姿勢から予測された瞳孔の三次元座標を撮像平面に投影してから、位置補正を実行して差分画像を生成し、その差分画像に基づいて瞳孔を特定する。
前フィールドで片方の瞳孔のみ検出された場合には、前処理部32は、検出された方の瞳孔については、上記と同様の瞳孔追跡により瞳孔を決定し、仮の瞳孔位置を求める。一方、検出されなかった方の瞳孔については、前処理部32は検出された方の瞳孔の位置から所定の距離(例えば30ピクセル)だけ離れた位置に中ウィンドウ(例えば150ピクセル×60ピクセル)を設定し、その中ウィンドウについて差分画像を生成する。そして、前処理部32はその差分画像に対して、上記と同様の手順で瞳孔候補を選択する。そして、前処理部32は瞳孔候補の中で面積が最も大きいものを他方の仮の瞳孔位置として決定する。
前フィールドで両瞳孔を検出できなかった場合には、前処理部32は画像全体から瞳孔を探索する。具体的には、前処理部32は、前フィールドの画像と次フィールドの画像との差分を取ることで得た差分画像に対して、上記と同様の手順で瞳孔候補を選択する。そして、前処理部32は二つの瞳孔候補の関係が所定の関係にあるものを左右の瞳孔として決定し、画像データにおける左右の仮の瞳孔位置を求める。
続いて、前処理部32は角膜反射の位置を考慮して最終的な瞳孔位置を確定する。具体的には、前処理部32は、明瞳孔画像及び暗瞳孔画像のそれぞれに対して、仮の瞳孔位置を中心とした小ウィンドウを設定し、その小ウィンドウの範囲のみを高分解像度化した画像データを作成し、その画像データから角膜反射を検出する。前処理部32は、小ウィンドウ内において、Pタイル法による2値化とラベリングとを行い、形状や輝度平均などの情報から角膜反射候補を選択する。そして、前処理部32は選択した部分の中心座標に対し分離度フィルタを与え、分離度と輝度を乗算して得られる特徴量を求める。その特徴量が一定値以上であれば、前処理部32は小ウィンドウの中心座標を仮の角膜反射座標として検出し、二つの小ウィンドウの間での角膜反射の移動量を位置補正量として計算する。続いて、前処理部32は明瞳孔画像及び暗瞳孔画像の間で角膜反射点が一致するように、前フィールド(i番目のフィールド)の画像を、次フィールド((i+1)番目のフィールド)の画像に位置補正量だけずらした上で、これら2画像から差分画像を生成する。一方、角膜反射を検出できなかった場合には、前処理部32は位置補正を行うことなく2画像の差分を取ることで差分画像を生成する。
続いて、前処理部32は差分画像から最終的な瞳孔位置を確定する。具体的には、前処理部32は、前フレームと輝度が大きく変化しないことを利用して、前フレームで検出された瞳孔の輝度平均を利用して、その平均輝度の半分の値を閾値として差分画像を2値化し、ラベリングを行う。続いて、前処理部32は、瞳孔らしい面積、サイズ、面積比、正方形度、及び瞳孔特徴量等の形状パラメータに基づいて、ラベルづけされた画素の連結成分の中から瞳孔候補を選択する。そして、前処理部32は、予測瞳孔位置の近くにある瞳孔候補が求めるべき瞳孔であると判定し、その瞳孔の中心座標を算出する。
(鼻孔の検出)
前処理部32は、鼻孔があると推定される鼻孔画像内の位置にウィンドウを設定し、そのウィンドウ内を処理することで鼻孔を検出する。なお、前処理部32は、瞳孔の三次元位置に基づいて、鼻孔があると推定される鼻孔画像内の位置にウィンドウを設定してもよい。前処理部32は、鼻孔画像及び暗瞳孔画像から鼻孔を検出する。あるいは、前処理部32は、鼻孔画像から鼻孔を検出する。鼻孔検出の方法は前フィールドでの鼻孔の検出結果(前回の鼻孔検出の結果)によって下記の3種類に分類される。
(1)前フィールド(前回の鼻孔検出)で左右の鼻孔の双方を検出できなかった場合。
(2)前フィールド(前回の鼻孔検出)で左右の鼻孔の双方を検出できた場合。
(3)前フィールド(前回の鼻孔検出)で片方の鼻孔のみを検出できた場合。
前フィールドで左右の鼻孔の双方を検出できなかった場合には、前処理部32は瞳孔の位置に基づいて鼻孔画像内に所定の大きさの大ウィンドウを設定し、その大ウィンドウ内の輝度を反転させ、Pタイル法によって設定された閾値で2値化を行った後、孤立点除去、収縮処理、膨張処理、及びラベリングを行う。続いて、前処理部32はラベルづけされた画素の連結成分から、鼻孔らしい面積及び大ウィンドウ内での位置に基づいて鼻孔候補を選択する。続いて、前処理部32は、大ウィンドウの中心に最も近い鼻孔候補を第1鼻孔とし、その第1鼻孔との距離が最も近い鼻孔候補を第2鼻孔と決定する。そして、前処理部32はX座標に基づいて第1鼻孔及び第2鼻孔のどちらか一方を左鼻孔と認定し他方を右鼻孔と認定し、各鼻孔の中心座標を算出する。
前フィールドで左右の鼻孔の双方を検出できた場合には、前処理部32は前フィールドの鼻孔位置からカルマンフィルタによって現在の処理対象フィールドにおける鼻孔位置を予測し、予測された鼻孔位置を中心とする小ウィンドウを設定する。小ウィンドウは大ウィンドウよりも小さい。そして、前処理部32は大ウィンドウに対する処理と同様に、小ウィンドウ内の輝度反転、Pタイル法による2値化、孤立点除去、収縮処理、膨張処理、ラベリング、鼻孔候補の選択、及び左右の鼻孔の認定を実行することで、各鼻孔の中心座標を算出する。
前フィールドで片方の鼻孔のみ検出された場合には、前処理部32は鼻孔推定を行う。前処理部32は、対象者Aが鼻孔用カメラ20に真っ直ぐ向いているときの両瞳孔及び両鼻孔の座標を事前に保持しており、これらの座標に基づいて瞳孔間の距離と鼻孔間の距離との比と求める。続いて、前処理部32は、両瞳孔をつないだ直線と両鼻孔をつないだ直線が平行であるとの前提に立ち、二つの瞳孔座標と、検出できた一つの鼻孔座標と、求めた比とに基づいて、前フィールドで検出できなかった鼻孔座標を推定し、推定された鼻孔座標を中心に上記と同様の小ウィンドウを設定する。そして、前処理部32は小ウィンドウ内の輝度反転、Pタイル法による2値化、孤立点除去、収縮処理、膨張処理、ラベリング、鼻孔候補の選択、及び左右の鼻孔の認定を実行することで、各鼻孔の中心座標を算出する。
(ステレオ法による顔姿勢ベクトルの導出)
本実施形態では、ステレオ法によって導出された顔姿勢ベクトルを真の顔方向(基準顔方向H)として取り扱う。ステレオ法とは、複数台のカメラによって撮像された画像データ(顔画像)から対象の三次元座標を復元する方法である。対象物は、瞳孔中心である。本実施形態では、瞳孔用カメラ10を用いて得た少なくとも2枚の顔画像にステレオ法を適用することによって、瞳孔中心の三次元座標を決定する。そして、このステレオ法によって得られた瞳孔中心の三次元座標を利用して、対象者Aの基準顔方向Hを示す顔姿勢ベクトルを算出する。すなわち、基準顔方向Hは、対象者Aの顔画像に基づいて、ステレオ法により導出される。
具体的には、図12に示されるように、ステレオ法による瞳孔中心の三次元座標を決定には、世界座標系(X,Y,Z)、カメラ座標系(X,Y,Z)及び画像座標系(X,Y)の3個の座標系を利用する。世界座標系は、複数のカメラ(例えば左側瞳孔用カメラ10、右側瞳孔用カメラ10)の間で共有する任意の点を規定する座標系である。特徴点の三次元座標は、世界座標系Xに基づく。世界座標系Xとカメラ座標系Xとの関係は、式(4)により示される。式(4)における回転行列Rと並進ベクトルTは、カメラ較正により取得される定数である。前処理部32は式(4)に基づいて、世界座標系Xにおける瞳孔の位置を算出する。
Figure 0006452235
続いて、前処理部32は特徴点の座標P,P,Pの三次元位置に基づいて顔方向を求める。図13に示すように、カメラ座標系Xに対して特徴点の座標P,P,P及びそれらの重心Mを基準にした顔座標系xyzを定義する。このx軸、y軸、z軸は、顔座標系の原点が重心Mと一致し、顔平面がxy平面と一致し、かつz軸が法線ベクトルと一致するように設定される。また、重心Mが顔座標系xyzの原点と位置し、かつ鼻孔中点がy軸上にあって負値をとるように設定された状態を顔座標系xyzでの基準姿勢と定義する。
前処理部32はステレオ法によって算出された各特徴点の座標P,P,Pの重心Mを通る平面の法線ベクトルを求める。この法線ベクトルは、対象者Aの基準顔方向Hを示す顔姿勢ベクトルV=(n,n,n)である。
(拘束条件法による顔姿勢ベクトルの導出)
顔検出装置1における撮像光学系は、図14に示すように焦点距離fのピンホールモデルと仮定することができる。ピンホールを原点Oとしたカメラ座標系(基準座標系X−Y−Zにおける鼻孔画像(撮像平面PL)上の右瞳孔、左瞳孔、左鼻孔、及び右鼻孔の中心点の二次元座標をそれぞれ、Q(x,y)、Q(x,y)、Q(x,y)、及びQ(x,y)とする。前処理部32は、これら4点の二次元座標から、両鼻孔の中点(鼻孔間中心)の座標(鼻孔間中心座標)P、右瞳孔の座標P、及び左瞳孔の座標Pを求める。ここで、P=(X,Y,Z)(n=0,1,2)である。
3個の特徴点(鼻孔間中心、左瞳孔及び右瞳孔)間を結んだ三角形の各辺の距離は、それらのうちの任意の1点をiとし、他の点をjとすると、点i,jの間の距離Lijで示される(式(5))。
Figure 0006452235
ピンホールから各特徴点への位置ベクトルが求まれば、各特徴点に対応する撮像平面PL上の二次元位置は、カメラの焦点距離fを用いて式(6)で得られる。
Figure 0006452235

また、ピンホールOから各特徴点へ向かう位置ベクトルに対応した単位ベクトルは式(7)により得られる。
Figure 0006452235

各特徴点の位置ベクトルは定数a(n=0,1,2)を用いて式(8)で表される。
Figure 0006452235

すると、式(9)が成立する。
Figure 0006452235

これにより連立方程式(10)が得られる。
Figure 0006452235

顔姿勢導出部34はこの連立方程式からa,a,aを求め、その解を式(8)に適用することで位置ベクトルを求める。
続いて、前処理部32は特徴点の座標P,P,Pに基づいて顔方向を求める。図13に示すように、カメラ座標系Xに対して特徴点の座標P,P,P及びそれらの重心Mを基準にした顔座標系xyzを定義する。このx軸、y軸、z軸は、顔座標系の原点が重心Mと一致し、顔平面がxy平面と一致し、かつz軸が法線ベクトルと一致するように設定される。また、重心Mが顔座標系xyzの原点と位置し、かつ鼻孔中点がy軸上にあって負値をとるように設定された状態を顔座標系xyzでの基準姿勢と定義する。
前処理部32は各特徴点の座標P,P,Pの重心Mを通る撮像平面PLの法線ベクトルを求める。この法線ベクトルは、対象者Aの顔方向Hを示す顔姿勢ベクトルV=(n,n,n)である。
(視線の検出)
前処理部32は左右の瞳孔の三次元座標に基づいて視線を検出する。この瞳孔の三次元座標には、上記ステレオ法による顔姿勢ベクトルの導出と同様に、瞳孔用カメラ10を用いて得た少なくとも2枚の顔画像にステレオ法を適用することによって得られた瞳孔中心の三次元座標を利用することができる。すなわち、視線Gは、対象者Aの顔画像に基づいてステレオ法により導出される。図15に示されるように、瞳孔の三次元位置に基づいて、瞳孔用カメラ10の開口部12の中心を原点Oとし、その原点Oと瞳孔中心Pを結ぶ基準線OPを法線とする仮想視点平面X’−Y’を考える。ここで、X’軸は、世界座標系のXw−Zw平面と仮想視点平面X’−Y’との交線に相当する。
前処理部32は、画像面Sにおける角膜反射点Gから瞳孔中心Pまでのベクトルrを算出し、そのベクトルrを、距離OPから求められたカメラの拡大率を用いて実寸に換算したベクトルrに変換する。このとき、瞳孔用カメラ10をピンホールモデルと考え、角膜反射点Gと瞳孔中心Pとが、仮想視点平面X’−Y’と平行な平面上にあると仮定する。つまり、前処理部32は、仮想視点平面X’−Y’と平行であって瞳孔の三次元座標を含む平面上において、瞳孔中心Pと角膜反射点Gの相対座標をベクトルrとして算出し、このベクトルrは角膜反射点Gから瞳孔中心Pまでの実距離を表す。
前処理部32は、対象者Aの仮想視点平面X’−Y’上の注視点Tに関して、直線OTの水平軸X’に対する傾きφが、ベクトルrの画像面上の水平軸XGに対する傾きφ’と等しいと仮定する。更に、前処理部32は、対象者Aの視線ベクトル、すなわち、瞳孔中心Pと注視点Tとを結ぶ視線ベクトルPTと、基準線OPとのなす傾きθを、ゲイン値kを含むパラメータを使った式(11)により計算する。
Figure 0006452235
このような傾きφ,θの計算は、瞳孔中心Pの存在する平面上のベクトルrを仮想視点平面X’−Y’上で拡大したものがそのまま対象者Aの注視点に対応するとみなすことにより行われる。具体的には、対象者Aの視線ベクトルPTの基準線OPに対する傾きθは、瞳孔中心と角膜反射の距離|r|との間で線形関係を有すると仮定する。
傾きと距離|r|とは線形近似できるという仮定、及び二つの傾きφ,φ’が等しいという仮定を利用することで、(θ,φ)と(|r|,φ’)とを一対一に対応させることができる。このとき、前処理部32は、瞳孔用カメラ10の開口部12の中心に設定された原点Oと、仮想視点平面X’−Y’上の注視点Tとを結ぶベクトルOTを式(12)により得る。なお、ベクトルOPは瞳孔用カメラ10から得られる。
Figure 0006452235
最後に、前処理部32は視線ベクトルPTと視対象平面(ディスプレイ装置40)との交点である注視点Qを式(13)により得る
Figure 0006452235
しかし、一般的にヒトの視軸(瞳孔中心および中心窩を通る軸)と光軸(角膜からレンズの中心へと延びる法線)との間には偏りがあり、対象者Aがカメラを注視した際にも角膜反射と瞳孔中心とは一致しない。そこで、これを補正する原点補正ベクトルrを定義し、カメラ画像から実測した角膜反射−瞳孔中心ベクトルをr’とすると、ベクトルrはr=r’−rで表されるので、式(11)は式(14)のように書き換えられる。
Figure 0006452235
計測されたr’に対して原点補正を行うことで、(θ,φ)と(|r|,φ’)とを一対位置に対応させることができ、精度の高い注視点検出を行うことができる。このような補正は、当業者に周知である一点較正法を用いて実現可能である。
<関数導出ステップS3>
関数導出部33は、式(2)における係数k,kを決定する。係数k,kの決定方法は次の通りである。まず、対象者Aは、顔方向と視線とを自由に動かす。この間に、視線Gと、顔方向Hと、基準顔方向Hとを取得する。そして、図16に示されるように、角度∠G’(第1角度)と角度∠H(第2角度)を二次元座標上にプロットする。これら角度∠G’と角度∠Hとは、世界座標系を基準として表現された角度である。ここで、角度∠G’と角度∠Hとを顔座標系に座標変換する。そして、関数決定部33aは、顔座標系を基準とした角度∠G’と角度∠Hを利用して、二次元座標におけるグラフの傾き(係数k)および切片(係数k)を算出する(ステップS3a)。これらの算出には、最小二乗法を利用することができる。これら係数k,kが決定されることにより、関数(式(2))が決定される。
<画像取得ステップS4>
画像取得ステップS4では、上記画像取得ステップS1と同様の手法により、明瞳孔画像、暗瞳孔画像及び鼻孔画像を取得する。
<前処理ステップS5>
前処理ステップS5では、上記前処理ステップS2と同様の手法により、拘束条件法による顔方向Hを導出する。また、上記前処理ステップS2と同様の手法により、ステレオ法による視線Gを導出する。前処理ステップS5では、ステレオ法による基準顔方向Hは必要に応じて導出すればよい。
(拘束条件法による顔姿勢の導出:顔姿勢導出ステップS6)
顔姿勢導出ステップS6では、上記「拘束条件法による顔姿勢ベクトルの導出」と同様の手法により、顔方向Hを導出する。
<顔姿勢補正ステップS7>
顔姿勢補正部36は、式(2)と関数導出ステップS3で決定された係数k,kを利用して、顔方向Hを補正する。まず、第1の座標変換部36aは、フレーム毎に求まる世界座標系における視線Gと顔方向Hを顔座標系に変換し、顔座標系における視線Gと顔方向Hを求める(第1の座標変換ステップ:S7a)。次に、角度取得部36bは、顔座標系における視線Gと顔方向Hを利用して、顔座標系における角度∠G’(第1角度)を求めた後に、角度∠G’と、すでに求まっている係数k,kを含む記式(2)を用いて、顔座標系における角度∠Hを求める(角度取得ステップ:S7b)。次に、方向補正部36cは、この角度∠Hと顔座標系における顔方向Hから顔座標系における基準顔方向Hを求める(方向補正ステップ:S7c)。そして、第2の座標変換部36dは、顔座標系における基準顔方向Hを世界座標系における基準顔方向Hに変換する(第2の座標変換ステップ:S7d)。以上のステップS7a〜S7dにより、補正された顔方向Hを得る。
[顔検出プログラム]
次に、顔検出装置1を実現するための顔検出プログラムを説明する。
図17に示されるように、顔検出プログラムP10は、メインモジュールP11、画像取得モジュールP12、前処理モジュールP13、関数導出モジュールP14、顔姿勢導出モジュールP15、及び顔姿勢補正モジュールP16、を備える。
メインモジュールP11は、顔検出機能を統括的に制御する部分である。画像取得モジュールP12、前処理モジュールP13、関数導出モジュールP14、顔姿勢導出モジュールP15、及び顔姿勢補正モジュールP16を実行することにより実現される機能はそれぞれ、上記の画像取得部31、前処理部32、関数導出部33、顔姿勢導出部34、及び顔姿勢補正部36の機能と同様である。
顔検出プログラムP10は、例えば、CD−ROMやDVD−ROM、半導体メモリなどの有形の記録媒体に固定的に記録された上で提供されてもよい。また、顔検出プログラムP10は、搬送波に重畳されたデータ信号として通信ネットワークを介して提供されてもよい。
1…顔検出装置、10…瞳孔用カメラ(撮像手段)、20…鼻孔用カメラ、30…画像処理装置(処理手段)、31…画像取得部、32…前処理部、33…関数導出部、34…顔姿勢導出部、36…顔姿勢補正部、H…顔方向、H…基準顔方向、S1,S4…画像取得ステップ、S2,S5…前処理ステップ、S3…関数導出ステップ、S6…顔姿勢導出ステップ、S7…顔姿勢補正ステップ。

Claims (8)

  1. 対象者の顔姿勢と視線との間の第1角度及び基準顔姿勢と前記顔姿勢の間の第2角度の関係を規定する係数を含み、前記顔姿勢を補正するための関数を導出する関数導出ステップと、
    前記顔姿勢を導出する顔姿勢導出ステップと、
    前記関数導出ステップにおいて導出された前記関数を利用して、前記顔姿勢を補正する顔姿勢補正ステップと、を有し、
    前記顔姿勢は、前記対象者の左瞳孔、右瞳孔、及び左右の鼻孔の何れか一方の3つの組み合わせである基準部位群における部位間の距離と、前記対象者の顔画像において検出される前記基準部位群の二次元的位置とを利用して、前記基準部位群を含む平面の法線を算出することによって導出され、
    前記視線及び前記基準顔姿勢は、少なくとも2枚の前記対象者の顔画像に基づいて、ステレオマッチングにより導出される、顔検出方法。
  2. 前記関数導出ステップは、
    前記顔姿勢を導出するステップと、
    前記視線及び前記基準顔姿勢を導出するステップと、
    前記第1角度及び前記第2角度に基づいて、前記係数を導出するステップと、を含む、請求項1に記載の顔検出方法。
  3. 前記関数導出ステップを1回実行した後に、前記顔姿勢導出ステップと前記顔姿勢補正ステップと、を繰り返し実行する、請求項1又は2に記載の顔検出方法。
  4. 前記関数導出ステップと前記顔姿勢導出ステップと前記顔姿勢補正ステップと、この順で繰り返し実行する、請求項1又は2に記載の顔検出方法。
  5. 前記顔姿勢補正ステップは、
    第1の座標系に基づく前記視線と前記第1の座標系に基づく前記顔姿勢とを、前記第1の座標系とは異なる第2の座標系に基づくように座標変換するステップと、
    前記第2の座標系に基づく前記視線と前記第2の座標系に基づく前記顔姿勢とを利用して、前記第2の座標系に基づく前記第1角度を取得し、当該第1角度と前記関数とを利用して、前記第2の座標系に基づく前記第2角度を取得するステップと、
    前記第2の座標系に基づく前記第2角度を利用して、前記第2の座標系に基づく前記顔姿勢を補正するステップと、
    補正された前記顔姿勢を前記第1の座標系に基づくように座標変換するステップと、を含む、請求項1〜4の何れか一項に記載の顔検出方法。
  6. 対象者の顔を撮像する少なくとも2台の撮像手段と、
    前記撮像手段で撮像された顔画像に基づいて、前記対象者の顔姿勢を導出する処理手段と、を備え、
    前記処理手段は、
    前記対象者の前記顔姿勢と視線との間の第1角度及び基準顔姿勢と前記顔姿勢の間の第2角度の関係を規定する係数を含み、前記顔姿勢を補正するための関数を導出する関数導出部と、
    前記顔姿勢を導出する顔姿勢導出部と、
    前記関数導出部において導出された前記関数を利用して、前記顔姿勢を補正する顔姿勢補正部と、を有し、
    前記顔姿勢は、前記対象者の左瞳孔、右瞳孔、及び左右の鼻孔の何れか一方の3つの組み合わせである基準部位群における部位間の距離と、前記対象者の顔画像において検出される前記基準部位群の二次元的位置とを利用して、前記基準部位群を含む平面の法線を算出することによって導出され、
    前記視線及び前記基準顔姿勢は、少なくとも2枚の前記対象者の顔画像に基づいて、ステレオマッチングにより導出される、顔検出装置。
  7. 前記顔姿勢補正部は、
    第1の座標系に基づく前記視線と前記第1の座標系に基づく前記顔姿勢とを、前記第1の座標系とは異なる第2の座標系に基づくように座標変換する第1の座標変換部と、
    前記第2の座標系に基づく前記視線と前記第2の座標系に基づく前記顔姿勢とを利用して、前記第2の座標系に基づく前記第1角度を取得し、当該第1角度と前記関数とを利用して、前記第2の座標系に基づく前記第2角度を取得する角度取得部と、
    前記第2の座標系に基づく前記第2角度を利用して、前記第2の座標系に基づく前記顔姿勢を補正する方向補正部と、
    補正された前記顔姿勢を前記第1の座標系に基づくように座標変換する第2の座標変換部と、を含む、請求項6に記載の顔検出装置。
  8. コンピュータを、
    対象者の顔姿勢と視線との間の第1角度及び基準顔姿勢と顔姿勢の間の第2角度の関係を規定する係数を含み、前記顔姿勢を補正するための関数を導出する関数導出部と、
    前記顔姿勢を導出する顔姿勢導出部と、
    前記関数導出部において導出された前記関数を利用して、前記顔姿勢を補正する顔姿勢補正部と、して機能させ、
    前記顔姿勢は、前記対象者の左瞳孔、右瞳孔、及び左右の鼻孔の何れか一方の3つの組み合わせである基準部位群における部位間の距離と、前記対象者の顔画像において検出される前記基準部位群の二次元的位置とを利用して、前記基準部位群を含む平面の法線を算出することによって導出され、
    前記視線及び前記基準顔姿勢は、少なくとも2枚の前記対象者の顔画像に基づいて、ステレオマッチングにより導出される、顔検出プログラム。
JP2014235232A 2014-11-20 2014-11-20 顔検出方法、顔検出装置、及び顔検出プログラム Active JP6452235B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014235232A JP6452235B2 (ja) 2014-11-20 2014-11-20 顔検出方法、顔検出装置、及び顔検出プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014235232A JP6452235B2 (ja) 2014-11-20 2014-11-20 顔検出方法、顔検出装置、及び顔検出プログラム

Publications (2)

Publication Number Publication Date
JP2016099759A JP2016099759A (ja) 2016-05-30
JP6452235B2 true JP6452235B2 (ja) 2019-01-16

Family

ID=56077108

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014235232A Active JP6452235B2 (ja) 2014-11-20 2014-11-20 顔検出方法、顔検出装置、及び顔検出プログラム

Country Status (1)

Country Link
JP (1) JP6452235B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101815697B1 (ko) * 2016-10-13 2018-01-05 주식회사 에스원 위조 얼굴 판별 장치 및 방법
KR101908851B1 (ko) * 2017-04-14 2018-10-17 한국 한의학 연구원 얼굴 자세 보정 장치 및 방법
JP7046347B2 (ja) * 2017-12-06 2022-04-04 国立大学法人静岡大学 画像処理装置及び画像処理方法
JP6939580B2 (ja) * 2018-01-10 2021-09-22 株式会社デンソー 車両用画像合成装置
CN113947799B (zh) * 2021-11-11 2023-03-14 石家庄学院 三维人脸数据预处理方法及设备
CN116030512B (zh) * 2022-08-04 2023-10-31 荣耀终端有限公司 注视点检测方法及装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4765008B2 (ja) * 2004-03-16 2011-09-07 国立大学法人静岡大学 瞳孔と鼻孔を用いた頭部の方向を検出する方法
JP4501003B2 (ja) * 2005-07-15 2010-07-14 国立大学法人静岡大学 顔姿勢検出システム
JP4431749B2 (ja) * 2006-03-31 2010-03-17 国立大学法人静岡大学 顔姿勢検出方法

Also Published As

Publication number Publication date
JP2016099759A (ja) 2016-05-30

Similar Documents

Publication Publication Date Title
US11042994B2 (en) Systems and methods for gaze tracking from arbitrary viewpoints
JP5858433B2 (ja) 注視点検出方法及び注視点検出装置
JP6452235B2 (ja) 顔検出方法、顔検出装置、及び顔検出プログラム
US10902635B2 (en) Line-of-sight detection device
JP5915981B2 (ja) 注視点検出方法及び注視点検出装置
JP6548171B2 (ja) 瞳孔検出システム、視線検出システム、瞳孔検出方法、および瞳孔検出プログラム
JP6631951B2 (ja) 視線検出装置及び視線検出方法
US10417782B2 (en) Corneal reflection position estimation system, corneal reflection position estimation method, corneal reflection position estimation program, pupil detection system, pupil detection method, pupil detection program, gaze detection system, gaze detection method, gaze detection program, face orientation detection system, face orientation detection method, and face orientation detection program
JP2019000136A (ja) 視線計測装置及びプログラム
JP2016173313A (ja) 視線方向推定システム、視線方向推定方法及び視線方向推定プログラム
JP6324119B2 (ja) 回転角度算出方法、注視点検出方法、情報入力方法、回転角度算出装置、注視点検出装置、情報入力装置、回転角度算出プログラム、注視点検出プログラム及び情報入力プログラム
JP6288770B2 (ja) 顔検出方法、顔検出システム、および顔検出プログラム
JP6346018B2 (ja) 眼球計測システム、視線検出システム、眼球計測方法、眼球計測プログラム、視線検出方法、および視線検出プログラム
JP6452236B2 (ja) 眼球識別装置及び眼球識別方法
WO2016159255A1 (ja) 口領域検出装置及び口領域検出方法
JP5727969B2 (ja) 位置推定装置、方法、及びプログラム
JP2017102731A (ja) 視線検出装置及び視線検出方法
JP6468755B2 (ja) 特徴点検出システム、特徴点検出方法、および特徴点検出プログラム
Fujiyoshi et al. Inside-out camera for acquiring 3D gaze points
US20240095939A1 (en) Information processing apparatus and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181210

R150 Certificate of patent or registration of utility model

Ref document number: 6452235

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250