JP2008140290A - 頭部の位置・姿勢検出装置 - Google Patents

頭部の位置・姿勢検出装置 Download PDF

Info

Publication number
JP2008140290A
JP2008140290A JP2006327776A JP2006327776A JP2008140290A JP 2008140290 A JP2008140290 A JP 2008140290A JP 2006327776 A JP2006327776 A JP 2006327776A JP 2006327776 A JP2006327776 A JP 2006327776A JP 2008140290 A JP2008140290 A JP 2008140290A
Authority
JP
Japan
Prior art keywords
head
feature point
image
dimensional coordinate
coordinate value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006327776A
Other languages
English (en)
Other versions
JP4865517B2 (ja
Inventor
Hitoshi Kubota
整 久保田
Hideo Saito
英雄 斎藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keio University
Suzuki Motor Corp
Original Assignee
Keio University
Suzuki Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keio University, Suzuki Motor Corp filed Critical Keio University
Priority to JP2006327776A priority Critical patent/JP4865517B2/ja
Publication of JP2008140290A publication Critical patent/JP2008140290A/ja
Application granted granted Critical
Publication of JP4865517B2 publication Critical patent/JP4865517B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】高精度且つ高速に検出対象者の頭部の位置・姿勢を追跡し、検出する。
【解決手段】本発明は、検出対象者の頭部2を撮影する撮像手段3L,3C,3Rと、前記頭部2の基準画像から頭部特徴点を含むテンプレート画像として生成するテンプレート画像生成手段11と、前記テンプレート画像における頭部特徴点の二次元画像座標値から頭部特徴点の三次元座標値を演算する三次元座標値演算手段12と、前記頭部2の検出対象画像から前記頭部特徴点のうちの一つの頭部特徴点を基準特徴点として正規化相互相関により探索し、該基準特徴点の三次元座標値を演算する基準特徴点探索手段13と、基準特徴点探索手段13により探索した前記基準特徴点の三次元座標値を拘束条件として時系列フィルタにより前記頭部特徴点の位置・姿勢を演算し、推定する特徴点推定手段14とを備えていることを特徴とする。
【選択図】図1

Description

本発明は、人間の頭部を撮影した画像に所定の処理を行い、頭部の位置・姿勢を推定し、頭部の動きを追跡する頭部の位置・姿勢検出装置に関する。
従来、例えば、先進安全自動車(ASV)の居眠り警報装置や脇見警報装置等の要素技術として、人間の頭部の位置や姿勢を検出する技術が知られている。
この種の従来の技術としては、例えば、複数のカメラ画像から頭部の各特徴点をテンプレートマッチング(正規化相互相関)により探索し、前記各特徴点の三次元座標値をステレオ法により求め、それらの三次元座標値から最小二乗法により頭部の位置と姿勢を推定する技術や(例えば、特許文献1又は2参照)、非線形時系列フィルタの一つであるパーティクルフィルタ(粒子フィルタ、モンテカルロフィルタ、コンデンセーションとも言う。)により、頭部の位置と姿勢を推定する技術(例えは、非特許文献1参照)等が提案されている。
特開平11−63927号公報 特開2003−15816号公報 「適応的拡散制御を伴うパーティクルフィルタを用いた頭部姿勢推定システム」電子情報通信学会論文誌D−II Vol.J88−D−II No.8 pp.1601−1613
しかしながら、上記した特許文献1又は2に開示されている技術では、最小二乗法を利用しているため、誤差の大きいデータが含まれていると正しい結果が得られないといった問題や、結果を時系列データとして扱っていないためノイズに弱いといった問題があった。
また、周囲の外乱光、影、昼夜の変化等の影響により、頭部の画像に多くのノイズが含まれてしまうため、自動車の居眠り警報装置や脇見警報装置等には使用できず、使用範囲が限定されるといった問題もあった。
一方、上記した非特許文献1に開示されている技術では、頭部の位置と姿勢の推定精度を高めるため、パーティクルフィルタを2段階にしているため、計算量が多く、画像処理に時間が掛かるといった問題があった。
本発明は上記した課題を解決すべくなされたものであり、高精度で高速処理が可能な頭部の位置・姿勢検出装置を提供することを目的とする。
上記した目的を達成するため、本発明に係る頭部の位置・姿勢検出装置は、検出対象者の頭部を撮影する撮像手段と、該撮像手段により撮影された検出対象者の頭部の基準画像から頭部特徴点をテンプレート画像として生成するテンプレート画像生成手段と、該テンプレート画像生成手段により生成された前記テンプレート画像の二次元画像座標値から三次元座標値を演算する三次元座標値演算手段と、前記撮像手段により撮影された前記検出対象者の頭部の検出対象画像から前記頭部特徴点のうちの一つの頭部特徴点を基準特徴点として正規化相関により探索し、該基準特徴点の三次元座標値を演算する基準特徴点探索手段と、該基準特徴点探索手段により探索した前記基準特徴点の三次元座標値を拘束条件として時系列フィルタにより前記頭部特徴点の位置・姿勢を演算し、推定する特徴点推定手段とを備えていることを特徴とする。
そして、前記撮像手段は、前記検出対象者の頭部を正面側から斜め上方に向かって撮影可能なように取り付けられ、前記基準特徴点は鼻孔に設定されているのがよい。
さらに、前記基準特徴点は、左右の鼻孔間中心に設定されているのがよい。
また、前記特徴点推定手段により位置・姿勢を演算する頭部特徴点は、前記基準特徴点を含み、該基準特徴点より多くの頭部特徴点を含んでいるのがよい。
さらに、前記特徴点推定手段により位置・姿勢を演算する頭部特徴点は、左右の眉の内端、左右の目尻、左右の鼻孔の外端、及び口の両端を含んでいるのがよい。
さらに、前記時系列フィルタは、パーティクルフィルタであるのがよい。
さらにまた、前記撮像手段は、少なくとも2台のカメラを含んでいるのがよい。
本発明によれば、高精度且つ高速に検出対象者の頭部の位置・姿勢を追跡し、検出することができる。
以下、図面を参照しつつ、本発明の実施の形態について説明する。なお、以下の説明では、本発明を自動車の居眠り警報装置や脇見警報装置に適用した場合を例にとって説明する。
図1は本発明の実施の形態に係る頭部の位置・姿勢検出装置のシステム構成図であり、この頭部の位置・姿勢検出装置1は、検出対象者であるドライバの頭部2を撮影する撮像手段として、左、中央、右の3台のカメラ3L,3C,3Rと、各カメラ3L,3C,3Rの間に配置された赤外光照明4L,4Rとを備えている。そして、各カメラ3L,3C,3Rは、同期をとるため信号線5を介して相互に接続され、さらにコンピュータ6に接続されている。
各カメラ3L,3C,3Rは、ドライバの頭部2を正面側から斜め上方に向かって撮影可能なようにそれぞれダッシュボード又はインストゥルメントパネル等の車室内の運転席前部構造体7上に取り付けられている。
コンピュータ6は、各カメラ3L,3C,3Rにより撮影されたドライバの頭部2の基準画像から頭部特徴点を含むテンプレート画像として生成するテンプレート画像生成手段11と、テンプレート画像生成手段11により生成された前記テンプレート画像並びに各カメラ3L,3C,3Rにより撮影されたドライバの頭部2の検出対象画像の二次元画像座標値からステレオマッチング(三角法)により三次元座標値を演算する三次元座標値演算手段12と、前記検出対象画像から前記テンプレート画像に含まれる頭部特徴点のうちの一つの頭部特徴点を基準特徴点として正規化相関により探索し、ステレオマッチング(三角法)により該基準特徴点の三次元座標値を演算する基準特徴点探索手段13と、基準特徴点探索手段13により探索した前記基準特徴点の三次元座標値を拘束条件としてパーティクルフィルタにより前記頭部特徴点の位置・姿勢を演算し、推定する特徴点推定手段14とを備えている。
そして、本実施の形態において、前記頭部特徴点は、左右の眉の内端、左右の目尻、左右の鼻孔の外端、及び口の両端に設定され、また、前記基準特徴点は、左右の鼻孔間中心に設定されている。
次に、図1及び図2〜図8を参照しつつ、本発明の実施の形態に係る頭部の位置・姿勢検出装置の初期設定プロセスについて説明する。
この初期設定プロセスとしては、カメラキャリブレーションとテンプレート登録処理の2つのプロセスがある。
カメラキャリブレーションは、図2に示すように、各カメラ3L,3C,3Rをダッシュボード7に設置する時に、ワールド座標系と各カメラ座標系の対応関係を定める処理であり、三次元空間中の任意の一点を原点とするワールド座標系に対して、各カメラ3L,3C,3Rの焦点中心を原点としたカメラ座標系を求めることにより行う。具体的には、実寸法が既知のワークを各カメラ3L,3C,3Rで撮影し、該ワークで示された異なる複数の基準点の三次元座標値とカメラ画像上の二次元座標値を求め、非線形最小二乗法によりパラメータの各要素を推定する手法で行うが、これはコンピュータビジョンにおいて一般的に用いられている手法であるため、これ以上の詳細な説明は省略する。
次いで、図3に示す手順により、ドライバの頭部特徴点のテンプレート登録処理を行う。ここで、図3はドライバの頭部特徴点のテンプレート登録処理の手順を示すフローチャートである。
先ず、ステップS101において、ドライバが正面を向いている状態で、赤外線照明4L,4Rによりドライバの頭部2を照射しながら、正面側から斜め上方に向かって3台のカメラ3L,3C,3Rがドライバの頭部2の画像を同時に撮影し、この画像をドライバの頭部の初期登録用の基準画像としてコンピュータ6に取り込む。図4はこの時に中央のカメラ3Cが撮影したドライバの頭部の画像を示し、図5は左のカメラ3Lが撮影したドライバの頭部の画像を示し、図6は右のカメラ3Rが撮影したドライバの頭部の画像を示している。
次いで、図7に示すように、これらの各画像から各頭部特徴点を含むテンプレート画像を切り出す(S102)。頭部特徴点としては、左右の鼻孔の中間位置、左右の眉の内端、左右の目尻、左右の鼻孔の外端、及び口の両端の9箇所(M=9)を使用し、テンプレート画像のサイズは、例えば、32×32pixel、或いは16×16pixelとする。また、この時、図8に示すように、左右の鼻孔間中心を原点とするテンプレート座標系と、首の付け根を原点とする頭部座標系を同時に設定しておく。ドライバの頭部2の現在の姿勢は、頭部座標系におけるテンプレート座標系から現在位置座標系への回転と並進(6DOF又は4×4の変換行列)で表わされる。
次いで、このように各カメラ3L,3C,3Rが撮影した画像から切り出した頭部特徴点を含むテンプレート画像について、前記基準特徴点を含む各頭部特徴点の二次元画像座標値を取得し(S103)、これらの各頭部特徴点の二次元画像座標値の組からステレオマッチング(三角法)により三次元座標値を演算する(S104)。その後、これらの各頭部特徴点を含むテンプレート画像と三次元座標値を登録する(S105)。
なお、上記したドライバの頭部特徴点のテンプレート登録処理において、各カメラ3L,3C,3Rの画像をそれぞれ別々に処理した場合には精度が低下する可能性があるため、最初に1台のカメラ(例えば中央のカメラ3C)の画像で処理し、その後、他のカメラの画像上で処理を行うのが好ましい。これにより、最初のカメラの処理結果によって処理範囲を限定することができるため、精度の低下を防ぐことができる。これは、ある画像上の一点が決まると、他の画像上で三次元的にとり得る範囲がある直線上に限定されるためであり、この直線はコンピュータビジョンでエピポーラ線と呼ばれる。
次に、図1及び図9〜図16を参照しつつ、本発明の実施の形態に係る頭部の位置・姿勢検出装置の追跡プロセスについて説明する。
この追跡プロセスとしては、基準特徴点である左右の鼻孔間中心に関する正規化相互相関(NCC)による探索処理と、パーティクルフィルタによる推定処理の2段階により構成される。
左右の鼻孔間中心の探索処理では、図9に示すように、先ず、ステップS210において、3台のカメラ3L,3C,3Rがドライバの頭部2の画像を同時に撮影し、この画像をドライバの頭部の検出対象画像としてコンピュータ6に取り込む。そして、図10に示すように、これらの画像上の左右の鼻孔間中心の二次元画像座標値を正規化相互相関により探索処理する(S220)。
この探索処理では、先ず、中央のカメラ3Cの画像上において、中央のカメラ3Cで取得した左右の鼻孔間中心を含むテンプレート画像による探索を行う。相関値は正規化相互相関(NCC)を使用し、探索方法は、図11に示すように、多重解像度法を用い、検出対象画像及びテンプレート画像の解像度を2段階低くして行う。そして、相関値の最も高かった座標値の周囲について元の解像度(階数0)で再探索を行い、基準特徴点の二次元画像座標値を決定する。その後、左右のカメラ3L,3Rで取得した左右の鼻孔間中心を含むテンプレート画像についても、上記したのと同様に中央のカメラ3Cの画像上においてそれぞれ探索を行う。こうして得られた3種類のテンプレート画像による探索結果を比較して、最も高い相関値の二次元画像座標値を中央のカメラ3Cにおける検出対象画像上の基準特徴点に関する探索結果とする。
次いで、中央のカメラ3Cの検出対象画像上の基準特徴点である左右の鼻孔間中心に対応する点を左右のカメラ3L,3Rの検出対象画像上において探索する。この時、探索範囲はエピポーラ線上に限定し、多重解像度法は使用しない。そして、左右のカメラ3L,3Rにおける検出対象画像上の基準特徴点に関する各々の探索結果を比較して、相関値が高い方の二次元画像座標値を対応点とする。このように求めた中央のカメラ3Cの二次元画像座標値と左カメラ3L又は右カメラ3Rの二次元画像座標値から、スレテオマッチングにより左右の鼻孔間中心の三次元座標値を演算する(S230)。
次いで、パーティクルフィルタによる推定処理を行い(S240)、その結果得られるドライバの頭部位置・姿勢の推定結果を出力する(S250)。
ステップS240のパーティクルフィルタによる推定処理では、図12のステップS241において、パーティクルの個数N(この場合は300個)を設定し、状態ベクトルの時刻t-1における仮説{St-1(1),…,St-1(N)}を重み{πt-1(1),…,πt-1(N)}により選択し、仮説{S’t-1(1),…,S’t-1(N)}とする(S242)。
具体的には、1時刻前、即ち時刻t-1におけるN個全てのパーティクルの仮説について重みの正規分布を取り、重みの正規分布が所定値(例えば、±1σ)以内の仮説はそのままの形で選択後の仮説S’t-1(i)とし、所定値を超える場合には仮説の各成分の値を更新したものを選択後の仮説S’t-1(i)とする。
重みの正規分布が所定値を超える仮説St-1(i)については、まず、当該仮説St-1(i)と、重みが最大値を示す仮説St-1(max)との内積から二つのベクトルのなす角(cosθ)を求める。そして、このcosθが所定値(例えば、0)以下のときは、当該仮説St-1(i)の持つ6次元の各成分値に対して乱数を設定し、重みが最大値を示す仮説St-1(max)の各成分値に上記乱数値を加算することで選択後の仮説S’t-1(i)を得る。一方、内積のcosθが所定値未満であれば、当該仮説St-1(i)のパーティクルを推定処理の対象から除外する。
次いで、予め定義してある動作モデルに基づいた状態遷移確率p(Xt|Xt-1 = S’t-1(i))により、現在時刻の仮説{St(1),…,St(N)}を生成する。この時の動作モデルとして(1)式で表されるフレーム間における等角速度運動を仮定する(S243)。ここで、vt-1は時刻t-1における回転成分と時刻t-2における回転成分との差分であり、wは白色ノイズである。
Figure 2008140290
また、この時、正規化相互相関によって探索できた左右の鼻孔間中心(基準特徴点)の三次元座標値を固定とする拘束条件を、パーティクルフィルタの仮説更新時の動作モデルに加える。これにより、サンプリング空間の探索範囲を限定することができる。具体的には、図13に示すように、状態ベクトルの仮説[P]は、頭部座標系から現在位置の座標系への変換行列[Q]と、頭部座標系からテンプレート座標系への変換行列[T]の逆行列との積で表わされることから、[Q]の並進成分を鼻孔間中心の座標値に固定し、回転成分のみを更新することにより、鼻孔間中心を固定した仮説が得られる。
次いで、時刻tにおける画像から尤度dt(i)の観測を行う(S244)。尤度としては、各頭部特徴点の正規化相互相関の相関値を合計した値を用いる。この場合、先ず、更新した仮説St(i)に従って各テンプレート画像の三次元座標値を変換する。さらに各カメラ3L,3C,3Rの検出対象画像上の二次元画像座標値を求め、テンプレート画像と同サイズの領域を切り出し、(2)式により、テンプレート画像との正規化相互相関(NCC)の相関値Rを計算する。そして、(3)式により、3台のカメラ3L,3C,3Rの検出対象画像におけるすべてのテンプレート画像の相関値Rを合計した値(−3M〜3M)を尤度dt(i)とする。
Figure 2008140290
Figure 2008140290
この時、左右の鼻孔間中心の探索時と同様に多重解像度法を用いる。さらに、顔の方向ベクトルと各カメラ3L,3C,3Rの光軸ベクトルとが成す角度を求め、その値によって各カメラ3L,3C,3Rの検出対象画像において使用するテンプレート画像を切り換える。これにより、頭部2の回転による見え方の違いに対応する。例えば、頭部2が左カメラの方向を向いている場合には、左カメラ3Lの検出対象画像上での探索には中央カメラ3Cで取得したテンプレート画像を使用し、中央のカメラ3Cの検出対象画像上での探索には右のカメラ3Rで取得したテンプレート画像を使用し、右のカメラ3Rの検出対象画像には右のカメラ3Rで取得したテンプレート画像をそれぞれ使用する。この時、右のカメラ3Rの検出対象画像では、いずれのテンプレートも高い相関が得られない確率が高く、探索の必要性は低いと考えられるが、突発的な動きに対応するために右のカメラ3Rで取得したテンプレート画像を用いた探索を含めて尤度を計算している。
次いで、仮説St(i)における尤度dt(i)の観測結果から、標準偏差σを1.0として、(4)式のガウス関数により重みπt(i)を算出する。
Figure 2008140290
以上の処理をN個の仮説に対して行い、仮説{St(1),…,St(N)}に対する重み{πt(1),…,πt(N)}を算出する。その後、すべての重みの合計が1.0になるように値を正規化する(S245)。
最後に、(5)式により、仮説St(i)と重みπt(i)の加重平均を算出し、状態ベクトルXtの解とする(S246)。
Figure 2008140290
上記した頭部の位置・姿勢検出装置1により実験システムを構築して検証実験を行った。この時、カメラ3L,3C,3Rは近赤外に感度を有するモノクロCCDカメラ3台を使用し、1台を頭部2の正面に、2台を平面視で左右15度の向きとなるように設置すると共に、各カメラの仰角を約25度に設定した。また、3台のカメラは同期信号を共通とし、同じタイミングで画像を撮影できるようにした。
コンピュータ6は、CPUがPentium4-3GHz、OSがWindowsXPの汎用デスクトップを使用し、画像入力ボードは、MeteorII-MCを使用し,256階調のモノクロ画像を取込み、画像のサイズは512×480pixelとした。
このような実験システムにより頭部2の姿勢の追跡を実行した結果,1フレームあたり約33msec(1秒あたり30フレーム)で動作した。なお、この時にパーティクルの個数は300に設定した。
また、上記実験システムにより頭部2の姿勢推定を行った。比較のため、頭部2にチェッカーパターンを装着して、交点の抽出と非線形最適化手法により姿勢を推定した。また、従来手法として、正規化相互相関による各頭部特徴点の探索により姿勢を推定した。各頭部特徴点を個別に正規化相互相関により探索し、ステレオマッチングにより三次元座標値を求めて、点群−点群間の変換行列を計算した。
その結果、図14に示すように、従来手法では、全体的に微小なばらつきが見られると共に、大きく値がずれている箇所がいくつか見られる。これに対して、上記した本発明の実施の形態における手法では、微小なばらつきが減少し、且つ、値のずれている箇所も減少していることから、安定した推定ができることが分かった。
さらに、パーティクルの個数(100,300,1000個)の違いによる追跡結果を比較したところ、図15に示すように、300個の場合と1000個の場合では、大きな違いは見られず、ほぼ一致しているが、100個の場合は,大きなずれは無いものの微小なばらつきが一部見られた。このことから、上記実験システムでは、従来千個オーダーの個数が必要だったパーティクルの数を数百個オーダーに減らしても安定した推定が実現できることが分かった。
さらに、図16に示すように、上記実験システムでは、通常の頭部の姿勢の変化に加えて、口の変形や遮蔽、眉の遮蔽に対しても、追跡が可能であることが分かった。
上記したように本発明の実施の形態に係る頭部の位置・姿勢検出装置1によれば、自動車の室内において安定したドライバの頭部特徴点である左右の鼻孔間中心を正規化相互相関で探索した結果をパーティクルフィルタの仮説の拘束条件とすることにより、サンプリング空間の範囲を限定してサンプリング間隔を密にすることができ、数百オーダーの個数のパーティクルでも高精度かつ高速に頭部姿勢を追跡することができる。
また、パーティクルフィルタの仮説の拘束条件として、各カメラによる撮影画像上で白黒のコントラストが大きい鼻孔から得られる左右の鼻孔間中心を基準特徴点に設定したので、より安定した頭部姿勢の追跡が可能となる。
さらに、正規化相互相関で頭部特徴点を探索する時の検出対象画像の拡大縮小に対しては多重解像度法による多段階ピラミッドを用いることで対応することができ、また、回転による検出対象画像の変形に対しては異なる角度のカメラで撮った複数のテンプレート画像を用いることにより対応することができる。したがって、頭部の移動による検出対象画像の拡大縮小や、回転による検出対象画像の変形のために、検出対象画像とテンプレート画像との間の相関が得られなくなってしまうといった問題を防止することができる。
本発明の実施の形態に係る頭部の位置・姿勢検出装置を示すシステム構成図である。 本発明の実施の形態に係る頭部の位置・姿勢検出装置において座標系の関係を示す模式図である。 本発明の実施の形態に係る頭部の位置・姿勢検出装置においてドライバの頭部特徴点のテンプレート登録処理の手順を示すフローチャートである。 本発明の実施の形態に係る頭部の位置・姿勢検出装置において中央のカメラで撮影した基準画像を示す図である。 本発明の実施の形態に係る頭部の位置・姿勢検出装置において左のカメラで撮影した基準画像を示す図である。 本発明の実施の形態に係る頭部の位置・姿勢検出装置において右のカメラで撮影した基準画像を示す図である。 本発明の実施の形態に係る頭部の位置・姿勢検出装置においてテンプレート画像を切り出す方法を示す図である。 本発明の実施の形態に係る頭部の位置・姿勢検出装置において頭部の位置・姿勢の定義を説明する模式図である。 本発明の実施の形態に係る頭部の位置・姿勢検出装置において追跡プロセスを示すフローチャートである。 本発明の実施の形態に係る頭部の位置・姿勢検出装置において左右の鼻孔間中心の探索方法を示す図である。 本発明の実施の形態に係る頭部の位置・姿勢検出装置において多重解像度法による探索方法を示す模式図である。 本発明の実施の形態に係る頭部の位置・姿勢検出装置においてパーティクルフィルタによる推定処理を示すフローチャートである。 本発明の実施の形態に係る頭部の位置・姿勢検出装置において左右の鼻孔間中心の拘束方法を示す模式図である。 本発明の実施の形態に係る頭部の位置・姿勢検出装置による頭部姿勢の追跡結果を従来手法と比較して示す図であり、上段の図は上下方向の追跡結果を示し、中段の図は左右方向の追跡結果を示し、下段の図は軸回転方向の追跡結果を示している。 本発明の実施の形態に係る頭部の位置・姿勢検出装置においてパーティクルの個数の違いによる追跡結果を比較して示す図である。 本発明の実施の形態に係る頭部の位置・姿勢検出装置による各頭部特徴点の追跡画像を示す図である。
符号の説明
1 頭部の位置・姿勢検出装置
3L 左のカメラ(撮像手段)
3C 中央のカメラ(撮像手段)
3R 右のカメラ(撮像手段)
11 テンプレート画像生成手段
12 三次元座標値演算手段
13 基準特徴点探索手段
14 特徴点推定手段

Claims (6)

  1. 検出対象者の頭部を撮影する撮像手段と、
    該撮像手段により撮影された検出対象者の頭部の基準画像から頭部特徴点を含むテンプレート画像として生成するテンプレート画像生成手段と、
    該テンプレート画像生成手段により生成された前記テンプレート画像における頭部特徴点の二次元画像座標値から該頭部特徴点の三次元座標値を演算する三次元座標値演算手段と、
    前記撮像手段により撮影された前記検出対象者の頭部の検出対象画像から前記頭部特徴点のうちの一つの頭部特徴点を基準特徴点として正規化相互相関により探索し、該基準特徴点の三次元座標値を演算する基準特徴点探索手段と、
    該基準特徴点探索手段により探索した前記基準特徴点の三次元座標値を拘束条件として時系列フィルタにより前記頭部特徴点の位置・姿勢を演算し、推定する特徴点推定手段と、
    を備えていることを特徴とする頭部の位置・姿勢検出装置。
  2. 前記撮像手段は、前記検出対象者の頭部を正面側から斜め上方に向かって撮影可能なように取り付けられ、前記基準特徴点は左右の鼻孔間中心に設定されている請求項1に記載の頭部の位置・姿勢検出装置。
  3. 前記特徴点推定手段により位置・姿勢を演算する頭部特徴点は、前記基準特徴点を除く、該基準特徴点より多くの頭部特徴点を含んでいる請求項1又は2に記載の頭部の位置・姿勢検出装置。
  4. 前記特徴点推定手段により位置・姿勢を演算する頭部特徴点は、左右の眉の内端、左右の目尻、左右の鼻孔の外端、及び口の両端を含んでいる請求項3に記載の頭部の位置・姿勢検出装置。
  5. 前記時系列フィルタは、パーティクルフィルタである請求項1〜4のいずれか1の請求項に記載の頭部の位置・姿勢検出装置。
  6. 前記撮像手段は、少なくとも2台のカメラを含んでいる請求項1〜5のいずれか1の請求項に記載の頭部の位置・姿勢検出装置。
JP2006327776A 2006-12-05 2006-12-05 頭部の位置・姿勢検出装置 Active JP4865517B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006327776A JP4865517B2 (ja) 2006-12-05 2006-12-05 頭部の位置・姿勢検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006327776A JP4865517B2 (ja) 2006-12-05 2006-12-05 頭部の位置・姿勢検出装置

Publications (2)

Publication Number Publication Date
JP2008140290A true JP2008140290A (ja) 2008-06-19
JP4865517B2 JP4865517B2 (ja) 2012-02-01

Family

ID=39601648

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006327776A Active JP4865517B2 (ja) 2006-12-05 2006-12-05 頭部の位置・姿勢検出装置

Country Status (1)

Country Link
JP (1) JP4865517B2 (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011090465A (ja) * 2009-10-21 2011-05-06 Fujitsu Ltd 物体位置推定装置および物体位置推定プログラム
JP2011107839A (ja) * 2009-11-13 2011-06-02 Fujitsu Ltd 追跡方法、監視システム及びプログラム
JP2011118891A (ja) * 2009-12-01 2011-06-16 Honda Research Inst Europe Gmbh 追跡モデル化レベルの知識ベースの自律的適応を用いた多物体追跡
JP2015173828A (ja) * 2014-03-14 2015-10-05 公立大学法人大阪府立大学 脂肪診断装置
JP2015232771A (ja) * 2014-06-09 2015-12-24 国立大学法人静岡大学 顔検出方法、顔検出システム、および顔検出プログラム
JP2016161569A (ja) * 2015-02-26 2016-09-05 三菱電機株式会社 オブジェクトの3d姿勢およびオブジェクトのランドマーク点の3dロケーションを求める方法、およびオブジェクトの3d姿勢およびオブジェクトのランドマークの3dロケーションを求めるシステム
KR20160119412A (ko) * 2015-04-03 2016-10-13 한국과학기술원 대형 부재의 6자유도 변위 추정 방법 및 시스템
WO2017122299A1 (ja) * 2016-01-13 2017-07-20 フォーブ インコーポレーテッド 表情認識システム、表情認識方法及び表情認識プログラム
KR101837269B1 (ko) 2016-04-27 2018-03-09 한국과학기술원 다중 마커 기반의 정합 가이드 방법 및 시스템
KR101844367B1 (ko) 2012-06-11 2018-04-02 삼성전자 주식회사 부분 포즈 추정에 의하여 개략적인 전체 초기설정을 사용하는 머리 포즈 추정 방법 및 장치
CN110047101A (zh) * 2018-01-15 2019-07-23 北京三星通信技术研究有限公司 物体姿态估计方法、获得稠密深度图像的方法、相应装置
CN111383270A (zh) * 2018-12-27 2020-07-07 深圳市优必选科技有限公司 物体定位方法、装置、计算机设备及存储介质
WO2023058241A1 (ja) * 2021-10-08 2023-04-13 富士通株式会社 追従プログラム、追従方法および情報処理装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003085583A (ja) * 2001-09-14 2003-03-20 Mitsubishi Electric Corp 頭部姿勢計測装置およびcgキャラクタ制御装置
WO2005006251A1 (ja) * 2003-07-11 2005-01-20 Toyota Jidosha Kabushiki Kaisha 画像処理装置、画像処理方法、画像処理プログラム、及び記録媒体
JP2007026073A (ja) * 2005-07-15 2007-02-01 National Univ Corp Shizuoka Univ 顔姿勢検出システム
JP2007172237A (ja) * 2005-12-21 2007-07-05 Denso Corp 推定装置
JP2007299312A (ja) * 2006-05-02 2007-11-15 Toyota Central Res & Dev Lab Inc 対象物の三次元位置推定装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003085583A (ja) * 2001-09-14 2003-03-20 Mitsubishi Electric Corp 頭部姿勢計測装置およびcgキャラクタ制御装置
WO2005006251A1 (ja) * 2003-07-11 2005-01-20 Toyota Jidosha Kabushiki Kaisha 画像処理装置、画像処理方法、画像処理プログラム、及び記録媒体
JP2007026073A (ja) * 2005-07-15 2007-02-01 National Univ Corp Shizuoka Univ 顔姿勢検出システム
JP2007172237A (ja) * 2005-12-21 2007-07-05 Denso Corp 推定装置
JP2007299312A (ja) * 2006-05-02 2007-11-15 Toyota Central Res & Dev Lab Inc 対象物の三次元位置推定装置

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011090465A (ja) * 2009-10-21 2011-05-06 Fujitsu Ltd 物体位置推定装置および物体位置推定プログラム
JP2011107839A (ja) * 2009-11-13 2011-06-02 Fujitsu Ltd 追跡方法、監視システム及びプログラム
JP2011118891A (ja) * 2009-12-01 2011-06-16 Honda Research Inst Europe Gmbh 追跡モデル化レベルの知識ベースの自律的適応を用いた多物体追跡
KR101844367B1 (ko) 2012-06-11 2018-04-02 삼성전자 주식회사 부분 포즈 추정에 의하여 개략적인 전체 초기설정을 사용하는 머리 포즈 추정 방법 및 장치
JP2015173828A (ja) * 2014-03-14 2015-10-05 公立大学法人大阪府立大学 脂肪診断装置
JP2015232771A (ja) * 2014-06-09 2015-12-24 国立大学法人静岡大学 顔検出方法、顔検出システム、および顔検出プログラム
JP2016161569A (ja) * 2015-02-26 2016-09-05 三菱電機株式会社 オブジェクトの3d姿勢およびオブジェクトのランドマーク点の3dロケーションを求める方法、およびオブジェクトの3d姿勢およびオブジェクトのランドマークの3dロケーションを求めるシステム
KR20160119412A (ko) * 2015-04-03 2016-10-13 한국과학기술원 대형 부재의 6자유도 변위 추정 방법 및 시스템
KR101685797B1 (ko) * 2015-04-03 2016-12-13 한국과학기술원 대형 부재의 6자유도 변위 추정 방법 및 시스템
WO2017122299A1 (ja) * 2016-01-13 2017-07-20 フォーブ インコーポレーテッド 表情認識システム、表情認識方法及び表情認識プログラム
JPWO2017122299A1 (ja) * 2016-01-13 2018-11-15 フォーブ インコーポレーテッド 表情認識システム、表情認識方法及び表情認識プログラム
KR101837269B1 (ko) 2016-04-27 2018-03-09 한국과학기술원 다중 마커 기반의 정합 가이드 방법 및 시스템
CN110047101A (zh) * 2018-01-15 2019-07-23 北京三星通信技术研究有限公司 物体姿态估计方法、获得稠密深度图像的方法、相应装置
CN111383270A (zh) * 2018-12-27 2020-07-07 深圳市优必选科技有限公司 物体定位方法、装置、计算机设备及存储介质
CN111383270B (zh) * 2018-12-27 2023-12-29 深圳市优必选科技有限公司 物体定位方法、装置、计算机设备及存储介质
WO2023058241A1 (ja) * 2021-10-08 2023-04-13 富士通株式会社 追従プログラム、追従方法および情報処理装置

Also Published As

Publication number Publication date
JP4865517B2 (ja) 2012-02-01

Similar Documents

Publication Publication Date Title
JP4865517B2 (ja) 頭部の位置・姿勢検出装置
JP7011608B2 (ja) 3次元空間内の姿勢推定
García et al. Driver monitoring based on low-cost 3-D sensors
JP5001930B2 (ja) 動作認識装置及び方法
JP2007004767A (ja) 画像認識装置、方法およびプログラム
JP2003015816A (ja) ステレオカメラを使用した顔・視線認識装置
JP2006252473A (ja) 障害物検出装置、キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム
JP2007129560A (ja) 物体検出装置
JP2009199417A (ja) 顔追跡装置及び顔追跡方法
JP6452235B2 (ja) 顔検出方法、顔検出装置、及び顔検出プログラム
CN114022560A (zh) 标定方法及相关装置、设备
JP2013156680A (ja) フェーストラッキング方法、フェーストラッカおよび車両
JP2010225118A (ja) 画像処理装置、方法及びプログラム
JP2010191793A (ja) 警告表示装置及び警告表示方法
Halima et al. Depth and thermal information fusion for head tracking using particle filter in a fall detection context
JP6410231B2 (ja) 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム
JP6288770B2 (ja) 顔検出方法、顔検出システム、および顔検出プログラム
CN114356072A (zh) 用于检测可穿戴设备的空间取向的系统和方法
WO2015198592A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP6906943B2 (ja) 車載器
JP2006215743A (ja) 画像処理装置及び画像処理方法
JP2019012497A (ja) 部位認識方法、装置、プログラム、及び撮像制御システム
CN113011212B (zh) 图像识别方法、装置及车辆
KR101900903B1 (ko) 분할된 이미지의 무게중심에 기반한 이미지 오리엔테이션 추정방법 및 이를 이용한 문자 인식 장치와 문자 인식 방법
JP5688514B2 (ja) 視線計測システム、方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110726

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110921

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111025

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111110

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141118

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4865517

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350