JP5041458B2 - 三次元物体を検出する装置 - Google Patents

三次元物体を検出する装置 Download PDF

Info

Publication number
JP5041458B2
JP5041458B2 JP2006033111A JP2006033111A JP5041458B2 JP 5041458 B2 JP5041458 B2 JP 5041458B2 JP 2006033111 A JP2006033111 A JP 2006033111A JP 2006033111 A JP2006033111 A JP 2006033111A JP 5041458 B2 JP5041458 B2 JP 5041458B2
Authority
JP
Japan
Prior art keywords
image
value
model
distance
occupant
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006033111A
Other languages
English (en)
Other versions
JP2007213353A (ja
Inventor
明 飯星
恭史 植田
聡子 古城
振程 胡
圭一 内村
直樹 興梠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2006033111A priority Critical patent/JP5041458B2/ja
Priority to EP07708177.6A priority patent/EP1983484B1/en
Priority to US12/223,638 priority patent/US8396283B2/en
Priority to PCT/JP2007/052138 priority patent/WO2007091604A1/ja
Publication of JP2007213353A publication Critical patent/JP2007213353A/ja
Application granted granted Critical
Publication of JP5041458B2 publication Critical patent/JP5041458B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Analysis (AREA)

Description

この発明は、三次元物体を検出する装置に関し、より具体的には、三次元物体を、二次元の画像処理で検出することのできる装置に関する。
従来、三次元物体を検出する様々な手法が提案されている。そのうちの主な手法は、フィッティング(Fitting)手法である。この手法によれば、3次元上で計測された座標から、物体の位置およびサイズ等を推定する。たとえば、楕円球は、式(1)により表される。
Figure 0005041458
ここで、X、YおよびZは、楕円球の中心座標を表し、a、bおよびcは、楕円球の大きさを規定するパラメータである。楕円球の位置およびサイズを推定するには、該中心座標およびパラメータを同定する必要がある。さらに、楕円球を回転させた場合には、3次元回転角を含む9個のパラメータを同定する必要がある。同定には、たとえば、最小二乗法、拡張ハフ変換、カルマンフィルタ法が用いられる。
また、人間の顔を検知する様々な手法も提案されている。たとえば、一対のカラーの撮像装置を用いて一対のステレオカラー画像を取得し、該一対のステレオカラー画像から距離画像を生成する。距離画像から、顔の輪郭を表すモデルを生成する。一方、該一対のステレオカラー画像の一方から、肌色の画像領域を抽出すると共に、エッジを抽出する。該エッジおよび肌色の画像領域と、該輪郭モデルとの間の相関をとり、顔領域を検出する(下記の特許文献1を参照)。
また、車両内の乗員を検出する手法が提案されている。たとえば、乗員の頭部に形状が近似する楕円を、参考頭部画像として予め記憶する。エリアイメージセンサを車両内に設け、該センサから、乗員の頭部を含む画像を取得する。該画像の輝度値から多数の境界線を抽出し、この中から、略楕円形状の輪郭線を検出する。検出された略楕円形状の輪郭線と、参考頭部画像とをマッチングすることにより、乗員を特定する(下記の特許文献2を参照)。
特開2002−216129号公報 特開2004−53324号公報
上記のような3次元での同定処理は、計算量が膨大である。リアルタイムに物体を検出しようとするとき、このような同定処理では、物体検出に大きな遅延を生じさせるおそれがある。
また、カラーの撮像装置は、コスト高を招くおそれがある。さらに、人間の肌の色は、世界的に見て一律ではないので、物体を誤って検知するおそれがある。
一方、たとえばエアバッグを制御するために、車両内の乗員の頭部の位置を検出することが所望されている。上記の特許文献2では、二次元形状のマッチングによって頭部を検出しており、該マッチングには、距離情報が用いられていない。したがって、三次元物体を検知しようとするとき、距離情報の観点から検知精度が低下するおそれがある。
したがって、本発明の一つの目的は、リアルタイム処理に適合した、三次元物体を検出する手法を提案することである。本発明の他の目的は、計算負荷を抑制しつつ、より正確に三次元物体を検出することのできる手法を提案することである。本発明のさらに他の目的は、三次元物体の位置、大きさおよび姿勢を検出する手法を提案することである。
本発明の他の目的は、リアルタイムに人間の頭部を検出することのできる手法を提案することである。本発明のさらに他の目的は、リアルタイムに車両の乗員の頭部を検出することのできる手法を提案することである。
この発明の一つの側面によると、三次元物体を検出する装置は、三次元物体を撮像する一対の撮像手段を備える。さらに、該一対の撮像手段で取得した画像に基づいて、該画像を細分した各領域について視差データを算出する手段と、該各領域について算出された視差データに基づき、前記各領域の撮像手段に対する距離を表すグレースケール値であって当該距離の範囲により正規化されたグレースケール値を算出するとともに、該各領域が対応するグレースケール値を持つグレースケール画像を生成する手段と、三次元物体をモデル化したモデルを記憶する手段と、該モデルと該グレースケール画像中の画像領域との類似度を表す相関値を算出する手段を備える。該モデルは、撮像手段が位置する方向から三次元物体を見たときの形状的特徴を有する二次元画像であるとともに、該二次元画像を細分した各領域は、三次元物体の対応する部分の該撮像手段に対する距離を表すグレースケール値であって当該距離の最小値により正規化されたグレースケール値を有している。該相関値は、該モデルのグレースケール値と、該グレースケール画像中の該画像領域のグレースケール値とに基づいて算出される。さらに、物体検出装置は、該モデルと最も高い相関値を持つ画像領域を、該グレースケール画像において検出することにより、三次元物体を検出する手段を備える。
この発明によれば、モデルが二次元画像であり、該二次元画像の形状が、検出すべき物体の形状的特徴を有していると共に、該二次元画像の各領域が、該物体の距離を表すグレースケール値を有しているので、三次元物体の位置、大きさおよび姿勢を、二次元レベルの画像処理で検出することができる。三次元レベルの画像処理に比べて計算負荷を低減することができ、よってリアルタイム処理に向いている。
この発明の一実施形態では、撮像装置に代えて、距離計測装置を用いる。距離計測装置は、物体を含む所定範囲を細分した各領域について、該距離計測装置からの距離を計測する。該各領域の計測された距離を表すグレースケール値を算出し、該各領域が、対応するグレースケール値を持つグレースケール画像を生成する。
この発明によれば、走査型レーザのような距離計測装置を用いて、三次元物体の位置、大きさおよび姿勢を検出することができる。
この発明の一実施形態によれば、モデルは、物体の大きさおよび姿勢に応じて複数用意される。相関値は、該複数のモデルのそれぞれについて算出される。該複数のモデルのうち、最も高い相関値を持つ画像領域に相関されたモデルに基づいて、物体の大きさおよび姿勢を判断する。
この発明によれば、物体の様々な大きさおよび姿勢を検出することができる。
この発明の一実施形態によれば、三次元物体は人間の頭部であり、モデルは、楕円形状を有する二次元画像である。
この発明によれば、人間の頭部を、二次元レベルの画像処理で検出することができる。また、グレースケールの相関を用いるので、人間を検出する場合でも、カラーの撮影装置は必要とされない。
この発明の一実施形態では、検出される人間の頭部は、車両に乗車している人間の頭部である。こうして、人間の頭部を検出することに応じて、車両を様々に制御することができる。
この発明の一実施形態では、車両内で乗員が着座している時の視差データと、空席時の視差データとに基づいて、撮像手段により取得された画像中で乗員が存在する乗員領域を検出する手段を備える。グレースケール画像は、該乗員領域に基づいて生成される。
この発明によれば、グレースケール画像が生成される領域が限定されるので、より計算効率を高めることができる。距離計測装置を用いて生成される距離画像についても、同様に、乗員領域を検出することができる。
この発明の一実施形態では、所定のパターンを有するパターン光を物体に照射するパターン光照射手段を備える。パターン光を用いることにより、上記の視差データを、より正確に算出することができる。
次に図面を参照してこの発明の実施の形態を説明する。図1は、この発明の一実施形態に従う、物体検出装置1の構成を示す。
この実施形態は、物体検出装置1が車両に搭載されており、乗員の頭部を検出する形態について示す。しかしながら、この物体検出装置が、この形態に限定されない点に注意されたい。これについては、後述される。
光源10は、シートに座っている乗員の頭部を照射することができるよう車両内に配置される。一例では、シートの前方上部に配置される。
照射される光は、好ましくは近赤外光(IR光)である。一般に、撮影するときの明るさは、日中や夜間などの環境変化によって変動する。また、強い可視光が1方向から顔にあたると、顔面上に陰影のグラデーションが発生する。近赤外光は、この様な照明の変動や陰影のグラデーションに対してロバスト性を有する。
この実施例では、光源10の前面にパターンマスク(フィルタ)11を設け、乗員に対して格子状のパターン光があたるようにする。パターン光により、後述する視差の算出を、より正確なものにすることができる。これについては、後述される。
一対の撮像装置12および13は、乗員の頭部の近くであって、該乗員の頭部を含む2次元画像を撮像するよう配置される。撮像装置12および13は、左右、上下または斜めに所定距離だけ離れるよう配置される。撮像装置12および13は、光源10からの近赤外光だけを受光するように光学バンドパスフィルターを有する。
処理装置15は、例えば、種々の演算を実行するCPU、プログラムおよび演算結果を記憶するメモリ、データの入出力を行うインタフェース等を備えるマイクロコンピュータにより実現される。以上のことを考慮して、図1では、処理装置15を機能ブロックで表している。これら各機能ブロックの一部または全部を、ソフトウェア、ファームウェア、およびハードウェアの任意の組み合わせで実現することができる。一例では、処理装置15は、車両に搭載される車両制御装置(ECU)により実現される。ECUは、CPUを備えるコンピュータであり、車両の様々な制御を実現するためのコンピュータプログラムおよびデータを格納するメモリを備えている。
視差画像生成部21は、撮像装置12および13により撮像された2つの画像に基づいて、視差画像を生成する。
ここで、図2を参照して、視差を算出する手法の一例を簡単に述べる。撮像装置12および13は、それぞれ、二次元に配列された撮像素子アレイ31および32と、レンズ33および34を備える。撮像素子は、たとえば、CCD素子またはCMOS素子である。
撮像装置12と13の間の距離(基線長)が、Bで表されている。撮像素子アレイ31および32は、それぞれ、レンズ33および34の焦点距離fに配置されている。レンズ33および34のある平面から距離Lにある対象物の像が、撮像素子アレイ31ではレンズ33の光軸からd1ずれた位置に形成され、撮像素子アレイ32ではレンズ34の光軸からd2だけずれた位置に形成される。距離Lは、三角測量法の原理により、L=B・f/dで求められる。ここで、dが視差であり、(d1+d2)である。
視差dを求めるために、撮像素子アレイ31の或るブロックに対し、該ブロックと同じ対象物部分が撮像されている対応ブロックを、撮像素子アレイ32上で探索する。ブロックの大きさは、任意に設定することができ、たとえば、1画素でもよいし、複数の画素(たとえば、8×3画素)を1つのブロックとしてもよい。
一手法によると、撮像装置12および13の一方で得られる画像のブロックを、撮像装置12および13の他方で得られる画像に対して走査させ、対応ブロックを探索する(ブロックマッチング)。一方のブロックの輝度値(たとえば、ブロック中の画素の輝度値を平均したもの)と他方のブロックの輝度値との差の絶対値を求め、これを相関値とする。相関値が最小となるブロックを見つけ、この時の2つのブロック間の距離が、視差dを示す。代替的に、他の手法を用いて該探索処理を実現してもよい。
輝度値に変化がないブロックがあると、ブロック同士をマッチングすることが困難になるが、上記のパターン光により、このようなブロック中に輝度値の変化を起こさせることができ、よって、ブロックマッチングをより正確に実現することができる。
撮像装置12および13の一方から得られた撮像画像において、それぞれのブロックについて算出された視差値は、該ブロックに含まれる画素値に対応づけられ、これを視差画像とする。視差値は、その画素に撮像されている対象物の、撮像装置12および13に対する距離を表している。視差値が大きいほど、該対象物の位置は、撮像装置12および13に近い。
背景除去部22は、適切な任意の手法を用いて、人物が撮像された画像領域(乗員領域と呼ぶ)を抽出するよう、視差画像から背景を除去する。背景を除去することにより、以降の処理対象となる画像領域が制限され、計算効率を高めることができる。
この実施例では、メモリ23には、図3の(a)に示されるように、人物が存在していない状態(すなわち、空席)を撮像した画像から生成された視差画像が予め記憶されている。画像領域42はシートを示し、画像領域43は、その背景を示す。該空席時の視差画像は、上記と同様の手法で生成されることができる。このような空席時の視差画像と、図3の(b)に示されるような、乗員がシートに座っている時に生成された視差画像とを比較すると、乗員領域41の視差値が異なる。したがって、所定値以上異なる視差値を持つ画素を抽出することにより、図3の(c)に示されるように、乗員領域41を抽出することができる。
空席時の視差画像は、シートの位置および傾きに従い変化する。メモリ23に、シートの位置および傾きに応じて複数の空席時の視差画像を記憶しておくことができる。車両には、シートの位置および傾きを検知するセンサ(図示せず)が設けられている。背景除去部22は、該センサにより検知されたシートの位置および傾きに従って、メモリ23から、対応する空席時の視差画像を読み出し、これを用いて背景を除去することができる。こうすることにより、シートの位置および(または)傾きが変更された場合にも、背景除去部22により、より正確に乗員領域を抽出することができる。
正規化部24は、乗員領域41について、正規化を実行する。この正規化により、撮像装置11,12からの距離に従って、該乗員領域の各画素にグレースケール値が割り当てられる。正規化は、式(2)に従って行われる。
Figure 0005041458
ここで、d(x,y)は、乗員領域のxy位置における視差値を示す。Nは、グレースケールのビット数である。一例では、N=9であり、0〜511のグレースケール値を持つ512階調が実現される。0は黒であり、511は白である。d’(x,y)は、乗員領域のxy位置について算出されるグレースケール値を示す。視差の最大値dmaxは、撮像装置からの距離の最小値に対応し、視差の最小値dminは、撮像装置からの距離の最大値に対応する。
式(2)に示されるように、正規化は、最大の視差値dmaxに対応する画素には、最も高いグレースケール値(この例では、白)を割り当て、視差値dが小さくなるほど、グレースケール値を徐々に低くする。言い換えれば、距離の最小値に対応する画素には、最も高いグレースケール値を割り当て、撮像装置に対する距離が大きくなるほど、グレースケール値を徐々に低くする。こうして、撮像装置に対する距離を表すグレースケール値を各画素が有するグレースケール画像が、乗員領域から生成される。
図4に示されるように、乗員が、頭部の前面に手などをかざしたりすることなくシートに座っていれば、視差の最大値dmaxは、参照符号51で示されるような、乗員の頭部の或る部分で現れることが多い。乗員領域において、頭部の該或る部分に対応する画素には、最も高いグレースケール値が割り当てられる。頭部は楕円球に類似した形状を有しているので、頭部の該或る部分から周囲に向かって視差値dが徐々に小さくなり、これに従ってグレースケール値も徐々に低くされる。
たとえ、視差の最大値が、頭部ではなく他の部分(たとえば、手や肩)で現れたとしても、頭部の楕円球形状により、該頭部については、該頭部の最も撮像装置に近い部分から周囲に向かって徐々に視差値が減少し、それに従って、グレースケール値も徐々に低くなる。
図1に戻り、メモリ25(これは、メモリ23と同じメモリでよい)は、人間の頭部をモデル化した頭部モデルを記憶する。図5を参照して、頭部モデルを生成する手法を説明する。図5の(a)および(b)に示されるように、人間の頭部は、楕円球の形状に類似しているという特徴を有する。したがって、人間の頭部を、楕円球で表すことができる。
楕円球は、車両内の空間座標に基づいて構築される。車両内の空間座標は、たとえば、図4に示されるように、撮像装置11および12の位置を原点とする。z軸は、撮像装置から垂直に伸長し、z値は、撮像装置からの距離を示す。x軸は、車両の幅方向に、z軸に対して垂直に設定され、y軸は、車両の高さ方向に、z軸に対して垂直に設定される。
図5の(c)は、人間の頭部を表した楕円球の一例であり、該楕円球は、中心座標O(X0,0,)を有する。中心座標は、乗員がシートに座っている時に存在しうる座標点が選択される。a、bおよびcは、楕円球の大きさを規定するパラメータであり、人間の頭部を表すよう適切な値に設定される。
頭部の三次元モデルとしての該楕円球を、二次元画像に変換する。楕円球は、矢印55で示すようにz軸方向から見ると、楕円形状を有しているので、該二次元画像は、楕円形状を有するよう生成される。さらに、該二次元画像は、各xy位置が、該xy位置に対応するz値を表すグレースケール値を持つよう生成される。
ここで、二次元画像モデルを生成する手法を、より詳細に述べる。楕円球は、前述した式(1)により表されるので、楕円球の各xy位置におけるz値は、式(3)のように表される。
Figure 0005041458
次に、矢印55に示されるように、楕円球をz軸方向に二次元画像に投影する。この投影は、式(4)により実現される。ここで、R11〜R33は回転行列式であり、楕円球を回転させない場合には、R11およびR22には値1が設定され、他のパラメータにはゼロが設定される。楕円球を回転させる場合には、これらの値に、該回転の角度を表す値が設定される。fx、fy、u0およびv0は、撮像装置の内部パラメータを示し、たとえば、レンズの歪み等を補正するためのパラメータを含む。
Figure 0005041458
式(4)に従う投影により、楕円球の表面上の各点(x,y,z)は、二次元画像の(x,y)に投影される。二次元画像の座標(x,y)には、投影元の(x,y,z)のz値を表すグレースケール値Iが対応づけられる。該グレースケール値Iは、式(5)に従って算出される。
Figure 0005041458
ここで、Zminは、楕円球の(回転させた場合には、回転後の楕円球の)表面の座標のz値のうち、最も撮像装置に近い値を示す。Nは、正規化部25による正規化で用いられたNと同じである。式(5)により、z値がZminの時には、該z値に対応する画素には、最も高いグレースケール値が割り当てられる。z値のZminからの距離が大きくなるにつれ、すなわち撮像装置に対する距離が大きくなるにつれ、該z値に対応する画素のグレースケール値は徐々に低くなる。
図5の(d)は、こうして作成された頭部モデルの二次元画像を模式的に示す。楕円の中心から周囲に向かって、グレースケール値が徐々に低くなっている。たとえば、図5の(c)に示される点56は、図5の(d)の点57に投影される。点56は、z値がZminであるので、点57のグレースケール値は、最も高い値(この例では、白)を持つ。また、点58は点59に投影されるが、点58のz値が、Zminより大きい値であるので、点59のグレースケール値は、点57のグレースケール値よりも低くなる。
こうして、図5の(a)のような、頭部をz方向から見た楕円形状は、図5の(d)の二次元画像モデルの形状に反映され、図5の(b)のような、頭部の各部分における、撮像装置に対する距離は、図5の(d)の二次元画像モデルの対応する画素のグレースケール値に反映される。このように、人間の頭部は3次元データで表されるが、z方向の距離をグレースケール値で表すことにより、人間の頭部を二次元画像にモデル化することができる。生成された二次元画像モデルは、メモリ25に記憶される。
何種類かの頭部モデルが用意されるのが好ましい。たとえば、大人の頭部と子供の頭部とは大きさが異なるので、別個の頭部モデルが用いられる。上記a、bおよびcを調整することにより、所望の大きさの楕円球モデルを生成することができる。どのような大きさの楕円球モデルを用いるかは、複数の人間の頭部を統計的に調べた結果に基づいて決定してもよい。こうして生成された楕円球モデルは、上記のような手法で二次元画像モデルに変換され、メモリ25に記憶される。
また、乗員の姿勢に応じて複数の頭部モデルを用意するのが好ましい。たとえば、首を傾けた乗員の頭部を検出するために、異なる傾きを持つ頭部モデルを用意することができる。たとえば、上記の式(4)に示される回転行列中のパラメータR11〜R33の値を調整することにより、所望の角度だけ回転させた楕円球モデルを生成することができる。該楕円球モデルは、同様に、二次元画像モデルに変換され、メモリ25に記憶される。
たとえば、図4に示されるように乗員の頭部が撮像装置に対して配置されている場合には、乗員の頭部を検出するのに、傾いた楕円球から生成された二次元画像モデルが必要とされるであろう。
図6は、一実施例でメモリ25に記憶される二次元画像の頭部モデルを表す。3種類の大きさがあり、図の右側にいくほど大きくなっている。さらに、それぞれの大きさに対し、傾きなしのモデル、π/4だけ回転させたモデル、3π/4だけ回転させたモデルが用意される。
図1に戻り、相関部26は、メモリ25から二次元画像の頭部モデルを読み出し、該頭部モデルを、正規化部24により生成された正規化済み乗員領域に対して走査させる。相関部26は、該頭部モデルと、正規化済み乗員領域中の走査している画像領域との間でマッチングを行い、相関値を算出する。任意のマッチング手法を用いることができる。
この実施例では、相関値rは、正規化因子のずれ、位置および姿勢の誤差等を考慮した正規化相関式(6)に従って行われる。ここで、Sは、マッチングするブロックの大きさを示す。ブロックの大きさは、たとえば1画素でもよく、または、複数の画素の集まり(たとえば、8×3画素)を1つのブロックとしてもよい。頭部モデルと走査対象領域との間の類似度が高いほど、高い値を持つ相関値rが算出される。
Figure 0005041458
前述したように、乗員領域の頭部部分では、頭部の撮像装置に近い点から周囲に向かって撮像装置に対する距離が徐々に大きくなり、これに従って徐々に値が低くなるようグレースケール値が割り当てられている。一方、頭部モデルも、中心から周囲に向かって撮像装置に対する距離が徐々に大きくなり、これに従って徐々に値が低くなるようグレースケール値が割り当てられている。したがって、頭部モデルが、該乗員領域の頭部部分と相関されれば、他の部分と相関されるよりも、高い値の相関値rが算出されることとなる。こうして、相関値rに基づき、頭部部分を、乗員領域から検出することができる。
このように、式(2)で示される乗員領域の正規化も、式(5)で示される頭部モデルの正規化も、撮像装置に対する距離が大きくなるにつれ、低い値を持つようグレースケール値が割り当てられる点は同じである。しかしながら、厳密に言えば、両者の正規化の間にはずれがある。たとえば、式(2)では、視差の最小値dminにおいて、グレースケール値が最小になるが、式(5)では、z値が無限大になったときにグレースケール値が最小になる。しかしながら、このようなスケーリングのずれは、上記のような相関により補償されることができる。また、頭部の楕円球モデルを構築する際の中心座標のずれなどの位置的な誤差も、このような相関により補償されることができる。すなわち、相関では、グレースケールが変化する傾向が似ているかどうかが判断されるので、相関される画像領域が、頭部モデルに類似したグレースケールの変化の傾向(すなわち、中心から周囲に向かってグレースケール値が徐々に低くなる)を有していれば、高い相関値が出力されることとなる。
最も高い相関値rを算出した画像領域が、正規化済み乗員領域から検出され、該乗員領域の撮像画像における位置づけおよびグレースケール値に基づき、人間の頭部を検出することができる。また、相関された頭部モデルに基づき、頭部の大きさおよび傾き(姿勢)を判断することができる。
複数の頭部モデルがある場合には、上記のような相関処理を、メモリ25に記憶された二次元画像の頭部モデルのそれぞれについて行われる。最も高い相関値rを算出した頭部モデルが特定されると共に、該モデルと相関された画像領域が、正規化済み乗員領域において検出される。該検出された画像領域の撮像画像における位置づけおよびグレースケール値から、人間の頭部を検出することができる。また、該最も高い相関値rの算出に用いられた頭部モデルに基づき、頭部の大きさおよび傾き(姿勢)を判断することができる。
このような、二次元画像のグレースケールのマッチングは、従来の三次元空間における同定処理よりも高速に処理することができる。したがって、リアルタイムに、物体の位置、大きさおよび姿勢を検出することができる。グレースケールのマッチングには、他の手法(たとえば、マルチモデルの同時検出手法およびピラミッド構造を用いた手法)を用いることができる。
また、物体認識の精度をより上げるために、たとえば、所定値以上の相関値が算出された画像領域から、物体が存在しうる車両内の三次元空間の範囲を導きだし、この範囲内において、最小二乗法などを用いた従来の同定処理を実行して物体を認識してもよい。同定処理すべき空間の範囲が限定されるので、計算量を抑制することができる。
図7a〜7dは、車両のシートに座っていると想定した人物を撮像した場合の結果を示す。図7aは、撮像装置12および13の一方で撮影された画像を示す。ここで、わかりやすくするため、光源10から照射されるパターン光が、目視できるよう格子状に描写されている(実際には、可視ではない)。図7bは、視差画像生成部21で生成される視差画像を示す。参照符号61は、人物が撮像されている画像領域を示し、参照符号62は、シートが撮影されている画像領域を示し、参照符号63は、その背景が撮像されている画像領域を示す。画像領域61の対象物(人物)および画像領域62の対象物(シート)は、画像領域63の対象物よりも、撮像装置からの距離が短いので、画像領域61および62は、画像領域63に比べて高い視差値を持つ。
図7cは、背景除去および正規化が行われた後の画像を示す。背景除去部22により、画像領域62および63は、黒のグレースケール値を有する画素に置き換えられている。出願書類の解像度の関係で該図面から目視するのは困難であるが、正規化部25により、画像領域61の各画素は、撮像装置に対する距離を表すグレースケール値を有するよう生成されている。
図7dは、相関の結果を示す。この例では、或る傾きおよび大きさを持つ頭部モデルが、画像領域65と相関をとられたとき、最も高い相関値rが算出された。こうして、人間の頭部を表す画像領域65が検出され、人間の頭部が空間的にどこに位置するかが求められる。また、該頭部モデルから、人間の頭部の大きさおよび姿勢を判断することができる。
図8a〜dを参照すると、図7a〜dと同様のものが示されており、首を傾けて座っている人物を撮像した結果を示す。図8aは、撮像装置12および13の一方で撮影された画像を示し、図8bは、視差画像生成部21によって生成された視差画像を示し、図8cは、背景除去および正規化が行われた後の画像を示す。図8dは、相関結果を示す。この例では、或る傾きおよび大きさを持つ頭部モデルが、対象領域66と相関をとられたとき、最も高い相関値rが算出された。こうして、人間の頭部を表す画像領域66が検出され、人間の頭部が空間的にどこに位置するかが求められる。また、該頭部モデルから、頭部の大きさがわかるとともに、頭部が傾いていると判断することができる。
他の実施例では、物体検出装置1は、光源および一対の撮像装置を用いる代わりに、距離計測装置70を用いる。図9は、この実施例に従う、物体検出装置1を示す。一例では、距離計測装置70は、走査型レーザである。走査型レーザは、レーザを対象物に照射し、対象物からの反射波を受信して、距離計測装置70から対象物までの距離および対象物の相対的な方位を測定する。走査型レーザは、図10の(a)および(b)に示すように、xy平面において、それぞれ所定角度81および82にわたってレーザを走査させる。レーザが走査される二次元(xy)平面の所定範囲を、ブロックに細分し、ブロックごとに、距離計測装置70からの距離を計測する。
処理装置15の距離画像生成部71は、ブロックごとに測定された距離値を、該ブロック中の各画素に対応づけることにより、距離画像を生成する。背景除去部72は、距離画像において、背景を除去する。これは、前述したように、任意の適切な手法で実現される。たとえば、空席時に距離計測装置70により計測され生成された距離画像をメモリ73に予め記憶し、該空席時距離画像と、今回撮像された乗員を含む距離画像とを比較することにより、乗員の画像領域(乗員領域)を抽出するよう背景を除去することができる。
正規化部74は、乗員領域を正規化する。正規化は、式(2)のdminを、乗員領域中の距離の最大値Lmaxに、dmaxを、乗員領域中の距離の最小値Lminで置き換えることにより、計算されることができる。
メモリ75(メモリ73と同じでよい)は、メモリ25と同様に、頭部モデルの二次元画像を記憶する。頭部モデルは、前述したような手法で生成されるが、ここで、図5の(c)の撮像装置は、距離計測装置に置き換えて考えることができる。相関部76は、相関部26と同様の手法で、相関を実施することができる。
図11は、この発明の一実施例に従う、二次元画像の頭部モデルを生成する処理のフローチャートである。この処理は、物体検出に先立ち、CPU、メモリおよび入出力インターフェース等を備えるコンピュータにより実現される処理装置により実施されることができる。
ステップS1において、図5の(c)に示されるように、人間の頭部を、3次元形状モデル、ここでは楕円球で表す。ステップS2において、図5の(d)に示されるように、たとえば投影により、楕円球を二次元画像モデルに変換する。ステップS3において、二次元画像モデルを、メモリに記憶する。
頭部モデルの生成処理は、検出すべき人間の頭部の大きさおよび姿勢(この例では、傾き)の種類ごとに、繰り返し行われることができる。こうして、様々な大きさおよび姿勢をモデル化した頭部モデルを、メモリに記憶することができる。
図12は、物体を検出する処理のフローチャートを示す。この処理は、所定の時間間隔で実施される。一実施例では、図1に示される処理装置15により、該処理は実現される。
ステップS11において、一対の撮像装置によって、人間の頭部を含む画像を取得する。ステップS12において、該取得した画像から、視差画像を生成する。ステップS13において、視差画像から背景を除去し、人物を含む画像領域(乗員領域)を抽出する。背景を除去した後、ノイズを除去するため、膨張収縮などの粒子解析処理および平滑化処理(たとえば、メディアンフィルタを用いて)を行ってもよい。
ステップS14において、乗員領域を、式(2)に従って正規化する。ステップS15において、メモリから、予め生成されている頭部モデルを読み出す。ステップS16において、頭部モデルを、正規化された乗員領域に対して走査し、該頭部モデルと、該頭部モデルが重なった画像領域との間の類似度を示す相関値を算出する。ステップS17において、最も高い相関値が算出された画像領域を、該相関値および頭部モデルと関連づけてメモリに記憶する。
ステップS18において、相関すべき頭部モデルがあるかどうかを判断する。この判断がYesならば、ステップS15からの処理を繰り返す。
ステップS19において、メモリに記憶された相関値のうち、最も高い相関値を選択し、該相関値に対応する画像領域および頭部モデルに基づいて、人間の頭部が存在する位置、大きさおよび姿勢を出力する。
撮像装置に代えて距離測定装置を用いる場合には、ステップS11において、距離計測装置が用いられ、ステップS12において、距離画像が生成される。
上記の実施形態では、撮像装置に対する距離が大きくなるにつれグレースケール値が低くなるという傾向について、二次元画像モデルと画像領域との間で相関が行われた。このようなグレースケール値の傾向とは異なる傾向を用いてもよい。たとえば、撮像装置に対する距離が大きくなるにつれ、グレースケール値を大きくするという傾向について、類似性を判断してもよい。
人間の頭部を検出する形態について説明してきたが、本願発明の物体検出装置は、他の物体を検出する形態についても適用可能である。たとえば、人間とは異なる物体についても、所定の方向から見た特徴的形状を有するとともに、該所定の方向の距離をグレースケール値で表した二次元画像モデルを生成することにより、検出することができる。
また、物体検出装置が車両に搭載された場合の実施形態について説明してきたが、本願発明の物体検出装置は、様々な形態に適用可能である。たとえば、或る物体(たとえば、人間の頭部)が近づいたことを検出し、該検出に応じて、何らかのアクションをとる(例えば、メッセージを発する)というような形態にも適用可能である。
この発明の一実施例に従う、物体を検出する装置のブロック図。 この発明の一実施例に従う、視差を算出する手法を説明する図。 この発明の一実施例に従う、背景の除去を説明する図。 この発明の一実施例に従う、最大の視差値の一例を説明する図。 この発明の一実施例に従う、頭部モデルを説明する図。 この発明の一実施例に従う、複数の種類の頭部モデルの一例を示す図。 この発明の一実施例に従う、撮影画像の一例を示す図。 この発明の一実施例に従う、視差画像の一例を示す図。 この発明の一実施例に従う、背景除去され正規化された画像の一例を示す図。 この発明の一実施例に従う、検出結果の一例を示す図。 この発明の他の実施例に従う、撮影画像の一例を示す図。 この発明の他の実施例に従う、視差画像の一例を示す図。 この発明の他の実施例に従う、背景除去され正規化された画像の一例を示す図。 この発明の他の実施例に従う、検出結果の一例を示す図。 この発明の他の実施例に従う、物体を検出する装置のブロック図。 この発明の他の実施例に従う、距離計測装置を説明する図。 この発明の一実施例に従う、モデルを生成する処理のフローチャート。 この発明の一実施例に従う、物体を検出する処理のフローチャート。
符号の説明
1 物体検出装置
23,26 メモリ
11,12 撮像装置
15 処理装置
70 距離計測装置

Claims (8)

  1. 三次元物体を撮像する一対の撮像手段と、
    前記一対の撮像手段で取得した画像に基づいて、該画像を細分した各領域について視差データを算出する視差データ算出手段と、
    前記各領域について算出された視差データに基づき、前記各領域の前記撮像手段に対する距離を表すグレースケール値であって当該距離の範囲により正規化されたグレースケール値を算出するとともに、該各領域が対応するグレースケール値を持つグレースケール画像を生成するグレースケール画像生成手段と、
    前記三次元物体をモデル化したモデルを記憶するモデル記憶手段と、
    前記モデルと前記グレースケール画像中の画像領域との類似度を表す相関値を算出する手段であって、該モデルは、前記撮像手段が位置する方向から前記三次元物体を見たときの形状的特徴を有する二次元画像であるとともに、該二次元画像を細分した各領域は、前記三次元物体の対応する部分の該撮像手段に対する距離を表すグレースケール値であって当該距離の最小値により正規化されたグレースケール値を有しており、該相関値は、該モデルのグレースケール値と、該グレースケール画像中の該画像領域のグレースケール値とに基づいて算出される、相関値算出手段と、
    前記モデルと最も高い相関値を持つ画像領域を、前記グレースケール画像において検出することにより、前記三次元物体を検出する物体検出手段と、
    を備える物体検出装置。
  2. 三次元物体を含む所定範囲を細分した各領域までの距離を計測する距離計測手段と、
    前記距離計測手段で計測された距離を表すグレースケール値であって前記各領域までの距離の範囲により正規化されたグレースケール値を算出するとともに、該各領域が対応するグレースケール値を持つグレースケール画像を生成するグレースケール画像生成手段と、
    前記三次元物体をモデル化したモデルを記憶するモデル記憶手段と、
    前記モデルと、前記グレースケール画像中の画像領域との類似度を表す相関値を算出する手段であって、該モデルは、前記距離計測手段が位置する方向から前記三次元物体を見たときの形状的特徴を有する二次元画像であるとともに、該二次元画像を細分した各領域は、前記三次元物体の対応する部分の該距離計測手段に対する距離を表すグレースケール値であって当該距離の最小値により正規化されたグレースケール値を有しており、該相関値は、該モデルのグレースケール値と、該グレースケール画像中の該画像領域のグレースケール値とに基づいて算出される、相関値算出手段と、
    前記モデルと最も高い相関値を持つ画像領域を、前記グレースケール画像において検出することにより、前記三次元物体を検出する物体検出手段と、
    を備える、物体検出装置。
  3. 前記モデル記憶手段は、前記三次元物体の大きさおよび姿勢に応じて複数のモデルを記憶しており、
    前記相関値算出手段は、前記複数のモデルのそれぞれについて前記相関値を算出し、
    前記物体検出手段は、前記複数のモデルのうち、最も高い相関値を持つ画像領域に相関されたモデルに基づいて、前記三次元物体の大きさおよび姿勢を判断する、
    請求項1または2に記載の物体検出装置。
  4. 前記三次元物体は人間の頭部であり、
    前記モデルは、楕円形状を有する二次元画像である、
    請求項1から3のいずれかに記載の物体検出装置。
  5. 前記検出される人間の頭部は、車両に乗車している人間の頭部である、
    請求項4に記載の物体検出装置。
  6. 前記物体検出装置は、車両内の乗員を検出する装置であって、
    乗員が着座している時の前記視差データと、空席時の前記視差データとに基づいて、前記撮像手段により取得された画像中で乗員が存在する乗員領域を検出する乗員領域検出手段を備え、
    前記グレースケール画像生成手段は、前記乗員領域に基づいて、前記グレースケール画像を生成する、
    請求項1に記載の物体検出装置。
  7. 前記物体検出装置は、車両内の乗員を検出する装置であって、
    乗員が着座している時に前記距離計測手段により計測された距離と、空席時に前記距離計測手段により計測された距離とに基づいて、前記距離計測手段で計測される所定範囲中で乗員が存在する乗員領域を検出する乗員領域検出手段を備え、
    前記グレースケール画像生成手段は、前記乗員領域に基づいて、前記グレースケール画像を生成する、
    請求項2に記載の物体検出装置。
  8. 所定のパターンを有するパターン光を前記物体に照射するパターン光照射手段を備える、
    請求項1に記載の物体検出装置。
JP2006033111A 2006-02-09 2006-02-09 三次元物体を検出する装置 Active JP5041458B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2006033111A JP5041458B2 (ja) 2006-02-09 2006-02-09 三次元物体を検出する装置
EP07708177.6A EP1983484B1 (en) 2006-02-09 2007-02-07 Three-dimensional-object detecting device
US12/223,638 US8396283B2 (en) 2006-02-09 2007-02-07 Three-dimensional object detecting device
PCT/JP2007/052138 WO2007091604A1 (ja) 2006-02-09 2007-02-07 三次元物体を検出する装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006033111A JP5041458B2 (ja) 2006-02-09 2006-02-09 三次元物体を検出する装置

Publications (2)

Publication Number Publication Date
JP2007213353A JP2007213353A (ja) 2007-08-23
JP5041458B2 true JP5041458B2 (ja) 2012-10-03

Family

ID=38345200

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006033111A Active JP5041458B2 (ja) 2006-02-09 2006-02-09 三次元物体を検出する装置

Country Status (4)

Country Link
US (1) US8396283B2 (ja)
EP (1) EP1983484B1 (ja)
JP (1) JP5041458B2 (ja)
WO (1) WO2007091604A1 (ja)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110025836A1 (en) * 2008-03-18 2011-02-03 Satoshi Tamaki Driver monitoring apparatus, driver monitoring method, and vehicle
US8525871B2 (en) 2008-08-08 2013-09-03 Adobe Systems Incorporated Content-aware wide-angle images
EP2339507B1 (en) 2009-12-28 2013-07-17 Softkinetic Software Head detection and localisation method
CN103069452B (zh) 2010-08-20 2017-05-24 国立大学法人东京大学 书籍读取系统及书籍读取方法
JP5453230B2 (ja) * 2010-12-15 2014-03-26 本田技研工業株式会社 乗員検知装置
US9218316B2 (en) 2011-01-05 2015-12-22 Sphero, Inc. Remotely controlling a self-propelled device in a virtualized environment
US9090214B2 (en) 2011-01-05 2015-07-28 Orbotix, Inc. Magnetically coupled accessory for a self-propelled device
US10281915B2 (en) 2011-01-05 2019-05-07 Sphero, Inc. Multi-purposed self-propelled device
US9429940B2 (en) 2011-01-05 2016-08-30 Sphero, Inc. Self propelled device with magnetic coupling
US8751063B2 (en) 2011-01-05 2014-06-10 Orbotix, Inc. Orienting a user interface of a controller for operating a self-propelled device
JP5414714B2 (ja) * 2011-03-04 2014-02-12 日立オートモティブシステムズ株式会社 車戴カメラ及び車載カメラシステム
US20120244969A1 (en) 2011-03-25 2012-09-27 May Patents Ltd. System and Method for a Motion Sensing Device
US9292758B2 (en) * 2012-05-14 2016-03-22 Sphero, Inc. Augmentation of elements in data content
US9827487B2 (en) 2012-05-14 2017-11-28 Sphero, Inc. Interactive augmented reality using a self-propelled device
WO2013173389A1 (en) * 2012-05-14 2013-11-21 Orbotix, Inc. Operating a computing device by detecting rounded objects in an image
US10056791B2 (en) 2012-07-13 2018-08-21 Sphero, Inc. Self-optimizing power transfer
US9345609B2 (en) 2013-01-11 2016-05-24 Elwha Llc Position sensing active torso support
US10314733B2 (en) 2012-12-20 2019-06-11 Elwha Llc Sensor-based control of active wearable system
US8929602B2 (en) * 2013-01-31 2015-01-06 Seiko Epson Corporation Component based correspondence matching for reconstructing cables
US9915857B2 (en) * 2013-12-09 2018-03-13 Geo Semiconductor Inc. System and method for automated test-pattern-free projection calibration
US9829882B2 (en) 2013-12-20 2017-11-28 Sphero, Inc. Self-propelled device with center of mass drive system
US10367985B2 (en) 2014-07-23 2019-07-30 Orcam Technologies Ltd. Wearable apparatus and method for processing images including product descriptors
US9589107B2 (en) 2014-11-17 2017-03-07 Elwha Llc Monitoring treatment compliance using speech patterns passively captured from a patient environment
US10430557B2 (en) 2014-11-17 2019-10-01 Elwha Llc Monitoring treatment compliance using patient activity patterns
US9585616B2 (en) 2014-11-17 2017-03-07 Elwha Llc Determining treatment compliance using speech patterns passively captured from a patient environment
FR3028988B1 (fr) * 2014-11-20 2018-01-19 Commissariat A L'energie Atomique Et Aux Energies Alternatives Procede et dispositif de filtrage adaptatif temps reel d'images de disparite ou de profondeur bruitees
CN105118056B (zh) * 2015-08-13 2017-11-17 重庆大学 基于三维形态学的冠脉血管自动提取方法
WO2019175622A1 (en) * 2018-03-12 2019-09-19 Pratik Sharma Object recognition based on visual patterns in an image
JP7344660B2 (ja) * 2018-03-30 2023-09-14 キヤノン株式会社 視差算出装置、視差算出方法及び視差算出装置の制御プログラム
JP7204087B2 (ja) * 2018-04-25 2023-01-16 成典 田中 対象物認識装置
JP7311299B2 (ja) * 2019-04-10 2023-07-19 株式会社国際電気通信基礎技術研究所 人認識システムおよび人認識プログラム
US11514027B2 (en) * 2019-06-07 2022-11-29 Sap Se Paged hybrid LOBs
US11061469B2 (en) * 2019-11-20 2021-07-13 XRSpace CO., LTD. Head mounted display system and rotation center correcting method thereof
DE112021001777T5 (de) 2020-03-23 2023-01-12 Fanuc Corporation Bildverarbeitungsvorrichtung und Bildverarbeitungsverfahren

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7415126B2 (en) * 1992-05-05 2008-08-19 Automotive Technologies International Inc. Occupant sensing system
JP3633675B2 (ja) * 1995-07-21 2005-03-30 住友電気工業株式会社 三次元形状識別方法
US6757009B1 (en) * 1997-06-11 2004-06-29 Eaton Corporation Apparatus for detecting the presence of an occupant in a motor vehicle
CA2305735C (en) * 1997-12-05 2008-01-08 Dynamic Digital Depth Research Pty. Ltd. Improved image conversion and encoding techniques
JP2001091232A (ja) * 1999-09-24 2001-04-06 Sony Corp 3次元形状計測装置および方法、並びに記録媒体
JP2001331790A (ja) * 2000-05-19 2001-11-30 Tokai Rika Co Ltd 乗員検知システム
JP4597391B2 (ja) * 2001-01-22 2010-12-15 本田技研工業株式会社 顔領域検出装置およびその方法並びにコンピュータ読み取り可能な記録媒体
US6493620B2 (en) * 2001-04-18 2002-12-10 Eaton Corporation Motor vehicle occupant detection system employing ellipse shape models and bayesian classification
JP2004053324A (ja) 2002-07-17 2004-02-19 Denso Corp 自動車用衝突安全制御装置
JP2004061446A (ja) * 2002-07-31 2004-02-26 Fujitsu Ten Ltd パターンマッチング処理方法及び画像処理装置
US7526120B2 (en) * 2002-09-11 2009-04-28 Canesta, Inc. System and method for providing intelligent airbag deployment
US7379559B2 (en) 2003-05-28 2008-05-27 Trw Automotive U.S. Llc Method and apparatus for determining an occupant's head location in an actuatable occupant restraining system
WO2004111687A2 (en) 2003-06-12 2004-12-23 Honda Motor Co., Ltd. Target orientation estimation using depth sensing
US7508979B2 (en) * 2003-11-21 2009-03-24 Siemens Corporate Research, Inc. System and method for detecting an occupant and head pose using stereo detectors
US7372996B2 (en) * 2004-12-27 2008-05-13 Trw Automotive U.S. Llc Method and apparatus for determining the position of a vehicle seat

Also Published As

Publication number Publication date
EP1983484B1 (en) 2014-04-16
WO2007091604A1 (ja) 2007-08-16
US20090226035A1 (en) 2009-09-10
EP1983484A4 (en) 2009-03-04
US8396283B2 (en) 2013-03-12
EP1983484A1 (en) 2008-10-22
JP2007213353A (ja) 2007-08-23

Similar Documents

Publication Publication Date Title
JP5041458B2 (ja) 三次元物体を検出する装置
JP6125188B2 (ja) 映像処理方法及び装置
AU2019203928B2 (en) Face location detection
EP2430588B1 (en) Object recognition method, object recognition apparatus, and autonomous mobile robot
JP5493108B2 (ja) 距離画像カメラを用いた人体識別方法および人体識別装置
JP5158842B2 (ja) 眼球運動計測方法および眼球運動計測装置
US20130114861A1 (en) Device and method for recognizing three-dimensional position and orientation of article
JP6836561B2 (ja) 画像処理装置及び画像処理方法
JP4873711B2 (ja) 三次元物体を検出する装置
JP2014142832A (ja) 画像処理装置、画像処理装置の制御方法、およびプログラム
JP7426611B2 (ja) 校正方法および校正装置
JP2006215743A (ja) 画像処理装置及び画像処理方法
JP7298687B2 (ja) 物体認識装置及び物体認識方法
JP2006172258A (ja) 指紋照合装置、指紋照合方法、指紋照合プログラム、および指紋登録装置
JP5419777B2 (ja) 顔画像合成装置
JP4507571B2 (ja) 人体姿勢計測装置
JP2008203995A (ja) 物体形状生成方法、物体形状生成装置及びプログラム
JP2006227739A (ja) 画像処理装置及び画像処理方法
JPH11190611A (ja) 3次元計測方法およびその方法を用いた3次元計測処理装置
JP2008003800A (ja) 画像処理装置及び画像処理プログラム
JP4274038B2 (ja) 画像処理装置および画像処理方法
JP4636338B2 (ja) 表面抽出方法、表面抽出装置及びプログラム
JP4852454B2 (ja) 目傾き検出装置及びプログラム
JP2007139535A (ja) 顔端検出装置、顔端検出方法、及び、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120626

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120705

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150720

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350