JP4516516B2 - 人物検出装置、人物検出方法及び人物検出プログラム - Google Patents
人物検出装置、人物検出方法及び人物検出プログラム Download PDFInfo
- Publication number
- JP4516516B2 JP4516516B2 JP2005352890A JP2005352890A JP4516516B2 JP 4516516 B2 JP4516516 B2 JP 4516516B2 JP 2005352890 A JP2005352890 A JP 2005352890A JP 2005352890 A JP2005352890 A JP 2005352890A JP 4516516 B2 JP4516516 B2 JP 4516516B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- person
- head
- moving body
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Geophysics And Detection Of Objects (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
例えば、特許文献1で開示されている技術(以下、従来技術という)では、前景となる領域が人物以外の領域となることを考慮し、その領域の縦横比、面積比等の物理的な特徴量と、予め保持している人物の物理的な特徴量とを比較することで、領域が人物を示す領域であるか否かの判定を行っている。さらに、この従来技術では、エッジパターンによるパターン認識によっても人物の判定を行っている。
また、一般的な背景差分法においては、カメラ自体が動く場合、逐次入力されるフレーム画像毎に、背景の位置合わせを行ったのちに差分をとることで、移動体(人物)の検出を行っている。
そして、人物検出装置は、頭部領域設定手段によって、移動体を人物と仮定した頭部領域を設定する。このとき、対象距離が分かっていることから、頭部領域の大きさを対象距離に応じた大きさに設定することができる。
また、人物判定手段は、画像シフト手段によって、補完画像の重心位置の上下位置を、サンプル画像の重心位置の上下位置に合わせるとともに、補完画像の重心位置の左右位置を、サンプル画像の重心位置の左右位置に合わせるように、補完画像をシフトさせる。
そして、人物判定手段は、類似度判定手段によって、補完画像とサンプル画像との類似度を算出することで、移動体が人物であるか否かを判定する。
[人物検出装置の構成]
図1は、本発明に係る人物検出装置の全体構成を示したブロック図である。図1に示すように人物検出装置1は、複数のカメラ2で撮像された撮像画像から、人物を検出するものである。ここでは、人物検出装置1は、移動体検出手段10と、頭部領域設定手段20と、人物判定手段30と、サンプル画像記憶手段40とを備えている。
以下、移動体検出手段10、頭部領域設定手段20及び人物判定手段30の構成について詳細に説明する。
まず、図2を参照して、移動体検出手段10の構成について説明する。図2は、本発明に係る人物検出装置に含まれる移動体検出手段の構成を示したブロック図である。図2に示すように、移動体検出手段10は、2台のカメラ2で撮像された撮像画像から、動きを伴う物体(移動体)を検出することとする。なお、2台のカメラ2は、左右に距離Bだけ離れて配置されており、それぞれを右カメラ2a及び左カメラ2bとする。ここでは、移動体検出手段10は、距離情報生成手段11と、動き情報生成手段12と、エッジ画像生成手段13と、対象距離設定手段14と、対象距離画像生成手段15と、対象領域設定手段16と、輪郭抽出手段17とを備えている。
この距離情報生成手段11では、右カメラ2aを基準カメラとして、この基準カメラ(右カメラ2a)で撮像された基準撮像画像と、左カメラ2bで撮像された同時刻撮像画像とで、特定の大きさのブロック(例えば8×3画素)でブロックマッチングを行うことで、基準撮像画像からの視差を計測する。そして、その視差の大きさ(視差量)を基準撮像画像の各画素に対応付けた距離画像を生成する。
なお、視差をZとしたとき、この視差Zに対応するカメラ2から物体までの距離L(図示せず)は、カメラ2の焦点距離をf(図示せず)、右カメラ2aと左カメラ2bとの距離をBとすると、(1)式で求めることができる。
この動き情報生成手段12では、右カメラ2aを基準カメラとして、この基準カメラ(右カメラ2a)で撮像された時刻の異なる2枚の撮像画像の差分をとる。例えば、100ms間隔で撮像画像を入力したときに、その入力時刻からΔt(例えば33ms)分遅れた撮像画像を入力し、その2枚の撮像画像の差分をとることとする。
そして、差のあった画素には動きのあった画素として画素値“1”を与え、差のなかった画素には動きのなかった画素として画素値“0”を与えた差分画像を生成する。なお、動き情報生成手段12では、さらに差分画像に対して、メディアンフィルタ等のフィルタリング処理を行うことで、ノイズを除去しておく。
図2に戻って、人物検出装置1の構成について説明を続ける。
例えば、最多視差におけるカメラ2から移動体までの距離Lを前記(1)式で算出したとすると、その視差の範囲Zrは前記(1)式を変形することで、以下に示す(2)式を得る。ただし、カメラ2の焦点距離をf、右カメラ2aと左カメラ2bとの距離をB、対象物体の奥行き方向の範囲をαとする。
なお、この対象距離画像の生成は、基準カメラ(右カメラ2a)で撮像された撮像画像(原画像)又は距離情報生成手段11で生成された距離画像から、対象距離(視差の範囲)に対応する画素位置のみの画素を抽出することとしてもよい。
図2に戻って、人物検出装置1の構成について説明を続ける。
具体的には、SxをヒストグラムHIにおける注目している座標xの画素数、Sx′を平滑化後のヒストグラムHI′の座標xの画素数、x0を正の定数として、以下の(3)式により平滑化を行う。
また、前記した(3)式又は(4)式による平滑化処理において、以下の(5)式を条件とするのが望ましい。
これにより、隣り合う人物のヒストグラムHIが、平滑化の処理によりつながってしまうことを防ぐことができる。
具体的には、図15(b)で説明した平滑化後のヒストグラムHI′において、最も画素数Sx′が大きい座標x(例えば、図15(b)におけるx1)を、1つの移動体の中心位置とし、その左右両側の一定範囲(例えば、図15(b)におけるβ)を対象領域の水平方向の範囲として設定する。このβは、人物が手を挙げた場合も含まれるように、人物の幅に相当する画素数か、それよりやや広め(例えば、0.2m程度に相当する画素数分広め)とすることができる。さらに、この範囲内で、ヒストグラムが最小となる水平位置(座標x)を検出する。この最小となる水平位置を、一人の人物の左右端とする。
図2に戻って、人物検出装置1の構成について説明を続ける。
まず、図16(a)を参照して、チルト角が0(°)の場合において、移動体Mが対象距離画像(a′)上で垂直方向のどの位置に存在するかを特定する方法について説明する。
=Y/2−(Y/θv)tan−1((2−H)/L) …(8)
=Y/2+(Y/θv)tan−1(H/L) …(10)
=Y/2−θTY/θv−(Y/θv)tan−1((2−H)/L) …(12)
=Y/2−θTY/θv+(Y/θv)tan−1(H/L) …(14)
なお、移動ロボット(図示せず)が階段等を昇降し、移動体Mと同一の床に存在しない場合は、移動ロボット本体のエンコーダ等によって昇降量を検出し、その昇降量を移動体Mの床からの高さに対して加算又は減算することで、移動体Mの対象距離画像(a′又はb′)における垂直方向の位置を特定することができる。あるいは、移動ロボットに地図情報を保持しておき、移動体Mの方向及び距離で特定される床の高さを、その地図情報から取得することとしてもよい。
図2に戻って、人物検出装置1の構成について説明を続ける。
この輪郭抽出手段17は、抽出した輪郭(輪郭情報)を、頭部領域設定手段20(図1参照)に出力する。これによって、例えば、図17に示したように、対象距離画像TDの中で移動体が1つ(1人)に限定された対象領域T内で輪郭Oを抽出することができ、移動体の概略の位置を特定することができる。
次に、図3を参照して、頭部領域設定手段20の構成について説明する。図3は、本発明に係る人物検出装置に含まれる頭部領域設定手段の構成を示したブロック図である。図3に示すように、頭部領域設定手段20は、移動体検出手段10(図1参照)で検出された移動体の輪郭及び対象距離画像に基づいて、移動体を人物と仮定したときの頭部領域を設定する。ここでは、頭部領域設定手段20は、頭部探索領域設定手段21と、ヒストグラム生成手段22と、垂直範囲設定手段23と、水平範囲設定手段24とを備えている。
この頭部探索領域設定手段21は、例えば、図18に示すように、対象距離画像TDにおいて、輪郭Oにおける重心Gの座標を(xG,yG)とし、重心GのX座標における最上端の輪郭OのY座標をyUとしたとき、頭部探索領域HSの垂直方向の範囲として、下限をyU又はyUから所定距離(例えば、0.2m)下方とし、上限を特定の大きさ(例えば2m)に対応する位置に設定する。なお、この上限には、図16で説明した対象距離画像(a′又はb′)上での上端yTの位置を用いることができる。
また、頭部探索領域HSの水平方向の範囲は、重心GのY座標を中心に、例えば、左右±0.2(m)の範囲に設定する。
この頭部探索領域設定手段21で設定された頭部探索領域HSは、ヒストグラム生成手段22に出力される。
具体的には、Syをヒストグラムにおける注目している座標yの画素数、Sy′を平滑化後のヒストグラムの座標yの画素数、y0を正の定数として、以下の(15)式により平滑化を行う。なお、f(n)はnの関数であるが、定数としてもよい。
まず、ヒストグラム生成手段22は、図19(a)に示すように、頭部探索領域HSにおいて、水平方向の画素数を計測し累計したヒストグラムHIHSを生成する。そして、垂直範囲設定手段23は、画素数が累計されている垂直方向の座標で、最上点の座標を頭部の上端とする。なお、ここでは、ノイズ等を考慮し、予め定めた閾値以上となる画素数が累計されている垂直方向の座標の最上点Toを、頭部の上端とする。
そして、垂直範囲設定手段23は、図19(b)に示すように、最上点Toより特定の長さ(例えば、0.1m)分だけ上の座標を頭部領域HDの上端とし、その上端から0.5mだけ下の座標を頭部領域HDの下端とする。
さらに、水平範囲設定手段24は、輪郭の重心のX座標を中心に、0.5mの範囲を頭部領域HDの水平方向の範囲とする。
このように設定された頭部領域HD(頭部領域の位置情報)は、人物判定手段30(図1参照)に出力される。
次に、図4を参照して、人物判定手段30の構成について説明する。図4は、本発明に係る人物検出装置に含まれる人物判定手段の構成を示したブロック図である。図4に示すように、人物判定手段30は、カメラ2(図1参照)で撮像された撮像画像において、頭部領域設定手段20で設定された頭部領域が人物の頭部の領域であるか否かを判定するものである。ここでは、人物判定手段30は、頭部エッジ画像生成手段31と、サイズ正規化手段32と、補完手段33と、画像シフト手段34と、類似度判定手段35とを備えている。
なお、エッジ画像生成手段13(図2参照)において、撮像画像全体のエッジ画像が生成されているため、頭部エッジ画像生成手段31は、このエッジ画像から頭部領域を切り出し、2値化することで、頭部エッジ画像を生成することとしてもよい。
例えば、画素値“1”の画素領域を拡大させるには、拡大元の画像における処理対象位置の画素の画素値が“1”又はその処理対象位置の画素に近接した8画素(8近傍)〔あるいは4画素(4近傍)〕の画素の画素値が“1”である場合に、拡大先の画像における処理対象位置の画素の画素値を“1”とする。ここで、正規化画像が拡大元の画像となって、順次画素領域が拡大された画像が生成される。
また、画素値“1”の画素領域を縮小させるには、縮小元の画像における処理対象位置の画素の画素値が“0”又はその処理対象位置の画素に近接した8画素(8近傍)〔あるいは4画素(4近傍)〕の画素の画素値が“0”である場合に、縮小先の画像における処理対象位置の画素の画素値を“0”とする。ここで、拡大処理によって拡大された画像が縮小元の画像となって、順次画素領域が縮小されることで補完画像が生成される。
これによって、補完手段33は、正規化画像において、頭部領域の内部を同一画素値で充填した画像を生成することができる。
図4に戻って、人物判定手段30の構成について説明を続ける。
左右シフト手段34bは、補完画像を左右にシフトさせることで、補完画像の頭部の左右位置を、サンプル画像の頭部に合わせるものである。具体的には、補完画像の重心位置の左右位置を、サンプル画像の重心位置の左右位置に合わせるように、補完画像をシフトさせる。
このように、画像シフト手段34において、補完画像を上下左右にシフトさせることで、補完画像内の頭部の位置を、サンプル画像内の頭部の位置に合わせることができ、後記する類似度判定手段35における類似度の精度を高めることができる。
なお、前記(16)式におけるd(SAD:差分絶対値和)は、以下の(17)式により算出されるものである。
なお、ここでは、類似度算出手段35aは、類似度を前記(16)式によって算出したが、この類似度算出の手法はこれに限定されるものではない。例えば、(16)式のd(SAD:差分絶対値和)の代わりに、SSD(Sum of the Squared Differences:差分2乗和)を用いることとしてもよい。
また、判定手段35bは、複数の撮像画像において、予め定めたフレーム数分の類似度の平均値により人物の判定を行うこととしてもよい。これによって、一時的にノイズ等によって、人物と判定できなかった場合でも、継続して人物を検出することができる。
ここでは、(d)に補完画像とサンプル画像との類似度を示し、(e)に人物までの距離を示している。このように、人物検出装置1は、任意の距離において、人物を検出することができる。
以上、一実施の形態として人物検出装置1の構成について説明したが、人物検出装置1は、一般的なコンピュータを前記した各手段として機能させる人物検出プログラムによって、動作させることができる。
次に、図5を参照(適宜図1参照)して、人物検出装置1の動作について説明する。図5は、本発明に係る人物検出装置の全体動作を示すフローチャートである。
まず、人物検出装置1は、移動体検出手段10によって、複数のカメラ2で撮像された撮像画像から、動きのある移動体を検出する(ステップS10;移動体検出ステップ)。なお、このステップS10では、撮像画像から移動体の輪郭を抽出するとともに、移動体が存在する距離に対応する画素からなる対象距離画像を生成する。
以下、ステップS10の移動体(輪郭)検出処理、ステップS20の頭部領域設定処理、及び、ステップS30の人物判定処理の動作について詳細に説明する。
最初に、図6及び図7を参照(適宜図2参照)して、図5のステップS10で説明した移動体(輪郭)検出処理の動作について説明する。図6及び図7は、移動体検出手段における移動体(輪郭)検出処理の動作を示すフローチャートである。
まず、移動体検出手段10は、2台のカメラ2から時系列に撮像画像を同期させて入力する(ステップS101)。ここでは、ある時刻tに右カメラ2a(基準カメラ)と左カメラ2bとから入力された撮像画像と、次の時刻t+Δtに右カメラ2a(基準カメラ)と左カメラ2bとから入力された撮像画像とに基づいて、移動体を抽出する。なお、以下のステップで用いられている距離画像Dt−1及びDt−2、対象距離画像TDt−2及びTDt−1は、時刻t−2及び時刻t−1の段階で生成されたものである。
そして、移動体検出手段10は、距離情報生成手段11によって、時刻tに右カメラ2a(基準カメラ)と左カメラ2bとから入力された2枚の撮像画像から、移動体を含んだ撮像対象までの視差(距離)を埋め込んだ距離画像Dtを生成する(ステップS102)。
さらに、移動体検出手段10は、動き情報生成手段12によって、右カメラ2a(基準カメラ)で時刻tと時刻t+Δtに撮像された2枚の撮像画像(基準撮像画像)の差分をとり、差のあった画素を画素値“1”、差のなかった画素を画素値“0”とした差分画像DItを生成する(ステップS103)。
また、移動体検出手段10は、エッジ画像生成手段13によって、右カメラ2a(基準カメラ)で時刻tに撮像された撮像画像(基準撮像画像)からエッジ画像EDtを生成する(ステップS104)。
そして、移動体検出手段10は、対象距離設定手段14によって、ステップS102及びステップS103で生成した距離画像Dt及び差分画像DIt(時刻tと時刻t+Δtの差分画像)から、距離画像Dtで表された視差(距離)毎に、動きのあった画素数を累計し、その累計が最大となる距離を、距離画像Dtにおける検出対象となる移動体の対象距離dtとして設定する(ステップS105)。
そして、移動体検出手段10は、対象距離画像生成手段15によって、ステップS104で生成したエッジ画像EDtから、対象距離dt±αの画素を抽出した対象距離画像TDtを生成する(ステップS106)。
このステップS106によって、人物検出装置1は、時刻tにおける距離画像Dtにおいて、移動体が存在する奥行き方向の範囲を設定することができる。
そして、移動体検出手段10は、対象領域設定手段16のヒストグラム生成手段16aによって、ステップS106で生成した対象距離画像TDtの垂直方向(縦方向)の画素数を計測し、ヒストグラム化する(ステップS107)。なお、このステップS107においては、ヒストグラムを平滑化することが望ましい。
また、移動体検出手段10は、輪郭抽出手段17によって、ステップS106で生成した対象距離画像TDtにおいて、ステップS108及びステップS109で設定した対象領域内で輪郭の抽出を行う(ステップS110)。例えば、対象領域内で動的輪郭モデル(SNAKES)を適用することによって輪郭の抽出を行う。
以上の動作によって、カメラ2から入力された撮像画像から、移動体を検出することができる。
次に、図8を参照(適宜図3参照)して、図5のステップS20で説明した頭部領域設定処理の動作について説明する。図8は、頭部領域設定手段における頭部領域設定処理の動作を示すフローチャートである。
まず、頭部領域設定手段20は、頭部探索領域設定手段21によって、輪郭の上部(上端)の画素位置を基準として、予め定めた範囲の領域を人物の頭部を探索するための領域(頭部探索領域)として設定する(ステップS201)。ここでは、頭部探索領域設定手段21は、輪郭の重心のX座標をx、その座標xにおける輪郭の最上端のY座標をyとした位置(x,y)を基準として、頭部探索領域の垂直方向の範囲を設定する。例えば、頭部探索領域の下限を、yから所定距離(例えば、0.2m)下方とし、上限は、特定の大きさ(例えば2m)に対応する位置に設定する。
そして、頭部領域設定手段20は、ヒストグラム生成手段22によって、対象距離画像において、頭部探索領域設定手段21で設定された頭部探索領域の範囲内で、垂直方向の座標毎に、水平方向の画素数を計測し、ヒストグラム化する(ステップS202)。なお、このステップS202においては、ヒストグラムを平滑化することが望ましい。
そして、頭部領域設定手段20は、垂直範囲設定手段23によって、ステップS202で生成されたヒストグラムにおいて、水平方向の画素数が予め定めた閾値よりも多い垂直方向の座標において、最上点の座標を基準として、頭部領域の垂直範囲を設定する(ステップS203)。例えば、垂直範囲設定手段23は、最上点の座標を基準として、その基準より特定の長さ(例えば、0.1m)分だけ上の座標を頭部領域の上端とし、その上端から、特定の長さ(例えば、0.5m)分だけ下の座標を頭部領域の下端とする。
さらに、頭部領域設定手段20は、水平範囲設定手段24によって、輪郭における重心のX座標を中心として、所定の左右範囲を頭部領域の水平範囲とする。具体的には、重心のX座標を中心として、特定の長さ(例えば0.5m)を頭部領域の水平範囲として設定する(ステップS204)。
以上の動作によって、カメラ2(図1)から入力された撮像画像のどこに人物の頭部領域が存在するかが特定されることになる。
次に、図9を参照(適宜図4参照)して、図5のステップS30で説明した人物判定処理の動作について説明する。図9は、人物判定手段における人物判定処理の動作を示すフローチャートである。
まず、人物判定手段30は、頭部エッジ画像生成手段31によって、撮像画像の頭部領域について、Sobelオペレータ等を用いてエッジを抽出し、予め定めた閾値により2値化することで、頭部エッジ画像を生成する(ステップS301)。なお、この頭部エッジ画像生成手段31は、ステップS104(図6参照)で生成されたエッジ画像から、頭部領域を切り出し、2値化することで、頭部エッジ画像を生成することとしてもよい。
そして、人物判定手段30は、サイズ正規化手段32によって、頭部エッジ画像を所定サイズに変換することで正規化画像を生成する(ステップS302)。これによって、任意の距離に対応して生成された頭部領域の画像(頭部エッジ画像)が、所定サイズに正規化されることになる。
そして、人物判定手段30は、補完手段33によって、頭部エッジ画像の画素について、拡大及び縮小処理をそれぞれ複数回行うことで、画像内の隙間(ギャップ)を補完した補完画像を生成する(ステップS303)。
その後、人物判定手段30は、画像シフト手段34の上下シフト手段34aによって、補完画像の重心位置の上下位置を、サンプル画像の重心位置の上下位置に合わせるように、補完画像をシフトさせる(ステップS304)。これによって、補完画像の頭部の上下位置が、サンプル画像の頭部の上下位置にほぼ合致することになる。
さらに、人物判定手段30は、画像シフト手段34の左右シフト手段34bによって、補完画像の重心位置の左右位置を、サンプル画像の重心位置の左右位置に合わせるように、補完画像をシフトさせる(ステップS305)。これによって、補完画像の頭部の左右位置が、サンプル画像の頭部の左右位置にほぼ合致することになる。
このステップS304とステップS305を実行することで、補完画像の頭部位置が、サンプル画像の頭部位置にほぼ合致することになる。なお、このステップS304とステップS305は、その順序を変えて実行しても構わない。
そして、人物判定手段30は、類似度判定手段35の類似度算出手段35aによって、補完画像とサンプル画像との各画像間の類似度を算出する(ステップS306)。
そして、人物判定手段30は、類似度判定手段35の判定手段35bによって、ステップS306で算出された類似度と予め定めた閾値とを比較し、類似度が予め定めた閾値よりも大きい場合に、当該領域が人物の頭部領域であると判定する(ステップS307)。
2 カメラ
10 移動体検出手段
11 距離情報生成手段
12 動き情報生成手段
13 エッジ画像生成手段
14 対象距離設定手段
15 対象距離画像生成手段
16 対象領域設定手段
17 輪郭抽出手段
20 頭部領域設定手段
30 人物判定手段
31 頭部エッジ画像生成手段
32 サイズ正規化手段
33 補完手段
34 画像シフト手段
35 類似度判定手段
40 サンプル画像記憶手段
Claims (6)
- 複数のカメラで移動体を撮像した複数の撮像画像から、当該撮像画像内に含まれる人物を検出する人物検出装置であって、
前記複数の撮像画像の視差と時系列に入力される撮像画像の差分とに基づいて、前記撮像画像内における前記移動体の領域である対象領域と、当該移動体までの距離である対象距離とを移動体情報として検出する移動体検出手段と、
この移動体検出手段で検出された対象領域において、前記移動体を人物と仮定したときの予め定めた大きさの頭部領域を、前記対象距離に対応した大きさで設定する頭部領域設定手段と、
人物の前記頭部領域に対応する所定サイズのサンプル画像を記憶するサンプル画像記憶手段と、
前記頭部領域設定手段で設定された撮像画像内の頭部領域を前記所定サイズに変換して前記サンプル画像と比較することで、前記移動体が人物であるか否かを判定する人物判定手段と、を備え、
前記人物判定手段は、
前記頭部領域設定手段で設定された頭部領域に対応するエッジ画像である頭部エッジ画像を生成する頭部エッジ画像生成手段と、
この頭部エッジ画像生成手段で生成された頭部エッジ画像を、前記所定サイズの正規化画像に変換するサイズ正規化手段と、
このサイズ正規化手段で変換された正規化画像内の隙間を補完した補完画像を生成する補完手段と、
この補完手段で生成された補完画像の重心位置の上下位置を、前記サンプル画像の重心位置の上下位置に合わせるとともに、前記補完画像の重心位置の左右位置を、前記サンプル画像の重心位置の左右位置に合わせるように、前記補完画像をシフトさせる画像シフト手段と、
この画像シフト手段でシフトさせた補完画像と前記サンプル画像との類似度に基づいて、前記移動体を人物と判定する類似度判定手段と、
を備えていることを特徴とする人物検出装置。 - 前記補完手段は、前記頭部エッジ画像生成手段で生成された頭部エッジ画像の領域について、拡大及び縮小処理をそれぞれ複数回行うことで、当該頭部エッジ画像内の隙間を補完することを特徴とする請求項1に記載の人物検出装置。
- 前記サンプル画像記憶手段は、人物の向きが異なる複数のサンプル画像を記憶していることを特徴とする請求項1又は請求項2に記載の人物検出装置。
- 前記移動体検出手段は、前記対象距離が所定範囲内である場合に、前記移動体情報を出力することを特徴とする請求項1乃至請求項3のいずれか一項に記載の人物検出装置。
- 複数のカメラで移動体を撮像した複数の撮像画像から、当該撮像画像内に含まれる人物を検出する人物検出方法であって、
前記複数の撮像画像の視差と時系列に入力される撮像画像の差分とに基づいて、前記撮像画像内における前記移動体の領域である対象領域と、当該移動体までの距離である対象距離とを、移動体検出手段により移動体情報として検出するステップと、
前記対象領域において、前記移動体を人物と仮定したときの予め定めた大きさの頭部領域を、頭部領域設定手段により前記対象距離に対応した大きさで設定するステップと、
前記頭部領域に対応するエッジ画像である頭部エッジ画像を、頭部エッジ画像生成手段により生成するステップと、
前記頭部エッジ画像を、サイズ正規化手段により所定サイズの正規化画像に変換するステップと、
前記正規化画像内の隙間を補完した補完画像を、補完手段により生成するステップと、
前記補完画像の重心位置の上下位置を、予めサンプル画像記憶手段に記憶されている人物の前記頭部領域に対応する所定サイズのサンプル画像の重心位置の上下位置に合わせるとともに、前記補完画像の重心位置の左右位置を、前記サンプル画像の重心位置の左右位置に合わせるように、画像シフト手段により前記補完画像をシフトさせるステップと、
シフトされた前記補完画像と、予め前記サンプル画像記憶手段にサンプル画像として記憶してある前記所定サイズの頭部領域の画像との類似度を、類似度算出手段により算出するステップと、
前記類似度に基づいて、判定手段により前記移動体を人物と判定するステップと、
を含んでいることを特徴とする人物検出方法。 - 複数のカメラで移動体を撮像した複数の撮像画像から、当該撮像画像内に含まれる人物を検出するために、コンピュータを、
前記複数の撮像画像の視差と時系列に入力される撮像画像の差分とに基づいて、前記撮像画像内における前記移動体の領域である対象領域と、当該移動体までの距離である対象距離とを移動体情報として検出する移動体検出手段、
この移動体検出手段で検出された対象領域において、前記移動体を人物と仮定したときの予め定めた大きさの頭部領域を、前記対象距離に対応した大きさで設定する頭部領域設定手段、
この頭部領域設定手段で設定された頭部領域に対応するエッジ画像である頭部エッジ画像を生成する頭部エッジ画像生成手段、
この頭部エッジ画像生成手段で生成された頭部エッジ画像を、所定サイズの正規化画像に変換するサイズ正規化手段、
このサイズ正規化手段で変換された正規化画像内の隙間を補完した補完画像を生成する補完手段、
この補完手段で生成された補完画像の重心位置の上下位置を、予めサンプル画像記憶手段に記憶されている人物の前記頭部領域に対応する所定サイズのサンプル画像の重心位置の上下位置に合わせるとともに、前記補完画像の重心位置の左右位置を、前記サンプル画像の重心位置の左右位置に合わせるように、前記補完画像をシフトさせる画像シフト手段、
この画像シフト手段でシフトさせた補完画像と、予め前記サンプル画像記憶手段にサンプル画像として記憶してある前記所定サイズの頭部領域の画像との類似度を算出する類似度算出手段、
この類似度算出手段で算出された類似度に基づいて、前記移動体を人物と判定する判定手段、
として機能させることを特徴とする人物検出プログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005352890A JP4516516B2 (ja) | 2005-12-07 | 2005-12-07 | 人物検出装置、人物検出方法及び人物検出プログラム |
KR1020060122482A KR100859210B1 (ko) | 2005-12-07 | 2006-12-05 | 인물검출장치, 인물검출방법 및 인물검출프로그램을 저장한 컴퓨터 판독가능 기록매체 |
US11/634,315 US7840036B2 (en) | 2005-12-07 | 2006-12-06 | Human being detection apparatus, method of detecting human being, and human being detecting program |
EP06025344A EP1796040A3 (en) | 2005-12-07 | 2006-12-07 | Human being detection apparatus, method of detecting human being, and human being detecting program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005352890A JP4516516B2 (ja) | 2005-12-07 | 2005-12-07 | 人物検出装置、人物検出方法及び人物検出プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007156939A JP2007156939A (ja) | 2007-06-21 |
JP4516516B2 true JP4516516B2 (ja) | 2010-08-04 |
Family
ID=37836627
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005352890A Expired - Fee Related JP4516516B2 (ja) | 2005-12-07 | 2005-12-07 | 人物検出装置、人物検出方法及び人物検出プログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US7840036B2 (ja) |
EP (1) | EP1796040A3 (ja) |
JP (1) | JP4516516B2 (ja) |
KR (1) | KR100859210B1 (ja) |
Families Citing this family (95)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5223069B2 (ja) * | 2007-04-25 | 2013-06-26 | 独立行政法人理化学研究所 | 標本の分析方法およびそれを利用した針状領域の分析装置 |
US8185362B2 (en) * | 2007-05-01 | 2012-05-22 | Siemens Corporation | Integration of fast feedback into systems configuration |
JP4882956B2 (ja) * | 2007-10-22 | 2012-02-22 | ソニー株式会社 | 画像処理装置および画像処理方法 |
JP4871315B2 (ja) * | 2008-03-26 | 2012-02-08 | 富士フイルム株式会社 | 複眼撮影装置およびその制御方法並びにプログラム |
JP4561919B2 (ja) * | 2008-04-21 | 2010-10-13 | ソニー株式会社 | 撮像装置、画像処理装置及び画像処理方法 |
KR101733443B1 (ko) | 2008-05-20 | 2017-05-10 | 펠리칸 이매징 코포레이션 | 이종 이미저를 구비한 모놀리식 카메라 어레이를 이용한 이미지의 캡처링 및 처리 |
US11792538B2 (en) | 2008-05-20 | 2023-10-17 | Adeia Imaging Llc | Capturing and processing of images including occlusions focused on an image sensor by a lens stack array |
US8866920B2 (en) | 2008-05-20 | 2014-10-21 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
WO2010016059A1 (en) * | 2008-08-04 | 2010-02-11 | Lior Friedman | System for automatic production of lectures and presentations for live or on-demand publishing and sharing |
US9214074B1 (en) * | 2008-08-29 | 2015-12-15 | Target Brands, Inc. | Video monitoring system for a path |
WO2010073929A1 (ja) | 2008-12-22 | 2010-07-01 | 日本電気株式会社 | 人判定装置、方法およびプログラム |
JP5214533B2 (ja) * | 2009-05-21 | 2013-06-19 | 富士フイルム株式会社 | 人物追跡方法、人物追跡装置および人物追跡プログラム |
JP5227888B2 (ja) * | 2009-05-21 | 2013-07-03 | 富士フイルム株式会社 | 人物追跡方法、人物追跡装置および人物追跡プログラム |
KR101636370B1 (ko) | 2009-11-10 | 2016-07-05 | 삼성전자주식회사 | 영상 처리 장치 및 방법 |
EP2502115A4 (en) | 2009-11-20 | 2013-11-06 | Pelican Imaging Corp | RECORDING AND PROCESSING IMAGES THROUGH A MONOLITHIC CAMERA ARRAY WITH HETEROGENIC IMAGE CONVERTER |
CN102122343A (zh) * | 2010-01-07 | 2011-07-13 | 索尼公司 | 躯干倾斜角度确定及姿势估计方法和装置 |
US20120012748A1 (en) | 2010-05-12 | 2012-01-19 | Pelican Imaging Corporation | Architectures for imager arrays and array cameras |
JP5413516B2 (ja) * | 2010-08-19 | 2014-02-12 | 日産自動車株式会社 | 立体物検出装置及び立体物検出方法 |
JP5671281B2 (ja) * | 2010-08-20 | 2015-02-18 | キヤノン株式会社 | 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム |
JP5865584B2 (ja) * | 2010-12-07 | 2016-02-17 | 株式会社日立国際電気 | 特定人物検知システムおよび検知方法 |
US8878950B2 (en) | 2010-12-14 | 2014-11-04 | Pelican Imaging Corporation | Systems and methods for synthesizing high resolution images using super-resolution processes |
JP5555193B2 (ja) * | 2011-03-01 | 2014-07-23 | 株式会社メガチップス | データ処理装置、データ処理システム、及びプログラム |
KR101973822B1 (ko) | 2011-05-11 | 2019-04-29 | 포토네이션 케이맨 리미티드 | 어레이 카메라 이미지 데이터를 송신 및 수신하기 위한 시스템들 및 방법들 |
US20130265459A1 (en) | 2011-06-28 | 2013-10-10 | Pelican Imaging Corporation | Optical arrangements for use with an array camera |
US20130070060A1 (en) | 2011-09-19 | 2013-03-21 | Pelican Imaging Corporation | Systems and methods for determining depth from multiple views of a scene that include aliasing using hypothesized fusion |
EP2761534B1 (en) | 2011-09-28 | 2020-11-18 | FotoNation Limited | Systems for encoding light field image files |
EP2817955B1 (en) | 2012-02-21 | 2018-04-11 | FotoNation Cayman Limited | Systems and methods for the manipulation of captured light field image data |
US9210392B2 (en) | 2012-05-01 | 2015-12-08 | Pelican Imaging Coporation | Camera modules patterned with pi filter groups |
US9813666B2 (en) | 2012-05-29 | 2017-11-07 | Qualcomm Incorporated | Video transmission and reconstruction |
JP2015534734A (ja) | 2012-06-28 | 2015-12-03 | ペリカン イメージング コーポレイション | 欠陥のあるカメラアレイ、光学アレイ、およびセンサを検出するためのシステムおよび方法 |
US20140002674A1 (en) | 2012-06-30 | 2014-01-02 | Pelican Imaging Corporation | Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors |
EP3869797B1 (en) | 2012-08-21 | 2023-07-19 | Adeia Imaging LLC | Method for depth detection in images captured using array cameras |
US20140055632A1 (en) | 2012-08-23 | 2014-02-27 | Pelican Imaging Corporation | Feature based high resolution motion estimation from low resolution images captured using an array source |
US9214013B2 (en) | 2012-09-14 | 2015-12-15 | Pelican Imaging Corporation | Systems and methods for correcting user identified artifacts in light field images |
EP2901671A4 (en) | 2012-09-28 | 2016-08-24 | Pelican Imaging Corp | CREATING IMAGES FROM LIGHT FIELDS USING VIRTUAL POINTS OF VIEW |
JP2014089521A (ja) * | 2012-10-29 | 2014-05-15 | Toshiba Corp | 検出装置、映像表示システムおよび検出方法 |
US9143711B2 (en) | 2012-11-13 | 2015-09-22 | Pelican Imaging Corporation | Systems and methods for array camera focal plane control |
US8866612B1 (en) | 2012-12-14 | 2014-10-21 | Target Brands, Inc. | Suppressing alerts for RFID systems |
US9462164B2 (en) | 2013-02-21 | 2016-10-04 | Pelican Imaging Corporation | Systems and methods for generating compressed light field representation data using captured light fields, array geometry, and parallax information |
US9374512B2 (en) | 2013-02-24 | 2016-06-21 | Pelican Imaging Corporation | Thin form factor computational array cameras and modular array cameras |
US9774789B2 (en) | 2013-03-08 | 2017-09-26 | Fotonation Cayman Limited | Systems and methods for high dynamic range imaging using array cameras |
US8866912B2 (en) | 2013-03-10 | 2014-10-21 | Pelican Imaging Corporation | System and methods for calibration of an array camera using a single captured image |
US9521416B1 (en) | 2013-03-11 | 2016-12-13 | Kip Peli P1 Lp | Systems and methods for image data compression |
WO2014164550A2 (en) | 2013-03-13 | 2014-10-09 | Pelican Imaging Corporation | System and methods for calibration of an array camera |
US9888194B2 (en) | 2013-03-13 | 2018-02-06 | Fotonation Cayman Limited | Array camera architecture implementing quantum film image sensors |
US9519972B2 (en) | 2013-03-13 | 2016-12-13 | Kip Peli P1 Lp | Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies |
US9106784B2 (en) | 2013-03-13 | 2015-08-11 | Pelican Imaging Corporation | Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing |
WO2014153098A1 (en) | 2013-03-14 | 2014-09-25 | Pelican Imaging Corporation | Photmetric normalization in array cameras |
WO2014159779A1 (en) | 2013-03-14 | 2014-10-02 | Pelican Imaging Corporation | Systems and methods for reducing motion blur in images or video in ultra low light with array cameras |
US9497429B2 (en) | 2013-03-15 | 2016-11-15 | Pelican Imaging Corporation | Extended color processing on pelican array cameras |
US10122993B2 (en) | 2013-03-15 | 2018-11-06 | Fotonation Limited | Autofocus system for a conventional camera that uses depth information from an array camera |
WO2014150856A1 (en) | 2013-03-15 | 2014-09-25 | Pelican Imaging Corporation | Array camera implementing quantum dot color filters |
US9438888B2 (en) | 2013-03-15 | 2016-09-06 | Pelican Imaging Corporation | Systems and methods for stereo imaging with camera arrays |
US9633442B2 (en) | 2013-03-15 | 2017-04-25 | Fotonation Cayman Limited | Array cameras including an array camera module augmented with a separate camera |
US9445003B1 (en) | 2013-03-15 | 2016-09-13 | Pelican Imaging Corporation | Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information |
KR101501487B1 (ko) * | 2013-07-18 | 2015-03-12 | 전자부품연구원 | 깊이 영상 기반 머리 검출방법 및 장치 |
WO2015048694A2 (en) | 2013-09-27 | 2015-04-02 | Pelican Imaging Corporation | Systems and methods for depth-assisted perspective distortion correction |
US9185276B2 (en) | 2013-11-07 | 2015-11-10 | Pelican Imaging Corporation | Methods of manufacturing array camera modules incorporating independently aligned lens stacks |
US10119808B2 (en) | 2013-11-18 | 2018-11-06 | Fotonation Limited | Systems and methods for estimating depth from projected texture using camera arrays |
WO2015081279A1 (en) | 2013-11-26 | 2015-06-04 | Pelican Imaging Corporation | Array camera configurations incorporating multiple constituent array cameras |
WO2015133159A1 (ja) * | 2014-03-05 | 2015-09-11 | コニカミノルタ株式会社 | 画像処理装置、画像処理方法、および、画像処理プログラム |
WO2015134996A1 (en) | 2014-03-07 | 2015-09-11 | Pelican Imaging Corporation | System and methods for depth regularization and semiautomatic interactive matting using rgb-d images |
US9247117B2 (en) | 2014-04-07 | 2016-01-26 | Pelican Imaging Corporation | Systems and methods for correcting for warpage of a sensor array in an array camera module by introducing warpage into a focal plane of a lens stack array |
US9521319B2 (en) | 2014-06-18 | 2016-12-13 | Pelican Imaging Corporation | Array cameras and array camera modules including spectral filters disposed outside of a constituent image sensor |
EP3201877B1 (en) | 2014-09-29 | 2018-12-19 | Fotonation Cayman Limited | Systems and methods for dynamic calibration of array cameras |
KR20160118783A (ko) * | 2015-04-03 | 2016-10-12 | 한화테크윈 주식회사 | 사람 계수 방법 및 장치 |
US9942474B2 (en) | 2015-04-17 | 2018-04-10 | Fotonation Cayman Limited | Systems and methods for performing high speed video capture and depth estimation using array cameras |
CN105118073A (zh) * | 2015-08-19 | 2015-12-02 | 南京理工大学 | 基于Xtion摄像机的人体头部目标识别方法 |
JP6587489B2 (ja) * | 2015-10-07 | 2019-10-09 | キヤノン株式会社 | 画像処理装置、画像処理方法および画像処理システム |
CN108292469B (zh) * | 2015-12-09 | 2021-02-05 | 笠原一 | 位置信息确定方法、装置以及计算机存储介质 |
WO2017099199A1 (ja) * | 2015-12-10 | 2017-06-15 | 株式会社リコー | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム |
US20170270378A1 (en) * | 2016-03-16 | 2017-09-21 | Haike Guan | Recognition device, recognition method of object, and computer-readable recording medium |
JP6604908B2 (ja) * | 2016-06-10 | 2019-11-13 | キヤノン株式会社 | 画像処理装置、その制御方法、および制御プログラム |
WO2017221644A1 (ja) * | 2016-06-22 | 2017-12-28 | ソニー株式会社 | 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム |
EP3298874B1 (en) * | 2016-09-22 | 2020-07-01 | Honda Research Institute Europe GmbH | Robotic gardening device and method for controlling the same |
CN107355161B (zh) * | 2017-06-28 | 2019-03-08 | 比业电子(北京)有限公司 | 用于全高式屏蔽门的安全保护装置 |
US10482618B2 (en) | 2017-08-21 | 2019-11-19 | Fotonation Limited | Systems and methods for hybrid depth regularization |
DE102018103092A1 (de) * | 2018-02-12 | 2019-08-14 | Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg | Fokuseinstellungs-Anzeigeeinheit |
JP2020013220A (ja) * | 2018-07-13 | 2020-01-23 | 株式会社神戸製鋼所 | 建設機械用の物体検出装置及び物体検出方法 |
US11681415B2 (en) * | 2018-10-31 | 2023-06-20 | Apple Inc. | Near-viewing notification techniques |
MX2022003020A (es) | 2019-09-17 | 2022-06-14 | Boston Polarimetrics Inc | Sistemas y metodos para modelado de superficie usando se?ales de polarizacion. |
KR20230004423A (ko) | 2019-10-07 | 2023-01-06 | 보스턴 폴라리메트릭스, 인크. | 편광을 사용한 표면 법선 감지 시스템 및 방법 |
WO2021108002A1 (en) | 2019-11-30 | 2021-06-03 | Boston Polarimetrics, Inc. | Systems and methods for transparent object segmentation using polarization cues |
US11195303B2 (en) | 2020-01-29 | 2021-12-07 | Boston Polarimetrics, Inc. | Systems and methods for characterizing object pose detection and measurement systems |
KR20220133973A (ko) | 2020-01-30 | 2022-10-05 | 인트린식 이노베이션 엘엘씨 | 편광된 이미지들을 포함하는 상이한 이미징 양식들에 대해 통계적 모델들을 훈련하기 위해 데이터를 합성하기 위한 시스템들 및 방법들 |
WO2021243088A1 (en) | 2020-05-27 | 2021-12-02 | Boston Polarimetrics, Inc. | Multi-aperture polarization optical systems using beam splitters |
CN112488018A (zh) * | 2020-12-09 | 2021-03-12 | 巽腾(广东)科技有限公司 | 双目活体检测方法、装置、设备和存储介质 |
CN112614160B (zh) * | 2020-12-24 | 2021-08-31 | 中标慧安信息技术股份有限公司 | 多对象人脸跟踪方法和系统 |
US12020455B2 (en) | 2021-03-10 | 2024-06-25 | Intrinsic Innovation Llc | Systems and methods for high dynamic range image reconstruction |
US12069227B2 (en) | 2021-03-10 | 2024-08-20 | Intrinsic Innovation Llc | Multi-modal and multi-spectral stereo camera arrays |
US11954886B2 (en) | 2021-04-15 | 2024-04-09 | Intrinsic Innovation Llc | Systems and methods for six-degree of freedom pose estimation of deformable objects |
US11290658B1 (en) | 2021-04-15 | 2022-03-29 | Boston Polarimetrics, Inc. | Systems and methods for camera exposure control |
US12067746B2 (en) | 2021-05-07 | 2024-08-20 | Intrinsic Innovation Llc | Systems and methods for using computer vision to pick up small objects |
US11689813B2 (en) | 2021-07-01 | 2023-06-27 | Intrinsic Innovation Llc | Systems and methods for high dynamic range imaging using crossed polarizers |
JP7187629B1 (ja) | 2021-08-06 | 2022-12-12 | 東芝エレベータ株式会社 | エレベータの利用者検知システム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000222576A (ja) * | 1999-01-29 | 2000-08-11 | Nec Corp | 人物識別方法及び装置と人物識別プログラムを記録した記録媒体ならびにロボット装置 |
JP2003108980A (ja) * | 2001-09-28 | 2003-04-11 | Mitsubishi Electric Corp | 頭部領域抽出装置およびリアルタイム表情追跡装置 |
JP2004171189A (ja) * | 2002-11-19 | 2004-06-17 | Honda Motor Co Ltd | 移動物体検出装置、移動物体検出方法及び移動物体検出プログラム |
JP2005071344A (ja) * | 2003-08-07 | 2005-03-17 | Matsushita Electric Ind Co Ltd | 画像処理方法、画像処理装置及び画像処理プログラムを記録した記録媒体 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2119327A1 (en) * | 1993-07-19 | 1995-01-20 | David Crawford Gibbon | Method and means for detecting people in image sequences |
US6184926B1 (en) * | 1996-11-26 | 2001-02-06 | Ncr Corporation | System and method for detecting a human face in uncontrolled environments |
JPH1166319A (ja) | 1997-08-21 | 1999-03-09 | Omron Corp | 移動体検出方法及び装置並びに移動体認識方法及び装置並びに人間検出方法及び装置 |
DE19810792A1 (de) * | 1998-03-12 | 1999-09-16 | Zentrum Fuer Neuroinformatik G | Verfahren zum Verifizieren der Authentizität eines im Rahmen einer Personenerkennung aufgenommenen Bildes |
JP4072033B2 (ja) * | 2002-09-24 | 2008-04-02 | 本田技研工業株式会社 | 受付案内ロボット装置 |
JP2004164563A (ja) * | 2002-09-26 | 2004-06-10 | Toshiba Corp | 画像解析方法、画像解析装置、画像解析プログラム |
US7251346B2 (en) * | 2002-11-19 | 2007-07-31 | Honda Motor Co., Ltd. | Moving object detection device, moving object detection method, and moving object detection program |
JP3734793B2 (ja) | 2002-12-09 | 2006-01-11 | 三菱電機株式会社 | 人物検出装置 |
JP4231320B2 (ja) * | 2003-03-31 | 2009-02-25 | 本田技研工業株式会社 | 移動体の検出装置 |
DE602004006190T8 (de) * | 2003-03-31 | 2008-04-10 | Honda Motor Co., Ltd. | Vorrichtung, Verfahren und Programm zur Gestenerkennung |
EP1640917B1 (en) * | 2003-07-01 | 2017-06-14 | Honda Motor Co., Ltd. | Contour extracting device, contour extracting method, and contour extracting program |
JP2005128815A (ja) | 2003-10-24 | 2005-05-19 | Matsushita Electric Ind Co Ltd | 人物検出装置及び人物検出方法 |
JP3879732B2 (ja) * | 2003-11-27 | 2007-02-14 | コニカミノルタホールディングス株式会社 | 物体検出装置、物体検知方法、およびコンピュータプログラム |
US7376250B2 (en) * | 2004-01-05 | 2008-05-20 | Honda Motor Co., Ltd. | Apparatus, method and program for moving object detection |
JP4317465B2 (ja) * | 2004-02-13 | 2009-08-19 | 本田技研工業株式会社 | 顔識別装置、顔識別方法及び顔識別プログラム |
US20050196015A1 (en) * | 2004-03-02 | 2005-09-08 | Trw Automotive U.S. Llc | Method and apparatus for tracking head candidate locations in an actuatable occupant restraining system |
US20060140445A1 (en) * | 2004-03-22 | 2006-06-29 | Cusack Francis J Jr | Method and apparatus for capturing digital facial images optimally suited for manual and automated recognition |
JP4069932B2 (ja) | 2005-05-23 | 2008-04-02 | オムロン株式会社 | 人間検知装置および人間検知方法 |
-
2005
- 2005-12-07 JP JP2005352890A patent/JP4516516B2/ja not_active Expired - Fee Related
-
2006
- 2006-12-05 KR KR1020060122482A patent/KR100859210B1/ko not_active IP Right Cessation
- 2006-12-06 US US11/634,315 patent/US7840036B2/en not_active Expired - Fee Related
- 2006-12-07 EP EP06025344A patent/EP1796040A3/en not_active Ceased
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000222576A (ja) * | 1999-01-29 | 2000-08-11 | Nec Corp | 人物識別方法及び装置と人物識別プログラムを記録した記録媒体ならびにロボット装置 |
JP2003108980A (ja) * | 2001-09-28 | 2003-04-11 | Mitsubishi Electric Corp | 頭部領域抽出装置およびリアルタイム表情追跡装置 |
JP2004171189A (ja) * | 2002-11-19 | 2004-06-17 | Honda Motor Co Ltd | 移動物体検出装置、移動物体検出方法及び移動物体検出プログラム |
JP2005071344A (ja) * | 2003-08-07 | 2005-03-17 | Matsushita Electric Ind Co Ltd | 画像処理方法、画像処理装置及び画像処理プログラムを記録した記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
KR20070060002A (ko) | 2007-06-12 |
EP1796040A3 (en) | 2011-11-23 |
US7840036B2 (en) | 2010-11-23 |
US20070165931A1 (en) | 2007-07-19 |
EP1796040A2 (en) | 2007-06-13 |
KR100859210B1 (ko) | 2008-09-18 |
JP2007156939A (ja) | 2007-06-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4516516B2 (ja) | 人物検出装置、人物検出方法及び人物検出プログラム | |
US11360571B2 (en) | Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data | |
JP4328286B2 (ja) | 顔領域推定装置、顔領域推定方法及び顔領域推定プログラム | |
US9031282B2 (en) | Method of image processing and device therefore | |
JP4235018B2 (ja) | 移動物体検出装置、移動物体検出方法及び移動物体検出プログラム | |
JP2006236184A (ja) | 画像処理による人体検知方法 | |
JP3952460B2 (ja) | 移動物体検出装置、移動物体検出方法及び移動物体検出プログラム | |
JP2010262576A (ja) | 対象物検出装置及びプログラム | |
JP4272538B2 (ja) | 移動物体検出装置、移動物体検出方法及び移動物体検出プログラム | |
CN109074646B (zh) | 图像识别装置以及图像识别程序 | |
EP3522115A1 (en) | Medium recognition device and medium recognition method | |
JP5217917B2 (ja) | 物体検知追跡装置,物体検知追跡方法および物体検知追跡プログラム | |
JP4272539B2 (ja) | 移動物体検出装置、移動物体検出方法、および移動物体検出プログラム | |
JP5470529B2 (ja) | 動き検出装置、動き検出方法及び動き検出プログラム | |
JP2007272785A (ja) | 画像処理式車両検出装置及び画像処理式車両検出方法 | |
JP6565650B2 (ja) | 物体検出装置および物体検出方法 | |
JP5614100B2 (ja) | 画像処理装置及び移動体位置推定方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071128 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100204 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100209 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100409 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100511 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100514 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4516516 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130521 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130521 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140521 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |