JP2005149145A - 物体検出装置、物体検出方法、およびコンピュータプログラム - Google Patents
物体検出装置、物体検出方法、およびコンピュータプログラム Download PDFInfo
- Publication number
- JP2005149145A JP2005149145A JP2003385847A JP2003385847A JP2005149145A JP 2005149145 A JP2005149145 A JP 2005149145A JP 2003385847 A JP2003385847 A JP 2003385847A JP 2003385847 A JP2003385847 A JP 2003385847A JP 2005149145 A JP2005149145 A JP 2005149145A
- Authority
- JP
- Japan
- Prior art keywords
- image
- template
- detecting
- matching
- templates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】画像の中から目標の物体を従来よりも確実にかつ高速に検出する。
【解決手段】画像の中から人体を検出する人体検出装置1に、人体のモデルの輪郭の一部または人体の部位を表す開曲線からなるテンプレートTP1、TP2を記憶するテンプレート管理部102と、検出の対象とする画像を入力する画像データ受信部101と、入力された画像に対して複数のテンプレートTP1、TP2を用いてマッチングを行うことによって、その画像の中から人体を検出する頭部位置検出部103と、を設ける。
【選択図】図3
【解決手段】画像の中から人体を検出する人体検出装置1に、人体のモデルの輪郭の一部または人体の部位を表す開曲線からなるテンプレートTP1、TP2を記憶するテンプレート管理部102と、検出の対象とする画像を入力する画像データ受信部101と、入力された画像に対して複数のテンプレートTP1、TP2を用いてマッチングを行うことによって、その画像の中から人体を検出する頭部位置検出部103と、を設ける。
【選択図】図3
Description
本発明は、画像の中から目標の物体を検出する物体検出装置および方法に関する。
従来より、画像の中から目標の物体を検出するための様々な方法が提案されている。例えば、画像の中から人体を検出する方法として、特許文献1、2に記載されるような方法が提案されている。
特許文献1に記載される方法によると、人の頭部を楕円形と見立て、楕円テンプレートを用いて、ハフ(Hough)変換の一種である投票処理を行って画像の中から頭部(楕円形状)を検出することによって、人体を検出する。
特許文献2に記載される方法によると、画像に表れた輪郭(エッジ)上の複数の点においてエッジの方向性を特徴量として算出し、これらの特徴量を総合評価することによって人体を検出する。
しかし、特許文献1に記載される方法では、検出対象である人体の一部にオクルージョンが生じている場合、人体の姿勢が傾いている場合、または衣類や装飾品などによって人体の輪郭に通常とは異なる形状(不規則性)が生じている場合などには、頭部を上手く検出することができないことが多い。つまり、このような場合には、人体の検出精度が低下する。
特許文献2に記載される方法では、人体の各部位の方向性(特定の方向を向いているか否か)のみに依存して人体を検出しようとしているので、テンプレートを多数用意しておかなければならず、処理に時間が掛かってしまう。
すなわち、例えば、人体の姿勢が傾いている場合には、各部位の方向性が変化するので、上手く人体を検出できなくなる。このような場合に対応するために、人体の姿勢の違いに応じた多数のモデルおよびテンプレートを用意しておき、これらのテンプレートで検知の処理を行わなければならない。したがって、処理に時間が掛かってしまう。
特開2001−222719号公報
特開2001−175868号公報
本発明は、上記の問題点に鑑み、画像の中から目標の物体を従来よりも確実にかつ高速に検出することを目的とする。
本発明に係る物体検出装置は、画像の中から目標の物体を検出する物体検出装置であって、前記物体のモデルの輪郭の一部または当該モデルの部位を表す開曲線からなるテンプレートを記憶するテンプレート記憶手段と、検出の対象とする画像を入力する画像入力手段と、入力された画像に対して複数の前記テンプレートによる固定形状とのマッチング度を算出することによって、当該入力された画像の中から前記物体を検出する検出手段と、を有することを特徴とする。
または、入力された画像に対して前記テンプレートを用いてマッチングを行うことによって、入力された画像の画像領域ごとの、当該テンプレートの一致の度合いを算出する度合い算出手段と、互いに異なる複数の前記テンプレートを用いてマッチングを行うことによって当該テンプレートごとに算出される、前記入力された画像の画像領域ごとの前記度合いに基づいて、前記物体を検出する検出手段と、を有する。
または、入力された画像のエッジ画像を生成するエッジ画像生成手段と、生成された前記エッジ画像に対して前記テンプレートを用いてマッチングを行うことによって、当該エッジ画像の画像領域ごとに前記物体の位置への近さを求める、近さ算出手段と、互いに異なる複数の前記テンプレートを用いてトマッチングを行うことによって当該テンプレートごとに算出される、前記エッジ画像の画像領域ごとの前記近さに基づいて、前記物体を検出する検出手段と、を有する。前記近さは数値によって表され、前記検出手段は、前記テンプレートごとに算出される、前記エッジ画像の画像領域ごとの前記近さを表す数値を、同じ画像領域のもの同士で加算し、それらの加算値のピークを調べることによって前記物体を検出する、ようにしてもよい。
前記テンプレートとして、特に、形状が特徴的であり、物体全体に対するサイズが小さく、かつ動作中の形状の変動の小さい部分の固定形状を用いるのが望ましい。また、オクルージョンが生じるような状況でも、物体の特徴が表れるものが望ましい。例えば、検出の目標物が歩いている人である場合は、頭部の上半分、肩、顎、耳、または股下、目、眉毛、鼻、または口などの輪郭または形状をしたテンプレートを用いるのが望ましい。または、左右の肩をそれぞれ表す2本の線からなるテンプレートまたは鼻および左右の耳をそれぞれ表す3本の線からなるテンプレートのように、複数の線からなるテンプレートを用いてもよい。
前記近さを表す数値の加算する方法として、例えば、単に数値を合計するだけの方法(計算方法)であってもよい。または、各数値をマッチングに用いたテンプレートの個数で割っておき、それを合計してもよい。つまり、平均値を求めてもよい。テンプレートごとに予め重み付けをしておき、その重みに応じた係数を各数値に乗じ、それを合計してもよい。
本発明によると、画像の中から目標の物体を従来よりも確実にかつ高速に検出することができる。
図1は監視システム100の全体的な構成の例を示す図、図2は人体検出装置1のハードウェア構成の例を示す図、図3は人体検出装置1の機能的構成の例を示す図、図4はビデオカメラ2で撮影して得られた画像Gの例を示す図、図5はテンプレートTP1、TP2の例を示す図、図6はテンプレートTP1、TP2の作成方法の例を説明する図、図7は頭部位置検出部103の構成の例を示す図、図8は上半身画像GKの例を示す図、図9はエッジ画像作成処理の流れの例を説明するフローチャート、図10はSOBELフィルタについて説明する図、図11はエッジ画像GEの例を示す図、図12は投票処理の流れの例を説明するフローチャート、図13は投票処理の際のテンプレートによるマッチングの方法を説明する図、図14は中心度プレーンPTを作成する方法を説明する図である。
図1に示すように、監視システム100は、本発明に係る人体検出装置1、ビデオカメラ2、および通信回線3などによって構成される。人体検出装置1とビデオカメラ2とは、通信回線3を介して互いに接続されている。通信回線3として、LAN、公衆回線、専用線、またはインターネットなどが用いられる。
ビデオカメラ2は、CCDなどのイメージセンサ、光学系、外部の装置とデータの送受信を行うためのインタフェース、および制御用回路などを備えており、撮影によって得られた画像を画像データ70として人体検出装置1に送信する。
このビデオカメラ2は、店舗、地下街、ビル、またはイベント会場などの施設の通路または出入口、繁華街、または銀行のATMコーナなどのように、人が通行しまたは訪れる場所の天井などに設置される。以下、ビデオカメラ2が施設の通路STに設置され、その通路STの様子を監視するために使用される場合を例に説明する。
人体検出装置1は、図2に示すように、CPU1a、RAM1b、ROM1c、磁気記憶装置(ハードディスク)1d、通信インタフェース1e、表示装置1f、およびマウスまたはキーボードなどの入力装置1gなどによって構成される。
磁気記憶装置1dには、図3に示すように、画像データ受信部101、テンプレート管理部102、頭部位置検出部103、頭部画像表示部104、および頭部画像保存部105などの機能を実現するためのプログラムおよびデータがインストールされている。これらのプログラムおよびデータは必要に応じてRAM1bにロードされ、CPU1aによってプログラムが実行される。
この人体検出装置1は、施設の管理室などに設置されており、警備員が管理室に居ながら通路STの様子を監視するために使用される。また、ビデオカメラ2によって撮影された画像に写っている通行人の頭部を検出し、頭部を拡大表示しまたは頭部の画像(映像)を保存しておくことができる。人体検出装置1として、ワークステーションまたはパーソナルコンピュータなどが用いられる。
以下、ビデオカメラ2で撮影された画像から歩行者の頭部を検出する際の、図3に示す人体検出装置1の各部の処理内容などについて説明する。
画像データ受信部101は、ビデオカメラ2から送信されてきた画像データ70を受信する。これにより、ビデオカメラ2の撮影速度に応じたフレーム数(コマ数)の、図4に示すような画像G(映像)が得られる。
テンプレート管理部102は、画像Gに写っている歩行者Hの頭部の位置を検出するために使用する複数のテンプレートTPをテンプレートデータベースに登録し管理する。本実施形態では、図5に示すような2つのテンプレートTP1、TP2を管理している。テンプレートTP1は人の頭部の上半分の形状(半楕円形)をしたテンプレートであり、テンプレートTP2は人の両肩の形状をしたテンプレートである。これらのテンプレートTP1、TP2は、例えば、次のようにして作成される。
まず、通路STの基準位置L1(図1参照)にモデルとなる人を立たせ、ビデオカメラ2によって撮影を行う。モデルとなる人は、標準的な体型であることが望ましい。図6(a)に示すように、撮影によって得られた画像の中のモデルの輪郭部分に注目する。
図6(b)に示すように、輪郭部分の中から頭部の上半分を示す1本の開曲線および両肩を示す2本の開曲線をそれぞれエッジEG1、EG2(以下、「エッジEG」と総称することがある。)として抽出する。この際に、エッジEG1、EG2から離れた所定の位置をそれぞれ基準点CT1、CT2として定めておき、この基準点CT1、CT2もエッジEG1、EG2とともに抽出する。これにより、図6(b)(c)に示すようなテンプレート画像が得られる。なお、基準点CT1、CT2をそれぞれエッジEG1、EG2上の所定の位置に定めてもよい。そして、エッジEG1、EG2をそれぞれ基準点CT1、CT2を中心に半回転(180度回転)させる。これにより、テンプレートTP1、TP2のテンプレート画像が作成される。
また、テンプレートTPには、そのテンプレートTPの基準点からモデルの頭部の中心CT0までのベクトルを示す位置関係情報SIが対応付けられている。テンプレートTP1、TP2の位置関係情報SIは、それぞれ、図6(a)に示すベクトルα1、α2となる。位置関係情報SIは、後に説明するテンプレートによるマッチングの際に位置のずれを直すため(オフセット(HOFFSETまたはVOFFSET)の調整のため)に用いられる。以上のようにして、テンプレートTP1、TP2が作成される。
図3に戻って、頭部位置検出部103は、図7に示すように、上半身画像抽出部201、エッジ画像生成部202、投票処理部203、および中心決定部204などによって構成される。このような構成により、通路STを通行する歩行者Hの頭部の位置を求める処理を行う。
上半身画像抽出部201は、画像データ受信部101によって得られた画像Gから歩行者Hの上半身が写っていると想定される所定の画像領域(図4の点線で囲んだ領域)を抽出し、抽出した上半身の画像領域を所定の倍率で拡大する。これにより、図8に示すように、通路STを通行している歩行者Hの上半身画像GKが得られる。
エッジ画像生成部202は、図9に示すような手順で、上半身画像抽出部201で得られた上半身画像GKのエッジ画像(輪郭画像)を生成する。
まず、その上半身画像GKおよびその直前の時刻における上半身画像GK’についてそれぞれ明度画像(濃淡画像)を生成する(図9の#101)。これら2つの明度画像の互いに対応する画素同士の差分(フレーム差分)を求める。つまり、時間差分を求め、時間差分画像を生成する(#102)。これと並行してまたは前後して、上半身画像GKの明度画像の中の、明度の変化の強さ(エッジの強さ)を示す空間差分画像を生成する(#103)。空間差分画像は、明度画像の各画素Pijおよびその周辺の画素Pについて、図10に示すように、上半身画像GKに対し、水平SOBELフィルタおよび垂直SOBELフィルタをそれぞれ掛け、得られた画像FshおよびFsvを下記の(1)式に代入することによって求められる。
ただし、Fshは水平SOBELフィルタによる出力結果であり、Fsvは垂直SOBELフィルタによる出力結果である。
ステップ#102、#103でそれぞれ求められた時間差分画像および空間差分画像の互いに対応する画素同士の論理積を算出する(#104)。これにより、図11に示すような上半身画像GKのエッジ画像GEが生成される。なお、図11および後に説明する各図のエッジ画像GEは、見やすくするために、白黒を反転させている。
図7に戻って、投票処理部203は、図12に示すような手順で投票処理を実行することにより、エッジ画像GEの各画素について歩行者Hの頭部の中心らしさ、すなわち、中心までの近さを示す度合いを求める。以下、係る度合いを「中心度」と記載する。ここでは、図5(a)のテンプレートTP1を使用する場合を例に説明する。
図12に示すように、まず、エッジ画像GEの各画素にそれぞれカウンタを設定し、すべてのカウンタを「0」にリセットしておく(#121)。
図13(a)に示すように、エッジ画像GEのエッジRN(輪郭線)上の任意の1つの画素に注目し(以下、注目した画素を「注目画素」と記載する。)、注目画素とテンプレートTP1の基準点CT1とが一致するように、エッジ画像GEの上にテンプレートTP1のテンプレート画像を重ねる(#122、#123)。
このときにテンプレートTP1のエッジEG1と重なったエッジ画像GEの画素に対して、位置関係情報SIに基づいてオフセット調整(ずれの調整)を行う(#124)。すなわち、エッジEG1と重なったこれらの画素(図13(b)の拡大図において斜線で示す画素)からベクトルα1(図6(a)参照)だけ移動した位置の画素を求める。
そして、求められた画素に1票を投じる。(#125)。つまり、その画素のカウンタに「1」を加算する。
なお、図13(b)において、太枠の正方形はエッジ画像GEのエッジRN上の画素を示し、黒く塗りつぶした正方形は注目画素を示し、斜線で塗りつぶした正方形はテンプレートTP1のエッジEG1が重なった画素を示している。
同様に他のエッジRN上の画素についても注目し(#127)、テンプレートTP1を重ね合わせ(#123)、オフセット調整を行い(#124)、カウント(投票)を行う(#125)。そして、すべてのエッジRN上の画素についてステップ#123〜#125の処理が終了したときに(#126でYes)、中心度に関する投票を終了する。図5(b)のテンプレートTP2を使用する場合も、図12に示す手順で投票を行う。なお、図12の処理においてエッジEG1と重なった回数が多い画素ほどテンプレートTP1との一致(マッチング)の度合いが高く、より多くの票が投じられた画素ほど中心度が高いと言える。
図7に戻って、中心決定部204は、複数のテンプレートTPによる投票結果に基づいて歩行者Hの頭部の中心を決定する。係る処理は、図14に示すような手順で行われる。ここでは、図5(a)(b)に示すテンプレートTP1、TP2による投票結果に基づいて頭部の中心を決定する場合を例に説明する。
まず、テンプレートTP1による投票結果に基づいて、エッジ画像GEの各画素にその得票数の多さを表す濃淡を付け、半楕円検出度プレーンP1を生成する(図14の#131)。本実施形態では、得票数が多いほど濃く(黒く)なるようにしている。同様に、ステップ#131と並行してまたは前後して、テンプレートTP1による投票結果に基づいて肩形状検出度プレーンP2を生成する(#132)。
半楕円検出度プレーンP1および肩形状検出度プレーンP2の互いに対応する画素のプレーン値(濃度の値)同士を加算し、中心度プレーンPTを生成する(#133)。そして、中心度プレーンPTに現れる濃さのピーク(頂上)にある画素または領域を歩行者Hの頭部の中心であると決定する。以上のようにして、歩行者Hの頭部の中心位置を見つけることができる。なお、図14では、各プレートの濃さの分布を6階調で示しているが、実際には、もっと多くの階調で濃さの分布が現れる。また、図面の見やすさのため濃淡表示は省略しているが、実際には、等高線で囲まれた領域が狭くなるに連れて濃度が濃くなっている。
図3に戻って、頭部画像表示部104は、頭部位置検出部103による検出結果に基づいて、画像Gより歩行者Hの頭部の領域を抽出して拡大し、これを拡大画像として表示装置1f(図2参照)に表示する。これにより、監視員は、歩行者Hを容易に特定することができる。また、頭部画像保存部105は、歩行者Hの頭部の拡大画像を磁気記憶装置1dまたは外部の記録媒体(DVD−ROM、MO、CD−Rなど)に保存(録画)する。
図15は人体検出装置1の処理の流れの例を説明するフローチャート、図16は頭部検出処理の流れの例を説明するフローチャートである。次に、通路STの監視を行う際の人体検出装置1の処理の流れを、フローチャートを参照して説明する。
図15に示すように、通路STの監視を開始すると、人体検出装置1は、まず、時刻T=T0におけるビデオカメラ2のフレーム画像(画像G)を入力し(#11)、その画像の明度画像を作成する(#12)。
次の時刻(例えば撮影速度が毎秒30フレームであれば1/30秒後)の画像Gを入力し(#14)、その画像Gから歩行者Hの頭部を検出する処理を行う(#15)。係る処理は、図16に示す手順で行われる。
すなわち、入力された画像Gおよびその前の時刻の画像Gを用いてエッジ画像GEを生成し(#21)、そのエッジ画像GEの各画素に対して頭部の中心度の投票を行う(#22)。投票は、複数のテンプレートTP(例えば、図5のテンプレートTP1、TP2)を用いて行う。ステップ#21、#22の処理の詳細は、それぞれ図9、図12で説明した通りである。
これらのテンプレートTPによる投票の結果に基づいて図14に示すような半楕円検出度プレーンP1、肩形状検出度プレーンP2を生成し、互いに対応する画素のプレーン値同士を加算し、中心度プレーンPTを生成する(#23)。そして、中心度プレーンPTのピーク(頂点)となる画素または領域を頭部の中心である決定する(#24)。
このように中心度を求めることによって、画像Gのいずれの位置に歩行者Hの頭部の中心が写っているのかが検出される。なお、画像Gに歩行者Hが写っていない場合は、エッジ画像GEは得られない(真っ黒な画像になる)ので、当然、テンプレートによるマッチングを行ってもその歩行者Hの頭部の中心は検出されない。
以下、ビデオカメラ2によって画像Gが入力されるごとに、順次、ステップ#14、#15の処理を繰り返す(#13でNo)。このようにして、ビデオカメラ2によって得られる画像(映像)から、通路STを通行する歩行者Hの頭部の位置を検出することができる。
図17は検出精度が低下しやすい状況の例を示す図、図18はマッチングの処理の時間が掛かりやすいテンプレートTP3の例を示す図、図19はテンプレートTPの変形例を示す図である。
本実施形態によると、頭部の上半分の形状をしたテンプレートTP1および両肩の形状をしたテンプレートTP2を用いてマッチングを行い、これらの結果に基づいて頭部の中心度を検出した。よって、頭部の中心を従来よりも確実に検出することができる。
すなわち、例えば、図17に示すように、身体の一部が標準的な姿勢(真っ直ぐに立った姿勢)から変化し、帽子などを身につけて体の輪郭線が見えなくなり、または身体の一部が家具などの物体に隠れてしまう(オクルージョンが発生している)ことなどが原因で、一部のマッチングの結果の精度が低くなっても、他のマッチングの結果によってこれを補い、上手く目的物の中心を検索することができる。その他、服のたるみや特殊な髪型のせいで身体の輪郭が標準的なものでなくなったり、持ち物に隠れたりした場合にも、上手く目的物の中心を検索することができる。
また、頭部の上半分および両肩のような小さくかつ特徴的なテンプレートTPを用いてマッチングを行うので、処理が高速でありかつ精度が高い。すなわち、例えば、図18に示すような1つの大きなテンプレートTP3を用いて中心度プレーンを算出しても、テンプレートTP1、TP2をそれぞれ用いて中心度を算出しこれらを加算して求めた中心度プレーンPT(図14参照)と同じ結果になる。しかし、本実施形態のように、小さいテンプレートTPごとに分割マッチングを行うことによって、1つの大きなテンプレートTPによるマッチングを行う場合よりも処理時間を大きく短縮することができる。
また、入力画像(図4参照)の全体に対してテンプレートのマッチングを行うのではなく、エッジ画像のエッジ部分に対してのみマッチングを行うので、処理時間を短縮することができる。
図19に示すような、モデルの頭部の中心CT0と基準点CT4、CT5とが一致するようにしたテンプレートTP4、TP5を用いて中心度の算出を行ってもよい。この場合は、オフセット値(中心CT0と基準点CT4、CT5との距離)がゼロになるので、マッチングの際にずれの調整(図12の#124)を行う必要がなくなる。
時間差分画像および空間差分画像を生成する際および頭部の中心を検出する際に用いられる閾値などは、経験的に得られまたは実験によって得られた値としてもよいし、入力される画像Gごとに適宜動的に算出するようにしてもよい。歩行者Hの頭部の中心の位置を検出する代わりに胸または腹の中心の位置を検出してもよい。本実施形態では、SOBELフィルタを用いてエッジ画像を生成したが、他の方法で生成してもよい。例えば、2次微分やブロックマッチングなどを用いて生成してもよい。
本実施形態では、画像に写っている人の頭部の中心を検出するために、その画像の画素ごとに中心度を算出したが、所定の大きさ(例えば、3×3画素など)の画像領域ごとに中心度を算出するようにしてもよい。
本実施形態では、頭部の上半分の形状をしたテンプレートおよび両肩の形状をしたテンプレートを用いてマッチングを行ったが、これ以外のテンプレートを用いてもよい。例えば、顎、耳、または股下などのような人の身体の輪郭の一部または目、眉毛、鼻、または口などのような身体の部位のテンプレートを作成しておき、用いてもよい。
本実施形態では、頭部のテンプレートTP1と両肩のテンプレートTP2とを組み合わせて用いたが、これ以外の組合せであってもよい。例えば、頭部の上半分の形状をしたテンプレートと股下の形状をしたテンプレートとを組み合わせて用いてもよいし、3つ以上のテンプレートを用いてもよい。
テンプレートTPをMO、CD−R、DVD−ROM、ハードディスク、またはフロッピィディスクなどの記録媒体に記録しておき、他の人体検出装置1にも提供できるようにしてもよい。
本発明に係る人体検出装置1を使用して、人間の人体以外のもの、例えば、動物の身体または自動車やオートバイなどの物体を検出することも可能である。
その他、監視システム100、人体検出装置1、ビデオカメラ2の全体または各部の構成、中心度の算出方法、処理内容、処理順序などは、本発明の趣旨に沿って適宜変更することができる。
本発明によると、所定の場所を通過する歩行者をより正確に計数するためや、その歩行者の頭部(顔)をより正確にかつ短時間で検出して拡大表示しまたは頭部の画像(顔画像)を保存するために用いることができる。よって、本発明は、特に、施設のセキュリティ管理のためなどに好適に用いられる。
1 人体検出装置(物体検出装置)
101 画像データ受信部(画像入力手段)
102 テンプレート管理部(テンプレート記憶手段)
103 頭部位置検出部(検出手段)
202 エッジ画像生成部(エッジ画像生成手段)
203 投票処理部(度合い算出手段、近さ算出手段)
204 中心決定部(検出手段)
G 画像
GE エッジ画像
H 歩行者(物体)
P1 半楕円検出度プレーン
P2 肩形状検出度プレーン
PT 中心度プレーン
TP、TP1、TP2、TP4、TP5 テンプレート
101 画像データ受信部(画像入力手段)
102 テンプレート管理部(テンプレート記憶手段)
103 頭部位置検出部(検出手段)
202 エッジ画像生成部(エッジ画像生成手段)
203 投票処理部(度合い算出手段、近さ算出手段)
204 中心決定部(検出手段)
G 画像
GE エッジ画像
H 歩行者(物体)
P1 半楕円検出度プレーン
P2 肩形状検出度プレーン
PT 中心度プレーン
TP、TP1、TP2、TP4、TP5 テンプレート
Claims (8)
- 画像の中から目標の物体を検出する物体検出装置であって、
前記物体のモデルの輪郭の一部または当該モデルの部位を表す開曲線からなるテンプレートを記憶するテンプレート記憶手段と、
検出の対象とする画像を入力する画像入力手段と、
入力された画像に対して複数の前記テンプレートによる固定形状とのマッチング度を算出することによって、当該入力された画像の中から前記物体を検出する検出手段と、
を有することを特徴とする物体検出装置。 - 画像の中から目標の物体を検出する物体検出装置であって、
前記物体のモデルの輪郭の一部または当該モデルの部位を表す開曲線からなるテンプレートを記憶するテンプレート記憶手段と、
検出の対象とする画像を入力する画像入力手段と、
入力された画像に対して前記テンプレートを用いてマッチングを行うことによって、入力された画像の画像領域ごとの、当該テンプレートの一致の度合いを算出する度合い算出手段と、
互いに異なる複数の前記テンプレートを用いてマッチングを行うことによって当該テンプレートごとに算出される、前記入力された画像の画像領域ごとの前記度合いに基づいて、前記物体を検出する検出手段と、
を有することを特徴とする物体検出装置。 - 画像の中から目標の物体を検出する物体検出装置であって、
前記物体のモデルの輪郭の一部または当該モデルの部位を表す開曲線からなるテンプレートを記憶するテンプレート記憶手段と、
検出の対象とする画像を入力する画像入力手段と、
入力された画像のエッジ画像を生成するエッジ画像生成手段と、
生成された前記エッジ画像に対して前記テンプレートを用いてマッチングを行うことによって、当該エッジ画像の画像領域ごとに前記物体の位置への近さを求める、近さ算出手段と、
互いに異なる複数の前記テンプレートを用いてマッチングを行うことによって当該テンプレートごとに算出される、前記エッジ画像の画像領域ごとの前記近さに基づいて、前記物体を検出する検出手段と、
を有することを特徴とする物体検出装置。 - 前記近さは数値によって表され、
前記検出手段は、前記テンプレートごとに算出される、前記エッジ画像の画像領域ごとの前記近さを表す数値を、同じ画像領域のもの同士で加算し、それらの加算値のピークを調べることによって前記物体を検出する、
請求項3記載の物体検出装置。 - 前記物体は人であって、
前記検出手段は、前記テンプレートの1つとして、人の頭部の上半分の輪郭を表す開曲線からなるテンプレートを用いる、
請求項1ないし請求項4のいずれかに記載の物体検出装置。 - 前記物体は人であって、
前記検出手段は、前記テンプレートの1つとして、人の両肩の輪郭を表す2本の開曲線からなるテンプレートを用いる、
請求項1ないし請求項5のいずれかに記載の物体検出装置。 - 入力された画像に対してテンプレートを用いて固定形状とのマッチング度を算出することによって当該画像の中から目標の物体を検出する物体検出方法であって、
前記テンプレートとして、前記物体のモデルの輪郭の一部または当該モデルの部位を表す開曲線からなるテンプレートを複数用いて、前記入力された画像に対するマッチングを行い、
各前記テンプレートと前記入力された画像の各画像領域との一致の度合いに基づいて前記物体を検出する、
ことを特徴とする物体検出方法。 - 画像の中から目標の物体を検出するコンピュータに用いられるコンピュータプログラムであって、
前記物体のモデルの輪郭の一部または当該モデルの部位を表す開曲線からなるテンプレートを記憶するテンプレート記憶手段から前記テンプレートを読み込む処理と、
検出の対象とする画像を入力する処理と、
入力された画像と複数の前記テンプレートとのマッチング度を算出する処理と、
算出された前記マッチング度に基づいて前記物体を検出する処理と、
をコンピュータに実行させるためのコンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003385847A JP2005149145A (ja) | 2003-11-14 | 2003-11-14 | 物体検出装置、物体検出方法、およびコンピュータプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003385847A JP2005149145A (ja) | 2003-11-14 | 2003-11-14 | 物体検出装置、物体検出方法、およびコンピュータプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005149145A true JP2005149145A (ja) | 2005-06-09 |
Family
ID=34693766
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003385847A Pending JP2005149145A (ja) | 2003-11-14 | 2003-11-14 | 物体検出装置、物体検出方法、およびコンピュータプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005149145A (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007188417A (ja) * | 2006-01-16 | 2007-07-26 | Fujitsu Ten Ltd | 画像認識装置、画像認識方法および画像認識プログラム |
JP2008009498A (ja) * | 2006-06-27 | 2008-01-17 | Megachips System Solutions Inc | 転倒検知装置、プログラム、転倒検知方法、及び転倒検知システム |
JP2008250772A (ja) * | 2007-03-30 | 2008-10-16 | Secom Co Ltd | 移動物体追跡装置 |
WO2008139530A1 (ja) * | 2007-04-27 | 2008-11-20 | Honda Motor Co., Ltd. | 車両周辺監視装置、車両周辺監視用プログラム、車両周辺監視方法 |
JP2009211311A (ja) * | 2008-03-03 | 2009-09-17 | Canon Inc | 画像処理装置及び方法 |
US8126210B2 (en) | 2007-04-27 | 2012-02-28 | Honda Motor Co., Ltd. | Vehicle periphery monitoring device, vehicle periphery monitoring program, and vehicle periphery monitoring method |
JP2012142966A (ja) * | 2012-02-15 | 2012-07-26 | Honda Motor Co Ltd | 車両周辺監視システム |
JP2016186678A (ja) * | 2015-03-27 | 2016-10-27 | セイコーエプソン株式会社 | インタラクティブプロジェクターおよびインタラクティブプロジェクターの制御方法 |
KR20160147512A (ko) * | 2015-06-15 | 2016-12-23 | 한화테크윈 주식회사 | 전경 추출 방법 및 장치 |
-
2003
- 2003-11-14 JP JP2003385847A patent/JP2005149145A/ja active Pending
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007188417A (ja) * | 2006-01-16 | 2007-07-26 | Fujitsu Ten Ltd | 画像認識装置、画像認識方法および画像認識プログラム |
JP2008009498A (ja) * | 2006-06-27 | 2008-01-17 | Megachips System Solutions Inc | 転倒検知装置、プログラム、転倒検知方法、及び転倒検知システム |
JP2008250772A (ja) * | 2007-03-30 | 2008-10-16 | Secom Co Ltd | 移動物体追跡装置 |
WO2008139530A1 (ja) * | 2007-04-27 | 2008-11-20 | Honda Motor Co., Ltd. | 車両周辺監視装置、車両周辺監視用プログラム、車両周辺監視方法 |
US8126210B2 (en) | 2007-04-27 | 2012-02-28 | Honda Motor Co., Ltd. | Vehicle periphery monitoring device, vehicle periphery monitoring program, and vehicle periphery monitoring method |
JP5145599B2 (ja) * | 2007-04-27 | 2013-02-20 | 本田技研工業株式会社 | 車両周辺監視装置、車両周辺監視用プログラム、車両周辺監視方法 |
US8411145B2 (en) | 2007-04-27 | 2013-04-02 | Honda Motor Co., Ltd. | Vehicle periphery monitoring device, vehicle periphery monitoring program and vehicle periphery monitoring method |
JP2009211311A (ja) * | 2008-03-03 | 2009-09-17 | Canon Inc | 画像処理装置及び方法 |
JP2012142966A (ja) * | 2012-02-15 | 2012-07-26 | Honda Motor Co Ltd | 車両周辺監視システム |
JP2016186678A (ja) * | 2015-03-27 | 2016-10-27 | セイコーエプソン株式会社 | インタラクティブプロジェクターおよびインタラクティブプロジェクターの制御方法 |
KR20160147512A (ko) * | 2015-06-15 | 2016-12-23 | 한화테크윈 주식회사 | 전경 추출 방법 및 장치 |
KR102414953B1 (ko) * | 2015-06-15 | 2022-06-30 | 한화테크윈 주식회사 | 전경 추출 방법 및 장치 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4085959B2 (ja) | 物体検出装置、物体検出方法、および記録媒体 | |
JP7365445B2 (ja) | コンピューティング装置及び方法 | |
KR102299847B1 (ko) | 얼굴 인증 방법 및 장치 | |
KR101490016B1 (ko) | 인물 화상 처리 장치 및 인물 화상 처리 방법 | |
JP5569990B2 (ja) | 属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システム | |
WO2017163955A1 (ja) | 監視システム、画像処理装置、画像処理方法およびプログラム記録媒体 | |
US20130101224A1 (en) | Attribute determining method, attribute determining apparatus, program, recording medium, and attribute determining system | |
JP4597391B2 (ja) | 顔領域検出装置およびその方法並びにコンピュータ読み取り可能な記録媒体 | |
JP6555906B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
TW202026948A (zh) | 活體檢測方法、裝置以及儲存介質 | |
JP2009245338A (ja) | 顔画像照合装置 | |
JP2012530994A (ja) | 半顔面検出のための方法および装置 | |
JP5271227B2 (ja) | 群衆監視装置および方法ならびにプログラム | |
US20210144009A1 (en) | Device with biometric system | |
US10872268B2 (en) | Information processing device, information processing program, and information processing method | |
CN114894337B (zh) | 一种用于室外人脸识别测温方法及装置 | |
US20230306792A1 (en) | Spoof Detection Based on Challenge Response Analysis | |
JP5431830B2 (ja) | 部品検出装置、部品検出方法、プログラムおよび記録媒体 | |
JP2005149145A (ja) | 物体検出装置、物体検出方法、およびコンピュータプログラム | |
CN108460319B (zh) | 异常人脸检测方法及装置 | |
JP2023515278A (ja) | 識別秘匿動き検出および描写装置 | |
WO2020232889A1 (zh) | 支票取现方法、装置、设备及计算机可读存储介质 | |
JP2005140754A (ja) | 人物検知方法、監視システム、およびコンピュータプログラム | |
KR101057718B1 (ko) | 획득 영상의 사용자 식별 가능 여부 판정 방법 | |
JP5472976B2 (ja) | 対象物検出装置、対象物検出方法、プログラムおよび記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061025 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090825 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20091222 |