JP2005149144A - 物体検出装置、物体検出方法、および記録媒体 - Google Patents

物体検出装置、物体検出方法、および記録媒体 Download PDF

Info

Publication number
JP2005149144A
JP2005149144A JP2003385846A JP2003385846A JP2005149144A JP 2005149144 A JP2005149144 A JP 2005149144A JP 2003385846 A JP2003385846 A JP 2003385846A JP 2003385846 A JP2003385846 A JP 2003385846A JP 2005149144 A JP2005149144 A JP 2005149144A
Authority
JP
Japan
Prior art keywords
image
template
edge
detecting
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003385846A
Other languages
English (en)
Other versions
JP4085959B2 (ja
Inventor
Hironori Sumitomo
博則 墨友
Daisaku Horie
大作 保理江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2003385846A priority Critical patent/JP4085959B2/ja
Priority to US10/777,363 priority patent/US7305106B2/en
Publication of JP2005149144A publication Critical patent/JP2005149144A/ja
Application granted granted Critical
Publication of JP4085959B2 publication Critical patent/JP4085959B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features

Abstract

【課題】画像の中から目標の物体を従来よりも確実にかつ高速に検出する。
【解決手段】画像の中から目標の物体を検出する人体検出装置1に、人のモデルの輪郭の一部または部位を表す1つまたは複数の開曲線からなるテンプレートTPを記憶するテンプレート記憶部102と、検出の対象とする画像を入力する画像データ受信部101と、入力された画像に対してテンプレートTPによるマッチングを行うことによって、その画像の中から人を検出する頭部位置検出部103と、を設ける。
【選択図】図3

Description

本発明は、画像の中から目標の物体を検出する物体検出装置および方法に関する。
従来より、画像の中から目標の物体を検出するための様々な方法が提案されている。例えば、画像の中から人間の頭部を検出する方法として、特許文献1〜3に記載されるような方法が提案されている。
特許文献1に記載される方法によると、人間の頭部を楕円形と見立て、楕円テンプレートを用いて、ハフ(Hough)変換の一種である投票処理(以下、「Hough変換法」と記載することがある。)によって画像の中から人間の頭部(楕円形状)を検出する。
特許文献2に記載される方法によると、楕円形状の一部を重視したテンプレートを用いて画像の中から頭部(楕円形状)を検出する。このようなテンプレートを用いることによって、検出対象である頭部の一部にオクルージョンが生じている場合であっても、頭部(楕円形状)を検出することができる。
特許文献3に記載される方法によると、人物の輪郭上の複数の点においてエッジの方向性を特徴量として算出し、これらの特徴量を総合評価することによって人体を検出する。
しかし、特許文献1に記載される方法では、検出対象である頭部の一部にオクルージョンが生じている場合には、頭部を上手く検出することができないことが多い。つまり、このような場合には、頭部の検出精度が低下する。
特許文献2に記載される方法では、上述の通りオクルージョンが生じている場合であっても頭部を検出することができるが、テンプレートが複雑であるために、処理時間が掛かる。
特許文献3に記載される方法では、互いに異なる方向性を示す複数のエッジが必要であり、やはり、処理時間が掛かってしまう。
特開2001−222719号公報 特開平9−35069号公報 特開2001−175868号公報
本発明は、上記の問題点に鑑み、画像の中から目標の物体を従来よりも確実にかつ高速に検出することを目的とする。
本発明に係る物体検出装置は、画像の中から目標の物体を検出する物体検出装置であって、前記物体のモデルの輪郭の一部または当該モデルの部位を表す1つまたは複数の開曲線からなるテンプレートを記憶するテンプレート記憶手段と、検出の対象とする画像を入力する画像入力手段と、入力された画像に対して前記テンプレートによる固定形状とのマッチング度を算出することによって、当該入力された画像の中から前記物体を検出する検出手段と、を有することを特徴とする。
または、入力された画像のエッジ画像を生成するエッジ画像生成手段と、生成された前記エッジ画像のそれぞれの位置に前記テンプレートを重ね合わせた際の、当該エッジ画像のエッジと当該テンプレートの前記1つまたは複数の開曲線とが重なった画素の個数の多さに基づいて、前記物体を検出する検出手段と、を有する。
または、前記物体のモデルの輪郭の一部または当該モデルの部位を表す1つまたは複数の開曲線および当該モデルの所定の位置を示すポイントからなりかつ当該ポイントを中心に当該1つまたは複数の開曲線を半回転させてなるテンプレートを用いてHough変換法によって前記物体を検出する。
テンプレートとして、特に、形状が特徴的であり、物体全体に対するサイズが小さく、かつ動作中の形状の変動の小さい部分の固定形状を用いるのが望ましい。例えば、検出の目標物が歩いている人である場合は、頭部の上半分、肩、顎、耳、または股下、目、眉毛、鼻、または口などの輪郭または形状をしたテンプレートを用いるのが望ましい。または、左右の肩をそれぞれ表す2本の線からなるテンプレートまたは鼻および左右の耳をそれぞれ表す3本の線からなるテンプレートのように、複数の線からなるテンプレートを用いてもよい。オクルージョンが生じるような状況でも、物体の特徴が表れるものが望ましい。
本発明によると、画像の中から目標の物体を従来よりも確実にかつ高速に検出することができる。
〔第一の実施形態〕
図1は監視システム100の全体的な構成の例を示す図、図2は人体検出装置1のハードウェア構成の例を示す図、図3は人体検出装置1の機能的構成の例を示す図、図4はビデオカメラ2で撮影して得られた画像Gの例を示す図、図5はテンプレートTP1、TP2の例を示す図、図6はテンプレートTP1、TP2の作成方法の例を説明する図、図7は頭部位置検出部103の構成の例を示す図、図8は上半身画像GKの例を示す図、図9はエッジ画像作成処理の流れの例を説明するフローチャート、図10はSOBELフィルタについて説明する図、図11はエッジ画像GEの例を示す図、図12はテンプレートマッチング処置の流れの例を説明するフローチャート、図13は2人の歩行者Hが写っている場合のエッジ画像GEおよび検出された頭部の位置の例を示す図である。
図1に示すように、監視システム100は、本発明に係る人体検出装置1、ビデオカメラ2、および通信回線3などによって構成される。人体検出装置1とビデオカメラ2とは、通信回線3を介して互いに接続されている。通信回線3として、LAN、公衆回線、専用線、またはインターネットなどが用いられる。
ビデオカメラ2は、CCDなどのイメージセンサ、光学系、外部の装置とデータの送受信を行うためのインタフェース、および制御用回路などを備えており、撮影によって得られた画像を画像データ70として人体検出装置1に送信する。
このビデオカメラ2は、店舗、地下街、ビル、またはイベント会場などの施設の通路または出入口、繁華街、または銀行のATMコーナなどのように、人が通行しまたは訪れる場所の天井などに設置される。以下、ビデオカメラ2が施設の通路STに設置され、その通路STの様子を監視するために使用される場合を例に説明する。
人体検出装置1は、図2に示すように、CPU1a、RAM1b、ROM1c、磁気記憶装置(ハードディスク)1d、通信インタフェース1e、表示装置1f、およびマウスまたはキーボードなどの入力装置1gなどによって構成される。
磁気記憶装置1dには、図3に示すような画像データ受信部101、テンプレート記憶部102、頭部位置検出部103、頭部画像表示部104、および頭部画像保存部105などの機能を実現するためのプログラムおよびデータがインストールされている。これらのプログラムおよびデータは必要に応じてRAM1bにロードされ、CPU1aによってプログラムが実行される。
この人体検出装置1は、施設の管理室などに設置されており、警備員が管理室に居ながら通路STの様子を監視するために使用される。また、ビデオカメラ2によって撮影された画像に写っている通行人の頭部を検出し、頭部を拡大表示しまたは頭部の画像(映像)を保存しておくことができる。人体検出装置1として、ワークステーションまたはパーソナルコンピュータなどが用いられる。
以下、ビデオカメラ2で撮影された画像から歩行者の頭部を検出する際の、図3に示す人体検出装置1の各部の処理内容などについて説明する。
画像データ受信部101は、ビデオカメラ2から送信されてきた画像データ70を受信する。これにより、ビデオカメラ2の撮影速度に応じたフレーム数(コマ数)の、図4に示すような画像G(映像)が得られる。
テンプレート記憶部102は、画像Gに写っている歩行者Hの頭部の位置を検出するために使用する、図5に示すようなテンプレートTPを記憶する。図5(a)のテンプレートTP1は人の頭部の上半分の形状(半楕円形)をしたテンプレートであり、図5(b)のテンプレートTP2は人の両肩の形状をしたテンプレートである。これらのテンプレートTPは、例えば、次のようにして作成される。
まず、通路STの基準位置L1(図1参照)にモデルとなる人を立たせ、ビデオカメラ2によって撮影を行う。モデルとなる人は、標準的な体型であることが望ましい。図6(a)に示すように、撮影によって得られた画像の中のモデルの輪郭部分に注目する。
輪郭部分の中から頭部の上半分を示す1本の開曲線および両肩を示す2本の開曲線をそれぞれエッジEG1、EG2(以下、「エッジEG」と総称することがある。)として抽出する。この際に、エッジEG1、EG2から離れた所定の位置をそれぞれ基準点CT1、CT2として定めておき、この基準点CT1、CT2もエッジEG1、EG2とともに抽出する。これにより、図6(b)(c)に示すようなテンプレート画像が得られる。なお、基準点CT1、CT2をそれぞれエッジEG1、EG2上の所定の位置に定めてもよい。
また、テンプレートTPには、そのテンプレートTPの基準点からモデルの頭部の中心CT0までのベクトルを示す位置関係情報SIが対応付けられている。テンプレートTP2の位置関係情報SIは、図6(a)に示すベクトルα2となる。テンプレートTP1の位置関係情報SIは、中心CT0と基準点CT1とが重なっているので、0ベクトルとなる。位置関係情報SIは、後に説明するテンプレートマッチングの際に位置のずれを直すため(オフセット(HOFFSETまたはVOFFSET)の調整のため)に用いられる。このようにして、テンプレートTP1、TP2が作成される。
図3に戻って、頭部位置検出部103は、図7に示すように、上半身画像抽出部201、エッジ画像生成部202、および中心探索部203などによって構成される。このような構成により、通路STを通行する歩行者Hの頭部の位置を求める処理を行う。
上半身画像抽出部201は、画像データ受信部101によって得られた画像Gから歩行者Hの上半身が写っていると想定される所定の画像領域(図4の点線で囲んだ領域)を抽出し、抽出した上半身の画像領域を所定の倍率で拡大する。これにより、図8に示すように、通路STを通行している歩行者Hの上半身画像GKが得られる。
エッジ画像生成部202は、図9に示すような手順で、上半身画像抽出部201で得られた上半身画像GKのエッジ画像(輪郭画像)を生成する。
図9に示すように、まず、その上半身画像GKおよびそれより前の時刻の上半身画像GK’についてそれぞれ明度画像(濃淡画像)を生成する(#101)。これら2つの明度画像の互いに対応する画素同士の差分(フレーム差分)を求める。つまり、時間差分を求め、時間差分画像を生成する(#102)。これと並行してまたは前後して、上半身画像GKの明度画像の中の、明度の変化の強さ(エッジの強さ)を示す空間差分画像を生成する(#103)。空間差分画像は、明度画像の各画素Pijおよびその周辺の画素Pについて、図10に示すように、上半身画像GKに対し、水平SOBELフィルタおよび垂直SOBELフィルタをそれぞれ掛け、得られた画像FshおよびFsvを下記の(1)式に代入することによって求められる。
Figure 2005149144
ただし、Fshは水平SOBELフィルタによる出力結果であり、Fsvは垂直SOBELフィルタによる出力結果である。
ステップ#102、#103でそれぞれ求められた時間差分画像および空間差分画像の互いに対応する画素同士の論理積を算出する(#104)。これにより、図11に示すような上半身画像GKのエッジ画像GEが生成される。なお、図11および後に説明する各図のエッジ画像GEは、見やすくするために、白黒を反転させている。
図7に戻って、中心探索部203は、テンプレートTPによるテンプレートマッチングを行うことによって、歩行者Hの頭部の中心を探索する。係る探索は、図12に示すような手順で行われる。ここでは、図5(a)のテンプレートTP1を使用する場合を例に説明する。
図12に示すように、カウンタを「0」にリセットする(#112)。図5(a)のテンプレートTP1の点AP1と図11のエッジ画像GEのいずれかの隅の画素(例えば左上の隅の画素)とが一致するように、テンプレートTP1をエッジ画像GEに重ね合わせる。エッジ画像GEのエッジRN(輪郭線)とテンプレートTP1のエッジEGとが重なる画素(マッチング対象画素)の個数をカウントし、カウンタに代入する(#113)。
カウンタの値が閾値を超えた場合は(#114でYes)、テンプレートTP1の基準点CT1と重なったエッジ画像GEの画素を、歩行者Hの頭部の中心または中心付近であると判別する(#115)。
ステップ#112に戻って、エッジ画像GEに重ねられたテンプレートTP1を1画素分ずつスライドさせながら、エッジ画像GE全体について上記のステップ#112〜#115の処理を順次実行する(#111でNo)。
このようにして、歩行者Hの頭部の位置を見つけることができる。なお、図13に示すような前後に並んで歩いている歩行者Hが2人写っているエッジ画像GEに対して図12の処理を実行すると、図13の中に黒点で示すように、歩行者Hの頭部の位置が2箇所見つけられる。
また、図5(b)のテンプレートTP2を使用してテンプレートマッチングを行う場合は、図12のステップ#115において頭部の中心を求める際に、位置関係情報SIが適用される。すなわち、カウンタの値が閾値を超えた場合に(#114でYes)、テンプレートTP2の基準点CT2と重なったエッジ画像GEの画素を見つける。この画素は、胸の中心(両肩の中間)辺りの位置を指している。そこで、この画素から位置関係情報SIに示されるベクトルα2だけ移動した位置(画素)を、歩行者Hの頭部の中心または中心付近の位置であると判別する。
図3に戻って、頭部画像表示部104は、頭部位置検出部103による検出(探索)結果に基づいて、画像Gより歩行者Hの頭部の領域を抽出して拡大し、これを拡大画像として表示装置1f(図2参照)に表示する。これにより、監視員は、歩行者Hを容易に特定することができる。また、頭部画像保存部105は、歩行者Hの頭部の拡大画像を磁気記憶装置1dまたは外部の記録媒体(DVD−ROM、MO、CD−Rなど)に保存(録画)する。
図14は第一の実施形態における人体検出装置1の処理の流れの例を説明するフローチャート、図15は頭部検出処理の流れの例を説明するフローチャートである。次に、通路STの監視を行う際の人体検出装置1の処理の流れを、フローチャートを参照して説明する。
図14に示すように、通路STの監視を開始すると、人体検出装置1は、まず、時刻T=T0におけるビデオカメラ2のフレーム画像(画像G)を入力し(#11)、その画像の明度画像を作成する(#12)。
次の時刻(例えば撮影速度が毎秒30フレームであれば1/30秒後)の画像Gを入力し(#14)、その画像Gから歩行者Hの頭部を検出する処理を行う(#15)。すなわち、図15に示すように、その画像Gに写っている歩行者Hの輪郭(エッジ)を抽出してエッジ画像GEを生成し(#21)、そのエッジ画像GEに対してテンプレートマッチングを行う(#22)。エッジ画像GEを生成する手順およびテンプレートマッチングの手順は、それぞれ、図9および図12で説明した通りである。
このようにテンプレートマッチングを行った結果、画像Gのいずれの位置に歩行者Hが写っているのかが検出される。なお、画像Gに歩行者Hが写っていない場合は、エッジ画像GEは得られない(真っ黒な画像になる)ので、当然、テンプレートマッチングを行っても歩行者Hは検出されない。
以下、ビデオカメラ2によって画像Gが入力されるごとに、順次、ステップ#14、#15の処理を繰り返す(#13でNo)。このようにして、通路STを通行する歩行者Hの頭部を捉えることができる。
〔第二の実施形態〕
図16は第二の実施形態における人体検出装置1Bの機能的構成の例を示す図、図17は第二の実施形態におけるテンプレートTP1k、TP2kの例を示す図、図18は頭部位置検出部123の構成の例を示す図、図19は投票処理の流れの例を説明するフローチャート、図20は投票処理の際のテンプレートとのマッチングの方法を説明する図、図21は投票処理を行ったときのエッジ画像GEとテンプレート画像との重なりの例を示す図、図22は得票数を表した濃淡画像の例を示す図、図23は2人の歩行者Hが写っている場合のエッジ画像GEに対するテンプレートとのマッチングの例を示す図、図24は図17(b)のテンプレートTP2kを使用した場合のマッチングの例を示す図である。
第一の実施形態では、テンプレートTPのエッジEG(図5参照)とエッジ画像GEのエッジRN(図11参照)との交点の数に基づいて歩行者Hの頭部の検出した。第二の実施形態では、Hough変換法(投票処理)を用いて歩行者Hの頭部を検出する。
第二の実施形態における監視システム100の全体構成および人体検出装置1Bのハードウェア構成は、第一の実施形態の場合と同様である(図1、図2参照)。ただし、人体検出装置1Bの磁気記憶装置1dには、図16に示す画像データ受信部121、テンプレート記憶部122、頭部位置検出部123、頭部画像表示部124、および頭部画像保存部125などの機能を実現するためのプログラムおよびデータがインストールされている。以下、第一の実施形態の場合と異なる機能および処理内容などを中心に説明する。第一の実施形態の場合と同様の機能および処理内容については、説明を省略する。
画像データ受信部121は、第一の実施形態の画像データ受信部101(図3参照)と同様に、図4に示すような画像Gのデータ(画像データ70)を受信する。テンプレート記憶部122は、図17に示すようなテンプレートTP(TP1k、TP2k)を記憶する。テンプレートTP1k、TP2kは、それぞれ、図5のテンプレートTP1、TP2を、基準点CT1、CT2を中心に半回転(180度回転)させることによって作成される。位置関係情報SIは第一の実施形態のものがそのまま用いられる。
頭部位置検出部123は、図18に示すように、上半身画像抽出部301、エッジ画像生成部302、投票処理部303、および中心決定部304などによって構成され、通路STを通行する歩行者Hの頭部の位置を求める処理を行う。
上半身画像抽出部301およびエッジ画像生成部302は、図7に示す第一の実施形態の上半身画像抽出部201およびエッジ画像生成部202と同様の処理を行い、図11に示すようなエッジ画像GEを生成する。
投票処理部303は、図19に示すような手順で投票処理を実行することにより、エッジ画像GEの各画素について歩行者Hの頭部の中心らしさを示す度合い(以下、「中心度」と記載する。)を求める。ここでは、図17(a)のテンプレートTP1kを使用する場合を例に説明する。
図19に示すように、まず、エッジ画像GEの各画素にそれぞれカウンタを設定し、すべてのカウンタを「0」にリセットしておく(#121)。
図20(a)に示すように、エッジ画像GEのエッジRN(輪郭線)上の任意の1つの画素に注目し(以下、注目した画素を「注目画素」と記載する。)、注目画素とテンプレートTP1kの基準点CT1とが一致するように、エッジ画像GEの上にテンプレートTP1kのテンプレート画像を重ねる(#122、#123)。
このときにテンプレートTP1kのエッジEG1と重なったエッジ画像GEの画素に1票を投じる(#124)。つまり、図20(b)の拡大図において斜線で示す画素のカウンタに「1」を加算する。なお、図20(b)において、太枠の正方形はエッジ画像GEのエッジRN上の画素を示し、黒く塗りつぶした正方形は注目画素を示し、斜線で塗りつぶした正方形はテンプレートTP1kのエッジEG1が重なった画素つまり1票が投じられた画素を示している。
他のエッジRN上の画素についても順に注目し(#126)、図21に示すようにテンプレートTP1kを重ね合わせ(#123)、カウント(投票)を行う(#124)。そして、すべてのエッジRN上の画素についてステップ#123、#124の処理が終了したときに(#125でYes)、中心度に関する投票を終了する。
図18に戻って、中心決定部304は、投票処理部303による投票結果に基づいて歩行者Hの頭部の中心を次のようにして決定する。すなわち、まず、図22に示すように、エッジ画像GEの各画素に、その得票数に応じて濃淡を付ける。本実施形態では、得票数が多いほど濃く(黒く)なるようにしている。そして、このときに現れる濃い部分のピーク(頂上)の画素を歩行者Hの頭部の中心であると決定する。
以上のようにして、歩行者Hの頭部の位置を見つけることができる。なお、図23(a)に示すような前後に並んで歩いている歩行者Hが2人写っているエッジ画像GEに対して図19の投票処理を実行し(図23(b))、得票数に応じて各画素を濃淡で表すと、図23(c)に示すようにピーク(頂上)が2つ求められる。つまり、2人分の歩行者Hの頭部の位置が検出される。
図17(b)に示すテンプレートTP2kを使用する場合も、上に説明した手順で図24に示すように投票処理を実行すればよい。ただし、歩行者Hの頭部の中心は、最も多くの表が投じられた画素から位置関係情報SIに示されるベクトルα2(図6(a)参照)だけ移動した位置とする。移動しない場合は、歩行者Hの胸の中心(両肩の中間位置)が検出されることになる。
図16に戻って、頭部画像表示部124および頭部画像保存部125は、それぞれ、第一の実施形態の頭部画像表示部104および頭部画像保存部105と同様の処理を実行する。つまり、歩行者Hの頭部の拡大画像を表示装置1f(図2参照)に表示し、磁気記憶装置1dまたは外部の記録媒体などに保存(録画)する。
図25は第二の実施形態における頭部検出処理の例を説明するフローチャートである。次に、第二の実施形態における、通路STの監視を行う際の人体検出装置1Bの処理の流れを説明する。
第二の実施形態における歩行者の監視中の処理の手順は、図14に示す第一の実施形態の処理の手順と基本的に同じである。ただし、ステップ#15の頭部検出処理の手順が第一の実施形態の場合と異なる。
人体検出装置1Bは、通路STの監視を開始すると、初期フレーム画像の入力および明度画像の生成などを行う(図14の#11、#12)。ビデオカメラ2によって撮影される画像G(フレーム画像)を順次入力し、これに基づいて頭部検出処理を実行する(図14の#13でYes、#14、#15)。
頭部検出処理は、図25に示す手順で行われる。すなわち、入力された画像Gおよびその前の時刻の画像Gを用いてエッジ画像GEを生成し(#31)、そのエッジ画像GEの各画素に対して頭部の中心度の投票を行う(#32)。そして、得票数に応じて図22または図23(c)のような濃淡画像を生成し、ピーク(頂点)となる画素を頭部の中心に決定(選択)する(#33)。ただし、図17(b)のテンプレートTP2kを使用した場合は、位置関係情報SIに応じて位置調整を行う。ステップ#31、#32の処理の詳細は、それぞれ図9、図19で説明した通りである。
〔第三の実施形態〕
図26は第三の実施形態における人体検出装置1Cの機能的構成の例を示す図、図27は背景差分画像GZの生成方法の例を説明する図、図28は第三の実施形態におけるテンプレートTP5の例を示す図、図29は第三の実施形態における頭部位置検出部133の構成の例を示す図、図30は背景差分画像作成処理の流れの例を説明するフローチャート、図31は第三の実施形態におけるテンプレートマッチング処理の流れの例を説明するフローチャート、図32は第三の実施形態におけるテンプレートマッチングの経過の例を示す図である。
第一および第二の実施形態ではエッジ画像に対してテンプレートマッチングの処理を行ったが、第三の実施形態では明度画像に対してテンプレートマッチングの処理を行う。
第三の実施形態における監視システム100の全体構成および人体検出装置1Cのハードウェア構成は、第一の実施形態の場合と同様である(図1、図2参照)。ただし、人体検出装置1Cの磁気記憶装置1dには、図26に示す画像データ受信部131、テンプレート記憶部132、頭部位置検出部133、頭部画像表示部134、および頭部画像保存部135などの機能を実現するためのプログラムおよびデータがインストールされている。以下、第一または第二の実施形態の場合と異なる機能および処理内容などを中心に説明する。第一または第二の実施形態の場合と同様の機能および処理内容については、説明を省略する。
図26の画像データ受信部131は、第一の実施形態の画像データ受信部101(図3参照)と同様に、ビデオカメラ2によって撮影される図27(a)(b)に示すような画像Gのデータ(画像データ70)を受信する。テンプレート記憶部132は、図28に示すようなテンプレートTP5を記憶する。領域RY1、RY3の境界にある円弧CK1、領域RY2、RY4の境界にある円弧CK2、およびこれらの2つの円弧CK1、CK2同士の距離は、標準的な体型のモデルの両肩をビデオカメラ2で撮影し、その両肩の画像を参照することによって、定められる。また、第一および第二の実施形態のテンプレートTPと同様に、テンプレート画像の基準点CT5から頭部の中心CT0(図6(a)参照)までのベクトルを示す位置関係情報SIが対応付けられている。
頭部位置検出部133は、図29に示すような明度画像生成部401、背景基準画像記憶部402、背景差分算出部403、および頭部位置検出部404などによって構成され、歩行者Hの頭部の位置を求める処理を行う。
明度画像生成部401および背景差分算出部403は、図30に示す手順で処理を行う。明度画像生成部401は、画像データ受信部131によって取得される画像Gの明度画像を生成する(図30の#141)。生成された明度画像のうち、歩行者Hが写っていない背景だけの画像を背景基準画像GHとする。
背景差分算出部403は、頭部を検出したい画像G(図27(a))の明度画像と背景基準画像GHとの差分を算出することによって、図27(c)に示すような、背景部分を除去した背景差分画像GZを生成する(#142)。なお、背景部分は実際には黒くなるが、図27(c)では見やすくするために背景部分を白く表している。
背景基準画像記憶部402は、背景基準画像GHを記憶する。背景基準画像GHは適宜更新する。頭部位置検出部404は、背景差分画像GZに対して図31に示す手順でテンプレートマッチングを行うことによって、画像Gに写っている歩行者Hの頭部の位置を検出する。
すなわち、図31に示すように、まず、カウンタを「0」にリセットしておく(#132)。テンプレートTP5の点AP5と背景差分画像GZのいずれかの隅の画素(例えば左上の隅の画素)とが一致するように、テンプレートTP5を背景差分画像GZに重ね合わせる。このときに、背景差分画像GZのうちの、テンプレートTP5の領域RY1〜RY4と重なったそれぞれの部分の平均明度を算出する(#133)。
そして、テンプレートTP5の円弧CK1、CK2と重なった背景差分画像GZの部分に歩行者Hの両肩がある蓋然性、すなわち、テンプレートTP5に示す両肩の形状と背景差分画像GZのその部分との類似度を算出する(#134)。もしも、その部分に歩行者Hの両肩が写っているとすれば、ステップ#133で算出した領域RY1〜RY4と重なる部分の平均明度の関係は、次のようになるはずである。
(A) 領域RY1と重なる部分の平均明度Md1と領域RY2と重なる部分の平均明度Md2との差は小さい。
(B) 領域RY1と重なる部分の平均明度Md1のほうが領域RY3と重なる部分の平均明度Md3よりもかなり大きい。
(C) 領域RY2と重なる部分の平均明度Md2のほうが領域RY4と重なる部分の平均明度Md4よりもかなり大きい。
そこで、次の(2)式に基づいて類似度を算出し、算出結果をカウンタに代入する(#135)。
類似度=valueA+valueB+valueC …… (2)

ただし、
valueA=255−|Md1−Md2|
valueB=Md1−Md3
valueC=Md2−Md4
である。また、類似度は8ビットつまり256階調で表される。
カウンタ(類似度)の値が閾値よりも大きい場合は(#135でYes)、テンプレートTP5と重なった位置に歩行者Hの両肩が写っていると判別する。そして、基準点CT5と重なった背景差分画像GZの画素から位置関係情報SIに示されるベクトルα5だけ移動した位置を、歩行者Hの頭部の中心の位置と判別する(#136)。
ステップ#131に戻って、図32に示すように、背景差分画像GZに重ねられたテンプレートTP5を1画素分ずつスライドさせながら、背景差分画像GZ全体について上記のステップ#132〜#136の処理を順次実行する(#131でNo)。
図26に戻って、頭部画像表示部134および頭部画像保存部135は、それぞれ、第一の実施形態の頭部画像表示部104および頭部画像保存部105などと同様の処理を行う。つまり、歩行者Hの頭部の拡大画像を表示装置1f(図2参照)に表示し、磁気記憶装置1dまたは外部の記録媒体などに保存(録画)する。
図33は第三の実施形態における人体検出装置1Cの処理の流れの例を説明するフローチャート、図34は第三の実施形態における頭部検出処理の流れの例を説明するフローチャートである。次に、第三の実施形態における、通路STの監視を行う際の人体検出装置1Cの処理の流れを、フローチャートを参照して説明する。
図33に示すように、通路STの監視を開始すると、人体検出装置1Cは、まず、ビデオカメラ2より歩行者Hの写っていないフレーム画像(画像G)を入力し(#41)、その画像の明度画像(背景基準画像GH)を作成しておく(#42)。次の時刻の画像Gを入力し(#44)、その画像Gから歩行者Hの頭部を検出する処理を行う(#45)。
すなわち、図34に示すように、入力された画像Gの背景差分画像GZを生成し(#51)、その背景差分画像GZに対してテンプレートマッチングを行う(#52)。背景差分画像GZを生成する手順およびテンプレートマッチングの手順は、それぞれ、前に図30および図31で説明した通りである。
以下、ビデオカメラ2によって画像Gが撮影されるごとに、順次、ステップ#44、#45の処理を繰り返す(#43でNo)。このようにして、ビデオカメラ2によって撮影される画像(映像)から歩行者Hの頭部の位置が検出される。
第一ないし第三の実施形態によると、頭部の上半分または両肩のテンプレートTPを用いてテンプレートマッチングを行うことにより、ビデオカメラ2の前を通行する歩行者Hを従来よりも確実に検出することができる。すなわち、例えば、図13に示したように、歩行者の身体の一部が他の歩行者や物体に隠れている場合(オクルージョンが発生している場合)であっても、その歩行者を検出することができる。しかも、頭部の上半分または両肩のような小さいテンプレートTPを用いてテンプレートマッチングを行うので、処理が高速である。
また、歩いている場合であっても動き(形状の変化)の少ない部位のテンプレートTPを使用しているので、歩行者がビデオカメラ2に対して斜めに向いている場合であっても、その歩行者を従来よりも確実に検出することができる。
時間差分画像および空間差分画像を生成する際および頭部の中心を検出する際に用いられる閾値、図10のSOBELフィルタ、または(1)式または(2)式の係数または定数などは、経験的に得られまたは実験によって得られた値としてもよいし、入力される画像Gごとに適宜動的に算出するようにしてもよい。歩行者Hの頭部の中心の位置を検出する代わりに胸または腹の中心の位置などを検出してもよい。
第一および第二の実施形態では、SOBELフィルタを用いてエッジ画像を生成したが、他の方法で生成してもよい。例えば、2次微分やブロックマッチングなどを用いて生成してもよい。
第一ないし第三の実施形態では、頭部の上半分または肩の形状をしたテンプレートTPを用いてテンプレートマッチングを行ったが、これ以外のテンプレートTPを用いてもよい。例えば、顎、耳、または股下などのような人の身体の輪郭の一部または目、眉毛、鼻、または口などのような身体の部位のテンプレートを作成しておき、テンプレートマッチングのために用いてもよい。
本発明に係る人体検出装置1、1B、1Cを使用して、人間の人体以外のもの、例えば、動物の身体または自動車やオートバイなどの物体を検出することも可能である。
テンプレートTPをMO、CD−R、DVD−ROM、ハードディスク、またはフロッピィディスクなどの記録媒体に記録しておき、他の人体検出装置1にも提供できるようにしてもよい。
その他、監視システム100、人体検出装置1、ビデオカメラ2の全体または各部の構成、人体の検出方法、処理内容、処理順序などは、本発明の趣旨に沿って適宜変更することができる。
本発明によると、所定の場所を通過する歩行者をより正確に計数するためや、その歩行者の頭部(顔)をより正確にかつ短時間で検出して拡大表示しまたは頭部の画像(顔画像)を保存するために用いることができる。よって、本発明は、特に、施設のセキュリティ管理のためなどに好適に用いられる。
監視システムの全体的な構成の例を示す図である。 人体検出装置のハードウェア構成の例を示す図である。 人体検出装置の機能的構成の例を示す図である。 ビデオカメラで撮影して得られた画像の例を示す図である。 テンプレートの例を示す図である。 テンプレートの作成方法の例を説明する図である。 頭部位置検出部の構成の例を示す図である。 上半身画像の例を示す図である。 エッジ画像作成処理の流れの例を説明するフローチャートである。 SOBELフィルタについて説明する図である。 エッジ画像の例を示す図である。 テンプレートマッチング処置の流れの例を説明するフローチャートである。 2人の歩行者が写っている場合のエッジ画像および検出された頭部の位置の例を示す図である。 第一の実施形態における人体検出装置の処理の流れの例を説明するフローチャートである。 頭部検出処理の流れの例を説明するフローチャートである。 第二の実施形態における人体検出装置の機能的構成の例を示す図である。 第二の実施形態におけるテンプレートの例を示す図である。 頭部位置検出部の構成の例を示す図である。 投票処理の流れの例を説明するフローチャートである。 投票処理の際のテンプレートとのマッチングの方法を説明する図である。 投票処理を行ったときのエッジ画像とテンプレート画像との重なりの例を示す図である。 得票数を表した濃淡画像の例を示す図である。 2人の歩行者が写っている場合のエッジ画像に対するテンプレートとのマッチングの例を示す図である。 図17(b)のテンプレートを使用した場合のテンプレートとのマッチングの例を示す図である。 第二の実施形態における頭部検出処理の例を説明するフローチャートである。 第三の実施形態における人体検出装置の機能的構成の例を示す図である。 背景差分画像の生成方法の例を説明する図である。 第三の実施形態におけるテンプレートの例を示す図である。 第三の実施形態における頭部位置検出部の構成の例を示す図である。 背景差分画像作成処理の流れの例を説明するフローチャートである。 第三の実施形態におけるテンプレートマッチング処理の流れの例を説明するフローチャートである。 第三の実施形態におけるテンプレートマッチングの経過の例を示す図である。 第三の実施形態における人体検出装置の処理の流れの例を説明するフローチャートである。 第三の実施形態における頭部検出処理の流れの例を説明するフローチャートである。
符号の説明
1、1B、1C 人体検出装置(物体検出装置)
1d 磁気記憶装置(記録媒体)
2 ビデオカメラ
101、121、131 画像データ受信部(画像入力手段)
102、122、132 テンプレート記憶部(テンプレート記憶手段)
202、302 エッジ画像生成部(エッジ画像生成手段)
203 中心探索部(検出手段)
304 中心決定部(検出手段)
303 投票処理部(重ね合わせ手段、カウント手段)
401 明度画像生成部(明度画像生成手段)
404 頭部位置検出部(検出手段)
CK1、CK2 円弧(開曲線)
EG、EG1、EG2 エッジ(開曲線)
G 画像
GE エッジ画像
H 歩行者(目標の物体)
RN エッジ
RY1〜RY4 領域
TP、TP1、TP2、TP1k、TP2k、TP5 テンプレート

Claims (8)

  1. 画像の中から目標の物体を検出する物体検出装置であって、
    前記物体のモデルの輪郭の一部または当該モデルの部位を表す1つまたは複数の開曲線からなるテンプレートを記憶するテンプレート記憶手段と、
    検出の対象とする画像を入力する画像入力手段と、
    入力された画像に対して前記テンプレートによる固定形状とのマッチング度を算出することによって、当該入力された画像の中から前記物体を検出する検出手段と、
    を有することを特徴とする物体検出装置。
  2. 画像の中から目標の物体を検出する物体検出装置であって、
    前記物体のモデルの輪郭の一部または当該モデルの部位を表す1つまたは複数の開曲線からなるテンプレートを記憶するテンプレート記憶手段と、
    検出の対象とする画像を入力する画像入力手段と、
    入力された画像のエッジ画像を生成するエッジ画像生成手段と、
    生成された前記エッジ画像のそれぞれの位置に前記テンプレートを重ね合わせた際の、当該エッジ画像のエッジと当該テンプレートの前記1つまたは複数の開曲線とが重なった画素の個数の多さに基づいて、前記物体を検出する検出手段と、
    を有することを特徴とする物体検出装置。
  3. 画像の中から目標の物体を検出する物体検出装置であって、
    前記物体のモデルの輪郭の一部または当該モデルの部位を表す1つまたは複数の開曲線および当該モデルの所定の位置を示すポイントからなりかつ当該ポイントを中心に当該1つまたは複数の開曲線を半回転させてなるテンプレートを記憶するテンプレート記憶手段と、
    検出の対象とする画像を入力する画像入力手段と、
    入力された画像のエッジ画像を生成するエッジ画像生成手段と、
    生成された前記エッジ画像と前記テンプレートとを、当該エッジ画像のエッジ上の画素と当該テンプレートの前記ポイントとが一致するように重ね合わせる、重ね合わせ手段と、
    前記エッジ画像の画素ごとに、前記重ね合わせ手段によって当該エッジ画像のエッジ上の各画素について重ね合わせを行った際の前記テンプレートの前記1つまたは複数の開曲線と重なった回数をカウントする、カウント手段と、
    前記カウント手段によってカウントされた前記回数に基づいて前記物体を検出する検出手段と、
    を有することを特徴とする物体検出装置。
  4. 画像の中から目標の物体を検出する物体検出装置であって、
    前記物体のモデルの輪郭の一部または当該モデルの部位を表す1つまたは複数の開曲線および当該1つまたは複数の開曲線を挟む複数の領域からなるテンプレートを記憶するテンプレート記憶手段と、
    検出の対象とする画像を入力する画像入力手段と、
    入力された画像の明度画像を生成する明度画像生成手段と、
    生成された前記明度画像のそれぞれの位置に前記テンプレートを重ね合わせた際の、当該テンプレートの前記複数の領域と重なる当該明度画像の各画像領域の平均明度を算出する、平均明度算出手段と、
    前記平均明度算出手段によって算出された、前記明度画像の前記各画像領域の前記平均明度に基づいて、前記物体を検出する検出手段と、
    を有することを特徴とする物体検出装置。
  5. 前記物体は人であって、
    前記テンプレートを構成する前記開曲線は、人の頭部の上半分の輪郭である、
    請求項1ないし請求項4のいずれかに記載の物体検出装置。
  6. 前記物体は人であって、
    前記テンプレートを構成する前記開曲線は、人の両肩の輪郭である、
    請求項1ないし請求項4のいずれかに記載の物体検出装置。
  7. 画像に対してテンプレートによる固定形状とのマッチング度を算出することによって、当該画像の中から目標の物体を検出する物体検出方法であって、
    前記テンプレートとして、前記物体のモデルの輪郭の一部または当該モデルの部位を表す1つまたは複数の開曲線からなるテンプレートを使用する、
    ことを特徴とする物体検出方法。
  8. 画像の中から前記マッチング度を算出するために使用されかつ前記物体のモデルの輪郭の一部または当該モデルの部位を表す1つまたは複数の開曲線からなるテンプレートを記録する、
    ことを特徴とする記録媒体。
JP2003385846A 2003-11-14 2003-11-14 物体検出装置、物体検出方法、および記録媒体 Expired - Fee Related JP4085959B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2003385846A JP4085959B2 (ja) 2003-11-14 2003-11-14 物体検出装置、物体検出方法、および記録媒体
US10/777,363 US7305106B2 (en) 2003-11-14 2004-02-12 Object detection apparatus, object detection method and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003385846A JP4085959B2 (ja) 2003-11-14 2003-11-14 物体検出装置、物体検出方法、および記録媒体

Publications (2)

Publication Number Publication Date
JP2005149144A true JP2005149144A (ja) 2005-06-09
JP4085959B2 JP4085959B2 (ja) 2008-05-14

Family

ID=34567389

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003385846A Expired - Fee Related JP4085959B2 (ja) 2003-11-14 2003-11-14 物体検出装置、物体検出方法、および記録媒体

Country Status (2)

Country Link
US (1) US7305106B2 (ja)
JP (1) JP4085959B2 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009166323A (ja) * 2008-01-15 2009-07-30 Sigumakkusu Kk 射出成形機監視装置
JP2011210181A (ja) * 2010-03-30 2011-10-20 Secom Co Ltd 学習装置及び対象物検知装置
WO2012077267A1 (ja) * 2010-12-09 2012-06-14 パナソニック株式会社 人検出装置および人検出方法
JP2014186525A (ja) * 2013-03-22 2014-10-02 Mega Chips Corp 人物検出装置
JP2014186523A (ja) * 2013-03-22 2014-10-02 Mega Chips Corp 人物検出装置
JP2016075693A (ja) * 2011-03-30 2016-05-12 株式会社国際電気通信基礎技術研究所 計測装置,計測方法および計測プログラム
JP2018127349A (ja) * 2017-02-10 2018-08-16 フジテック株式会社 エレベータのドア制御システム
JP2018169831A (ja) * 2017-03-30 2018-11-01 セコム株式会社 画像比較装置
CN112784771A (zh) * 2021-01-27 2021-05-11 浙江芯昇电子技术有限公司 人形检测方法、系统和监控设备

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6807286B1 (en) * 2000-04-13 2004-10-19 Microsoft Corporation Object recognition using binary image quantization and hough kernels
JP4425642B2 (ja) * 2004-01-08 2010-03-03 富士重工業株式会社 歩行者抽出装置
JP2007294739A (ja) * 2006-04-26 2007-11-08 Toshiba Corp パターン形状評価方法、プログラムおよび半導体装置の製造方法
US8873794B2 (en) * 2007-02-12 2014-10-28 Shopper Scientist, Llc Still image shopping event monitoring and analysis system and method
US8615112B2 (en) 2007-03-30 2013-12-24 Casio Computer Co., Ltd. Image pickup apparatus equipped with face-recognition function
CN101452525B (zh) * 2007-11-28 2012-05-23 财团法人工业技术研究院 适应性物件侦测的方法与装置
US20110279475A1 (en) * 2008-12-24 2011-11-17 Sony Computer Entertainment Inc. Image processing device and image processing method
WO2010080687A1 (en) * 2009-01-09 2010-07-15 Thomson Licensing Method and apparatus for detecting and separating objects of interest in soccer video by color segmentation and shape analysis
US9293017B2 (en) * 2009-02-26 2016-03-22 Tko Enterprises, Inc. Image processing sensor systems
US9740921B2 (en) 2009-02-26 2017-08-22 Tko Enterprises, Inc. Image processing sensor systems
US9277878B2 (en) 2009-02-26 2016-03-08 Tko Enterprises, Inc. Image processing sensor systems
JP5683291B2 (ja) * 2010-05-07 2015-03-11 キヤノン株式会社 動画再生装置、方法及びプログラム並びに記録媒体
US9030560B2 (en) * 2010-06-07 2015-05-12 Honda Motor Co., Ltd. Apparatus for monitoring surroundings of a vehicle
US8620088B2 (en) 2011-08-31 2013-12-31 The Nielsen Company (Us), Llc Methods and apparatus to count people in images
CN102663354B (zh) * 2012-03-26 2014-02-19 腾讯科技(深圳)有限公司 人脸标定方法和系统
EP2994884A4 (en) * 2013-05-09 2017-03-08 Tata Consultancy Services Limited Method and apparatus for image matching
US20160292516A1 (en) * 2013-11-20 2016-10-06 Nec Corporation Two-wheel vehicle riding person number determination method, two-wheel vehicle riding person number determination system, two-wheel vehicle riding person number determination apparatus, and program
US10559091B2 (en) * 2015-09-11 2020-02-11 Nec Corporation Object counting device, object counting method, object counting program, and object counting system
US9886754B2 (en) * 2016-04-05 2018-02-06 General Electric Company System and method for detecting missing tooth in mining shovel
CN108229314B (zh) * 2017-11-28 2021-05-04 深圳市商汤科技有限公司 目标人物的搜索方法、装置和电子设备
CN108038469B (zh) * 2017-12-27 2019-10-25 百度在线网络技术(北京)有限公司 用于检测人体的方法和装置
KR20190128959A (ko) * 2018-05-09 2019-11-19 삼성전자주식회사 전자 장치 및 전자 장치의 이미지 처리 방법

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9019538D0 (en) * 1990-09-07 1990-10-24 Philips Electronic Associated Tracking a moving object
CN1045129C (zh) * 1993-03-29 1999-09-15 松下电器产业株式会社 个人识别装置
CA2119327A1 (en) * 1993-07-19 1995-01-20 David Crawford Gibbon Method and means for detecting people in image sequences
US5835616A (en) * 1994-02-18 1998-11-10 University Of Central Florida Face detection using templates
US5852669A (en) 1994-04-06 1998-12-22 Lucent Technologies Inc. Automatic face and facial feature location detection for low bit rate model-assisted H.261 compatible coding of video
DE19810792A1 (de) * 1998-03-12 1999-09-16 Zentrum Fuer Neuroinformatik G Verfahren zum Verifizieren der Authentizität eines im Rahmen einer Personenerkennung aufgenommenen Bildes
JP3230509B2 (ja) 1998-06-26 2001-11-19 日本電気株式会社 動画像処理装置
JP2000197050A (ja) * 1998-12-25 2000-07-14 Canon Inc 画像処理装置及び方法
US6879705B1 (en) * 1999-07-14 2005-04-12 Sarnoff Corporation Method and apparatus for tracking multiple objects in a video sequence
DE19962201A1 (de) * 1999-09-06 2001-03-15 Holger Lausch Verfahren und Anordnung zur Erfassung und Analyse des Rezeptionsverhaltens von Personen
US7123745B1 (en) * 1999-11-24 2006-10-17 Koninklijke Philips Electronics N.V. Method and apparatus for detecting moving objects in video conferencing and other applications
JP2001222719A (ja) 1999-12-01 2001-08-17 Matsushita Electric Ind Co Ltd 顔抽出装置及び顔抽出方法並びに顔抽出プログラムの記録媒体
JP2001175868A (ja) 1999-12-22 2001-06-29 Nec Corp 人物検出方法及び装置
DE10043460C2 (de) * 2000-09-04 2003-01-30 Fraunhofer Ges Forschung Auffinden von Körperpartien durch Auswerten von Kantenrichtungsinformation
EP1197912A3 (en) * 2000-10-11 2004-09-22 Hiroaki Kunieda System for fingerprint authentication
JP3983469B2 (ja) * 2000-11-14 2007-09-26 富士フイルム株式会社 画像処理装置、方法及び記録媒体
JP2002175538A (ja) * 2000-12-08 2002-06-21 Mitsubishi Electric Corp 似顔絵生成装置及び似顔絵生成方法及び似顔絵生成プログラムを記録した記録媒体及び通信用端末及び通信用端末による通信方法
EP1260935B1 (en) * 2001-05-22 2006-07-12 Matsushita Electric Industrial Co., Ltd. Face detection device, face pose detection device, partial image extraction device, and methods for said devices
KR100470931B1 (ko) * 2001-12-05 2005-02-22 가부시키가이샤 히다치 고쿠사이 덴키 템플레이트 매칭을 이용한 물체추적방법 및 장치
US7133538B2 (en) * 2002-04-10 2006-11-07 National Instruments Corporation Pattern matching utilizing discrete curve matching with multiple mapping operators
US7120301B2 (en) * 2002-04-10 2006-10-10 National Instruments Corporation Efficient re-sampling of discrete curves
US7136505B2 (en) * 2002-04-10 2006-11-14 National Instruments Corporation Generating a curve matching mapping operator by analyzing objects of interest and background information
US7203356B2 (en) * 2002-04-11 2007-04-10 Canesta, Inc. Subject segmentation and tracking using 3D sensing technology for video compression in multimedia applications
AU2003265284A1 (en) * 2002-07-19 2004-02-09 Dicut Inc. Face recognition system and method therefor
US7158677B2 (en) * 2002-08-20 2007-01-02 National Instruments Corporation Matching of discrete curves under affine transforms
JP4390487B2 (ja) 2003-07-03 2009-12-24 セコム株式会社 頭部領域抽出装置

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009166323A (ja) * 2008-01-15 2009-07-30 Sigumakkusu Kk 射出成形機監視装置
JP2011210181A (ja) * 2010-03-30 2011-10-20 Secom Co Ltd 学習装置及び対象物検知装置
WO2012077267A1 (ja) * 2010-12-09 2012-06-14 パナソニック株式会社 人検出装置および人検出方法
JP2012123668A (ja) * 2010-12-09 2012-06-28 Panasonic Corp 人検出装置および人検出方法
US8934674B2 (en) 2010-12-09 2015-01-13 Panasonic Corporation Person detection device and person detection method
JP2016075693A (ja) * 2011-03-30 2016-05-12 株式会社国際電気通信基礎技術研究所 計測装置,計測方法および計測プログラム
JP2014186525A (ja) * 2013-03-22 2014-10-02 Mega Chips Corp 人物検出装置
JP2014186523A (ja) * 2013-03-22 2014-10-02 Mega Chips Corp 人物検出装置
JP2018127349A (ja) * 2017-02-10 2018-08-16 フジテック株式会社 エレベータのドア制御システム
JP2018169831A (ja) * 2017-03-30 2018-11-01 セコム株式会社 画像比較装置
CN112784771A (zh) * 2021-01-27 2021-05-11 浙江芯昇电子技术有限公司 人形检测方法、系统和监控设备

Also Published As

Publication number Publication date
US7305106B2 (en) 2007-12-04
JP4085959B2 (ja) 2008-05-14
US20050105770A1 (en) 2005-05-19

Similar Documents

Publication Publication Date Title
JP4085959B2 (ja) 物体検出装置、物体検出方法、および記録媒体
US20210287026A1 (en) Method and apparatus with liveness verification
JP3879732B2 (ja) 物体検出装置、物体検知方法、およびコンピュータプログラム
JP2022071195A (ja) コンピューティング装置及び方法
EP3422250A1 (en) Facial verification method and apparatus
US8600121B2 (en) Face recognition system and method
EP2012255B1 (en) Image processing apparatus and image processing method
CN101390128B (zh) 脸部器官的位置的检测方法及检测系统
JP2020061128A5 (ja)
JP4597391B2 (ja) 顔領域検出装置およびその方法並びにコンピュータ読み取り可能な記録媒体
TW202026948A (zh) 活體檢測方法、裝置以及儲存介質
JP2009245338A (ja) 顔画像照合装置
WO2016172923A1 (zh) 视频检测方法、视频检测系统以及计算机程序产品
US20230306792A1 (en) Spoof Detection Based on Challenge Response Analysis
JP4821355B2 (ja) 人物追跡装置、人物追跡方法および人物追跡プログラム
CN105993022B (zh) 利用脸部表情识别和认证的方法和系统
JP2004062393A (ja) 注目判定方法及び注目判定装置
JP2005149145A (ja) 物体検出装置、物体検出方法、およびコンピュータプログラム
CN112633217A (zh) 基于三维眼球模型计算视线方向的人脸识别活体检测方法
CN116567349A (zh) 基于多摄像机的视频展示方法、装置及存储介质
CN112861588A (zh) 一种活体检测的方法、装置
JP5242827B2 (ja) 顔画像処理装置、顔画像処理方法、電子スチルカメラ、デジタル画像処理装置およびデジタル画像処理方法
EP4120184A1 (en) Information processing device, information processing method, and program
JP2005140754A (ja) 人物検知方法、監視システム、およびコンピュータプログラム
JP2005149143A (ja) 物体検出装置、物体検知方法、およびコンピュータプログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070410

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070607

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080211

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110228

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4085959

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110228

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120229

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120229

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130228

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140228

Year of fee payment: 6

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees