JP6000602B2 - 体検出方法及び物体検出装置 - Google Patents

体検出方法及び物体検出装置 Download PDF

Info

Publication number
JP6000602B2
JP6000602B2 JP2012082379A JP2012082379A JP6000602B2 JP 6000602 B2 JP6000602 B2 JP 6000602B2 JP 2012082379 A JP2012082379 A JP 2012082379A JP 2012082379 A JP2012082379 A JP 2012082379A JP 6000602 B2 JP6000602 B2 JP 6000602B2
Authority
JP
Japan
Prior art keywords
detection
estimation
region
image
hierarchy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012082379A
Other languages
English (en)
Other versions
JP2013210967A (ja
JP2013210967A5 (ja
Inventor
健二 塚本
健二 塚本
寛 鳥居
寛 鳥居
優和 真継
優和 真継
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012082379A priority Critical patent/JP6000602B2/ja
Priority to US13/851,837 priority patent/US9213909B2/en
Priority to CN201310121632.9A priority patent/CN103366171B/zh
Publication of JP2013210967A publication Critical patent/JP2013210967A/ja
Publication of JP2013210967A5 publication Critical patent/JP2013210967A5/ja
Priority to US14/956,134 priority patent/US10395103B2/en
Application granted granted Critical
Publication of JP6000602B2 publication Critical patent/JP6000602B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/248Character recognition characterised by the processing or recognition method involving plural approaches, e.g. verification by template match; Resolving confusion among similar patterns, e.g. "O" versus "Q"
    • G06V30/2504Coarse or fine approaches, e.g. resolution of ambiguities or multiscale approaches

Description

本発明は精度を維持しつつ高速に検出処理を行う方法に関する。
従来、画像から対象を検出する方法する際、一度学習したモデルを用いて検出処理をし、検出結果をもとに探索する階層範囲を限定し、より高精度のモデルで検出処理を行う方法がある。
特許文献1には、階層画像に対して第一検出を行い、次の入力画像に対して第一検出で検出できた同じ階層画像に対してのみ第二検出を行う方法が開示されている。
特許第04498296号明細書
しかしながら、特許文献1では階層を同じ階層に限定しているため、次の入力画像においても同じ階層が最も検出しやすいとは限らない。また、第一検出と第二検出で異なるモデルを使用する場合、第一検出と第二検出において検出しやすい階層が同じ階層になるとは限らないため、全体の検出精度が低下する問題がある。
本発明は、以上の課題に鑑みてなされたものであり、検出精度を維持したまま第二検出を高速に行い、全体処理を高速化することを目的とする。
本発明の目的を達成するために、例えば、本発明の物体検出方法は、対象物体を含んだ画像を取得する画像取得工程と、前記画像を拡大または縮小して、階層画像を生成する階層画像生成工程と、前記階層画像に基づいて、前記対象物体の少なくとも一部の領域を第一検出領域として検出する第一検出工程と、前記第一検出領域に基づいて、第一推定領域を推定する第一推定工程と、前記第一推定領域に基づいて、前記階層画像の階層を限定する階層限定工程と、前記階層限定工程によって限定された階層の階層画像において、前記対象物体の少なくとも一部の領域を第二検出領域として検出する第二検出工程と、前記第二検出領域に基づいて、第二推定領域を推定する第二推定工程と、前記第一推定工程で推定された第一推定領域と、前記第二推定工程で推定された第二推定領域とを統合する統合工程を有する。
本発明によれば、検出精度を維持したまま第二検出を高速に行い、全体処理を高速化することができる。
本発明の第一の実施形態に係る物体検出方法の構成を示す図である。 本発明の第一の実施形態に係る物体検出方法の処理過程を示す図である。 本発明の第一の実施形態に係る物体検出方法の処理過程を示す図である。 本発明の第一の実施形態に係る物体検出方法の処理過程を示す図である。 本発明の第一の実施形態に係る物体検出方法の処理過程を示す図である。 本発明の第一の実施形態に係る物体検出方法の処理過程を示す図である。 本発明の第一の実施形態に係る物体検出方法の処理過程を示す図である。 本発明の第二の実施形態に係る物体検出方法の構成を示す図である。 本発明の第二の実施形態に係る物体検出方法の処理過程を示す図である。 本発明の第二の実施形態に係る物体検出方法の処理過程を示す図である。 本発明の第二の実施形態に係る物体検出方法の処理過程を示す図である。 本発明の第二の実施形態に係る物体検出方法の処理過程を示す図である。 本発明の第二の実施形態に係る物体検出方法の処理過程を示す図である。 本発明の第二の実施形態に係る物体検出方法の処理過程を示す図である。 本発明の第三の実施形態に係る構成を示す図である。 本発明の第三の実施形態に係る物体検出方法の処理過程を示す図である。
以下、添付図面を参照して本発明の実施形態に従って詳細に説明する。
[第1の実施形態]
本実施形態に係る検出方法は、画像に映る対象を安定して検出する方法で、画像取得部についてはカメラやビデオカメラ、ネットワークカメラを用いて撮影した画像を使用してもよいし、あらかじめ撮影し保存されている画像を使用してもよい。以下に図を用いて例を示す。
本実施形態では、人物を含んだ画像を撮影し、得られた画像から、検出したい人物を検出する場合について説明する。なお、本実施形態に係る検出対象は人物としているが、これに限定するものではない。例えば、動物や植物等にも本発明を適用することが出来る。
図1は本実施形態に係る物体検出方法の概略を示す図である。
図1に示すように、本実施形態に係る物体検出方法は、画像取得部101と特徴量生成部102と第一検出部103と第一推定部104と階層限定部105と第二検出部106と第二推定部107と統合部108とを備える。
画像取得部101は、カメラや、あらかじめ撮影した画像から、画像を取得するものである。取得した画像は特徴量生成部102とへと送られる。
特徴量生成部102は、画像取得部101で取得した画像に対して、図2に示すように一定のスケールで拡大・縮小を行って階層画像201を作成し、各階層画像に対して特徴量を生成する。このように、階層画像とは、画像を一定のスケールで拡大・縮小した画像のことをいう。生成する特徴量はHOG特徴量でもよいし、Haar−Like特徴量でも色特徴量でもよいし、それらの積分画像にしてもよい。生成された階層特徴量は第一検出部103と階層限定部105へと出力される。
第一検出部103は、特徴量生成部102で生成した階層画像201の特徴量に対して検出処理を行う。
図3に示しているように、本実施形態では第一検出部103は、階層特徴量201のある一つの階層画像302の特徴量に対して人物の頭部周辺領域を検出している。ここでいう頭部周辺領域とは、人物の頭部だけでなく、肩まで含んだ領域を指している。なお、人物の頭部周辺領域に限定するものではなく、腕、胴体、足等でもかまわない。また、本実施形態では1つの階層に対して検出処理を行っているが、階層画像全体に対して検出処理を行ってもかまわない。
物体の検出方法は、HOG+SVM(参考文献:histograms of oriented gradients for human detetction、N。Dalal、CVPR2005)やISM(Combined Object Categorization and Segmentation with an Implicit Shape Model、B。Leibe、ECCV2004)、Latent−SVM(参考文献:Object Detection with Discirminateively Trained Part Based Models,P.Felzenswalb,R.Girschick,D.McAllestr,D.Ramanan、IEEE PAMI,Vol.32、No.9, 2010)などの公知の技術を用いて検出処理を行う。ある階層画像302の特徴量内において第一検出部103により、検出された結果が303である。
また、第一検出部103は画像取得部101により取得した画像に対しても、対象となる物体の領域を検出する検出処理を行ってもよい。その際、検出処理はパターンマッチング等の公知の技術を用いて検出処理を行う。
第一の検出部103による、頭部周辺領域の検出結果303は、第一推定部104へと送られる。
第一推定部104は、第一検出部103から取得した検出結果202を用いて、特定パーツ領域の推定を行う。本実施形態では、特定パーツ領域として、頭部領域を推定している。ここでいう頭部とは、上記の、頭部だけでなく、肩まで含んだ頭部周辺領域に対して、頭部のみをいう。本発明では、第一の検出部103で、頭部周辺領域を検出し、第一の推定部104で頭部のみを推定することとしている。もっとも、第一の検出部で、頭部周辺以外の領域を検出する場合は、第一の推定部104で推定する領域も頭部でないことはいうまでもない。
以下、頭部領域推定の方法について説明する。頭部領域推定の方法は、頭部周辺領域の検出結果303の位置座標を用いて、次の式によって求めることができる。
Figure 0006000602
ここで、x,yは検出結果領域303の左上の座標、x,yは検出結果領域の右下座標を表している。
Aは、頭部から肩の領域を含んだルートフィルタ303と、ルートフィルタ303の一部を表す複数のパーツフィルタ3031〜3034で構成される検出結果を行列の形式にしたものである。また、検出結果を行列形式に変換する際、各パーツフィルタ3031〜3034の中心座標を検出位置においての検出結果領域303の中心座標で差分をとる。差分をとった座標のx座標を検出結果領域303の幅wで、y座標を検出結果領域303の高さhで正規化する。正規化した各パーツフィルタの中心座標x、yを行列(行は1個の検出結果のパーツフィルタ正規化座標、列は各検出結果を意味する)にしたものである。
pは、学習データに対して検出処理を行い、検出結果と実際の頭部サイズをもとに、頭部領域サイズを線形予測するための係数をベクトルにしたもの(正規化したパーツフィルタの各中心座標にかける係数が並んでいる)である。学習データとは、予め用意した人物が写っている画像群のことをいう。
図2に示しているように、頭部検出領域303から頭部領域推定を行った結果304が得られる。この頭部領域推定結果304は、階層限定部105と統合部108へと出力される。
階層限定部105は、特徴量生成部102で生成された特徴量と、第一推定部103で推定した頭部領域304とをもとに、第二検出部106において検出処理をする階層を決定する。決定方法としては式(2)を用いて階層を求める。
図4に示す405は、前述の学習データについて、第一検出部103の検出結果の階層を横軸にし、第二検出部106の検出された階層を縦軸とした検出結果のヒストグラムの分布図である。
また、406は、前述の学習データについて、第一推定部103で推定した頭部領域の幅サイズから線形予測により推定した階層を横軸とし、第二検出部106によって検出された結果の階層を縦軸とした検出結果のヒストグラムの分布図である。
図4で示されるように、頭部領域サイズをもとに検出に適した階層の分布を示しているが、頭部領域推定結果を用いた方が、階層の分布が小さくなることが確認できる。これから、学習データから得られた分布406を基に、最小二乗法を用いて係数coeffを算出する。
Figure 0006000602
ここで、Aは学習データの対数をとった頭部領域サイズの結果を行列にしたもので、Bは第二検出部の検出結果における階層を行列にしたものである。算出した係数coeffを用いて、式(3)により階層を決定する。
Figure 0006000602
widthは頭部領域の幅、heightは頭部領域の高さである。
式(3)により求めた階層が、一致するか、若しくはもっとも近い階層画像507の特徴量にのみ検出処理を行うようにし、それ以外の階層509の特徴量には検出処理を適用しないようにする。
限定された階層画像507は、第二検出部106へと出力される。
第二検出部106は、特徴量生成部104と階層限定部105をもとに、限定された階層画像507の特徴量にのみ検出処理を行う。本実施形態では、人体の全身を検出している。もちろん、第二検出部106で検出する対象は、人体の全身以外に限られない。
検出処理方法としては、SVMやBoostingなどの学習手法を用いてあらかじめ学習したモデル508を、スライディングウィンドウにより各位置で検出処理が実行される。
図6に示すように検出処理により取得された検出結果が、610〜612である。得られた検出結果610〜612は、第二推定部107へと出力される。
第二推定部107は、第二検出部106で取得した矩形領域で表される検出結果610〜612に対して、特定パーツ領域を推定する。本実施形態では、特定パーツとして頭部領域を推定している。もちろん、第二推定部107で推定する特定パーツは、頭部領域に限られないが、第一推定部103で推定された領域と同じであることが必要である。その理由は、後述の統合部108で、第一推定部103で推定した領域と、第二推定部107で推定した領域を統合するからである。
推定方法は、第一推定部103で使用している式(1)を使って求めることができる。図6に示すよう、求めた矩形領域で表される頭部領域620〜622は、統合部108へと出力される。
統合部108は、第一推定部103で取得した頭部枠203と第二推定部107で取得した620〜622を統合し、最終検出結果を出力する。
統合方法としては、頭部領域203と、頭部領域620〜622のそれぞれとの、重なり率を算出し、もっとも重なり率が高い頭部枠を、同一の対象を検出しているとして選択する。
図6に示すように、頭部枠203は、頭部枠610と最も重なり率が高いので、その二つの検出結果が組み合わせとして選択され、最終検出結果として610が出力される。検出結果611と612は誤検出として出力されない。
以上が、本実施形態に関する構成部分である。
続いて、図7に示したフローチャートを用いて、本実施形態における物体検出方法100が行う処理について説明する。なお、同フローチャートに従ったプログラムコードは、本実施形態の方法内の、不図示のRAMやROMなどのメモリに格納され、不図示のCPUなどにより読み出され、実行される。
(ステップS100)
処理全体がステップS100において開始されると、まずステップS101へと進んで、画像取得部101によりカメラや画像ファイルなどから画像201を取得する。取得した画像201はと特徴量生成部102へと送られ、処理はステップS102へと進む。
(ステップS102)
ステップS102では、画像取得部101で取得した画像に対して画像の拡大・縮小処理を実施して階層画像201を作成し、各階層画像に対して特徴量を生成する。
生成する特徴量はHOG特徴量でもHaar−Like特徴量でも色特徴量でもよい。この処理の結果として階層特徴量が得られる。生成した特徴量は、第一検出部103と階層限定部105へと出力され、処理はステップS103へと進む。
(ステップS103)
ステップS103では、第一検出部103により検出処理が行われる。第一検出部103は階層画像201の特徴量の一つの階層画像302の特徴量に対して検出処理を行う。
また、第一検出部103は生成した階層特徴量201に検出処理を行ってもよいし、画像取得部101で取得した画像に対してパターンマッチング等で検出処理を行ってもかまわない。
検出方法としてはHOG+SVMやISMなどの公知の技術を用いて行われる。また、本実施形態で第一検出部103は、人物の頭部領域を検出しているが、本発明ではそれに限定したものではない。検出処理により取得した検出結果303は第一推定部103へと出力され、処理はステップS104へと進む。
(ステップS104)
ステップS104では、第一検出結果が取得できているかを判定する。検出結果がなければ処理は終了し、検出結果303があれば処理はステップS105へと進む。
(ステップS105)
ステップS105では、第一検出部103から取得した検出結果303に対して、第一推定部103において特定パーツの領域を推定する。
本実施形態では特定パーツとして頭部領域を推定するようになっているが、本発明では頭部領域に限定しない。第一推定部では式(1)を用いて検出結果から頭部領域304を推定する。
全ての頭部領域推定処理が終われば、得られた頭部領域304は、階層限定部105と統合部108へと出力され、処理はステップS106へと進む。
(ステップS106)
ステップS106では、階層限定部105は、第一推定部103で推定した頭部領域304を用いて、特徴量生成部102で生成した特徴量に対して、第二検出部106で検出処理を行う階層を限定する。
階層を限定する方法は、第一推定部103と第二推定部107の結果を統合した最終結果を学習データとして式(2)を用いて係数を求め、式(3)による頭部枠と係数の線形予測により階層を算出する。
これにより、第二検出部106において検出処理を行うのにもっともよい階層の特徴量を決定することができる。図5に示すように、決定した階層により検出処理が実行される階層画像507の特徴量と、検出処理が実行されない階層画像509の特徴量にわけられ、処理はステップS107へと進む。
(ステップS107)
ステップS107では、第二検出部106により検出処理が実行される。
検出方法としては、SVMやBoostingなどの学習手法を用いて、あらかじめ学習したモデル508を、スライディングウィンドウにより各位置で検出処理が実行される。また実施形態でモデルは全身の人体を検出しているが、本発明は、これに限定されない。
図6に示すように、第二検出部106の検出処理により、検出結果610〜612が取得され、検出結果610〜612は第二推定部107へと出力され、処理はステップS108へと進む。
(ステップS108)
ステップS108では、第二検出部106から取得した検出結果610〜612に対して第二推定部107で特定パーツの推定が行われる。
本実施形態では特定パーツとして、頭部領域の推定を行っているが、本発明は、これに限定されない。頭部領域の推定方法は、第一推定部103で使用している式(1)を用いて行われる。
図6に示すように、第二推定部107で推定した頭部領域推定結果620〜622が取得される。取得した頭部領域推定結果620〜622は、統合部108へと出力され、処理はステップS109へと進む。
(ステップS109)
ステップS109では、第一推定部102で推定した頭部枠203と、第二推定部107で推定した頭部領域620〜622とを、統合部108で統合処理を行う。
統合処理方法としては、頭部枠203と、頭部枠620〜622との、それぞれの重なり率を算出し、もっとも重なり率が高い組み合わせの結果を、同一の対象を検出しているとして選択する。
図6に示すように頭部枠203と頭部枠620の重なり率が最も高いので、その二つの推定枠が組み合わせとして選択され、検出結果610が最終検出結果として出力される。また、検出結果611と612は統合部108により誤検出として処理される。
以上で、全体の処理は終了となる。
[第2の実施形態]
図8は、本実施形態に係る物体検出方法800の概略を示す図である。
図8に示すように、物体検出方法800は、画像取得部801と特徴量生成部802と複数の検出モデルを持つ第一検出部803と第一推定部804と階層限定部805と複数の検出モデルを持つ第二検出部806と第二推定部807と統合部808とを備える。
画像取得部801は、カメラや、あらかじめ撮影した画像から画像901を取得する。取得した画像901は、特徴量生成部802とへと送られる。
特徴量生成部802は、画像取得部801で取得した画像901に対して、図10に示すように画像を一定のスケールで拡大・縮小処理を行って階層画像1002を作成し、階層画像1002の各階層に対して特徴量を生成する。生成する特徴量はHOG特徴量でもよいしHaar−Like特徴量や色特徴量でもよい。
生成された階層特徴量は、第一検出部803と階層限定部805へと出力される。
第一検出部803は、特徴量に対して検出処理を行う。図10のように、第一検出部803では、複数の人物の頭部領域をモデルとして持ち、各モデルを階層画像1001の特徴量に対してスライディングウィンドウにより各位置で検出処理を行い、対象物体の領域を検出する。本実施形態では、第一検出部803は人物の頭部周辺領域を検出しているが、ここでいう頭部周辺領域とは、人物の頭部だけでなく、肩まで含んだ領域を指している。なお、人物の頭部周辺領域に限定するものではなく、腕、胴体、足等でもかまわない。
頭部領域の検出は、第一の実施形態で述べた、公知の技術を使用して行われる。
階層画像1001の特徴量内において、第一検出部802により検出された結果が1104〜1106である。検出結果1104〜1104は第一推定部804へと送られる。
第一推定部804は、第一検出部803で取得した頭部周辺領域の検出結果1104〜1106をもとに特定パーツ領域の推定を行う。本実施形態では、頭部領域を推定しているが、本発明はこれに限定されない。
頭部領域推定の方法は、第一検出部803による検出結果の位置座標を用いて、次の式(4)によって求めることができる。
ここで、x,yは検出結果枠の左上の座標、x,yは検出結果枠の右下座標を表していている。
Aは1個の検出結果に対してパーツフィルタの左上座標、右下座標をルートフィルタの中心座標・サイズで正規化した値を行列に変換したものである。
は学習によって得られる係数(mはモデル数)をベクトルにしたものである。このとき、Pは正解の頭部枠と第二検出部の枠とをセットで持った学習データに対して、最小二乗法を使ってパラメーラをモデル別に求めておく。
Figure 0006000602
図11のように、頭部領域検出結果1104〜1106に対して推定した頭部領域推定結果1115〜1116である。この頭部領域推定結果1114〜1116は、階層限定部805と統合部808へと出力される。
階層限定部805は、第一推定部804で推定した頭部枠1114〜1116をもとに第二検出部806において階層画像1002の特徴量に対して検出処理をする階層を決定する。
図12に示す分布は、学習データについて、統合部108から出力された最終検出結果において、そのときの頭部領域サイズと第二検出部806から出力された結果がどの階層の特徴量において検出されたかを分布にしたものである。
1201は立位の全身人物で、1202は前傾の全身人物で、1203はしゃがみの全身人物である。このように姿勢が異なる場合、頭部領域サイズから推定に適した階層が異なる。そのため、モデル別に係数を最小二乗法によって学習し、式(5)により係数をもとめる。
Figure 0006000602
ここで、Amはモデル別に学習データの対数をとった頭部枠サイズの結果を行列にしたもので、Bはモデル別に第二検出部の検出結果における階層を行列にしたものである。求めた係数を使用して、式(6)を用いて検出する階層を算出する。
Figure 0006000602
この頭部領域に対して、係数の重み付け和をとることで、第二検出部806において検出処理を行うのにもっともよい階層を決定することができる。図13に示すように、決定した階層1307により、検出処理される階層1307と、検出処理されない階層1308にわけられる。
第二検出部806は、特徴量生成部802と階層限定部805をもとに、限定した階層画像1307にのみ検出処理を実行する。
図13に示すように、検出処理方法としては、SVMやBoostingなどの学習手法を用いてあらかじめ学習した各モデル1309をスライディングウィンドウにより各位置で処理が実行される。本実施形態では、モデルは、全身の人体を検出しているが、本発明は、これに限定されない。
また、本実施形態では第二検出部806はあるモデルでは立位の人物を、別のモデルではしゃがんだ人物などをモデルが異なり、姿勢変動に対応した人体を検出することができる。図14に示すように、検出処理により姿勢が異なる全身人物の検出結果1410〜1415が取得される。得られた検出結果1410〜1415は第二推定部107へと出力される。
第二推定部807は、第二検出部806から取得した検出結果1410〜1415に対して、特定パーツの領域を推定する。実施形態では頭部領域を推定しているが、本発明はこれに限定するものではない。もちろん、第二推定部807で推定する特定パーツは、頭部領域に限られないが、第一推定部804で推定された領域と同じであることが必要である。その理由は、後述の統合部108で、第一推定部804で推定した領域と、第二推定部807で推定した領域を統合するからである。
推定方法は、第一推定部804と式(4)を使ってモデル別に頭部領域を推定する。これにより、求めた頭部枠1420〜1425は統合部808へと出力される。
統合部108は、第一の実施形態と同様に、第一推定部804の頭部領域1114〜1116と、第二推定部807の頭部領域1420〜1425とに対して統合処理を行う。最終的に本実施形態では1410、1411、1412が最終検出結果として出力される。
以上が、本実施形態に関する構成部分である。
[第3の実施形態]
図15は第3の実施形態に係る物体検出方法1500の概略を示す図である。
図15のように、物体検出方法1500は、以下の構成を備える。即ち、画像取得部101と特徴量生成部802と複数の検出モデルを持つ第一検出部803と第一推定部804と階層・範囲限定部1505と複数の検出モデルを持つ第二検出部1506と第二推定部807と統合部108とを備える。
本実施形態では、階層・範囲限定部1506において、第二検出部1506で用いる各モデル別に階層と検出処理範囲を限定して検出処理を行う。第一推定部804から得られた頭部の推定サイズと位置をもとに、各モデル別に検出を行う階層画像の特徴量を決定する。
まず、立位の人物に対して、式(6)を用いて階層を算出し、階層画像1601を算出する。
次に頭部推定領域の位置1602とモデル1603のフィルタサイズから、頭部推定位置1602を中心として上下左右にモデル1603のフィルタが含まれる範囲をくまなく検出できるよう検出処理範囲1604を決定する。このとき、検出処理範囲1604は領域としてもメモリに確保してもよいし、検出処理範囲1604内をラベルづけたマップとして保持してもよい。
第二検出部1605は、決定した検出処理範囲1604に対応するモデルのみで検出処理を行う。
同様にしゃがみの人物に対しては、階層画像1605の特徴量に対して頭部領域1606の位置とモデル1607のサイズから検出処理範囲1608を決定する。 前傾の人物に対しても、階層画像1608の特徴量に対して頭部領域1610の位置とモデル1611のサイズから検出処理範囲1612を決定する。
以上により、全体検出処理をより高速に行うことができる。
なお、第1〜3の実施形態では様々な実施形態について説明したが、何れも、下記の構成の一例に過ぎず、下記の構成に基づいていれば、他の実施形態についても本発明の範疇である。
即ち、対象物体を含んだ画像を取得する(画像取得工程)。そして、前記画像を複数の異なる倍率で変倍して、階層画像を生成する(階層画像生成工程)。そして、前記階層画像に基づいて、前記対象物体の少なくとも一部の領域を検出する(第一検出工程)。そして、前記階層画像に基づいて、前記対象物体の少なくとも一部の領域を検出する第一検出工程と、前記第一検出工程で検出された第一検出領域に基づいて、第一特定パーツ領域を推定する(第一推定工程)。そして、前記第一特定パーツ領域と、あらかじめ学習した学習データとに基づいて、前記階層画像の階層を限定する(階層限定工程)。そして、前記階層限定工程によって限定された階層の階層画像において、前記対象物体の少なくとも一部の領域を検出する(第二検出工程)。そして、前記第二検出工程で検出された第二検出領域に基づいて、第二特定パーツ領域を推定する(第二推定工程)。そして、前記第一推定工程で推定された推定結果と、前記第二推定工程で推定された推定結果とを統合し、前記対象物体の特定パーツ領域として決定する(統合工程)。
以上、実施形態を詳述したが、本発明は、例えば、システム、装置、方法、プログラム、もしくは記憶媒体等としての実施態様をとることが可能である。具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
尚、本発明は、ソフトウェアのプログラムをシステム或いは装置に直接或いは遠隔から供給し、そのシステム或いは装置のコンピュータが該供給されたプログラムコードを読み出して実行することによって前述した実施形態の機能が達成される場合を含む。この場合、供給されるプログラムは実施形態で図に示したフローチャートに対応したコンピュータプログラムである。
従って、本発明の機能処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であっても良い。
コンピュータプログラムを供給するためのコンピュータ読み取り可能な記憶媒体としては以下が挙げられる。例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などである。
その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続し、該ホームページから本発明のコンピュータプログラムをハードディスク等の記憶媒体にダウンロードすることが挙げられる。この場合、ダウンロードされるプログラムは、圧縮され自動インストール機能を含むファイルであってもよい。また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。
また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布するという形態をとることもできる。この場合、所定の条件をクリアしたユーザに、インターネットを介してホームページから暗号を解く鍵情報をダウンロードさせ、その鍵情報を使用して暗号化されたプログラムを実行し、プログラムをコンピュータにインストールさせるようにもできる。
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどとの協働で実施形態の機能が実現されてもよい。この場合、OSなどが、実際の処理の一部または全部を行ない、その処理によって前述した実施形態の機能が実現される。
さらに、記憶媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれて前述の実施形態の機能の一部或いは全てが実現されてもよい。この場合、機能拡張ボードや機能拡張ユニットにプログラムが書き込まれた後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行なう。
101 画像取得部
102 第一検出部
103 第一推定部
104 特徴量推定部
105 階層限定部
106 第二限定部
107 第二推定部
108 統合部

Claims (10)

  1. 対象物体を含んだ画像を取得する画像取得工程と、
    前記画像を拡大または縮小して、階層画像を生成する階層画像生成工程と、
    前記階層画像に基づいて、前記対象物体の少なくとも一部の領域を第一検出領域として検出する第一検出工程と、
    前記第一検出領域に基づいて、第一推定領域を推定する第一推定工程と、
    前記第一推定領域に基づいて、前記階層画像の階層を限定する階層限定工程と、前記階層限定工程によって限定された階層の階層画像において、前記対象物体の少なくとも一部の領域を第二検出領域として検出する第二検出工程と、
    前記第二検出領域に基づいて、第二推定領域を推定する第二推定工程と、
    前記第一推定工程で推定された第一推定領域と、前記第二推定工程で推定された第二推定領域とを統合する統合工程を有する物体検出方法。
  2. 前記統合工程は、前記第一推定領域と、前記第二推定領域の重なり率に基づいて、前記第一推定領域と第二推定領域とを統合することを特徴とする請求項1に記載の物体検出方法。
  3. 前記第一検出工程および、前記第二検出工程は、少なくとも1以上の前記対象物体のモデルを用いて、検出を行うことを特徴とする請求項1または2に記載の物体検出方法。
  4. 前記第一推定工程は、前記第一検出領域の座標・サイズに基づいて、前記第一推定領域を推定することを特徴とする請求項1乃至3のいずれか1項に記載の物体検出方法。
  5. 前記第二推定工程は、前記第二検出領域の検出結果の座標・サイズに基づいて、前記第二推定領域を推定することを特徴とする請求項1乃至4のいずれか1項に記載の物体検出方法。
  6. 前記階層限定工程は、前記第一推定工程で推定された第一推定領域の位置と、前記第二検出工程で用いられるモデルのサイズに基づいて、前記第二検出工程で行う検出処理の処理範囲を限定することを特徴とする前記請求項1乃至5のいずれか1項に記載の物体検出方法。
  7. 前記第一検出工程は、頭部を含んだ領域を検出することを特徴とする請求項1乃至6のいずれか1項に記載の物体検出方法。
  8. 前記第二検出工程は、人体を検出することを特徴とする請求項1乃至7のいずれか1項に記載の物体検出方法。
  9. 対象物体を含んだ画像を取得する画像取得手段と、
    前記画像を拡大または縮小して、階層画像を生成する階層画像生成手段と、
    前記階層画像に基づいて、前記対象物体の少なくとも一部の領域を検出する第一検出手段と、
    前記第一検出手段で検出された第一検出領域に基づいて、第一推定領域を推定する第一推定手段と、
    前記第一推定領域に基づいて、前記階層画像の階層を限定する階層限定手段と、前記階層限定手段によって限定された階層の階層画像において、前記対象物体の少なくとも一部の領域を検出する第二検出手段と、
    前記第二検出手段で検出された第二検出領域に基づいて、第二推定領域を推定する第二推定手段と、
    前記第一推定手段で推定された第一推定領域と、前記第二推定手段で推定された第二推定領域とを統合する統合手段を有する物体検出装置。
  10. 請求項1乃至8の何れか1項に記載された物体検出方法をコンピュータに実行させるためのプログラム。
JP2012082379A 2012-03-30 2012-03-30 体検出方法及び物体検出装置 Active JP6000602B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2012082379A JP6000602B2 (ja) 2012-03-30 2012-03-30 体検出方法及び物体検出装置
US13/851,837 US9213909B2 (en) 2012-03-30 2013-03-27 Object detection method, object detection apparatus, and program
CN201310121632.9A CN103366171B (zh) 2012-03-30 2013-03-29 物体检测方法和物体检测装置
US14/956,134 US10395103B2 (en) 2012-03-30 2015-12-01 Object detection method, object detection apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012082379A JP6000602B2 (ja) 2012-03-30 2012-03-30 体検出方法及び物体検出装置

Publications (3)

Publication Number Publication Date
JP2013210967A JP2013210967A (ja) 2013-10-10
JP2013210967A5 JP2013210967A5 (ja) 2015-05-14
JP6000602B2 true JP6000602B2 (ja) 2016-09-28

Family

ID=49235083

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012082379A Active JP6000602B2 (ja) 2012-03-30 2012-03-30 体検出方法及び物体検出装置

Country Status (3)

Country Link
US (2) US9213909B2 (ja)
JP (1) JP6000602B2 (ja)
CN (1) CN103366171B (ja)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6000602B2 (ja) * 2012-03-30 2016-09-28 キヤノン株式会社 体検出方法及び物体検出装置
GB201219261D0 (en) * 2012-10-26 2012-12-12 Jaguar Cars Vehicle access system and method
JP6136198B2 (ja) * 2012-11-01 2017-05-31 富士通株式会社 推定プログラム、推定装置、推定方法、および製造方法
JP2015070426A (ja) * 2013-09-27 2015-04-13 ソニー株式会社 画像処理装置および方法、並びにプログラム
CN104933436B (zh) * 2014-03-19 2018-09-14 通用汽车环球科技运作有限责任公司 具有动态完整性评分的基于视觉的多摄像头工厂监测
US9524426B2 (en) * 2014-03-19 2016-12-20 GM Global Technology Operations LLC Multi-view human detection using semi-exhaustive search
US20150294496A1 (en) * 2014-04-14 2015-10-15 GM Global Technology Operations LLC Probabilistic person-tracking using multi-view fusion
CN104933392A (zh) * 2014-03-19 2015-09-23 通用汽车环球科技运作有限责任公司 使用多视图融合的概率性人追踪
US9396404B2 (en) * 2014-08-04 2016-07-19 Datalogic ADC, Inc. Robust industrial optical character recognition
JP2017021557A (ja) * 2015-07-10 2017-01-26 ソニー株式会社 画像処理装置、画像処理方法、並びにプログラム
US9798948B2 (en) 2015-07-31 2017-10-24 Datalogic IP Tech, S.r.l. Optical character recognition localization tool
CN105512643A (zh) * 2016-01-06 2016-04-20 北京二郎神科技有限公司 一种图像采集方法和装置
US10043058B2 (en) 2016-03-09 2018-08-07 International Business Machines Corporation Face detection, representation, and recognition
CN105844256B (zh) * 2016-04-07 2019-07-05 广州盈可视电子科技有限公司 一种全景视频帧图像处理方法和装置
US10169647B2 (en) 2016-07-27 2019-01-01 International Business Machines Corporation Inferring body position in a scan
US10083270B2 (en) * 2016-12-14 2018-09-25 Taiwan Semiconductor Manufacturing Co., Ltd. Target optimization method for improving lithography printability
EP3355239A1 (en) 2017-01-27 2018-08-01 Nxp B.V. Fingerprint verification device
JP6942488B2 (ja) * 2017-03-03 2021-09-29 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法、及びプログラム
US10832035B2 (en) * 2017-06-22 2020-11-10 Koninklijke Philips N.V. Subject identification systems and methods
CN108875481B (zh) * 2017-08-31 2021-10-12 北京旷视科技有限公司 用于行人检测的方法、装置、系统及存储介质
JP6977513B2 (ja) * 2017-12-01 2021-12-08 コニカミノルタ株式会社 機械学習方法及び装置
CN111275036A (zh) * 2018-12-04 2020-06-12 北京嘀嘀无限科技发展有限公司 目标检测方法、装置、电子设备及计算机可读存储介质
CN109886234B (zh) * 2019-02-28 2021-06-22 苏州科达科技股份有限公司 目标检测方法、装置、系统、电子设备、存储介质
US11386636B2 (en) 2019-04-04 2022-07-12 Datalogic Usa, Inc. Image preprocessing for optical character recognition
EP4089629A4 (en) * 2020-01-08 2022-12-28 NEC Corporation HUMAN DETECTION DEVICE, HUMAN DETECTION METHOD, AND RECORDING MEDIA
CN111709407B (zh) * 2020-08-18 2020-11-13 眸芯科技(上海)有限公司 监控边缘计算中提升视频目标检测性能的方法及装置
JP2023007599A (ja) * 2021-07-02 2023-01-19 株式会社日立ハイテク 画像処理装置、方法及び画像処理システム
CN113507575B (zh) * 2021-09-08 2021-11-26 上海英立视电子有限公司 一种人体自拍镜头生成方法及系统
CN116978078A (zh) * 2022-04-14 2023-10-31 京东科技信息技术有限公司 活体检测方法和装置、系统、电子设备、计算机可读介质

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3787922B2 (ja) * 1996-10-11 2006-06-21 オムロン株式会社 画像処理方法及び装置並びにそれを用いたプリンタ
US7526120B2 (en) * 2002-09-11 2009-04-28 Canesta, Inc. System and method for providing intelligent airbag deployment
US7577297B2 (en) * 2002-12-16 2009-08-18 Canon Kabushiki Kaisha Pattern identification method, device thereof, and program thereof
JP4593314B2 (ja) * 2005-02-28 2010-12-08 富士フイルム株式会社 画像再生装置、プログラム及び方法、並びにフォトムービー作成装置、プログラム及び方法
JP4628882B2 (ja) * 2005-06-16 2011-02-09 富士フイルム株式会社 判別器の学習方法、顔判別方法および装置並びにプログラム
JP4532419B2 (ja) * 2006-02-22 2010-08-25 富士フイルム株式会社 特徴点検出方法および装置並びにプログラム
JP4498296B2 (ja) 2006-03-23 2010-07-07 三洋電機株式会社 物体検出装置
JP2008102611A (ja) * 2006-10-17 2008-05-01 Canon Inc 画像処理装置
JP5227639B2 (ja) * 2008-04-04 2013-07-03 富士フイルム株式会社 オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム
US20090290791A1 (en) * 2008-05-20 2009-11-26 Holub Alex David Automatic tracking of people and bodies in video
CN101593268B (zh) * 2008-05-30 2012-03-07 深圳市普罗巴克科技股份有限公司 一种多分辨率指纹识别方法和多分辨率指纹识别系统
US20100021056A1 (en) * 2008-07-28 2010-01-28 Fujifilm Corporation Skin color model generation device and method, and skin color detection device and method
JP4626692B2 (ja) * 2008-09-12 2011-02-09 ソニー株式会社 物体検出装置、撮像装置、物体検出方法およびプログラム
JP4670976B2 (ja) * 2008-10-03 2011-04-13 ソニー株式会社 学習装置および方法、認識装置および方法、プログラム、並びに記録媒体
JP2010108475A (ja) * 2008-10-03 2010-05-13 Sony Corp 画像処理装置および方法、プログラム、並びに記録媒体
JP5235691B2 (ja) * 2009-01-13 2013-07-10 キヤノン株式会社 情報処理装置及び情報処理方法
JP5513490B2 (ja) * 2009-04-10 2014-06-04 パナソニック株式会社 物体検出装置、物体検出システム、物体検出用集積回路、物体検出機能付きカメラおよび物体検出方法
JP5394967B2 (ja) * 2010-03-29 2014-01-22 セコム株式会社 対象物検知装置
CN102236899B (zh) * 2010-05-07 2013-12-04 株式会社理光 物体检测方法和装置
CN102696054B (zh) * 2010-11-10 2016-08-03 松下知识产权经营株式会社 进深信息生成装置、进深信息生成方法及立体图像变换装置
KR20120064581A (ko) * 2010-12-09 2012-06-19 한국전자통신연구원 영상 분류 방법 및 이를 위한 장치
JP5907593B2 (ja) * 2011-09-13 2016-04-26 キヤノン株式会社 画像認識装置、画像認識方法及びプログラム
JP2013201557A (ja) * 2012-03-23 2013-10-03 Toshiba Corp 画像処理装置、画像処理方法および画像処理システム
JP6000602B2 (ja) * 2012-03-30 2016-09-28 キヤノン株式会社 体検出方法及び物体検出装置
EP2712541B1 (en) * 2012-09-27 2015-12-30 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Tiled image based scanning for head and/or eye position for eye tracking
JP6093221B2 (ja) * 2013-03-29 2017-03-08 株式会社メガチップス 画像処理回路及び画像検出装置
TWI503756B (zh) * 2013-08-15 2015-10-11 Univ Nat Taiwan 人型影像追蹤系統及其人型影像偵測方法與追蹤方法
US9224068B1 (en) * 2013-12-04 2015-12-29 Google Inc. Identifying objects in images
JP2015170343A (ja) * 2014-03-11 2015-09-28 オムロン株式会社 画像表示装置および画像表示方法
JP6364837B2 (ja) * 2014-03-14 2018-08-01 オムロン株式会社 画像処理装置および領域分割方法
US9547908B1 (en) * 2015-09-28 2017-01-17 Google Inc. Feature mask determination for images
KR102530219B1 (ko) * 2015-10-30 2023-05-09 삼성전자주식회사 동작 인식의 오류를 검출하는 방법 및 장치

Also Published As

Publication number Publication date
CN103366171B (zh) 2017-03-01
US9213909B2 (en) 2015-12-15
CN103366171A (zh) 2013-10-23
JP2013210967A (ja) 2013-10-10
US20130259310A1 (en) 2013-10-03
US10395103B2 (en) 2019-08-27
US20160086024A1 (en) 2016-03-24

Similar Documents

Publication Publication Date Title
JP6000602B2 (ja) 体検出方法及び物体検出装置
CN110738101B (zh) 行为识别方法、装置及计算机可读存储介质
TWI438719B (zh) 檢測用資訊登錄裝置、電子機器、檢測用資訊登錄裝置的控制方法、電子機器的控制方法、檢測用資訊登錄裝置控制程式、電子機器的控制程式
CN105740780B (zh) 人脸活体检测的方法和装置
JP4348353B2 (ja) パターン認識装置,パターン認識方法及びその方法を実現したプログラムを格納した記録媒体
CN109800682B (zh) 驾驶员属性识别方法及相关产品
CN108875534B (zh) 人脸识别的方法、装置、系统及计算机存储介质
JP2005182746A (ja) 視線誘導情報生成システムおよび視線誘導情報生成プログラム、並びに視線誘導情報生成方法
JP2010176380A (ja) 情報処理装置および方法、プログラム、並びに記録媒体
CN109740416B (zh) 目标跟踪方法及相关产品
JP6969878B2 (ja) 識別器学習装置および識別器学習方法
CN111160169A (zh) 人脸检测方法、装置、设备及计算机可读存储介质
JP7118622B2 (ja) 物体検出装置、物体検出方法及びプログラム
JP2005310101A (ja) 視線誘導度算出システム、視線誘導度算出プログラムおよび記憶媒体、並びに視線誘導度算出方法
CN106570498A (zh) 显著区域检测方法和检测系统
JP3932360B2 (ja) ランドマーク抽出装置およびランドマーク抽出方法
JP6486084B2 (ja) 画像処理方法、画像処理装置、及びプログラム
EP3783565A1 (en) Moving state analysis device, moving state analysis method, and program
JP2017033556A (ja) 画像処理方法及び電子機器
CN110781739B (zh) 提取行人特征的方法、装置、计算机设备和存储介质
JP2019204288A (ja) 生体認証装置、生体認証方法及び生体認証プログラム
CN113610026A (zh) 基于掩膜注意力的行人重识别方法及重识别装置
CN112949571A (zh) 识别年龄的方法、年龄识别模型的训练方法和装置
KR101373397B1 (ko) 증강현실의 호모그래피 정확도 향상을 위한 csp 기반의 ransac 샘플링 방법
JP6989873B2 (ja) システム、画像認識方法、及び計算機

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150327

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150327

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160418

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160831

R151 Written notification of patent or utility model registration

Ref document number: 6000602

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151