JP5539102B2 - Object detection apparatus and object detection method - Google Patents
Object detection apparatus and object detection method Download PDFInfo
- Publication number
- JP5539102B2 JP5539102B2 JP2010183390A JP2010183390A JP5539102B2 JP 5539102 B2 JP5539102 B2 JP 5539102B2 JP 2010183390 A JP2010183390 A JP 2010183390A JP 2010183390 A JP2010183390 A JP 2010183390A JP 5539102 B2 JP5539102 B2 JP 5539102B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- posture
- partial
- feature
- partial feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Description
本発明は画像中の物体を検出する装置および方法に関する。 The present invention relates to an apparatus and method for detecting an object in an image.
従来、画像中の特定の物体として人体を検出する技術が知られている。例えば、非特許文献1によれば、画像の所定の範囲の輝度勾配ヒストグラムを特徴量とし、Support Vector Machineによる識別を行い、画像中の人物の検出を行う技術が開示されている。しかしながら、非特許文献1に開示される技術では、特定の姿勢の人体の検出には有効であるが、姿勢が変動した場合、検出が困難であるという課題があった。
Conventionally, a technique for detecting a human body as a specific object in an image is known. For example, Non-Patent
非特許文献2では、このような課題を解決し、人体の変形を許容した人体検出方法が提案されている。非特許文献2によれば、人体の部位に対応した検出器の検出スコアを、重心との相対位置関係を加味して加算する技術が提案されている。すなわち、まず、人体の各部位に対応した検出器を学習によって得る。次に、人体のサンプル画像に対してそれらの検出器で検出を行い、検出点の人体重心に対する相対位置の確率分布をそれぞれの検出器について学習する。このようにして学習した検出器、および人体重心に対する相対位置の確率分布を用いることにより、画像中から人体を検出する。その検出の際には、まず、対象の画像から、人体各部位の検出スコアを算出する。人体各部位の検出器のスコアを、その検出器からみた人体重心の相対位置に対応するビンに投票する。全ての検出器からの投票を総計し、最終的な人体検出結果を得る。
Non-Patent
また同様に、特許文献1に開示される技術も人体の変形を許容した人体検出方法である。特許文献1に開示される技術では、画像から人体部位と考えられる候補を抽出し、それら各候補の部位らしさの確率と、部位候補の配置関係、および、検出対象としての確率の高い部位候補の組合せを選択し、人体らしさを確率的に計算する。
Similarly, the technique disclosed in
以上のように、非特許文献2や特許文献1に記載の方法では、人体部位の配置関係の学習を行っていた。一方で、非特許文献3に記載の方法では、物体認識において、各部分特徴の幾何学的な配置関係を問わないモデル、いわゆるBoK(Bag of Keypoints)モデルが用いられている。
As described above, in the methods described in
しかしながら、上述した特許文献1や非特許文献2の技術のように、人体を各部位に分割し、各部位の相対位置関係を利用する物体検出方法では、以下に述べるように各部位の相対位置関係の学習が煩雑であるという課題があった。
However, in the object detection method that divides the human body into parts and uses the relative positional relationship between the parts as in the techniques of
上述のように、非特許文献2に開示される技術では、人体の各部分の位置関係を人体画像の重心を基準とする相対座標系における存在確率分布として記述することで、人体の各部の位置に自由度を持たせている。しかしながら、例えば人体の上体部に関して、人体が正面を向いている場合の存在確率分布と、人体が横を向いている場合の存在確率分布では、関節構造の制約からくる可動域の違いがあるため、異なる分布となる。そのため、非特許文献2では、少なくとも人体の向きごとに、人体各部の存在確率分布を学習しなくてはいけない。
As described above, in the technique disclosed in
また、特許文献1に開示される技術では、画像から人体部位と考えられる候補を抽出し、それら各候補の部位らしさの確率と、部位候補の配置関係、および、検出対象としての確率の高い部位候補の組合せを選択し、人体らしさを確率的に計算する。したがって、この特許文献1に開示される技術も、上述した非特許文献2に開示される技術と同様に、少なくとも人体の向きごとに、人体部位候補の配置関係の学習をする必要がある。
Further, in the technique disclosed in
一方で、非特許文献3にあるような、各部分特徴の幾何学的な配置関係を問わないモデルを用いる物体認識では、人体の向きの違いによって人体各部の存在確率分布を学習する必要はない。しかしながら、人体の各部分は特徴が乏しく、背景が複雑な場合、BoKモデルでは、検出が困難であるという課題がある。
On the other hand, in the object recognition using the model regardless of the geometric arrangement relationship of each partial feature as in
本発明は上記の課題に鑑みてなされたものであり、姿勢変動を伴う対象物について当該対象物を構成する各部の相対位置を考慮せずに、画像中から当該対象物を高い検出率で検出可能にすることを目的とする。 The present invention has been made in view of the above-described problems, and detects an object with high detection rate from an image without considering the relative position of each part constituting the object with respect to the object with posture variation. The purpose is to make it possible.
上記の目的を達成するための本発明の一態様による物体検出装置は以下の構成を備える。すなわち、
画像から特定の物体を検出する物体検出装置であって、
特定の物体に関する姿勢パラメータと、画像の部分特徴と、該姿勢パラメータにおいて該部分特徴が画像に存在する確率とを対応付けて記憶する記憶手段と、
前記特定の物体の検出対象の画像より特徴点を検出し、検出した特徴点を含む局所画像を抽出して特徴量を算出することにより部分特徴を取得する取得手段と、
前記検出対象の画像とは無関係に、複数の姿勢パラメータを入力する入力手段と、
前記複数の姿勢パラメータの各々について、前記記憶手段に記憶された確率の大きい順に所定数の部分特徴を選択する選択手段と、
前記取得手段で取得された部分特徴と前記選択手段で選択した部分特徴との相関の度合いを示す照合度を算出する照合手段と、
前記複数の姿勢パラメータに関して前記照合手段により算出された照合度に基づいて、前記検出対象の画像に前記特定の物体が存在するか否かを判定する判定手段とを備える。
In order to achieve the above object, an object detection apparatus according to an aspect of the present invention has the following arrangement. That is,
An object detection device for detecting a specific object from an image,
A storage unit that stores a pose parameter related to a specific object, a partial feature of the image, and a probability that the partial feature exists in the image in the pose parameter in association with each other;
An acquisition means for acquiring a partial feature by detecting a feature point from an image to be detected of the specific object, extracting a local image including the detected feature point, and calculating a feature amount;
Input means for inputting a plurality of posture parameters irrespective of the image to be detected;
Selection means for selecting a predetermined number of partial features in descending order of probability stored in the storage means for each of the plurality of posture parameters;
Collating means for calculating a matching degree indicating a degree of correlation between the partial feature acquired by the acquiring means and the partial feature selected by the selecting means;
Determination means for determining whether or not the specific object is present in the detection target image based on the matching degree calculated by the matching means with respect to the plurality of posture parameters.
本発明によれば、姿勢変動を伴う対象物について当該対象物を構成する各部の相対位置を考慮せずに、画像から当該対象物を高い検出率で検出することができる。 ADVANTAGE OF THE INVENTION According to this invention, the target object can be detected from an image with a high detection rate, without considering the relative position of each part which comprises the target object with respect to the target object with attitude | position fluctuation | variation.
以下、添付図面を参照して本発明をその好適な実施形態の一つに従って詳細に説明する。 Hereinafter, the present invention will be described in detail according to one of its preferred embodiments with reference to the accompanying drawings.
(概要)
本実施形態に係る物体検出装置は、画像中の特定の物体として人物の検出を行う。以下、図を用いてその一例を示す。なお、本実施形態では、画像中の人物を検出対象物体としているが、本発明はこれに限定されるものではない。例えば、自動車などのように、姿勢をカメラアングルによって規定できる剛体や、バネなどのように変形をパラメータで記述可能な柔軟物体など、ひとつ以上のパラメータによりその姿勢および形状を規定できる物体であれば、これを検出対象物体とすることができる。
(Overview)
The object detection apparatus according to the present embodiment detects a person as a specific object in an image. Hereinafter, an example is shown using figures. In the present embodiment, the person in the image is the detection target object, but the present invention is not limited to this. For example, an object that can specify its posture and shape with one or more parameters, such as a rigid body whose posture can be defined by camera angle, such as an automobile, or a flexible object that can describe deformation with parameters, such as a spring This can be set as a detection target object.
図1は、本実施形態における検出対象の画像100を示す。画像100において、物体110は検出対象となる人物を示す。検出ウィンドウ領域120は特定の物体(人物)を検出する対象となる領域を示す。検出ウィンドウ領域130は検出ウィンドウ領域120とは別の、検出対象となる領域を示す。物体140は背景の物体を示す。後述するように、物体検出装置には、人物画像の部分特徴があらかじめ姿勢パラメータと対応付けて学習されている。
FIG. 1 shows an
図2は、本実施形態における物体検出装置においてあらかじめ学習された部分特徴の例を示す。部分特徴群210は人物の各部の部分特徴の模式図である。部分特徴221、部分特徴222、部分特徴223、部分特徴224、および部分特徴225は、それぞれ部分特徴の模式図である。
FIG. 2 shows an example of partial features learned in advance in the object detection apparatus according to the present embodiment. The
物体検出装置は、外部より入力された姿勢パラメータに基づき、部分特徴群210より複数の部分特徴、例えば部分特徴221、部分特徴222、および部分特徴223を選択する。このような部分特徴の選択処理は、たとえば、入力された姿勢パラメータにおいて各部分特徴が存在する確率(予め学習により求めておく)に基づいて行われる(詳細は後述する)。選択した部分特徴と、検出ウィンドウ領域120において抽出された部分特徴との照合を行い、それぞれの部分特徴の照合度の総和が閾値以上であれば、対応する姿勢パラメータ空間のビンに投票を行う。なお、姿勢パラメータ空間とは、姿勢パラメータのパラメータ数を次元数とした空間であり、複数のビンは、姿勢パラメータ空間を複数の空間に分割することで得られた複数の部分空間に対応する。
The object detection device selects a plurality of partial features, for example, the
再び外部から新たな姿勢パラメータを入力し、新たな姿勢パラメータに基づいて上記処理を繰り返す。すなわち、新たな姿勢パラメータに基づき、部分特徴群210より複数の部分特徴、例えば、部分特徴221、部分特徴224、および部分特徴225が選択され、同様に照合と投票が行われる。このように、姿勢パラメータの入力、部分特徴の選択、照合、投票の処理を規定の回数だけ繰り返す。規定の繰り返し回数の後、姿勢パラメータ空間に投票された分布の極値がある閾値を超えた場合、検出ウィンドウ領域120に人物が存在すると判定する。また、その人物の姿勢は、その極値に対応する姿勢パラメータで表現される姿勢であると判定する。画像中の他の領域、例えば検出ウィンドウ領域130など、に対しても同様の処理を行い、最終的に画像中から全ての人物を検出する。以上の処理について、以下に更に詳細に説明する。
A new posture parameter is input again from the outside, and the above processing is repeated based on the new posture parameter. That is, based on the new posture parameter, a plurality of partial features such as the
(構成)
図3は本実施形態に係る物体検出装置300の概略を示す図である。なお、以下に示す各部の機能は、物体検出装置300が有するCPU(不図示)がコンピュータ読み取り可能なメモリ(不図示)に格納されたコンピュータプログラムを実行することにより実現される。したがって、パーソナルコンピュータなどの情報処理装置を用いて物体検出装置300を実現することが可能である。物体検出装置300において、画像入力部301は、例えば、実時間で撮影できるもの(例えばカメラ)でもよいし、画像を光学的に読み取るもの(例えばスキャナ)でもよいし、事前に撮影または読み取った画像を記憶したストレージであってもよい。画像入力部301から入力された画像は、特徴量算出部302に出力される。
(Constitution)
FIG. 3 is a diagram showing an outline of the object detection apparatus 300 according to this embodiment. In addition, the function of each part shown below is implement | achieved when the CPU (not shown) which the object detection apparatus 300 has runs the computer program stored in the computer-readable memory (not shown). Therefore, the object detection apparatus 300 can be realized using an information processing apparatus such as a personal computer. In the object detection device 300, the
特徴量算出部302は、画像入力部301より入力された画像の部分の特徴量(部分特徴)を算出する。すなわち、検出対象の画像より特徴点を検出し、検出した特徴点を含む部分画像(特徴点近傍の局所画像)を抽出して特徴量を算出することにより部分特徴が取得される。本実施形態では、この部分特徴として、
・非特許文献4に記載されているような、Harris Corner Detectorなどのコーナー検出器によって検出された特徴点近傍のAffineInvariant Regionの形状を正規化して局所画像を取得し、
・得られた局所画像に対して、非特許文献1に記載のHistograms ofOriented Gradientsを算出したものとする。但し、本実施形態で使用可能な部分特徴は、これに限られるものではなく、その他の周知の画像特徴量算出方法を用いて取得されたものを用いることができる。
The feature
A local image is obtained by normalizing the shape of the AffineInvariant Region near the feature point detected by a corner detector such as Harris Corner Detector as described in Non-Patent Document 4,
It is assumed that Histograms of Oriented Gradients described in
姿勢パラメータ入力部303は、対象物体の姿勢を表す姿勢パラメータを受け取り、その姿勢パラメータを部分特徴記憶部304、部分特徴選択部305および対応関係記憶部307に出力する。入力される姿勢パラメータとしては、対象物体の学習時には、例えば画像入力部301より入力される画像に付与された姿勢アノテーションデータが用いられる。すなわち、姿勢パラメータ入力部303は、画像に付与された姿勢アノテーションデータから姿勢パラメータを抽出して、部分特徴記憶部304、部分特徴選択部305および対応関係記憶部307に出力する。また、対象物体の検出時には、姿勢パラメータ入力部303は、外部のプログラムにより生成されたデータ、例えばある確率密度に従って発生した乱数などを姿勢パラメータとして用いる。すなわち、姿勢パラメータ入力部303は、検出対象の画像とは無関係に複数の姿勢パラメータを入力する。
The posture
本実施形態では、検出対象を人体としており、姿勢パラメータは、カメラアングルおよび関節角のデータを含む。図4に対象が人体である場合の姿勢パラメータの例を示す。図4において、角度φkは、カメラ410におけるカメラアングルを規定するk番目のパラメータを表し、図4では、水平方向に対する傾き(pitch)である。角度θjは、人体の姿勢を規定するj番目のパラメータを表し、図4においては、上腕と前腕のなす角度である。なお、カメラアングルが固定されている場合は、上記姿勢パラメータのうちカメラパラメータ(角度φk)は不要である。また、上記姿勢パラメータのうち検出対象の特定の物体が変形せず、カメラパラメータのみが変化する場合には、変形に関するパラメータ(角度θj)は不要である。
In the present embodiment, the detection target is a human body, and the posture parameters include data on camera angles and joint angles. FIG. 4 shows an example of posture parameters when the target is a human body. In FIG. 4, the angle φ k represents the kth parameter that defines the camera angle in the
部分特徴記憶部304は、特徴量算出部302から出力される部分特徴と姿勢パラメータ入力部303より出力される姿勢パラメータとを対応付けて記憶する。複数のサンプル画像に対して、特徴量算出部302により得られた全ての部分特徴をクラスタリングし、得られたi番目のクラスタをΠiとし、クラスタΠiの中心の部分特徴をπiとする。すなわち、部分特徴πiは、クラスタΠiを代表する部分特徴である。なお、クラスタを代表する部分特徴の決定方法はこれに限られるものではなく、例えば、クラスタに存在する全ての部分特徴の平均を用いてもよい。また、ある部分特徴πとそれに付与された姿勢パラメータθ=(φ1,φ2,φ3,θ1,θ2,…,θn)の組をx =(π,θ)とする。姿勢パラメータθの下で、クラスタΠiに属する部分特徴が表れる確率P(Πi|θ)を以下の式(1)、(2)に従って算出する。
The partial
ここで、n(X)は集合Xに含まれる要素数を、Θkは姿勢パラメータ空間のk番目の部分空間をそれぞれ表す。プログラムへの実装では、例えば、Θkは姿勢パラメータ空間全体を複数のビンに区切った際のk番目のビンに対応する。すなわち、式(1)の集合Xk iは、その要素x=(π,θ)の部分特徴πがクラスタΠiに含まれ、かつ、姿勢パラメータθがΘkに含まれるような集合を表す。部分特徴記憶部304は、このi番目のクラスタΠiの中心の部分特徴πiと、式(2)によって算出されるP(Πi|θ)とを対応付けて、例えば図5の(b)に示すように記憶する。図5の(b)では、例えば1番目のクラスタ(中心の部分特徴π1)について、各姿勢パラメータθの下で存在する確率p(Π1|θ)が、欄501,502等に記録される。このように、部分特徴記憶部304には、特定の物体に関する姿勢パラメータ(θ)と、画像の部分特徴(πiと、該姿勢パラメータにおいて該部分特徴が画像に存在する確率P(Πi|θ)とが対応付けて記憶される。
Here, n (X) is the number of elements in set X, theta k respectively represent the k-th subspace posture parameter space. The implementation of the program, for example, theta k corresponds to the k-th bin at the time of separated whole posture parameter space into a plurality of bins. That is, the set X k i in the expression (1) represents a set in which the partial feature π of the element x = (π, θ) is included in the cluster Π i and the posture parameter θ is included in Θ k. . Partial
部分特徴選択部305は、姿勢パラメータ入力部303より姿勢パラメータθを受け取り、部分特徴記憶部304に記憶されたP(Πi|θ)に基づき、所定数の(以下、M個)の部分特徴を選択する。
The partial
物体検出仮説生成部306は、特徴量算出部302によって図1に示す画像の検出ウィンドウ領域120から抽出され、算出された部分特徴と、部分特徴選択部305によって選択された部分特徴とを照合し、検出対象物体の存在有無の仮説を生成する。特徴量算出部302によって抽出され、算出された部分特徴のひとつをπ、とし、その算出された部分特徴全ての集合をQとする。部分特徴選択部305によって選択された部分特徴のひとつをπ’とすると、照合度は、例えば、以下の式(3)により与えられる。式(3)によれば、照合度は、集合Qに属する全ての部分特徴において、π’との相関が最大となる場合の相関値として与えられる。すなわち、照合度は、特徴量算出部302で取得された部分特徴と部分特徴選択部305で選択した部分特徴との相関の度合いを示している。
なお、照合度は式(3)で計算する方法に限らず、例えば、あらかじめπ’に関して学習を行った識別器の尤度で、集合Qに属する全ての部分特徴において最大となる値を算出してもよい。物体検出仮説生成部306は、部分特徴選択部305によって選択されたM個の部分特徴全てについて照合度を計算し、その総和を物体検出仮説として出力する。
Note that the matching degree is not limited to the method of calculating by Equation (3), and for example, the maximum value of all partial features belonging to the set Q is calculated with the likelihood of the discriminator that has previously learned about π ′. May be. The object detection hypothesis generation unit 306 calculates a matching degree for all M partial features selected by the partial
対応関係記憶部307は、物体検出仮説生成部306によって生成された物体検出仮説と、姿勢パラメータ入力部303より入力された姿勢パラメータを対応づけて記憶する。図5の(a)に、対応関係記憶部307におけるデータ構成例を示す。図5の(a)は、姿勢パラメータに対応する記憶領域を表している。図5の(a)に示す例では、姿勢パラメータは、θ1、θ2からなる2次元ベクトルで与えられるとしているが、実際の装置では対象物体の姿勢を表現するために必要な次元数のベクトルが用いられる。姿勢パラメータの各要素は、幅Δのビンに区切られている。例えば、図5(a)の表の1行2列目のマスには、姿勢パラメータ入力部303より入力された姿勢パラメータが、0≦θ1<Δ、Δ≦θ2<2Δ、の範囲の値である際に、物体検出仮説生成部306から出力された値を、全て足し合わせた値が入っている。
The
検出確定部308は、対応関係記憶部307に記憶されたデータの極値を求め、それら極値の中である定めた閾値を超え、かつ最大の値となる場合に対象物体が検出されたと判定し、かつその対応する姿勢パラメータを対象物体の姿勢と定める。対応関係記憶部307に記憶されたデータの極値を求める方法には例えば非特許文献5に記載のmean shift法などがある。以上が、本実施形態にかかる物体検出装置に関する構成部分である。
The
(処理)
続いて図6A、図6Bに示したフローチャートを用いて、本実施形態の物体検出装置300が行う処理について説明する。なお、同フローチャートに従ったプログラムコードは、本実施形態の装置内の、不図示のRAMやROMなどのメモリに格納され、不図示のCPUなどにより読み出され、実行される。まず、正解サンプル画像を用いた、姿勢パラメータと部分特徴の学習を図6AのステップS601乃至S606で行い、次に図6BのステップS607乃至S616で対象画像中の物体検出を行う。なお、例えば、ステップS601乃至S606を実行する学習処理用のコンピュータ(情報処理装置)と、ステップS607乃至S616を実行する検出処理用のコンピュータ(情報処理装置)とは同一である必要はない。
(processing)
Next, processing performed by the object detection device 300 of the present embodiment will be described using the flowcharts shown in FIGS. 6A and 6B. Note that the program code according to the flowchart is stored in a memory such as a RAM or a ROM (not shown) in the apparatus of the present embodiment, and is read and executed by a CPU (not shown). First, learning of posture parameters and partial features using the correct sample image is performed in steps S601 to S606 in FIG. 6A, and then object detection in the target image is performed in steps S607 to S616 in FIG. 6B. Note that, for example, the computer for learning processing (information processing apparatus) that executes steps S601 to S606 and the computer for detection processing (information processing apparatus) that executes steps S607 to S616 are not necessarily the same.
まずステップS601において、画像入力部301がポジティブサンプル画像Ip1を読み込む。続いてステップS602において、姿勢パラメータ入力部303がポジティブサンプル画像Ip1に対応する姿勢パラメータθp1を読み込む。本処理は学習処理であるので、上述したように、姿勢パラメータ入力部303は、ポジティブサンプル画像Ip1に付与された姿勢アノテーションデータから姿勢パラメータθp1を読み込む。
First, in step S601, the
続いてステップS603において、特徴量算出部302は、ポジティブサンプル画像Ip1の部分特徴を抽出する。続いてステップS604において、全てのポジティブサンプルについてステップS601乃至S603の処理が終了したかを確認する。まだ処理が終了していないポジティブサンプルがあればそのサンプルに関してステップS601〜S603の処理が行われる。他方、全てのポジティブサンプルについて上記処理が終了していれば、処理はステップS605へ進む。
Subsequently, in step S603, the feature
ステップS605において、特徴量算出部302は、ステップS601乃至S604の処理によって得られた全ての部分特徴を、特徴の類似性に基づいてクラスタリングする。そして、i番目のクラスタをΠiとし、そのクラスタを代表する部分特徴を当該クラスタの中心の部分特徴πiとして、部分特徴記憶部304に記憶する。続いてステップS606において、特徴量算出部302は、ステップS605において求めたクラスタΠiに属する部分特徴が姿勢パラメータθの下で現れる確率P(Πi|θ)を各部分特徴について算出し、部分特徴記憶部304に記憶する。
In step S605, the feature
上記のステップS601乃至S606により、検出対象のポジティブサンプルから、部分特徴と姿勢パラメータの対応関係の学習が完了し、図5の(b)に示したような情報が部分特徴記憶部304に記憶される。続いて、S607乃至S616で対象画像中からの特定の物体(本例では人体)の検出を行う。
Through the above steps S601 to S606, learning of the correspondence between the partial features and the posture parameters is completed from the positive sample to be detected, and information as shown in FIG. 5B is stored in the partial
まず、ステップS607において、画像入力部301は検出対象となる画像を入力する。続いてステップS608において、特徴量算出部302は、ステップS607において入力された画像の任意の位置に検出対象ウィンドウを設定する。続いてステップS609において、特徴量算出部302は、ステップS608において設定された検出ウィンドウ内で部分特徴を算出する。
First, in step S607, the
続いてステップS610において、姿勢パラメータ入力部303は、姿勢パラメータθを入力する。対象物体の検出時であるので、姿勢パラメータ入力部303は、外部のプログラムにより生成されたデータ、例えば、姿勢の生じやすさなどのある確率密度に従って発生した乱数などを姿勢パラメータとして用いる。続いてステップS611において、部分特徴選択部305は、部分特徴記憶部304に記憶されたP(Πi|θ)に基づき、ステップS610において入力された姿勢パラメータθに対応する部分特徴をM個選択する。例えば、確率の大きい順にM個が選択される。続いてステップS612において、物体検出仮説生成部306は、ステップS610で選択されたM個の部分特徴それぞれについて、ステップS609において算出された部分特徴との照合度(検出スコア)を算出する(式(3))。続いてステップS613で、物体検出仮説生成部306は、ステップS612において算出されたM個の照合度の総和を、ステップS610において入力された姿勢パラメータθに対応する対応関係記憶部307の記憶領域に格納されている値に加算する。
Subsequently, in step S610, the posture
続いてステップS614において、ステップS610乃至S613の処理が規定回数繰り返されたかが判定され、完了していなければステップS610へ処理がもどされる。こうして、上記ステップS610〜S613の処理が規定回数繰り返される。一方、ステップS614で規定回数の処理が完了していたら、処理はステップS615へ進む。ステップS615において、検出確定部308は、対応関係記憶部307に記憶されたデータから、物体の存在を判定する。すなわち、検出確定部308は、上記加算の結果から閾値を越える極値が存在するかどうかにより物体の存在を判定する。ステップS608において設定された検出ウィンドウとは異なる領域において検出を行う場合は、再びステップS608に戻り、検出ウィンドウを新たな場所に設定し、ステップS609乃至S615の処理を行う(S616でYES)。異なる領域について検出を行なわない場合には、本処理を終了する(S616でNO)。
Subsequently, in step S614, it is determined whether the processes in steps S610 to S613 have been repeated a specified number of times. If not completed, the process returns to step S610. In this way, the processes in steps S610 to S613 are repeated a specified number of times. On the other hand, if the specified number of processes has been completed in step S614, the process proceeds to step S615. In step S615, the
以上の処理によって、対象物体検出処理が終了し、図1の画像より検出対象物体とその姿勢を検出することができる。以上のように、本実施形態では、姿勢パラメータに対応した人体部位特徴の組が選択され、選択された人体部位特徴の幾何学的な配置関係に依らず人体の存在有無の仮説が生成される。このような仮説の生成を、繰り返し処理により複数の姿勢パラメータについて行うことにより複数の仮説が生成され、生成された複数の仮説を統合することで画像中の人体の検出が行われる。すなわち、本実施形態によれば、人体部位の相対位置関係の学習をすることなく、変動姿勢の人体の検出を行うことができる。 With the above processing, the target object detection processing is completed, and the detection target object and its posture can be detected from the image of FIG. As described above, in this embodiment, a set of human body part features corresponding to posture parameters is selected, and a hypothesis of the presence or absence of a human body is generated regardless of the geometrical arrangement relationship of the selected human body part features. . By generating such hypotheses for a plurality of posture parameters by iterative processing, a plurality of hypotheses are generated, and a human body in an image is detected by integrating the generated hypotheses. That is, according to the present embodiment, it is possible to detect a human body with a varying posture without learning the relative positional relationship between human body parts.
なお、上記実施形態では人を検出対象としたが、画像中の任意の物体を検出対象とすることができることは明らかである。 In the above embodiment, a person is a detection target, but it is obvious that any object in the image can be a detection target.
以上、実施形態を詳述したが、本発明は、例えば、システム、装置、方法、プログラムもしくは記憶媒体等としての実施態様をとることが可能である。具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。 Although the embodiment has been described in detail above, the present invention can take an embodiment as a system, apparatus, method, program, storage medium, or the like. Specifically, the present invention may be applied to a system composed of a plurality of devices, or may be applied to an apparatus composed of a single device.
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。 The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
Claims (9)
前記特定の物体の検出対象の画像より特徴点を検出し、検出した特徴点を含む局所画像を抽出して特徴量を算出することにより部分特徴を取得する取得手段と、
前記検出対象の画像とは無関係に、複数の姿勢パラメータを入力する入力手段と、
前記複数の姿勢パラメータの各々について、前記記憶手段に記憶された確率の大きい順に所定数の部分特徴を選択する選択手段と、
前記取得手段で取得された部分特徴と前記選択手段で選択した部分特徴との相関の度合いを示す照合度を算出する照合手段と、
前記複数の姿勢パラメータに関して前記照合手段により算出された照合度に基づいて、前記検出対象の画像に前記特定の物体が存在するか否かを判定する判定手段とを備えることを特徴とする物体検出装置。 A storage unit that stores a pose parameter related to a specific object, a partial feature of the image, and a probability that the partial feature exists in the image in the pose parameter in association with each other;
An acquisition means for acquiring a partial feature by detecting a feature point from an image to be detected of the specific object, extracting a local image including the detected feature point, and calculating a feature amount;
Input means for inputting a plurality of posture parameters irrespective of the image to be detected;
Selection means for selecting a predetermined number of partial features in descending order of probability stored in the storage means for each of the plurality of posture parameters;
Collating means for calculating a matching degree indicating a degree of correlation between the partial feature acquired by the acquiring means and the partial feature selected by the selecting means;
Object detection comprising: determination means for determining whether or not the specific object is present in the detection target image based on a matching degree calculated by the matching means with respect to the plurality of posture parameters. apparatus.
前記学習手段は、
複数のサンプル画像のアノテーションデータから前記特定の物体の姿勢パラメータを取得し、
前記複数のサンプル画像の各々において、特徴点を検出し、検出した特徴点を含む局所画像を抽出して特徴量を算出することにより部分特徴を取得し、
取得した部分特徴を類似性に基づいてクラスタリングして、各クラスタに属する部分特徴が各姿勢パラメータにおいて存在する確率を算出し、
姿勢パラメータとクラスタの存在する確率と該クラスタを代表する部分特徴とを対応付けて前記記憶手段に記憶させることを特徴とする請求項1に記載の物体検出装置。 Learning means for generating information to be stored in the storage means;
The learning means includes
Obtaining posture parameters of the specific object from annotation data of a plurality of sample images;
In each of the plurality of sample images, a feature point is detected, and a partial feature is obtained by extracting a local image including the detected feature point and calculating a feature amount,
Cluster the acquired partial features based on similarity, calculate the probability that the partial features belonging to each cluster exist in each posture parameter,
The object detection apparatus according to claim 1, wherein a posture parameter, a probability of existence of a cluster, and a partial feature representing the cluster are associated with each other and stored in the storage unit.
取得手段が、前記特定の物体の検出対象の画像より局所画像を抽出して部分特徴を取得する取得工程と、
入力手段が、前記検出対象の画像とは無関係に、複数の姿勢パラメータを入力する入力工程と、
選択手段が、前記複数の姿勢パラメータの各々について、前記記憶手段に記憶された確率の大きい順に所定数の部分特徴を選択する選択工程と、
照合手段が、前記取得工程で取得された部分特徴と前記選択工程で選択された部分特徴との相関の度合いを示す照合度を算出する照合工程と、
判定手段が、前記複数の姿勢パラメータに関して前記照合工程で算出された照合度に基づいて、前記検出対象の画像に前記特定の物体が存在するか否かを判定する判定工程とを備えることを特徴とする物体検出方法。 An information processing apparatus including a storage unit that stores a posture parameter related to a specific object, a partial feature of the image, and a probability that a local image of the partial feature exists in the posture parameter in the image is identified from the image. An object detection method for detecting an object of
An obtaining step for obtaining a partial feature by extracting a local image from an image to be detected of the specific object;
An input step in which the input means inputs a plurality of posture parameters regardless of the detection target image;
A selection step of selecting a predetermined number of partial features in descending order of probability stored in the storage unit for each of the plurality of posture parameters;
A matching step in which a matching unit calculates a matching degree indicating a degree of correlation between the partial feature acquired in the acquiring step and the partial feature selected in the selection step;
And a determination step of determining whether or not the specific object is present in the detection target image based on the matching degree calculated in the matching step with respect to the plurality of posture parameters. An object detection method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010183390A JP5539102B2 (en) | 2010-08-18 | 2010-08-18 | Object detection apparatus and object detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010183390A JP5539102B2 (en) | 2010-08-18 | 2010-08-18 | Object detection apparatus and object detection method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012043155A JP2012043155A (en) | 2012-03-01 |
JP5539102B2 true JP5539102B2 (en) | 2014-07-02 |
Family
ID=45899391
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010183390A Active JP5539102B2 (en) | 2010-08-18 | 2010-08-18 | Object detection apparatus and object detection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5539102B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5742873B2 (en) * | 2013-05-08 | 2015-07-01 | 株式会社デンソー | Object identification device |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3780017B2 (en) * | 1994-12-06 | 2006-05-31 | オリンパス株式会社 | Time-series image analysis apparatus and analysis method thereof |
JP4894741B2 (en) * | 2007-12-03 | 2012-03-14 | ソニー株式会社 | Information processing apparatus, information processing method, program, and recording medium |
-
2010
- 2010-08-18 JP JP2010183390A patent/JP5539102B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2012043155A (en) | 2012-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4709723B2 (en) | Attitude estimation apparatus and method | |
CN108268838B (en) | Facial expression recognition method and facial expression recognition system | |
Chaudhry et al. | Histograms of oriented optical flow and binet-cauchy kernels on nonlinear dynamical systems for the recognition of human actions | |
JP5406705B2 (en) | Data correction apparatus and method | |
US8768049B2 (en) | Small vein image recognition and authorization using constrained geometrical matching and weighted voting under generic tree model | |
CN102930300B (en) | Method and system for identifying airplane target | |
JP5800494B2 (en) | Specific area selection device, specific area selection method, and program | |
Shi et al. | Face alignment with deep regression | |
US8452078B2 (en) | System and method for object recognition and classification using a three-dimensional system with adaptive feature detectors | |
JP5906071B2 (en) | Information processing method, information processing apparatus, and storage medium | |
Cippitelli et al. | Evaluation of a skeleton-based method for human activity recognition on a large-scale RGB-D dataset | |
Chan et al. | A 3-D-point-cloud system for human-pose estimation | |
WO2018173848A1 (en) | Object tracking system, intelligent imaging device, object feature quantity extraction device, object feature quantity extraction method, and recording medium | |
Zhou et al. | Human recognition at a distance in video by integrating face profile and gait | |
JP5539102B2 (en) | Object detection apparatus and object detection method | |
Proenca et al. | SHREC’15 Track: Retrieval of Oobjects captured with kinect one camera | |
JP3859347B2 (en) | Object recognition apparatus and method | |
Dong et al. | Gesture recognition using quadratic curves | |
JP2018526753A (en) | Object recognition apparatus, object recognition method, and storage medium | |
Gabriel et al. | Structured edge detection for improved object localization using the discriminative generalized Hough transform | |
Wuhrer et al. | Posture invariant gender classification for 3D human models | |
Schimbinschi et al. | Ensemble methods for robust 3D face recognition using commodity depth sensors | |
Mazumder | A deep learning network for validation of 3d point cloud surface registration | |
ElSayed et al. | Neural generative models for 3D faces with application in 3D texture free face recognition | |
Fathima | Object recognition through pose and shape estimation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130813 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140221 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140404 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5539102 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140430 |