JP2009059047A - Device, method and program for detecting object - Google Patents
Device, method and program for detecting object Download PDFInfo
- Publication number
- JP2009059047A JP2009059047A JP2007224002A JP2007224002A JP2009059047A JP 2009059047 A JP2009059047 A JP 2009059047A JP 2007224002 A JP2007224002 A JP 2007224002A JP 2007224002 A JP2007224002 A JP 2007224002A JP 2009059047 A JP2009059047 A JP 2009059047A
- Authority
- JP
- Japan
- Prior art keywords
- image
- calculated
- candidate
- detection
- evaluation value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、デジタル画像から注目したい対象物の検出を行うための、対象物検出装置、対象物検出方法、および対象物検出プログラムに関する。 The present invention relates to an object detection device, an object detection method, and an object detection program for detecting an object of interest from a digital image.
従来、デジタル画像処理分野においては、デジタル画像の中から注目したい対象物を検出するためのさまざまな技術が提案されている。 Conventionally, in the digital image processing field, various techniques for detecting an object of interest from a digital image have been proposed.
これらの技術において、注目したい対象物として例えば人の顔を検出する場合には、目、鼻、口、または輪郭など顔の各部分の形状の特徴を用いる方法、顔の濃淡特徴や肌色などの色の特徴を利用する方法、またはこれらを組み合わせる方法などが用いられる。 In these techniques, for example, when detecting a human face as an object of interest, a method using the shape features of each part of the face such as eyes, nose, mouth, or contour, facial tone features, skin color, etc. A method using color characteristics or a method of combining them is used.
そして、これらの対象物を検出する技術の1つとして、ブースティングと呼ばれる手法がある。このブースティング法は、検出精度の低い識別器(弱識別器)を多数組み合わせ、誤りが最小になるようにそれぞれの弱識別器に重み付けをすることにより1つの精度の高い識別器を構成して、対象物の検出を実行する方法である。 One technique for detecting these objects is a technique called boosting. In this boosting method, a plurality of discriminators with low detection accuracy (weak discriminators) are combined, and each weak discriminator is weighted so as to minimize an error, thereby forming one high-accuracy discriminator. This is a method for detecting an object.
この多数の弱識別器で構成された識別器では、対象物の濃淡特徴を基に生成された学習データを利用して高速に対象物の検出を行うことができる。 In the classifier constituted by a large number of weak classifiers, it is possible to detect an object at high speed using learning data generated based on the density characteristics of the object.
このようなブースティング法を利用して対象物を検出する技術の一例として、非特許文献1に記載の顔検出器がある。
As an example of a technique for detecting an object using such a boosting method, there is a face detector described in Non-Patent
この非特許文献1に記載の顔検出器は、複数の弱識別器で構成され、ブースティングの一手法であるアダブースト(AdaBoost)を使って、Haar-like特徴のような濃淡特徴のパターンを示す複数の形状・サイズの矩形データの中から、顔の輝度の濃淡を表すのに効果的でエラーの少ない特徴を抽出すべく学習を行うことにより、デジタル画像の中から対象物である顔領域を検出するものである。
The face detector described in Non-Patent
この非特許文献1に記載の顔検出器の構成を図5に示す。
The configuration of the face detector described in
図5に示すように、顔検出器100は、複数の弱識別器をm個の分類器(第1分類器100−1〜第m分類器100−m)に分け、複数の弱識別器からなるm個の分類器をカスケード接続することにより構成されている。
As shown in FIG. 5, the
この顔検出器100によりデジタル画像の中から対象物を検出する際は、まず、検出対象のデジタル画像の輝度成分(輝度画像)を入力し、積分画像(Integral Image)を作成する。
When the
この積分画像とは、例えば画像中の自身より1つ上と、自身より1つ左の画素の輝度値の和に自身の画素の輝度値を足し込む作業を画像の左下から順に行うことで生成されるものであり、任意の位置の画素値が自身より左下の矩形領域の輝度値の総和になっている画像のことである。 This integrated image is generated by, for example, performing the work of adding the luminance value of its own pixel to the sum of the luminance values of the pixels one pixel above and one pixel left from the image in order from the lower left of the image. It is an image in which the pixel value at an arbitrary position is the sum of the luminance values of the lower left rectangular area.
この積分画像を生成しておくことにより、画像内における所望の矩形領域の四隅の画素の輝度値を加減算するのみで、この矩形領域の輝度値の総和を高速に算出することができる。 By generating this integrated image, the sum of the luminance values of the rectangular area can be calculated at high speed only by adding and subtracting the luminance values of the pixels at the four corners of the desired rectangular area in the image.
次に、入力された輝度画像から、検索の対象となる24×24ピクセルの画像で構成されるウィンドウ画像を順次走査して切り出す。 Next, a window image composed of 24 × 24 pixel images to be searched is sequentially scanned and cut out from the input luminance image.
次に、この切り出したウィンドウ画像を検出器100に入力し、先頭の第1分類器100−1の中の先頭の弱識別器100−1(1)から弱識別器100−1(n)までのn個の弱識別器で、逐次このウィンドウ画像が顔領域であるか非顔領域であるかを2値で判定して出力し、この結果に第1分類器100−1の信頼度に応じた重み付けを加算した結果である評価値を算出する。
Next, this cut-out window image is input to the
次に、この算出された評価値が予め学習データにより設定された閾値よりも高いか否かを判定し、判定の結果が高いときはこのウィンドウ画像が顔領域であると判断して次の第2分類器100−2にデータを送出する一方、閾値よりも低いときはこのウィンドウ画像は顔領域でないと判断して判定処理を打ち切ることにより処理の高速化を図っている。 Next, it is determined whether or not the calculated evaluation value is higher than a threshold value set in advance by learning data. If the determination result is high, it is determined that the window image is a face area, and While data is sent to the 2 classifier 100-2, if the window image is lower than the threshold, it is determined that the window image is not a face area, and the determination process is terminated to speed up the process.
次に、第2分類器100−2において第1分類器100−1と同様に評価値を算出し、この評価値が設定された閾値よりも高いときには、さらに第3分類器100−3にデータを送出する。 Next, the second classifier 100-2 calculates an evaluation value in the same manner as the first classifier 100-1, and when this evaluation value is higher than the set threshold value, the third classifier 100-3 further stores data. Is sent out.
このウィンドウ画像は、入力した輝度画像内を縦横に走査することにより順次切り出し、ウィンドウ画像に顔領域があるか否かの判断を行い、最後の第m分類器100−mまで通過したウィンドウ画像を顔領域の画像として検出する。 The window image is sequentially cut out by scanning the input luminance image vertically and horizontally, it is determined whether or not the window image has a face area, and the window image that has passed to the last m-th classifier 100-m is determined. It is detected as an image of the face area.
そして、検出対象のデジタル画像内における顔の大きさは様々であるため、このデジタル画像を段階的に縮小して、それぞれ上述した積分画像の生成および顔領域の検出処理を行うことにより、高い精度で顔検出を行う。 Since the size of the face in the digital image to be detected varies, the digital image is reduced in stages, and the above-described integral image generation and face area detection processing are performed, thereby achieving high accuracy. Perform face detection with.
なお、上記の検出方法については、特許文献1にも記載されている。
The above detection method is also described in
特許文献1は、顔の表情認識システムおよび顔の表情認識のための学習方法について記載されたものであり、その中で顔検出方法について記載されている。
この特許文献1に記載された、アダブーストを用いた顔検出のための検出器の学習では、全ての弱仮説(非特許文献1における弱識別器と同義)中から性能が他より高いと推定される弱仮説を選別し、選別された弱仮説により統計的性質に基づいて新弱仮説を生成している。
In the learning of the detector for face detection using Adaboost described in
次に、特許文献1に記載の顔検出器の構成を図6に示す。
Next, the configuration of the face detector described in
この特許文献1に記載の顔検出器200は、選別された複数の弱仮説(第1弱仮説200−1〜第n弱仮説200−n)が非特許文献1に記載の弱識別器と同様にカスケード接続されることにより構成されているが、この顔検出器200によりデジタル画像の中から対象物を検出する際は、1つの弱仮説(=弱識別器)による判定結果を出力するたびにウィンドウ画像に顔領域があるか否かを判断する。
In the
各弱仮説による判定結果としては、各弱仮説における推定値を算出するたびに、「ウィンドウ画像が顔領域であるか否かを示す判別結果の推定値×当該弱仮説の信頼度」を加算し、評価値として算出する。 As the determination result by each weak hypothesis, every time the estimated value in each weak hypothesis is calculated, “the estimated value of the discrimination result indicating whether the window image is a face region × the reliability of the weak hypothesis” is added. Calculated as an evaluation value.
さらに、この算出された評価値と予め学習により算出された処理を打ち切るための閾値とに基づき、明らかに顔領域ではないと判定した場合には判定処理を打ち切ることにより高速化を図るものである。 Furthermore, based on the calculated evaluation value and a threshold value for canceling the process calculated in advance by learning, when it is determined that the face area is not clearly a face area, the determination process is terminated to increase the speed. .
このようにして処理を進めていき、最後の弱仮説200−nまで通過したウィンドウ画像を顔領域の画像として検出する。 The processing proceeds in this way, and the window image that has passed through to the last weak hypothesis 200-n is detected as an image of the face area.
これらの非特許文献1および特許文献1に記載の顔検出器においては、デジタル画像内の全てのウィンドウ画像に対して判別処理が終わった後、顔領域を示す領域として検出された領域が近傍で2つ以上重複していた場合には、互いに重複する2つの領域のうち評価値が小さい方が顔領域である可能性が低いとみなして削除し、評価値が大きい方の領域を顔領域の画像として選択する。または、それらを平均した領域を抽出する。この処理を、重複がなくなるまで繰り返し、最後に選択した画像を顔領域の画像として検出する。
In the face detectors described in
また特許文献2には、非特許文献1または特許文献1のように識別器を一列に接続するのではなく、図7に示すように識別器である各ノードがネットワーク状に接続された検出装置300が記載されている。
Further, in
この検出器300によりデジタル画像の中から対象物を検出する際は、例えばパス301のような複数のノードを通る経路を生成し、入力されたウィンドウ画像に対してパスの各ノードにおいて顔などの対象物か否かを評価した評価値の累積を求め、パスの識別結果に対する識別エラーの推定値を算出する。
When detecting an object from a digital image by the
そして、複数のパスにおける識別結果の中で最も低い識別エラーが予め設定されている閾値よりも小さくなった場合は識別処理を終了し、そこに対象物があると判断する。 If the lowest identification error among the identification results in a plurality of paths is smaller than a preset threshold value, the identification process is terminated, and it is determined that there is an object there.
上記の処理により顔領域であると判断される場合にも、識別エラーが予め設定された閾値よりも小さくなった場合に処理を打ち切ることで処理の高速化を図る。また、エラーが閾値よりも小さくならない場合はパスの生成および評価を継続し、パスの数が予め設定された数に達したときに処理を打ち切るものである。
しかしながら、非特許文献1の顔検出器100においては、例えば入力されるデジタル画像が幅320×高さ240ピクセルの輝度画像である場合、画像を4/5倍ずつ10段階に縮小して積分画像を生成し、縮小されたそれぞれの画像において幅24×高さ24ピクセルのウィンドウ画像を切り出し、縦横1ピクセルを飛ばして走査することにより判定処理を行うと、40000個近くのウィンドウ画像に対して判定処理を行うことになる。
However, in the
また、判定処理に利用する学習データは概ね数百から数千個の特徴量により形成されており(非特許文献1の場合は6060個)、弱識別器においては1ウィンドウ画像に対して最高で学習データの個数分の判別処理が行われる。 In addition, the learning data used for the determination process is generally formed by hundreds to thousands of feature quantities (6060 in the case of Non-Patent Document 1), and the weak classifier is the maximum for one window image. A discrimination process for the number of pieces of learning data is performed.
この判別処理は、切り出されたウィンドウ画像がコントラストの低い無地の壁など顔と濃淡特徴が全く違うときには初めの方の分類器で「顔でない」と判断され処理が打ち切られるが、複雑な濃淡を持つウィンドウ画像の場合は後段の分類器まで進むことが多く、判別のための計算量が膨大になる可能性がある。 In this discrimination process, when the clipped window image is completely different from the face and shade characteristics, such as a plain wall with low contrast, the first classifier determines that the face is not a face and the process is terminated. In the case of a window image having, it often proceeds to a subsequent classifier, and the amount of calculation for discrimination may become enormous.
また、顔領域であると判断されるウィンドウ画像の近傍では、同じ検出対象により顔領域であると判断されたウィンドウ画像が複数検出されることが多い。 Further, in the vicinity of a window image determined to be a face area, a plurality of window images determined to be a face area by the same detection target are often detected.
つまり、1つの顔領域を検出する際に、近傍の複数のウィンドウ画像においても学習データの個数分の判別処理が行われることになり、さらに計算量は膨大になる。 That is, when one face area is detected, discrimination processing is performed for the number of learning data in a plurality of neighboring window images, and the calculation amount is enormous.
特許文献1の顔検出器200では、弱仮説(=弱識別器)ごとに処理を打ち切るための閾値を有しているが、どの時点で判別の打ち切りが行われるかのタイミングが非特許文献1の場合よりも多少早くなるのみであり、対象物の検出を行うための計算量はやはり膨大になる。
The
特許文献2の検出器300では、複数の識別器をネットワーク状に配置しているが、このネットワーク状の最初に配置された識別器(ノード)など検出処理時に同じ識別器を何度も通るため効率的ではない。
In the
また、特許文献2の検出器300の形状では、ノードの途中で打ち切ることができないため、結果的には対象物であるか否かの判断をするために多くの識別器を通ることになり、顕著な高速化は見込めない。
In addition, in the shape of the
そこで本発明は、上記問題に鑑みてなされたものであり、少ない計算量で高速に処理が可能であり、且つ高い精度でデジタル画像から対象物を検出することが可能な対象物検出装置、対象物検出方法、および対象物検出プログラムを提供することを目的とする。 Therefore, the present invention has been made in view of the above problems, and is an object detection device and an object that can be processed at high speed with a small amount of calculation and can detect an object from a digital image with high accuracy. An object is to provide an object detection method and an object detection program.
上記目的を達成するための本発明の対象物検出装置(1)は、入力されたデジタル画像データから、対象物が含まれる画像領域を検出するものであり、前記デジタル画像データを所定サイズのウィンドウにより走査させながら、ウィンドウ毎に前記対象物が含まれる確度を示す複数の第1の評価値を算出し、これら算出された第1の評価値に基づき、複数の候補画像領域を検出する第1の検出手段(60)と、前記第1の検出手段(60)で検出された複数の候補画像領域のうち、少なくとも画像部分が重複している候補画像領域がある場合に、これら重複している候補画像領域から最も前記評価値の高い候補画像領域を選択し、この選択された候補画像領域と前記画像部分の重複がない候補画像領域とを抽出するグルーピング処理手段(70)と、前記グルーピング処理手段(70)で抽出された複数の候補画像領域それぞれについて、前記対象物が含まれる確度を示す複数の第2の評価値を算出し、これら算出された第2の評価値に基づき前記画像領域を検出する第2の検出手段(80)とを備えたことを特徴とする。 In order to achieve the above object, an object detection apparatus (1) of the present invention detects an image area including an object from input digital image data, and uses the digital image data as a window of a predetermined size. A plurality of first evaluation values indicating the probability that the object is included for each window are calculated while scanning, and a plurality of candidate image regions are detected based on the calculated first evaluation values. Of the plurality of candidate image areas detected by the detection means (60) and the first detection means (60), at least when there is a candidate image area where the image part overlaps, these overlap. A grouping processing unit (7) that selects a candidate image region having the highest evaluation value from candidate image regions and extracts the selected candidate image region and a candidate image region in which the image portion does not overlap. ) And a plurality of second evaluation values indicating the probability that the object is included for each of the plurality of candidate image areas extracted by the grouping processing means (70), and the calculated second evaluation values And second detection means (80) for detecting the image area based on the value.
また、本発明の対象物検出装置(1)の前記第1の検出手段(60)が、前記対象物に関する複数の識別器からなる第1の学習データを用いてブースティング法により前記第1の評価値を算出すると共に、前記第2の検出手段(80)が、前記対象物に関する複数の識別器からなる第2の学習データを用いてブースティング法により前記第2の評価値を算出するようにしてもよい。 Further, the first detection means (60) of the object detection device (1) according to the present invention uses the first learning data including a plurality of discriminators related to the object by the boosting method. While calculating an evaluation value, the second detection means (80) calculates the second evaluation value by a boosting method using second learning data including a plurality of discriminators related to the object. It may be.
また、本発明の対象物検出装置(1)の前記第1の学習データにおける複数の識別器の個数を、前記第2の学習データにおける複数の識別器の個数よりも少なくしてもよい。 In addition, the number of the plurality of classifiers in the first learning data of the object detection device (1) of the present invention may be smaller than the number of the plurality of classifiers in the second learning data.
また、本発明の対象物検出方法は、入力されたデジタル画像データから、対象物が含まれる画像領域を検出する対象物検出方法であり、前記デジタル画像データを所定サイズのウィンドウにより走査させながら、ウィンドウ毎に前記対象物が含まれる確度を示す複数の第1の評価値を算出し、これら算出された第1の評価値に基づき、複数の候補画像領域を検出する第1の検出ステップ(60)と、前記第1の検出ステップ(60)において検出された複数の候補画像領域のうち、少なくとも画像部分が重複している候補画像領域がある場合に、これら重複している候補画像領域から最も前記評価値の高い候補画像領域を選択し、この選択された候補画像領域と前記画像部分の重複がない候補画像領域とを抽出するグルーピング処理ステップ(70)と、前記グルーピング処理ステップ(70)において抽出された複数の候補画像領域それぞれについて、前記対象物が含まれる確度を示す複数の第2の評価値を算出し、これら算出された第2の評価値に基づき前記画像領域を検出する第2の検出ステップ(80)とを有したことを特徴とする。 The object detection method of the present invention is an object detection method for detecting an image region including an object from input digital image data, while scanning the digital image data with a window of a predetermined size, A first detection step (60) of calculating a plurality of first evaluation values indicating the probability of the object being included for each window and detecting a plurality of candidate image regions based on the calculated first evaluation values. ) And a plurality of candidate image areas detected in the first detection step (60), at least when there is a candidate image area where the image part overlaps, the most candidate image area is selected from these overlapping candidate image areas. Grouping processing step of selecting a candidate image region having a high evaluation value and extracting the selected candidate image region and a candidate image region in which the image portion does not overlap 70) and, for each of the plurality of candidate image regions extracted in the grouping processing step (70), a plurality of second evaluation values indicating the probability of the object being included are calculated, and these calculated second values are calculated. And a second detection step (80) for detecting the image area based on the evaluation value.
また、本発明の対象物検出方法の前記第1の検出ステップ(60)では、前記対象物に関する複数の識別器からなる第1の学習データを用いてブースティング法により前記第1の評価値を算出し、前記第2の検出ステップ(80)では、前記対象物に関する複数の識別器からなる第2の学習データを用いてブースティング法により前記第2の評価値を算出するようにしてもよい。 Further, in the first detection step (60) of the object detection method of the present invention, the first evaluation value is obtained by a boosting method using first learning data comprising a plurality of discriminators related to the object. In the second detection step (80), the second evaluation value may be calculated by a boosting method using second learning data including a plurality of discriminators related to the object. .
また、本発明の対象物検出方法の前記第1の学習データにおける複数の識別器の個数を、前記第2の学習データにおける複数の識別器の個数よりも少なくしてもよい。 Further, the number of the plurality of discriminators in the first learning data of the object detection method of the present invention may be smaller than the number of the plurality of discriminators in the second learning data.
また、本発明の対象物検出プログラムは、入力されたデジタル画像データから、対象物が含まれる画像領域を検出する処理をコンピュータに実行させるための対象物検出プログラムであって、前記デジタル画像データを所定サイズのウィンドウにより走査させながら、ウィンドウ毎に前記対象物が含まれる確度を示す複数の第1の評価値を算出し、これら算出された第1の評価値に基づき、複数の候補画像領域を検出する第1の検出ステップ(60)と、前記第1の検出ステップ(60)において検出された複数の候補画像領域のうち、少なくとも画像部分が重複している候補画像領域がある場合に、これら重複している候補画像領域から最も前記評価値の高い候補画像領域を選択し、この選択された候補画像領域と前記画像部分の重複がない候補画像領域とを抽出するグルーピング処理ステップ(70)と、前記グルーピング処理ステップ(70)において抽出された複数の候補画像領域それぞれについて、前記対象物が含まれる確度を示す複数の第2の評価値を算出し、これら算出された第2の評価値に基づき前記画像領域を検出する第2の検出ステップ(80)と、を前記コンピュータに実行させることを特徴する。 An object detection program of the present invention is an object detection program for causing a computer to execute a process of detecting an image area including an object from input digital image data, wherein the digital image data is While scanning with a window of a predetermined size, a plurality of first evaluation values indicating the probability that the object is included for each window are calculated, and a plurality of candidate image regions are calculated based on the calculated first evaluation values. A first detection step (60) to be detected, and a plurality of candidate image regions detected in the first detection step (60), when there is a candidate image region having at least overlapping image portions. The candidate image region having the highest evaluation value is selected from the overlapping candidate image regions, and the selected candidate image region and the image portion are not overlapped. A grouping process step (70) for extracting candidate image areas, and a plurality of second evaluation values indicating the probability that the object is included for each of the plurality of candidate image areas extracted in the grouping process step (70). And a second detection step (80) for detecting the image area based on the calculated second evaluation value, and causing the computer to execute.
また、本発明の対象物検出プログラムの前記第1の検出ステップ(60)では、前記対象物に関する複数の識別器からなる第1の学習データを用いてブースティング法により前記第1の評価値を算出し、前記第2の検出ステップ(80)が、前記対象物に関する複数の識別器からなる第2の学習データを用いてブースティング法により前記第2の評価値を算出するように前記コンピュータに実行させるようにしてもよい。 In the first detection step (60) of the object detection program of the present invention, the first evaluation value is obtained by a boosting method using first learning data composed of a plurality of discriminators related to the object. And the second detection step (80) causes the computer to calculate the second evaluation value by a boosting method using second learning data comprising a plurality of discriminators related to the object. You may make it perform.
また、本発明の対象物検出プログラムの前記第1の学習データにおける複数の識別器の個数を、前記第2の学習データにおける複数の識別器の個数よりも少なくして前記コンピュータに実行させるようにしてもよい。 In addition, the number of the plurality of discriminators in the first learning data of the object detection program of the present invention is made smaller than the number of the plurality of discriminators in the second learning data to be executed by the computer. May be.
本発明の対象物検出装置、対象物検出方法、および対象物検出プログラムによれば、少ない計算量で高速に処理が可能であり、且つ高い精度でデジタル画像から対象物を検出することができる。 According to the object detection device, the object detection method, and the object detection program of the present invention, it is possible to perform high-speed processing with a small amount of calculation and detect an object from a digital image with high accuracy.
本発明の一実施形態による対象物検出装置について、図面を参照して詳細に説明する。 An object detection apparatus according to an embodiment of the present invention will be described in detail with reference to the drawings.
本実施形態による対象物検出装置は、従来利用されているブースティング法を用い、図1に示すように第1検出部60により検出対象の画像データから高速に粗い検出処理を行って対象物の候補領域を検出し、グルーピング処理部70により対象物に対して候補領域を抽出した後、この抽出された対象物の候補領域に対して第2検出部80により精度の高い検出処理を行うことにより、従来よりも顕著に少ない計算量で対象物の領域位置を高精度に検出するものである。
The object detection apparatus according to the present embodiment uses a conventionally used boosting method, and as shown in FIG. 1, the
なお、第1検出部60で行われる「高速に粗い検出処理」とは、検出処理の速度と検出精度とのトレードオフにおいて、検出対象の誤検出を許容して検出処理の速度を検出精度に優先させるものである。
Note that the “rough detection process at high speed” performed by the
〈一実施形態による対象物検出装置の構成〉
本実施形態による対象物検出装置1の概略構成を、図2を参照して説明する。
<Configuration of Object Detection Device According to One Embodiment>
A schematic configuration of the
図2に示すように、対象物検出装置1は、入力部10と、画像縮尺変更部20と、積分画像生成部30と、処理データ記憶部40と、学習データ記憶部50と、第1検出部60と、グルーピング処理部70と、第2検出部80と、出力部90とを有する。
As illustrated in FIG. 2, the
入力部10は、検索対象のデジタル画像データの輝度成分で構成された画像データを入力する。
The
画像縮尺変更部20は、入力された画像データの縮尺を変更する。
The image
積分画像生成部30は、縮尺が変更されたそれぞれの画像データの積分画像データを生成する。
The integrated
処理データ記憶部40は、積分画像生成部30で生成された積分画像データと、後述する第1検出部60で算出された対象物候補ウィンドウ画像情報と、グルーピング処理部70で抽出された対象物候補ウィンドウ画像情報と、第2検出部80で算出された対象物領域ウィンドウ画像情報とを記憶する。
The processing
学習データ記憶部50は、事前の学習により生成された、対象物の特徴を示す複数の特徴量とそのサイズや位置、各特徴量の信頼度(重み)、検索対象の画像に対象物が含まれているか否かを判別するための後述する評価値の閾値などの学習データを記憶する。ここでいう特徴量は、例えばHaar-like特徴のような局所的な明度差を示す白黒の2値パターンや、ウィンドウ上の2点以上の任意の位置の濃淡パターンなどである。
The learning
第1検出部60は、第1走査部61と、第1判別部62とを有し、ブースティング法により対象物領域の候補を検出する。
The
第1走査部61は、入力された輝度成分画像データを走査し、検索対象となる矩形画像であるウィンドウ画像を縦横に所定ピクセルずつずらしながら順次切り出す。
The
第1判別部62は、学習データ記憶部50に記憶された学習データの特徴量ごとに設けられた複数の識別器(図示せず)で構成され、各識別器では、第1走査部61で順次切り出されたウィンドウ画像に対し、その特徴量に対応する領域の濃淡の勾配を、処理データ記憶部40に記憶された積分画像を利用して算出し、その濃淡の勾配からその識別器における対象物らしさを評価し、評価値αを出力する。さらに、その評価値αに各識別器の信頼度に応じた重み付けをすることにより、対象物らしさの度合いを示す評価値βを算出し、各識別器で算出した評価値βを累積した値を第1評価値としてウィンドウ画像ごとに算出する。
The first discriminating
そして、第1判別部62は、算出した第1評価値と学習データ記憶部50に記憶されている評価値の閾値とを比較し、第1評価値がこの閾値を超えていれば当該ウィンドウ画像は「対象物である可能性がある」と判定して対象物領域の候補となる対象物候補ウィンドウ画像として検出し、検索処理中の画像データ中のこのウィンドウ画像の位置情報と第1評価値とを対象物候補ウィンドウ画像情報として処理データ記憶部40に送出する。
And the 1st discrimination |
グルーピング処理部70は、重複ウィンドウ画像検出部71と、候補ウィンドウ画像選択部72とを有する。
The
重複ウィンドウ画像検出部71は、輝度成分画像データ内の一の対象物領域に対して、第1判別部62において重複して検出されている近傍位置の対象物候補ウィンドウ画像を検出する。
The overlapping window
候補ウィンドウ画像選択部72は、重複ウィンドウ画像検出部71において、一の対象物領域に対して第1判別部62において重複して検出されている近傍位置の対象物候補ウィンドウ画像が複数個検出されたときには、この対象物候補ウィンドウ画像群の中から最も評価値が高い対象物候補ウィンドウ画像を選択してこの対象物候補ウィンドウ画像の対象物候補ウィンドウ画像情報を処理データ記憶部40に送出し、処理データ記憶部40に記憶されている、選択されなかった候補ウィンドウ画像情報の対象物候補ウィンドウ画像情報を削除する。なお、候補ウィンドウ画像選択部72は、対象物候補ウィンドウ画像群の位置から平均的な位置を算出し、処理データ記憶部40に送出するようにしてもよい。
The candidate window
第2検出部80は、第2走査部81と、第2判別部82とを有し、ブースティング法により対象物領域の候補を検出する。
The
第2走査部81は、グルーピング処理部70で抽出された対象物候補ウィンドウ画像の位置情報を処理データ記憶部40から取得し、取得した位置情報に基づいて輝度成分画像データから対象物候補ウィンドウ画像を切り出す。
The
第2判別部82は、学習データ記憶部50に記憶された学習データの特徴量ごとに設けられた、高い精度で対象物の検出を行うために十分な信頼性を有する数の識別器(図示せず)で構成され、各識別器では、第2走査部81で切り出されたウィンドウ画像に対し、その特徴量に対応する領域の濃淡の勾配を、処理データ記憶部40に記憶された積分画像を利用して算出し、その濃淡の勾配からその識別器における対象物らしさを評価し、評価値γを出力する。さらに、その評価値γに各識別器の信頼度に応じた重み付けを加算することにより、対象物らしさの度合いを示す評価値λを求め、各識別器で求められた評価値λを累積した値を第2評価値としてウィンドウ画像ごとに求める。
The
そして、第2判別部82は、求めた第2評価値と学習データ記憶部50に記憶されている評価値の閾値とを比較し、第2評価値がこの閾値を超えていれば当該ウィンドウ画像は「対象物である」と判定して対象物領域ウィンドウ画像として検出し、入力された輝度成分画像データ中のこの対象物領域ウィンドウ画像の位置情報と第2評価値とを対象物領域ウィンドウ画像情報として処理データ記憶部40に送出する。
And the 2nd discrimination |
第2判別部82を構成する識別器の数は使用目的に応じて適宜変更されるが、高い精度で対象物の検出を行うために十分な信頼性を有する数の識別器で構成される。
The number of discriminators constituting the second discriminating
なお、上述した第1判別部62では、対象物である可能性があるか否かを判定することを目的としているため最終的な検出に必要な高さの精度は必要ない。具体的には、1ウィンドウ画像あたりの平均計算量は、「平均計算量=使用する特徴量の数の平均×1特徴量あたりの平均計算量」と表すことができ、第1判別部62の平均計算量が第2判別部82のものよりも十分に少なければよい。ゆえに、第1判別部62は、特徴量の数は多くても1個あたりの計算量が少なければよいということになる。
Note that the
出力部90は、処理データ記憶部40に記憶された対象物領域ウィンドウ画像情報を読み出して出力する。
The
〈一実施形態による対象物検出装置の動作〉
本実施形態による対象物検出装置1により、対象物として顔領域を検出するときの動作について図3のフローチャートおよび図4の画面表示図を参照して説明する。
<Operation of Object Detection Device According to One Embodiment>
An operation when a face area is detected as an object by the
まず、対象物検出装置1の入力部10に検索対象のデジタル画像データの輝度成分の画像データaが入力されると(S1)、画像縮尺変更部20においてこの画像データaが、予め設定された縮尺p倍に縮小される(S2)。
First, when the image data a of the luminance component of the digital image data to be searched is input to the
本実施形態においては、下記式(1)に定義するように、入力された画像データaがp倍に縮小される。
(ただし、qは、
0<q<1
の定数であり、rは、
0≦r≦T−1(T:縮尺変更の繰り返し回数で自然数)
の範囲で1ずつ増加する自然数である。)
この縮尺変更の繰り替えし回数Tは、検出したい顔のサイズの範囲に応じて、予め設定される。
(However, q is
0 <q <1
Where r is a constant of
0 ≦ r ≦ T-1 (T: the number of scale change repetitions is a natural number)
It is a natural number that increases by 1 in the range. )
The number of repetitions T of the scale change is set in advance according to the range of the face size to be detected.
初回はr=0であり、入力された画像データaは等倍のままで処理が実行される。 The first time is r = 0, and the input image data a is processed with the same magnification.
次に積分画像生成部30において、この画像データaの積分画像データが生成され、処理データ記憶部40に記憶される(S3)。
Next, in the integrated
次に、第1検出部60の第1走査部61において、予め設定された大きさの矩形窓が用いられ、画像データaから検索対象の矩形画像であるウィンドウ画像が走査され切り出される。
Next, in the
本実施形態においてこの矩形窓の大きさは幅24×高さ24ピクセルであり、初回の走査では例えば、検索対象の画像データ内の初期位置として設定された左下画素(画像データのX座標=0、Y座標=0)がウィンドウ画像の左下画素となる状態でウィンドウ画像が切り出される(S4、S5)。 In this embodiment, the size of the rectangular window is 24 × 24 pixels high, and in the first scan, for example, the lower left pixel (X coordinate = 0 of the image data = 0) set as the initial position in the image data to be searched. , Y coordinate = 0) is cut out in a state where the lower left pixel of the window image is set (S4, S5).
次に第1判別部62において、第1走査部61で切り出されたウィンドウ画像について、例えば、前述の非特許文献1および特許文献1等に記載されたブースティング法を用いて特徴量が抽出される。
Next, in the first discriminating
この第1判別部62の各識別器では、第1走査部61で順次切り出されたウィンドウ画像に対し、その特徴量に対応する領域の濃淡の勾配を、処理データ記憶部40に記憶された積分画像を利用して算出し、その濃淡の勾配からその識別器における対象物らしさを評価し、評価値αを出力する。さらに、その評価値αに各識別器の信頼度に応じた重み付けをすることにより、対象物らしさの度合いを示す評価値βを算出し、各識別器で算出した評価値βを累積した値を第1評価値としてウィンドウ画像ごとに算出する。そして、第1判別部62において、算出した評価値αに各識別器の信頼度に応じた重み付けが加算され、対象物らしさの度合いを示す評価値βが算出される(S6)。
In each discriminator of the first discriminating
さらに第1判別部62において、各識別器で算出された評価値が累積された第1評価値がウィンドウ画像ごとに算出され、この第1評価値が学習データ記憶部50に記憶されている評価値の閾値を超えているか否かが判定される。
Further, in the first discriminating
判定の結果、第1評価値がこの閾値を超えていれば当該ウィンドウ画像は「顔である可能性がある」と判定されて顔領域の候補となる顔候補ウィンドウ画像として検出され(S7の「YES」)、検索処理中の画像データ中のこのウィンドウ画像の位置情報と第1評価値とが顔候補ウィンドウ画像情報として処理データ記憶部40に記憶される(S8)。
As a result of the determination, if the first evaluation value exceeds this threshold value, the window image is determined as “possibly a face” and is detected as a face candidate window image as a face area candidate (“S7” YES ”), the position information of the window image in the image data being searched and the first evaluation value are stored in the processing
第1判別部62を構成する識別器の数は使用目的や検出精度に応じて適宜変更されるが、従来のブースティング法における識別器の数のように高い精度で対象物の検出を行うために十分な信頼性を有する数よりも格段に少ない数で構成され、これら従来の検出器よりも少ない計算量で対象物である可能性があるか否かの基準のゆるい(誤検出を許容した)検出処理が行われる。
The number of discriminators constituting the first discriminating
ステップS8の処理が終了するとステップS5に戻り、ウィンドウ画像を切り出すための矩形窓が画像データa内のX方向にmピクセルずつずらされて走査されてウィンドウ画像が切り出されてステップS6〜S8の処理が行われる。このステップS5からステップS8の繰り返し処理は、検索対象の画像データaの右端までj回行われる(S9、S10)。 When the process of step S8 is completed, the process returns to step S5, the rectangular window for cutting out the window image is scanned by shifting by m pixels in the X direction in the image data a, and the window image is cut out, and the processes of steps S6 to S8 are performed. Is done. The repetitive processing from step S5 to step S8 is performed j times to the right end of the search target image data a (S9, S10).
また、このステップS9、S10の繰り返し処理は、画像データa内のY方向にnピクセルずつずらされて走査されることにより、検索対象の画像データaの上端までi回繰り返される(m,n:1以上の整数)(S11、S12)。 In addition, the repetition process of steps S9 and S10 is repeated i times up to the upper end of the image data a to be searched by scanning by shifting n pixels at a time in the Y direction in the image data a (m, n: An integer greater than or equal to 1) (S11, S12).
ステップS5〜S12に処理により検索対象の画像データa内の顔候補ウィンドウ画像の検索処理が終了すると、ステップS2に戻り(S13の「NO」)、上記式(1)のrの値が加算されてr=1とされ、定数qの値に基づいて画像データaが縮小され、ステップS3〜S12の処理が縮尺変更の繰り返し回数として設定されたT回繰り返される。 When the search process of the face candidate window image in the search target image data a is completed by the processing in steps S5 to S12, the process returns to step S2 (“NO” in S13), and the value of r in the above equation (1) is added. R = 1, the image data a is reduced based on the value of the constant q, and the processes of steps S3 to S12 are repeated T times set as the number of scale change repetitions.
第1検出部60において縮小された画像データからの顔候補ウィンドウ画像の検出処理がT回繰り返されると(S13の「YES」)、第1検出部60の処理により処理データ記憶部40に記憶された顔候補ウィンドウ画像情報がグルーピング処理部70の重複ウィンドウ画像検出部71において読み出され、各画像データ内の一の顔候補領域に対して重複して検出されている近傍位置の顔候補ウィンドウ画像が検出される。
When the detection process of the face candidate window image from the reduced image data in the
ここで、各画像データ内の一の顔候補領域に対して重複しているウィンドウ画像であるか否かの判断は、比較するウィンドウ画像どうしが所定の距離内にあるか否かにより決定される。 Here, whether or not the window images overlap with each other in one image candidate area in each image data is determined by whether or not the window images to be compared are within a predetermined distance. .
重複して検出されている顔候補ウィンドウ画像群が検出されたときは(S14の「YES」)、この顔候補ウィンドウ画像群のそれぞれの評価値が候補ウィンドウ画像選択部72において処理データ記憶部40から読み出され、検出された顔候補ウィンドウ画像群の中で評価値が高い顔候補ウィンドウ画像が選択されるとともに、評価値が低い顔候補ウィンドウ画像の顔候補ウィンドウ画像情報が処理データ記憶部40から削除され破棄される(S15)。
When the face candidate window image group detected in duplicate is detected (“YES” in S14), the evaluation value of each face candidate window image group is processed in the candidate window
ステップS14およびステップS15の処理は、各画像データ内の一の顔候補領域に対して一の顔候補ウィンドウ画像のみが選択されるまで繰り返される。 The processes of step S14 and step S15 are repeated until only one face candidate window image is selected for one face candidate area in each image data.
重複して検出されている顔候補ウィンドウ画像群から各画像データ内の一の顔候補領域に対して一の顔候補ウィンドウ画像のみが選択されると(S14の「NO」)、選択された顔候補ウィンドウ画像の顔候補ウィンドウ画像情報が処理データ記憶部40に記憶される(S16)。 When only one face candidate window image is selected for one face candidate region in each image data from the group of face candidate window images detected in duplicate (“NO” in S14), the selected face Face candidate window image information of the candidate window image is stored in the processing data storage unit 40 (S16).
図4(a)に、グルーピング後の抽出された顔候補ウィンドウ画像が検索対象の画像データ上に太枠の矩形領域で表示されたときの一例を示す。同図(a)では、第1判別部62において低い精度で顔候補領域の検出処理が行われているため、実際の顔領域と顔以外の領域を含む複数の領域が顔候補領域として選択されている様子が示されている。
FIG. 4A shows an example when the extracted face candidate window image after grouping is displayed as a rectangular region with a thick frame on the image data to be searched. In FIG. 9A, since the face determination area detection process is performed with low accuracy in the
次に、第2検出部80の第2走査部81においてステップS16で記憶された顔候補ウィンドウ画像情報が処理データ記憶部40から読み出され(S17)、画像データaからこれらの位置情報に対応する顔候補ウィンドウ画像が切り出される(S18)。
Next, the face candidate window image information stored in step S16 in the
次に第2判別部82において、第2走査部81で切り出されたウィンドウ画像について、ステップS6と同様に評価値が各識別器で算出されて重み付けがされる(S19)。
Next, in the second discriminating
この第2判別部82の各識別器では、第2走査部81で切り出されたウィンドウ画像に対し、その特徴量に対応する領域の濃淡の勾配を、処理データ記憶部40に記憶された積分画像を利用して算出し、その濃淡の勾配からその識別器における対象物らしさを評価し、評価値γを出力する。さらに、その評価値γに各識別器の信頼度に応じた重み付けを加算することにより、対象物らしさの度合いを示す評価値λを求め、各識別器で求められた評価値λを累積した値を第2評価値としてウィンドウ画像ごとに求める。
In each discriminator of the second discriminating
この第2判別部82において、第1判別部62における処理と同様に各識別器で算出された評価値が累積された第2評価値がウィンドウ画像ごとに算出され、この第2評価値が学習データ記憶部50に記憶されている評価値の閾値を超えているか否かが判定される(S20)。
In the second discriminating
判定の結果、第2評価値がこの閾値を超えていれば当該ウィンドウ画像は「顔である」と判定されて顔領域ウィンドウ画像として検出され(S20の「YES」)、画像データa中のこのウィンドウ画像の位置情報と第2評価値とが顔領域ウィンドウ画像情報として処理データ記憶部40に記憶される(S21)。
As a result of the determination, if the second evaluation value exceeds this threshold value, the window image is determined to be “face” and detected as a face area window image (“YES” in S20), and this window image image a The position information of the window image and the second evaluation value are stored in the processing
このステップS17〜S21の処理はステップS16で記憶されたすべての位置情報に対応する顔候補ウィンドウ画像について行われ(S22の「YES」)、すべての位置情報に対応する顔候補ウィンドウ画像への処理が終了すると(S22の「NO」)、ステップS21で記憶された顔領域ウィンドウ画像情報の位置情報が出力部90において読み出され、外部に出力される(S23)。
The processes in steps S17 to S21 are performed for the face candidate window images corresponding to all the position information stored in step S16 (“YES” in S22), and the process for the face candidate window images corresponding to all the position information is performed. Is completed (“NO” in S22), the position information of the face area window image information stored in step S21 is read by the
図4(b)に、出力された顔領域ウィンドウ画像情報の位置情報が、検索対象の画像データ上に太枠の矩形領域で表示されたときの一例を示す。 FIG. 4B shows an example when the position information of the output face area window image information is displayed as a thick rectangular area on the image data to be searched.
ここでは第2判別部82において、図4(a)で選択された顔候補ウィンドウ画像から高い精度で顔候補領域の検出処理が行われているため、実際の顔領域が選択されていることが示されている。
Here, in the second discriminating
以上説明した本実施形態によれば、第1検出部において少ない計算量で画像データから、誤検出を許容して対象物である可能性がある領域の(基準のゆるい)検出を行い、さらにグルーピング処理部において画像データ内の一の対象物領域に対して重複して検出されている対象物候補ウィンドウ画像を削除することにより、検出対象のウィンドウ画像を絞り込んでから、第2検出部において高い精度で対象物の検出を行うため、従来のブースティング法による検出処理に比べて顕著に少ない計算量で高速に処理が可能であり、且つ高い精度でデジタル画像から対象物を検出することができる。 According to the present embodiment described above, the first detection unit detects an area that may be a target object (allowing a loose reference) from image data with a small amount of calculation, and further performs grouping. The processing unit narrows down the window image to be detected by deleting the target object window image that is detected redundantly with respect to one target region in the image data, and then the second detection unit has high accuracy. Therefore, the object can be detected at a high speed with a remarkably small amount of calculation compared to the detection processing by the conventional boosting method, and the object can be detected from the digital image with high accuracy.
なお、本実施形態においては、第1判別部62および第2判別部82で使用する学習データと閾値とがそれぞれ同値である場合として説明したが、第1判別部62および第2判別部82のそれぞれについて、第1および第2学習データ、並びに第1および第2閾値を設定できるようにしておくことが望ましい。
In the present embodiment, the learning data used in the
そして、第1および第2学習データとして、一連の十分精度のある数の識別器を有した学習データの最初の幾つかの識別器を第1学習データとし、それ以降最後までの識別器を第2学習データとしてもよいし、第1および第2学習データを同一の特徴量にしてもよいし、第1学習データでは少数で顔らしい位置を特定し易い形状の特徴量を用いたり、例えば、矩形特徴ならば周波数の低い計算量が少なくて済む特徴量を使うなど、別々の特徴量を使用して学習するようにしてもよい。 Then, as the first and second learning data, the first several discriminators of the learning data having a series of sufficiently accurate discriminators are used as the first learning data, and the discriminators from then on until the last are discriminated. 2 learning data, the first and second learning data may be the same feature amount, the first learning data uses a feature amount of a shape that is easy to specify a position that is likely to be a face, for example, In the case of a rectangular feature, learning may be performed using different feature amounts, such as using a feature amount that requires less calculation amount with a low frequency.
またさらに、本実施例においては、第1判別部62および第2判別部82で、すべての識別器を使用して第1評価値および第2評価値を求めた後に閾値との比較を行っているが、これに限らず、途中の識別器を通ったところまでの累積された評価値を、それに対応する途中段階の閾値学習データとして保持するようにし、その閾値を超えていなければ途中でそのウィンドウ画像に対する判別処理を打ち切るようにすれば、更なる高速化を図ることができる。
Furthermore, in the present embodiment, the first discriminating
また、本実施形態の対象物検出装置の機能構成を対象物検出プログラムとしてプログラム化してコンピュータに組み込むことにより、当該コンピュータを対象物検出装置として機能させることもできる。 Moreover, the computer can be made to function as a target object detection apparatus by programming the function structure of the target object detection apparatus of this embodiment as a target object detection program, and incorporating it into a computer.
1…対象物検出装置
10…入力部
20…画像縮尺変更部
30…積分画像生成部
40…処理データ記憶部
50…学習データ記憶部
60…第1検出部
61…第1走査部
62…第1判別部
70…グルーピング処理部
71…重複ウィンドウ画像検出部
72…候補ウィンドウ画像選択部
80…第2検出部
81…第2走査部
82…第2判別部
90…出力部
DESCRIPTION OF
Claims (9)
前記デジタル画像データを所定サイズのウィンドウにより走査させながら、ウィンドウ毎に前記対象物が含まれる確度を示す複数の第1の評価値を算出し、これら算出された第1の評価値に基づき、複数の候補画像領域を検出する第1の検出手段と、
前記第1の検出手段で検出された複数の候補画像領域のうち、少なくとも画像部分が重複している候補画像領域がある場合に、これら重複している候補画像領域から最も前記評価値の高い候補画像領域を選択し、この選択された候補画像領域と前記画像部分の重複がない候補画像領域とを抽出するグルーピング処理手段と、
前記グルーピング処理手段で抽出された複数の候補画像領域それぞれについて、前記対象物が含まれる確度を示す複数の第2の評価値を算出し、これら算出された第2の評価値に基づき前記画像領域を検出する第2の検出手段と、
を備えたことを特徴とする対象物検出装置。 In the object detection device for detecting an image area including the object from the input digital image data,
While scanning the digital image data with a window of a predetermined size, a plurality of first evaluation values indicating the probability that the object is included for each window are calculated, and a plurality of values are calculated based on the calculated first evaluation values. First detection means for detecting a candidate image region of
Among the plurality of candidate image areas detected by the first detection means, if there is a candidate image area where at least the image portion overlaps, the candidate having the highest evaluation value from these overlapping candidate image areas Grouping processing means for selecting an image area and extracting the selected candidate image area and a candidate image area in which the image portion does not overlap;
For each of a plurality of candidate image regions extracted by the grouping processing means, a plurality of second evaluation values indicating the probability of the object being included are calculated, and the image regions are based on the calculated second evaluation values. Second detecting means for detecting
An object detection apparatus comprising:
前記デジタル画像データを所定サイズのウィンドウにより走査させながら、ウィンドウ毎に前記対象物が含まれる確度を示す複数の第1の評価値を算出し、これら算出された第1の評価値に基づき、複数の候補画像領域を検出する第1の検出ステップと、
前記第1の検出ステップにおいて検出された複数の候補画像領域のうち、少なくとも画像部分が重複している候補画像領域がある場合に、これら重複している候補画像領域から最も前記評価値の高い候補画像領域を選択し、この選択された候補画像領域と前記画像部分の重複がない候補画像領域とを抽出するグルーピング処理ステップと、
前記グルーピング処理ステップにおいて抽出された複数の候補画像領域それぞれについて、前記対象物が含まれる確度を示す複数の第2の評価値を算出し、これら算出された第2の評価値に基づき前記画像領域を検出する第2の検出ステップと、
を有したことを特徴とする対象物検出方法。 In an object detection method for detecting an image region including an object from input digital image data,
While scanning the digital image data with a window of a predetermined size, a plurality of first evaluation values indicating the probability that the object is included for each window are calculated, and a plurality of values are calculated based on the calculated first evaluation values. A first detection step of detecting a candidate image region of
Among the plurality of candidate image areas detected in the first detection step, if there is a candidate image area where at least an image portion overlaps, the candidate having the highest evaluation value from these overlapping candidate image areas A grouping process step of selecting an image region and extracting the selected candidate image region and a candidate image region in which the image portion does not overlap;
For each of the plurality of candidate image areas extracted in the grouping processing step, a plurality of second evaluation values indicating the probability of the object being included are calculated, and the image areas are based on the calculated second evaluation values. A second detection step of detecting
The object detection method characterized by having.
前記デジタル画像データを所定サイズのウィンドウにより走査させながら、ウィンドウ毎に前記対象物が含まれる確度を示す複数の第1の評価値を算出し、これら算出された第1の評価値に基づき、複数の候補画像領域を検出する第1の検出ステップと、
前記第1の検出ステップにおいて検出された複数の候補画像領域のうち、少なくとも画像部分が重複している候補画像領域がある場合に、これら重複している候補画像領域から最も前記評価値の高い候補画像領域を選択し、この選択された候補画像領域と前記画像部分の重複がない候補画像領域とを抽出するグルーピング処理ステップと、
前記グルーピング処理ステップにおいて抽出された複数の候補画像領域それぞれについて、前記対象物が含まれる確度を示す複数の第2の評価値を算出し、これら算出された第2の評価値に基づき前記画像領域を検出する第2の検出ステップと、
を前記コンピュータに実行させるための対象物検出プログラム。 An object detection program for causing a computer to execute processing for detecting an image area including an object from input digital image data,
While scanning the digital image data with a window of a predetermined size, a plurality of first evaluation values indicating the probability that the object is included for each window are calculated, and a plurality of values are calculated based on the calculated first evaluation values. A first detection step of detecting a candidate image region of
Among the plurality of candidate image areas detected in the first detection step, if there is a candidate image area where at least an image portion overlaps, the candidate having the highest evaluation value from these overlapping candidate image areas A grouping process step of selecting an image region and extracting the selected candidate image region and a candidate image region in which the image portion does not overlap;
For each of the plurality of candidate image areas extracted in the grouping processing step, a plurality of second evaluation values indicating the probability of the object being included are calculated, and the image areas are based on the calculated second evaluation values. A second detection step of detecting
An object detection program for causing the computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007224002A JP2009059047A (en) | 2007-08-30 | 2007-08-30 | Device, method and program for detecting object |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007224002A JP2009059047A (en) | 2007-08-30 | 2007-08-30 | Device, method and program for detecting object |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009059047A true JP2009059047A (en) | 2009-03-19 |
Family
ID=40554756
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007224002A Pending JP2009059047A (en) | 2007-08-30 | 2007-08-30 | Device, method and program for detecting object |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009059047A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012002048A1 (en) * | 2010-06-30 | 2012-01-05 | Necソフト株式会社 | Head detection method, head detection device, attribute determination method, attribute determination device, program, recording medium and attribute determination system |
DE102015212075A1 (en) | 2014-06-30 | 2015-12-31 | Denso Corporation | Object detecting device |
CN110651300A (en) * | 2017-07-14 | 2020-01-03 | 欧姆龙株式会社 | Object detection device, object detection method, and program |
-
2007
- 2007-08-30 JP JP2007224002A patent/JP2009059047A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012002048A1 (en) * | 2010-06-30 | 2012-01-05 | Necソフト株式会社 | Head detection method, head detection device, attribute determination method, attribute determination device, program, recording medium and attribute determination system |
US8917915B2 (en) | 2010-06-30 | 2014-12-23 | Nec Solution Innovators, Ltd. | Head detecting method, head detecting apparatus, attribute determining method, attribute determining apparatus, program, recording medium, and attribute determining system |
DE102015212075A1 (en) | 2014-06-30 | 2015-12-31 | Denso Corporation | Object detecting device |
US9754174B2 (en) | 2014-06-30 | 2017-09-05 | Denso Corporation | Object detection apparatus |
CN110651300A (en) * | 2017-07-14 | 2020-01-03 | 欧姆龙株式会社 | Object detection device, object detection method, and program |
CN110651300B (en) * | 2017-07-14 | 2023-09-12 | 欧姆龙株式会社 | Object detection device, object detection method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6088792B2 (en) | Image detection apparatus, control program, and image detection method | |
JP4517633B2 (en) | Object detection apparatus and method | |
JP5763965B2 (en) | Information processing apparatus, information processing method, and program | |
TWI380223B (en) | Image processing apparatus and image processing method | |
US10679358B2 (en) | Learning image automatic sorting device, learning image automatic sorting method, and learning image automatic sorting program | |
US12002259B2 (en) | Image processing apparatus, training apparatus, image processing method, training method, and storage medium | |
US9047673B2 (en) | Apparatus and method for extracting target, and recording medium storing program for performing the method | |
JP4588575B2 (en) | Method, apparatus and program for detecting multiple objects in digital image | |
JP4553044B2 (en) | Group learning apparatus and method | |
JPWO2019026104A1 (en) | Information processing apparatus, information processing program, and information processing method | |
JP2005284348A (en) | Information processor and information processing method, recording medium, and program | |
JP2008033424A (en) | Image processor, image processing method, program, and storage medium | |
JP6095817B1 (en) | Object detection device | |
JP2007047965A (en) | Method and device for detecting object of digital image, and program | |
JP5707570B2 (en) | Object identification device, object identification method, and learning method for object identification device | |
JPWO2012046426A1 (en) | Object detection apparatus, object detection method, and object detection program | |
JP2020160543A (en) | Information processing system and information processing method | |
JP2010165052A (en) | Image processor and image processing method | |
JP2011165170A (en) | Object detection device and program | |
JP5264457B2 (en) | Object detection device | |
KR20080079443A (en) | Method and apparatus for extracting object from image | |
JP2009059047A (en) | Device, method and program for detecting object | |
JP6030457B2 (en) | Image detection apparatus, control program, and image detection method | |
JP2010271792A (en) | Image processing apparatus and method | |
JP2021111228A (en) | Learning device, learning method, and program |