JP4609936B2 - Object detection method - Google Patents

Object detection method Download PDF

Info

Publication number
JP4609936B2
JP4609936B2 JP2005091659A JP2005091659A JP4609936B2 JP 4609936 B2 JP4609936 B2 JP 4609936B2 JP 2005091659 A JP2005091659 A JP 2005091659A JP 2005091659 A JP2005091659 A JP 2005091659A JP 4609936 B2 JP4609936 B2 JP 4609936B2
Authority
JP
Japan
Prior art keywords
fractal dimension
area
object detection
color component
detection method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005091659A
Other languages
Japanese (ja)
Other versions
JP2006277020A (en
Inventor
幸一 高木
賢治 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI R&D Laboratories Inc
Original Assignee
KDDI R&D Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI R&D Laboratories Inc filed Critical KDDI R&D Laboratories Inc
Priority to JP2005091659A priority Critical patent/JP4609936B2/en
Publication of JP2006277020A publication Critical patent/JP2006277020A/en
Application granted granted Critical
Publication of JP4609936B2 publication Critical patent/JP4609936B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明はオブジェクト検出方に関し、特にフラクタル次元により自然画像からオブジェクトを認識し検出するオブジェクト検出方に関する。 The present invention relates to object detection scheme relates to an object detection scheme to detect and recognize objects from natural image in particular fractal dimension.

入力された画像からフラクタル次元を用いて目的のオブジェクトを検出する従来方法の一つに、本発明者等による下記の特許文献1に記されている方法がある。   As one of conventional methods for detecting a target object using an fractal dimension from an input image, there is a method described in the following Patent Document 1 by the present inventors.

この方法は、概略次のような方法である。まず、入力画像上で指定領域をスライドさせて指定領域毎のフラクタル次元を求める。次いで、該当する指定領域毎のフラクタル次元をフラクタル次元値データベースと比較し、フラクタル次元信頼区間内にあるオブジェクト領域を検出する。これらの処理が、画像入力全体に対して行われると、検出されたオブジェクト領域を統合し、統合数の多い順に、オブジェクト候補の順位付けを行う。
特開2004−302519号公報
This method is roughly the following method. First, the specified area is slid on the input image to obtain a fractal dimension for each specified area. Next, the fractal dimension for each corresponding designated area is compared with the fractal dimension value database, and an object area within the fractal dimension confidence interval is detected. When these processes are performed on the entire image input, the detected object areas are integrated, and the object candidates are ranked in descending order of integration number.
JP 2004-302519 A

しかしながら、前記した従来の方法は、単一の色成分に基づくエッジ検出を想定していたため、当該画像入力のエッジ検出が良好に行えなかった場合に、目的とするオブジェクトの検出の精度が十分でないという課題があった。   However, since the conventional method described above assumes edge detection based on a single color component, the accuracy of detection of the target object is not sufficient when the edge detection of the image input cannot be performed well. There was a problem.

本発明は、前記した従来技術の課題に鑑みてなされたものであり、その目的は、画像入力のエッジ検出の精度を増して、オブジェクトの抽出精度を向上させたオブジェクト検出方を提供することにある。 The present invention has been made in view of the problems of the aforementioned prior art, and its object is to increase the accuracy of the edge detection of the image input, to provide an object detection scheme with improved accuracy of extracting the object It is in.

前記した目的を達成するために、本発明は、画像中から予め指定されたオブジェクトを検出するオブジェクト検出方式であって、画像入力の一部または全域に対して複数次元の色空間のエッジを求める手段と、該画像入力の一部または全域に対して予め定められたサイズの指定領域をスライドさせる手段と、各指定領域毎に、前記複数次元の色空間の各エッジに対してフラクタル次元を求める手段と、各指定領域毎に求めた各フラクタル次元と、各フラクタル次元値データベースのフラクタル次元信頼区間とを比較し、該信頼区間に入る指定領域を各該当オブジェクト領域として検出する手段と、検出されたの前記各該当オブジェクト領域に対して論理積処理をする手段とを具備した点に第1の特徴がある。 In order to achieve the above-described object, the present invention is an object detection method for detecting a pre-designated object from an image, and obtains an edge of a multi-dimensional color space for a part or all of the image input. that means and, means for Ru slide the designated area of the predetermined size to some or the entire area of the image input, for each designated area, fractal dimension with respect to each edge of the multi-dimensional color space means asking you to, each fractal dimension determined for each specified region, by comparing the fractal dimension confidence interval of each fractal dimension value database, means for detecting a designated area to be the confidence interval as the respective corresponding object area A first feature is that it comprises means for performing a logical product process on each of the detected object areas.

また、前記複数次元の色空間として、HSV色空間を用いる点に第2の特徴がある。   The second feature is that an HSV color space is used as the multi-dimensional color space.

本発明によれば、画像に対して複数次元の色空間、例えばHSV色空間を用いてオブジェクトの検出をするようにしたので、オブジェクト検出の精度を向上させることができる。   According to the present invention, since an object is detected using a multi-dimensional color space such as an HSV color space for an image, the accuracy of object detection can be improved.

以下に、図面を参照して、本発明を詳細に説明する。まず、図1を参照して、フラクタル次元オブジェクトデータベースを作成する手順を説明する。   Hereinafter, the present invention will be described in detail with reference to the drawings. First, a procedure for creating a fractal dimension object database will be described with reference to FIG.

ステップS1では、画像を入力する。該画像としては、人の顔や手や車などのオブジェクトが入っているものが使用される。ステップS2,S3では、それぞれ、該画像のH色成分、SV色成分のエッジが求められる。ここに、HSV色成分は色空間を表し、Hは色合い、SVは明るさあるいは彩度を表す。なお、該エッジの求め方は周知であるので説明を省略するが、H色成分は、色合いを0°〜360°の角度で表すので、元の成分をhとする時、H成分の演算結果が360°を越えないようにするために、例えば下記の(1)式を用いる。

H=|h−int{(h+180)/360}×360| ・・・(1)

ただし、int( )は、その値を超えない最小の整数とする。
In step S1, an image is input. As the image, an image containing a human face, an object such as a hand or a car is used. In steps S2 and S3, the edges of the H color component and the SV color component of the image are obtained, respectively. Here, the HSV color component represents a color space, H represents a hue, and SV represents brightness or saturation. Since the method of obtaining the edge is well known and will not be described, the H color component expresses the hue with an angle of 0 ° to 360 °. Therefore, when the original component is h, the calculation result of the H component In order not to exceed 360 °, for example, the following equation (1) is used.

H = | h−int {(h + 180) / 360} × 360 | (1)

However, int () is the smallest integer that does not exceed that value.

一方、SV成分は直交する座標系で表されるので、下記の(2)式を用いる。

SV=(S+V1/2 ・・・(2)
On the other hand, since the SV component is represented by an orthogonal coordinate system, the following equation (2) is used.

SV = (S 2 + V 2 ) 1/2 (2)

ステップS4,S5では、それぞれ、入力画像より小さい予め定められた大きさの指定領域(または、任意辺長領域)をスライドさせる。このスライドは、好ましくは、入力画像の全面に対して行う。ステップS6,S7では、それぞれ、各指定領域毎の前記H色成分エッジ、SV色成分エッジに対してフラクタル次元を演算する。   In steps S4 and S5, a designated area (or an arbitrary side length area) having a predetermined size smaller than the input image is slid. This slide is preferably performed on the entire input image. In steps S6 and S7, fractal dimensions are calculated for the H color component edge and the SV color component edge for each designated region, respectively.

このステップS6,S7では、具体的には、入力された画像を、任意辺長領域に分割し、該領域内のH色成分、SV色成分からフラクタル次元を算出する。ステップS8,S9では、それぞれ、H色成分フラクタル次元値データベース、SV色成分フラクタル次元値データベースを作成する。この際、それぞれ、ステップS10,S11オブジェクト情報指定が、A,B,Cであれば、例えばA=顔、B=手、C=車であれば、顔のフラクタル次元データベースD1,D1’、手のフラクタル次元データベースD2,D2’、車のフラクタル次元データベースD3,D3’が得られる。該フラクタル次元データベースD1〜D3、あるいはD1’〜D3’の信頼区間(図2の説明参照)は、本発明では後述のAND処理(ステップS35)を行うので、広めに取ることができる。   Specifically, in steps S6 and S7, the input image is divided into arbitrary side length regions, and the fractal dimension is calculated from the H color component and the SV color component in the region. In steps S8 and S9, an H color component fractal dimension value database and an SV color component fractal dimension value database are created, respectively. At this time, if the object information designations in steps S10 and S11 are A, B, and C, respectively, for example, if A = face, B = hand, and C = car, the face fractal dimension databases D1, D1 ′, hand Fractal dimension databases D2 and D2 ′ and car fractal dimension databases D3 and D3 ′ are obtained. The confidence intervals (see the description of FIG. 2) of the fractal dimension databases D1 to D3 or D1 'to D3' can be widened because an AND process (step S35) described later is performed in the present invention.

図2は、顔画像のSV色成分のフラクタル次元データベースD1’をヒストグラムで表したものであり、横軸がフラクタル次元、縦軸が頻度である。図から、オブジェクトが顔の場合は、フラクタル次元が1.4の前後にピークがあることがわかる。また、信頼区間として、例えば、フラクタル次元を1.3〜1.5とすることができる。顔画像のH色成分のフラクタル次元データベースD1のヒストグラムは図2とは異なるものになる。手や車画像においても、SV色成分およびH色成分について、フラクタル次元データベースをヒストグラムで表すことができ、またそれぞれの信頼区間を求めることができる。   FIG. 2 is a histogram of the SV color component fractal dimension database D1 'of the face image. The horizontal axis represents the fractal dimension and the vertical axis represents the frequency. From the figure, it can be seen that when the object is a face, there is a peak around the fractal dimension of 1.4. Further, as the confidence interval, for example, the fractal dimension can be set to 1.3 to 1.5. The histogram of the fractal dimension database D1 of the H color component of the face image is different from that in FIG. Also in the hand and car images, the fractal dimension database can be represented by a histogram for the SV color component and the H color component, and the respective confidence intervals can be obtained.

次に、前記のようにして得られたデータベースを用いて、フラクタル次元オブジェクトを検出する手法を、図3を参照して説明する。   Next, a method for detecting a fractal dimension object using the database obtained as described above will be described with reference to FIG.

ステップS20では、検出対象であるオブジェクト情報、例えば顔を指定する。ステップS28,S29では、それぞれ、H色成分フラクタル次元データベース、SV色成分フラクタル次元データベースを選択する。例えば、前記データベースD1,D1’を、それぞれ選択する。   In step S20, object information to be detected, for example, a face is designated. In steps S28 and S29, an H color component fractal dimension database and an SV color component fractal dimension database are selected, respectively. For example, the databases D1 and D1 'are selected.

一方、ステップS21では、オブジェクトの検出対象である任意の画像、例えば図4(a)の画像1が入力される。ステップS22,S23では、該画像の画素のH色成分エッジ、SV色成分エッジが求められる。ここで、H色成分は前記(1)式で求め、SV色成分は前記(2)式で求める。   On the other hand, in step S21, an arbitrary image as an object detection target, for example, the image 1 in FIG. 4A is input. In steps S22 and S23, the H color component edge and the SV color component edge of the pixel of the image are obtained. Here, the H color component is obtained by the equation (1), and the SV color component is obtained by the equation (2).

ステップS24,S25では、前記ステップS4,S5と同様に、指定領域(または、任意辺長領域)2(図4(a)参照)をスライドさせる動作が行われる。ステップS26,S27では、該スライドに伴う、指定領域毎のフラクタル次元が演算される。ステップS30,S31では、それぞれ、前記ステップS26,S27で求められたフラクタル次元が前記ステップS28,S29で選択されたフラクタル次元データベースと比較され、該フラクタル次元が予め定められた信頼区間、例えば1.3〜1.5に属するオブジェクト領域が検出される。ステップS32では、画像入力の全域に渡って前記指定領域のスライドが終了したか否かの判断がなされる。この判断が否定の時には、ステップS24,S25に戻って、指定領域のスライドが再度行われる。なお、前記指定領域のスライドは、画像入力の全域でなく一部であっても良い。以下、前記した処理が繰り返される。   In steps S24 and S25, as in steps S4 and S5, an operation of sliding the designated area (or arbitrary side length area) 2 (see FIG. 4A) is performed. In steps S26 and S27, the fractal dimension for each designated area associated with the slide is calculated. In steps S30 and S31, the fractal dimension obtained in steps S26 and S27 is compared with the fractal dimension database selected in steps S28 and S29, respectively, and the fractal dimension is set to a predetermined confidence interval, for example, 1. Object areas belonging to 3 to 1.5 are detected. In step S32, it is determined whether or not the slide of the designated area has been completed over the entire image input. When this determination is negative, the process returns to steps S24 and S25, and the designated area is slid again. Note that the slide in the designated area may be a part of the image input instead of the entire area. Thereafter, the processing described above is repeated.

この処理の繰り返しが続行された結果、ステップS32の判断が肯定になると、ステップS33,S34に進み、それぞれH色成分、SV色成分に対して、同じオブジェクト重複領域を統合する動作が行われる。この時、前記ステップS30,S31で検出されたオブジェクト領域は、一般的には複数検出される。例えば、図5に示されているように、複数のオブジェクト領域が検出される。また、特徴フラクタル次元値の信頼区間を広く指定した場合には、顔と同程度に複雑な形状オブジェクト、例えば、髪の毛、服の柄およびしわを誤って抽出する場合がある。   As a result of continuing this process, if the determination in step S32 becomes affirmative, the process proceeds to steps S33 and S34, and the operation of integrating the same object overlapping areas is performed for the H color component and the SV color component, respectively. At this time, in general, a plurality of object regions detected in steps S30 and S31 are detected. For example, as shown in FIG. 5, a plurality of object areas are detected. In addition, when the confidence interval of the feature fractal dimension value is specified widely, a shape object as complex as the face, for example, hair, clothes pattern and wrinkle may be erroneously extracted.

そこで、ステップS35では、ステップS33とS34で得られた統合結果のAND(論理積)をとる。このANDにより、H色成分エッジ、SV色成分エッジによる処理において一致したオブジェクトのみを取り出して出力(ステップS36)することができるようになる。   Therefore, in step S35, an AND (logical product) of the integration results obtained in steps S33 and S34 is taken. This AND makes it possible to extract and output (step S36) only the objects that coincide in the processing by the H color component edge and the SV color component edge.

このため、前記フラクタル次元データベースD1〜D3、あるいはD1’〜D3’の信頼区間を広めに取っておいても、このAND処理によりオブジェクトの検出範囲が狭められることになり、より信頼性の高いオブジェクト検出が行えるようになる。なお、図4(b)は、該論理積処理により得られる画像の一例である。   For this reason, even if the confidence interval of the fractal dimension database D1 to D3 or D1 ′ to D3 ′ is widened, the object detection range is narrowed by the AND processing, and a more reliable object Detection can be performed. FIG. 4B is an example of an image obtained by the logical product process.

また、H色成分エッジ、SV色成分エッジによる処理の一方でのみ検出されたオブジェクトは排除されることになる。例えば、顔画面の目的オブジェクトに対して、服の柄がH色成分エッジの処理で検出されても、SV色成分エッジの処理では検出されないので、該服の柄は排除されることになる。   In addition, an object detected only in one of the processes by the H color component edge and the SV color component edge is excluded. For example, even if a clothing pattern is detected by the H color component edge processing for the target object on the face screen, the clothing pattern is excluded because it is not detected by the SV color component edge processing.

このように、本実施形態によれば、H色成分エッジによる検出処理結果とSV色成分エッジによる検出処理結果とのANDを取るという簡単な処理をするだけで、オブジェクト検出の精度を上げることができ、また、誤検出の可能性を非常に小さくすることができる。   As described above, according to the present embodiment, the accuracy of object detection can be improved by simply performing an AND operation between the detection processing result by the H color component edge and the detection processing result by the SV color component edge. In addition, the possibility of erroneous detection can be greatly reduced.

フラクタル次元オブジェクトデータベース作成の手順を示すフローチャートである。It is a flowchart which shows the procedure of fractal dimension object database preparation. 顔のフラクタル次元データベースD1’をグラフ化したものの一例を示す図である。It is a figure which shows an example of what graphed the fractal dimension database D1 'of the face. 本発明の一実施形態の指定されたオブジェクト検出の手順を示すフローチャートである。It is a flowchart which shows the procedure of the designated object detection of one Embodiment of this invention. 画像入力、任意辺長領域、および検出オブジェクト領域の一例を示す図である。It is a figure which shows an example of an image input, arbitrary side length area | regions, and a detection object area | region. フラクタル次元値データベースのフラクタル次元信頼区間との比較により検出された該当オブジェクトを示す図である。It is a figure which shows the applicable object detected by the comparison with the fractal dimension confidence area of a fractal dimension value database.

符号の説明Explanation of symbols

1・・・画像、2・・・指定領域。   1 ... image, 2 ... designated area.

Claims (3)

画像中から予め指定されたオブジェクトを検出するオブジェクト検出方式であって、
画像入力の一部または全域に対して複数次元の色空間のエッジを求める手段と
該画像入力の一部または全域に対して予め定められたサイズの指定領域をスライドさせる手段と
各指定領域毎に、前記複数次元の色空間の各エッジに対してフラクタル次元を求める手段と
各指定領域毎に求めた各フラクタル次元と、各フラクタル次元値データベースのフラクタル次元信頼区間とを比較し、該信頼区間に入る指定領域を各該当オブジェクト領域として検出する手段と
検出されたの前記各該当オブジェクト領域に対して論理積処理をする手段とを具備したオブジェクト検出方式
An object detection method for detecting a predetermined object from an image,
Means asking you to edge multidimensional color space to some or the entire area of the image input,
Means for Ru slide the designated area of the predetermined size to some or the entire area of the image input,
Each designated area, and means asking you to fractal dimension for each edge of the multi-dimensional color space,
Means for comparing each fractal dimension obtained for each designated area with the fractal dimension confidence interval of each fractal dimension value database and detecting the designated area entering the confidence interval as each corresponding object area;
An object detection method comprising means for performing a logical product process on each corresponding object area detected.
請求項1に記載のオブジェクト検出方式において、
前記複数次元の色空間のエッジを求める手段は、前記複数次元の色空間として、HSV色空間を用いることを特徴とするオブジェクト検出方式
The object detection method according to claim 1,
An object detection method wherein the means for obtaining an edge of the multi-dimensional color space uses an HSV color space as the multi-dimensional color space.
請求項1または2に記載のオブジェクト検出方式において、
前記論理積処理をする前に、前記検出された各該当オブジェクト領域の重複領域を統合することを特徴とするオブジェクト検出方式
In the object detection method according to claim 1 or 2,
The logical product processing before the object detection system, characterized in that integrating the overlapping area of the detected respective corresponding object regions.
JP2005091659A 2005-03-28 2005-03-28 Object detection method Expired - Fee Related JP4609936B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005091659A JP4609936B2 (en) 2005-03-28 2005-03-28 Object detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005091659A JP4609936B2 (en) 2005-03-28 2005-03-28 Object detection method

Publications (2)

Publication Number Publication Date
JP2006277020A JP2006277020A (en) 2006-10-12
JP4609936B2 true JP4609936B2 (en) 2011-01-12

Family

ID=37211760

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005091659A Expired - Fee Related JP4609936B2 (en) 2005-03-28 2005-03-28 Object detection method

Country Status (1)

Country Link
JP (1) JP4609936B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109658429A (en) * 2018-12-21 2019-04-19 电子科技大学 A kind of infrared image cirrus detection method based on boundary fractal dimension

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002092612A (en) * 2000-09-11 2002-03-29 Sony Corp Device and method for processing image, and recording medium
JP2004192582A (en) * 2002-12-13 2004-07-08 Sharp Corp Device for processing object information, image processing system, game device, and image processing method
JP2004302519A (en) * 2003-03-28 2004-10-28 Kddi R & D Laboratories Inc Object detection method by fractal dimension

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10210308A (en) * 1997-01-21 1998-08-07 Sanyo Electric Co Ltd Image data processing method and recording medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002092612A (en) * 2000-09-11 2002-03-29 Sony Corp Device and method for processing image, and recording medium
JP2004192582A (en) * 2002-12-13 2004-07-08 Sharp Corp Device for processing object information, image processing system, game device, and image processing method
JP2004302519A (en) * 2003-03-28 2004-10-28 Kddi R & D Laboratories Inc Object detection method by fractal dimension

Also Published As

Publication number Publication date
JP2006277020A (en) 2006-10-12

Similar Documents

Publication Publication Date Title
CN109348731B (en) Image matching method and device
TW201437925A (en) Object identification device, method, and storage medium
US9047673B2 (en) Apparatus and method for extracting target, and recording medium storing program for performing the method
AU2016225841B2 (en) Predicting accuracy of object recognition in a stitched image
KR101506060B1 (en) Feature-based signatures for image identification
JP6491959B2 (en) Information processing apparatus, information processing method, and program
US10007846B2 (en) Image processing method
JP2009134587A (en) Image processing device
US10255512B2 (en) Method, system and apparatus for processing an image
JP2006222899A (en) Image processing apparatus and image processing method
JP4609936B2 (en) Object detection method
JP2007188407A (en) Image processing device and image processing program
JP2016053763A (en) Image processor, image processing method and program
JP5217917B2 (en) Object detection and tracking device, object detection and tracking method, and object detection and tracking program
JP2002342758A (en) Visual recognition system
CN103208003A (en) Geometric graphic feature point-based method for establishing shape descriptor
JP2010191767A (en) Device and method for recognizing character
JP6350331B2 (en) TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM
JP2018109824A (en) Electronic control device, electronic control system, and electronic control method
JP6278757B2 (en) Feature value generation device, feature value generation method, and program
KR101643550B1 (en) System and method for detecting and describing color invariant features using fast explicit diffusion in nonlinear scale spaces
JPH1139477A (en) Corresponding point search device
WO2024047847A1 (en) Detection device, detection method, and detection program
JP2009157766A (en) Face recognition apparatus, face recognition method, face recognition program and recording medium recording the program
KR100533209B1 (en) Method for detecting image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070912

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100701

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100714

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100901

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101006

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101007

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131022

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees