JP4609936B2 - Object detection method - Google Patents
Object detection method Download PDFInfo
- Publication number
- JP4609936B2 JP4609936B2 JP2005091659A JP2005091659A JP4609936B2 JP 4609936 B2 JP4609936 B2 JP 4609936B2 JP 2005091659 A JP2005091659 A JP 2005091659A JP 2005091659 A JP2005091659 A JP 2005091659A JP 4609936 B2 JP4609936 B2 JP 4609936B2
- Authority
- JP
- Japan
- Prior art keywords
- fractal dimension
- area
- object detection
- color component
- detection method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明はオブジェクト検出方式に関し、特にフラクタル次元により自然画像からオブジェクトを認識し検出するオブジェクト検出方式に関する。 The present invention relates to object detection scheme relates to an object detection scheme to detect and recognize objects from natural image in particular fractal dimension.
入力された画像からフラクタル次元を用いて目的のオブジェクトを検出する従来方法の一つに、本発明者等による下記の特許文献1に記されている方法がある。
As one of conventional methods for detecting a target object using an fractal dimension from an input image, there is a method described in the following
この方法は、概略次のような方法である。まず、入力画像上で指定領域をスライドさせて指定領域毎のフラクタル次元を求める。次いで、該当する指定領域毎のフラクタル次元をフラクタル次元値データベースと比較し、フラクタル次元信頼区間内にあるオブジェクト領域を検出する。これらの処理が、画像入力全体に対して行われると、検出されたオブジェクト領域を統合し、統合数の多い順に、オブジェクト候補の順位付けを行う。
しかしながら、前記した従来の方法は、単一の色成分に基づくエッジ検出を想定していたため、当該画像入力のエッジ検出が良好に行えなかった場合に、目的とするオブジェクトの検出の精度が十分でないという課題があった。 However, since the conventional method described above assumes edge detection based on a single color component, the accuracy of detection of the target object is not sufficient when the edge detection of the image input cannot be performed well. There was a problem.
本発明は、前記した従来技術の課題に鑑みてなされたものであり、その目的は、画像入力のエッジ検出の精度を増して、オブジェクトの抽出精度を向上させたオブジェクト検出方式を提供することにある。 The present invention has been made in view of the problems of the aforementioned prior art, and its object is to increase the accuracy of the edge detection of the image input, to provide an object detection scheme with improved accuracy of extracting the object It is in.
前記した目的を達成するために、本発明は、画像中から予め指定されたオブジェクトを検出するオブジェクト検出方式であって、画像入力の一部または全域に対して複数次元の色空間のエッジを求める手段と、該画像入力の一部または全域に対して予め定められたサイズの指定領域をスライドさせる手段と、各指定領域毎に、前記複数次元の色空間の各エッジに対してフラクタル次元を求める手段と、各指定領域毎に求めた各フラクタル次元と、各フラクタル次元値データベースのフラクタル次元信頼区間とを比較し、該信頼区間に入る指定領域を各該当オブジェクト領域として検出する手段と、検出されたの前記各該当オブジェクト領域に対して論理積処理をする手段とを具備した点に第1の特徴がある。 In order to achieve the above-described object, the present invention is an object detection method for detecting a pre-designated object from an image, and obtains an edge of a multi-dimensional color space for a part or all of the image input. that means and, means for Ru slide the designated area of the predetermined size to some or the entire area of the image input, for each designated area, fractal dimension with respect to each edge of the multi-dimensional color space means asking you to, each fractal dimension determined for each specified region, by comparing the fractal dimension confidence interval of each fractal dimension value database, means for detecting a designated area to be the confidence interval as the respective corresponding object area A first feature is that it comprises means for performing a logical product process on each of the detected object areas.
また、前記複数次元の色空間として、HSV色空間を用いる点に第2の特徴がある。 The second feature is that an HSV color space is used as the multi-dimensional color space.
本発明によれば、画像に対して複数次元の色空間、例えばHSV色空間を用いてオブジェクトの検出をするようにしたので、オブジェクト検出の精度を向上させることができる。 According to the present invention, since an object is detected using a multi-dimensional color space such as an HSV color space for an image, the accuracy of object detection can be improved.
以下に、図面を参照して、本発明を詳細に説明する。まず、図1を参照して、フラクタル次元オブジェクトデータベースを作成する手順を説明する。 Hereinafter, the present invention will be described in detail with reference to the drawings. First, a procedure for creating a fractal dimension object database will be described with reference to FIG.
ステップS1では、画像を入力する。該画像としては、人の顔や手や車などのオブジェクトが入っているものが使用される。ステップS2,S3では、それぞれ、該画像のH色成分、SV色成分のエッジが求められる。ここに、HSV色成分は色空間を表し、Hは色合い、SVは明るさあるいは彩度を表す。なお、該エッジの求め方は周知であるので説明を省略するが、H色成分は、色合いを0°〜360°の角度で表すので、元の成分をhとする時、H成分の演算結果が360°を越えないようにするために、例えば下記の(1)式を用いる。
H=|h−int{(h+180)/360}×360| ・・・(1)
ただし、int( )は、その値を超えない最小の整数とする。
In step S1, an image is input. As the image, an image containing a human face, an object such as a hand or a car is used. In steps S2 and S3, the edges of the H color component and the SV color component of the image are obtained, respectively. Here, the HSV color component represents a color space, H represents a hue, and SV represents brightness or saturation. Since the method of obtaining the edge is well known and will not be described, the H color component expresses the hue with an angle of 0 ° to 360 °. Therefore, when the original component is h, the calculation result of the H component In order not to exceed 360 °, for example, the following equation (1) is used.
H = | h−int {(h + 180) / 360} × 360 | (1)
However, int () is the smallest integer that does not exceed that value.
一方、SV成分は直交する座標系で表されるので、下記の(2)式を用いる。
SV=(S2+V2)1/2 ・・・(2)
On the other hand, since the SV component is represented by an orthogonal coordinate system, the following equation (2) is used.
SV = (S 2 + V 2 ) 1/2 (2)
ステップS4,S5では、それぞれ、入力画像より小さい予め定められた大きさの指定領域(または、任意辺長領域)をスライドさせる。このスライドは、好ましくは、入力画像の全面に対して行う。ステップS6,S7では、それぞれ、各指定領域毎の前記H色成分エッジ、SV色成分エッジに対してフラクタル次元を演算する。 In steps S4 and S5, a designated area (or an arbitrary side length area) having a predetermined size smaller than the input image is slid. This slide is preferably performed on the entire input image. In steps S6 and S7, fractal dimensions are calculated for the H color component edge and the SV color component edge for each designated region, respectively.
このステップS6,S7では、具体的には、入力された画像を、任意辺長領域に分割し、該領域内のH色成分、SV色成分からフラクタル次元を算出する。ステップS8,S9では、それぞれ、H色成分フラクタル次元値データベース、SV色成分フラクタル次元値データベースを作成する。この際、それぞれ、ステップS10,S11オブジェクト情報指定が、A,B,Cであれば、例えばA=顔、B=手、C=車であれば、顔のフラクタル次元データベースD1,D1’、手のフラクタル次元データベースD2,D2’、車のフラクタル次元データベースD3,D3’が得られる。該フラクタル次元データベースD1〜D3、あるいはD1’〜D3’の信頼区間(図2の説明参照)は、本発明では後述のAND処理(ステップS35)を行うので、広めに取ることができる。 Specifically, in steps S6 and S7, the input image is divided into arbitrary side length regions, and the fractal dimension is calculated from the H color component and the SV color component in the region. In steps S8 and S9, an H color component fractal dimension value database and an SV color component fractal dimension value database are created, respectively. At this time, if the object information designations in steps S10 and S11 are A, B, and C, respectively, for example, if A = face, B = hand, and C = car, the face fractal dimension databases D1, D1 ′, hand Fractal dimension databases D2 and D2 ′ and car fractal dimension databases D3 and D3 ′ are obtained. The confidence intervals (see the description of FIG. 2) of the fractal dimension databases D1 to D3 or D1 'to D3' can be widened because an AND process (step S35) described later is performed in the present invention.
図2は、顔画像のSV色成分のフラクタル次元データベースD1’をヒストグラムで表したものであり、横軸がフラクタル次元、縦軸が頻度である。図から、オブジェクトが顔の場合は、フラクタル次元が1.4の前後にピークがあることがわかる。また、信頼区間として、例えば、フラクタル次元を1.3〜1.5とすることができる。顔画像のH色成分のフラクタル次元データベースD1のヒストグラムは図2とは異なるものになる。手や車画像においても、SV色成分およびH色成分について、フラクタル次元データベースをヒストグラムで表すことができ、またそれぞれの信頼区間を求めることができる。 FIG. 2 is a histogram of the SV color component fractal dimension database D1 'of the face image. The horizontal axis represents the fractal dimension and the vertical axis represents the frequency. From the figure, it can be seen that when the object is a face, there is a peak around the fractal dimension of 1.4. Further, as the confidence interval, for example, the fractal dimension can be set to 1.3 to 1.5. The histogram of the fractal dimension database D1 of the H color component of the face image is different from that in FIG. Also in the hand and car images, the fractal dimension database can be represented by a histogram for the SV color component and the H color component, and the respective confidence intervals can be obtained.
次に、前記のようにして得られたデータベースを用いて、フラクタル次元オブジェクトを検出する手法を、図3を参照して説明する。 Next, a method for detecting a fractal dimension object using the database obtained as described above will be described with reference to FIG.
ステップS20では、検出対象であるオブジェクト情報、例えば顔を指定する。ステップS28,S29では、それぞれ、H色成分フラクタル次元データベース、SV色成分フラクタル次元データベースを選択する。例えば、前記データベースD1,D1’を、それぞれ選択する。 In step S20, object information to be detected, for example, a face is designated. In steps S28 and S29, an H color component fractal dimension database and an SV color component fractal dimension database are selected, respectively. For example, the databases D1 and D1 'are selected.
一方、ステップS21では、オブジェクトの検出対象である任意の画像、例えば図4(a)の画像1が入力される。ステップS22,S23では、該画像の画素のH色成分エッジ、SV色成分エッジが求められる。ここで、H色成分は前記(1)式で求め、SV色成分は前記(2)式で求める。
On the other hand, in step S21, an arbitrary image as an object detection target, for example, the
ステップS24,S25では、前記ステップS4,S5と同様に、指定領域(または、任意辺長領域)2(図4(a)参照)をスライドさせる動作が行われる。ステップS26,S27では、該スライドに伴う、指定領域毎のフラクタル次元が演算される。ステップS30,S31では、それぞれ、前記ステップS26,S27で求められたフラクタル次元が前記ステップS28,S29で選択されたフラクタル次元データベースと比較され、該フラクタル次元が予め定められた信頼区間、例えば1.3〜1.5に属するオブジェクト領域が検出される。ステップS32では、画像入力の全域に渡って前記指定領域のスライドが終了したか否かの判断がなされる。この判断が否定の時には、ステップS24,S25に戻って、指定領域のスライドが再度行われる。なお、前記指定領域のスライドは、画像入力の全域でなく一部であっても良い。以下、前記した処理が繰り返される。 In steps S24 and S25, as in steps S4 and S5, an operation of sliding the designated area (or arbitrary side length area) 2 (see FIG. 4A) is performed. In steps S26 and S27, the fractal dimension for each designated area associated with the slide is calculated. In steps S30 and S31, the fractal dimension obtained in steps S26 and S27 is compared with the fractal dimension database selected in steps S28 and S29, respectively, and the fractal dimension is set to a predetermined confidence interval, for example, 1. Object areas belonging to 3 to 1.5 are detected. In step S32, it is determined whether or not the slide of the designated area has been completed over the entire image input. When this determination is negative, the process returns to steps S24 and S25, and the designated area is slid again. Note that the slide in the designated area may be a part of the image input instead of the entire area. Thereafter, the processing described above is repeated.
この処理の繰り返しが続行された結果、ステップS32の判断が肯定になると、ステップS33,S34に進み、それぞれH色成分、SV色成分に対して、同じオブジェクト重複領域を統合する動作が行われる。この時、前記ステップS30,S31で検出されたオブジェクト領域は、一般的には複数検出される。例えば、図5に示されているように、複数のオブジェクト領域が検出される。また、特徴フラクタル次元値の信頼区間を広く指定した場合には、顔と同程度に複雑な形状オブジェクト、例えば、髪の毛、服の柄およびしわを誤って抽出する場合がある。 As a result of continuing this process, if the determination in step S32 becomes affirmative, the process proceeds to steps S33 and S34, and the operation of integrating the same object overlapping areas is performed for the H color component and the SV color component, respectively. At this time, in general, a plurality of object regions detected in steps S30 and S31 are detected. For example, as shown in FIG. 5, a plurality of object areas are detected. In addition, when the confidence interval of the feature fractal dimension value is specified widely, a shape object as complex as the face, for example, hair, clothes pattern and wrinkle may be erroneously extracted.
そこで、ステップS35では、ステップS33とS34で得られた統合結果のAND(論理積)をとる。このANDにより、H色成分エッジ、SV色成分エッジによる処理において一致したオブジェクトのみを取り出して出力(ステップS36)することができるようになる。 Therefore, in step S35, an AND (logical product) of the integration results obtained in steps S33 and S34 is taken. This AND makes it possible to extract and output (step S36) only the objects that coincide in the processing by the H color component edge and the SV color component edge.
このため、前記フラクタル次元データベースD1〜D3、あるいはD1’〜D3’の信頼区間を広めに取っておいても、このAND処理によりオブジェクトの検出範囲が狭められることになり、より信頼性の高いオブジェクト検出が行えるようになる。なお、図4(b)は、該論理積処理により得られる画像の一例である。 For this reason, even if the confidence interval of the fractal dimension database D1 to D3 or D1 ′ to D3 ′ is widened, the object detection range is narrowed by the AND processing, and a more reliable object Detection can be performed. FIG. 4B is an example of an image obtained by the logical product process.
また、H色成分エッジ、SV色成分エッジによる処理の一方でのみ検出されたオブジェクトは排除されることになる。例えば、顔画面の目的オブジェクトに対して、服の柄がH色成分エッジの処理で検出されても、SV色成分エッジの処理では検出されないので、該服の柄は排除されることになる。 In addition, an object detected only in one of the processes by the H color component edge and the SV color component edge is excluded. For example, even if a clothing pattern is detected by the H color component edge processing for the target object on the face screen, the clothing pattern is excluded because it is not detected by the SV color component edge processing.
このように、本実施形態によれば、H色成分エッジによる検出処理結果とSV色成分エッジによる検出処理結果とのANDを取るという簡単な処理をするだけで、オブジェクト検出の精度を上げることができ、また、誤検出の可能性を非常に小さくすることができる。 As described above, according to the present embodiment, the accuracy of object detection can be improved by simply performing an AND operation between the detection processing result by the H color component edge and the detection processing result by the SV color component edge. In addition, the possibility of erroneous detection can be greatly reduced.
1・・・画像、2・・・指定領域。 1 ... image, 2 ... designated area.
Claims (3)
画像入力の一部または全域に対して複数次元の色空間のエッジを求める手段と、
該画像入力の一部または全域に対して予め定められたサイズの指定領域をスライドさせる手段と、
各指定領域毎に、前記複数次元の色空間の各エッジに対してフラクタル次元を求める手段と、
各指定領域毎に求めた各フラクタル次元と、各フラクタル次元値データベースのフラクタル次元信頼区間とを比較し、該信頼区間に入る指定領域を各該当オブジェクト領域として検出する手段と、
検出されたの前記各該当オブジェクト領域に対して論理積処理をする手段とを具備したオブジェクト検出方式。 An object detection method for detecting a predetermined object from an image,
Means asking you to edge multidimensional color space to some or the entire area of the image input,
Means for Ru slide the designated area of the predetermined size to some or the entire area of the image input,
Each designated area, and means asking you to fractal dimension for each edge of the multi-dimensional color space,
Means for comparing each fractal dimension obtained for each designated area with the fractal dimension confidence interval of each fractal dimension value database and detecting the designated area entering the confidence interval as each corresponding object area;
An object detection method comprising means for performing a logical product process on each corresponding object area detected.
前記複数次元の色空間のエッジを求める手段は、前記複数次元の色空間として、HSV色空間を用いることを特徴とするオブジェクト検出方式。 The object detection method according to claim 1,
An object detection method wherein the means for obtaining an edge of the multi-dimensional color space uses an HSV color space as the multi-dimensional color space.
前記論理積処理をする前に、前記検出された各該当オブジェクト領域の重複領域を統合することを特徴とするオブジェクト検出方式。 In the object detection method according to claim 1 or 2,
The logical product processing before the object detection system, characterized in that integrating the overlapping area of the detected respective corresponding object regions.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005091659A JP4609936B2 (en) | 2005-03-28 | 2005-03-28 | Object detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005091659A JP4609936B2 (en) | 2005-03-28 | 2005-03-28 | Object detection method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006277020A JP2006277020A (en) | 2006-10-12 |
JP4609936B2 true JP4609936B2 (en) | 2011-01-12 |
Family
ID=37211760
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005091659A Expired - Fee Related JP4609936B2 (en) | 2005-03-28 | 2005-03-28 | Object detection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4609936B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109658429A (en) * | 2018-12-21 | 2019-04-19 | 电子科技大学 | A kind of infrared image cirrus detection method based on boundary fractal dimension |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002092612A (en) * | 2000-09-11 | 2002-03-29 | Sony Corp | Device and method for processing image, and recording medium |
JP2004192582A (en) * | 2002-12-13 | 2004-07-08 | Sharp Corp | Device for processing object information, image processing system, game device, and image processing method |
JP2004302519A (en) * | 2003-03-28 | 2004-10-28 | Kddi R & D Laboratories Inc | Object detection method by fractal dimension |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10210308A (en) * | 1997-01-21 | 1998-08-07 | Sanyo Electric Co Ltd | Image data processing method and recording medium |
-
2005
- 2005-03-28 JP JP2005091659A patent/JP4609936B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002092612A (en) * | 2000-09-11 | 2002-03-29 | Sony Corp | Device and method for processing image, and recording medium |
JP2004192582A (en) * | 2002-12-13 | 2004-07-08 | Sharp Corp | Device for processing object information, image processing system, game device, and image processing method |
JP2004302519A (en) * | 2003-03-28 | 2004-10-28 | Kddi R & D Laboratories Inc | Object detection method by fractal dimension |
Also Published As
Publication number | Publication date |
---|---|
JP2006277020A (en) | 2006-10-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109348731B (en) | Image matching method and device | |
TW201437925A (en) | Object identification device, method, and storage medium | |
US9047673B2 (en) | Apparatus and method for extracting target, and recording medium storing program for performing the method | |
AU2016225841B2 (en) | Predicting accuracy of object recognition in a stitched image | |
KR101506060B1 (en) | Feature-based signatures for image identification | |
JP6491959B2 (en) | Information processing apparatus, information processing method, and program | |
US10007846B2 (en) | Image processing method | |
JP2009134587A (en) | Image processing device | |
US10255512B2 (en) | Method, system and apparatus for processing an image | |
JP2006222899A (en) | Image processing apparatus and image processing method | |
JP4609936B2 (en) | Object detection method | |
JP2007188407A (en) | Image processing device and image processing program | |
JP2016053763A (en) | Image processor, image processing method and program | |
JP5217917B2 (en) | Object detection and tracking device, object detection and tracking method, and object detection and tracking program | |
JP2002342758A (en) | Visual recognition system | |
CN103208003A (en) | Geometric graphic feature point-based method for establishing shape descriptor | |
JP2010191767A (en) | Device and method for recognizing character | |
JP6350331B2 (en) | TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM | |
JP2018109824A (en) | Electronic control device, electronic control system, and electronic control method | |
JP6278757B2 (en) | Feature value generation device, feature value generation method, and program | |
KR101643550B1 (en) | System and method for detecting and describing color invariant features using fast explicit diffusion in nonlinear scale spaces | |
JPH1139477A (en) | Corresponding point search device | |
WO2024047847A1 (en) | Detection device, detection method, and detection program | |
JP2009157766A (en) | Face recognition apparatus, face recognition method, face recognition program and recording medium recording the program | |
KR100533209B1 (en) | Method for detecting image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070912 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100701 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100714 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100901 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20101006 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20101007 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131022 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |