JP2004302519A - Object detection method by fractal dimension - Google Patents

Object detection method by fractal dimension Download PDF

Info

Publication number
JP2004302519A
JP2004302519A JP2003091303A JP2003091303A JP2004302519A JP 2004302519 A JP2004302519 A JP 2004302519A JP 2003091303 A JP2003091303 A JP 2003091303A JP 2003091303 A JP2003091303 A JP 2003091303A JP 2004302519 A JP2004302519 A JP 2004302519A
Authority
JP
Japan
Prior art keywords
fractal dimension
detection method
area
object detection
fractal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003091303A
Other languages
Japanese (ja)
Inventor
Tetsuji Yamashita
鉄司 山下
Koichi Takagi
幸一 高木
Atsushi Koike
淳 小池
Shuichi Matsumoto
修一 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Research Inc
Original Assignee
KDDI R&D Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI R&D Laboratories Inc filed Critical KDDI R&D Laboratories Inc
Priority to JP2003091303A priority Critical patent/JP2004302519A/en
Publication of JP2004302519A publication Critical patent/JP2004302519A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an object detection method by a fractal dimension for detecting a target object accuratly or with an enhanced detecting precision. <P>SOLUTION: Specified areaa are slid (S22) on an image input (S21), and fractal dimension calculation is executed for each specified area (S3). Next, fractal dimensions at each specified area is compared with a fractal dimensional value database (S12), and object areas within a fractal dimension confidence interval are detected (S13). If these processes are executed for the whole of the image input, the detected object areas are integrated (S15). Then, object candidates are ranked in the descending order of the integration number. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明はフラクタル次元によるオブジェクト検出方法に関し、特にフラクタル次元により自然画像からオブジェクトを認識し検出するオブジェクト検出方法に関する。
【0002】
【従来の技術】
フラクタル次元とは、連続で微分不可能な曲線を特徴付ける概念である。ある図形が全体を1/Nに縮小された図形P個によって構成されているとき、適当な指数Dで、P=Nと表せる。この指数部Dがフラクタル次元である。
【0003】
このフラクタル次元は、フラクタルの特性を表す数値であり、物体の形状の複雑さを表す尺度としても用いられる。フラクタル次元が大きい程、対象形状は入り組んだものとなる。
【0004】
例えば、図7(a)に示されているように、ある図形10を縦横1/6に分割するとき、図形p1が分割ブロックの6個に属している場合、前記P=6,N=6であるので、指数D=1となる。また、同図(b)に示されているような、コッホ曲線p2は、指数D=1.26186となる。
【0005】
以上のように、従来から、フラクタル次元の特性を用いて画面から辺縁情報を定量化し、解析する手法が開発されている。
【0006】
【発明が解決しようとする課題】
しかしながら、前記した従来の手法では、フラクタル次元値という数値によってのみオブジェクトの検出を図るため、広い信頼区間を取って検出を行った場合、目的のオブジェクトの近隣や関係のない領域も検出してしまうという恐れがある。すなわち、検出精度および検出の信頼性に問題があった。
【0007】
本発明は、前記した従来技術の課題に鑑みてなされたものであり、その目的は、目的のオブジェクトを正確にまたは検出精度を上げて検出できるようにするフラクタル次元によるオブジェクト検出方法を提供することにある。
【0008】
【課題を解決するための手段】
前記した目的を達成するために、本発明は、画像中から予め指定されたオブジェクトを検出するフラクタル次元によるオブジェクト検出方法であって、画像入力の一部または全域に対して予め定められたサイズの指定領域をスライドさせ、各指定領域毎にフラクタル次元を求めるステップと、該各指定領域毎に求めたフラクタル次元と、フラクタル次元値データベースのフラクタル次元信頼区間とを比較し、該信頼区間に入る指定領域を該当オブジェクト領域として検出するステップと、前記該当オブジェクトの重複領域を統合するステップとからなる点に特徴がある。
【0009】
この特徴によれば、広い信頼区間を取って検出しても、指定されたオブジェクトを正確にまたは検出精度を上げて検出できるようになる。あるいは、指定されたオブジェクトと無関係な領域を、精度良く排除できるようになる。
【0010】
【発明の実施の形態】
以下に、図面を参照して本発明を詳細に説明する。まず、図1を参照して、フラクタル次元オブジェクトデータベースを作成する手順を説明する。
【0011】
ステップS1では、画像を入力する。該画像としては、人の顔や手や車などが入っているものが使用される。ステップS2では、画像1より小さい予め定められた大きさの指定領域(または、任意辺長領域)をスライドさせる。このスライドは、好ましくは画像1の全面に対して行う。ステップS3では、各指定領域毎のフラクタル次元を演算する。
【0012】
このステップS3では、具体的には、入力されたディジタル画像を、任意辺長領域に分割し、該領域内の輝度値からフラクタル次元を算出することができる。あるいは、画像1の輝度成分にエッジフィルタを施し、2値化後にオブジェクト指定された特徴オブジェクト領域のフラクタル次元を算出する。なお、該エッジフィルタは、Laplacianフィルタを使用できるが、他のフィルタであってもよい。
【0013】
ステップS4では、フラクタル次元値データベースを作成する。この時、ステップS5のオブジェクト情報指定が、A,B,Cであれば、例えばA=顔、B=手、C=車であれば、顔のフラクタル次元データベースD1、手のフラクタル次元データベースD2、車のフラクタル次元データベースD3が得られる。
【0014】
図2は、顔画像のフラクタル次元データベースD1をグラフ(ヒストグラム)で表したものであり、横軸がフラクタル次元、縦軸が頻度である。図から、オブジェクトが顔の場合は、フラクタル次元が1.4の前後にピークがあることが分かる。また、信頼区間としては、例えば、フラクタル次元を1.3〜1.5とすることができる。
【0015】
次に、前記のようにして得られたデータベースを用いてフラクタル次元オブジェクトを検出する手法を図3、図4を参照して説明する。
【0016】
ステップS11では、検出対象であるオブジェクト情報を指定する。ステップS12では、フラクタル次元値データベースを選択する。例えば、オブジェクト情報が顔であれば、Aオブジェクトフラクタル次元データベースD1が選択される。
【0017】
一方、ステップS21では、オブジェクトの検出対象である任意の画像、例えば図4の画像1が入力される。ステップS22では、前記ステップS2と同様に、指定領域(または、任意辺長領域)2をスライドさせる動作が行われる。ステップS23では、該スライドに伴う、指定領域毎のフラクタル次元が演算される。ステップS13では、ステップS23で求められたフラクタル次元が前記Aオブジェクトフラクタル次元データベースD1と比べられ、該フラクタル次元が予め定められた信頼区間、例えば1.3〜1.5に属するオブジェクト領域が検出される。ステップS14では、画像入力の全域に渡って前記指定領域のスライドが終了したか否かの判断がなされる。この判断が否定の時にはステップS22に進んで、指定領域スライドが行われる。なお、前記指定領域のスライドは画像入力の全域でなく一部であってもよい。以下、前記した処理が繰り返される。
【0018】
この処理の繰り返しが続行された結果、ステップS14の判断が肯定になると、ステップS15に進み同じオブジェクト重複領域を統合する動作が行われる。すなわち、ステップS14の判断が肯定になったときには、ステップS13で検出されたオブジェクト領域は、一般的には複数検出される。例えば、図5に示されているように、複数のオブジェクト領域が検出される。また、特徴フラクタル次元値の信頼区間を広く指定した場合には、顔と同程度に複雑な形状オブジェクト、例えば、髪の毛、服の柄およびしわを誤って抽出する場合がある。
【0019】
そこで、ステップS15では、同じオブジェクト重複領域の統合処理を行う。この統合処理では、統合したオブジェクト数が多数なほど、優先順位を高くする。すなわち、図3に示されているように、検出されたオブジェクト領域の統合数で順位付けを行い、統合数が最も多いものをオブジェクト候補1位とし、次に統合数が多いものをオブジェクト候補2位、さらに次に統合数が多いものをオブジェクト候補3位とする。なお、統合される各オブジェクト領域には、ステップS23で求められたフラクタル次元値情報を付与する。
【0020】
以上のようにして、同オブジェクト重複領域の統合を行うと、例えば、図4(b)に示されているような、顔のオブジェクトを正確にまたは検出精度を上げて検出することができる。換言すれば、オブジェクトとは無関係な領域を高精度で無視できるようになる。
【0021】
次に、統合するオブジェクト領域数が同数で、オブジェクト候補の順位付けができないときには、(|統合したオブジェクトの平均のフラクタル次元値−特徴フラクタル次元値|)が小さいほど優先順位を高くする。例えば、図6に示されているように、データベースのフラクタル次元値の中心値(上記の例では、1.4)と、統合領域のフラクタル次元値の平均値との差分を求め、その差分が小さい方を高い順位にし、大きい方を低い順位にする。
【0022】
以上の処理により、例えば、顔画面の目的オブジェクトに対して、髪の毛や、服の柄およびしわの画面を誤検出する可能性は小さくなる。
【0023】
【発明の効果】
以上の説明から明らかなように、本発明によれば、フラクタル次元値データベースのフラクタル次元信頼区間との比較により検出された該当オブジェクトの重複領域を統合するようにしたので、正確にあるいは高い精度で、目的のオブジェクトを検出できるようになる。あるいは、該目的のオブジェクトと無関係な領域を、高い精度で無視できるようになる。
【0024】
また、本発明によれば、オブジェクト候補の順位付けを統合領域の数で行い、同数の場合はフラクタル次元値の中心値に近い方を上位にするようにしたので、オブジェクト候補の順位付けを合理的に行うことができるようになる。
【図面の簡単な説明】
【図1】フラクタル次元オブジェクトデータベース作成の手順を示すフローチャートである。
【図2】画像入力、任意辺長領域、および検出オブジェクト領域の一例を示す図である。
【図3】顔のフラクタル次元データベースD1をグラフ化した図である。
【図4】本発明の一実施形態の指定されたオブジェクト領域検出の動作を示すフローチャートである。
【図5】フラクタル次元値データベースのフラクタル次元信頼区間との比較により検出された該当オブジェクトの一例を示す図である。
【図6】オブジェクト候補が同位の場合の処理を示すフローチャートである。
【図7】フラクタル次元の説明図である。
【符号の説明】
1・・・画像、2・・・指定領域(任意辺長領域)
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an object detection method using a fractal dimension, and more particularly, to an object detection method for recognizing and detecting an object from a natural image using a fractal dimension.
[0002]
[Prior art]
Fractal dimension is a concept that characterizes a continuous, undifferentiated curve. When a graphic is composed of graphic P number which has been reduced in its entirety 1 / N, a suitable index D, expressed as P = N D. This exponent part D is a fractal dimension.
[0003]
The fractal dimension is a numerical value representing the characteristics of the fractal, and is also used as a scale representing the complexity of the shape of the object. The larger the fractal dimension, the more complicated the target shape.
[0004]
For example, as shown in FIG. 7A, when a certain figure 10 is divided into 1/6 in length and width, if the figure p1 belongs to six divided blocks, the P = 6 and N = 6 Therefore, the index D = 1. Further, the Koch curve p2 as shown in FIG. 3B has an index D = 1.26186.
[0005]
As described above, conventionally, a method of quantifying and analyzing margin information from a screen using characteristics of a fractal dimension has been developed.
[0006]
[Problems to be solved by the invention]
However, in the above-described conventional method, an object is detected only by a numerical value called a fractal dimension value. Therefore, when detection is performed with a wide confidence interval, a neighborhood or an unrelated area of the target object is also detected. There is a fear that. That is, there is a problem in detection accuracy and detection reliability.
[0007]
The present invention has been made in view of the above-described problems of the related art, and an object of the present invention is to provide a method for detecting an object using a fractal dimension that enables a target object to be detected accurately or with increased detection accuracy. It is in.
[0008]
[Means for Solving the Problems]
In order to achieve the above object, the present invention provides an object detection method using a fractal dimension for detecting an object designated in advance from an image, the object detection method having a predetermined size for a part or whole of an image input. Sliding the designated area to determine a fractal dimension for each designated area; comparing the fractal dimension found for each designated area with the fractal dimension confidence interval of the fractal dimension value database; It is characterized in that it comprises a step of detecting an area as a corresponding object area and a step of integrating overlapping areas of the corresponding object.
[0009]
According to this feature, even if the detection is performed with a wide confidence interval, the specified object can be detected accurately or with increased detection accuracy. Alternatively, an area unrelated to the designated object can be accurately excluded.
[0010]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, the present invention will be described in detail with reference to the drawings. First, a procedure for creating a fractal dimension object database will be described with reference to FIG.
[0011]
In step S1, an image is input. As the image, an image containing a human face, hands, a car, and the like is used. In step S2, a designated area (or an arbitrary side length area) having a predetermined size smaller than the image 1 is slid. This slide is preferably performed on the entire surface of the image 1. In step S3, the fractal dimension of each designated area is calculated.
[0012]
In this step S3, specifically, the input digital image can be divided into an arbitrary side length region, and the fractal dimension can be calculated from the luminance value in the region. Alternatively, an edge filter is applied to the luminance component of the image 1 to calculate a fractal dimension of a feature object region designated as an object after binarization. Note that a Laplacian filter can be used as the edge filter, but another filter may be used.
[0013]
In step S4, a fractal dimension value database is created. At this time, if the object information designation in step S5 is A, B, C, for example, if A = face, B = hand, C = car, the face fractal dimension database D1, the hand fractal dimension database D2, A fractal dimension database D3 of the car is obtained.
[0014]
FIG. 2 is a graph (histogram) of the fractal dimension database D1 of the face image, in which the horizontal axis represents the fractal dimension and the vertical axis represents the frequency. From the figure, it can be seen that when the object is a face, the fractal dimension has a peak around 1.4. As the confidence interval, for example, the fractal dimension can be set to 1.3 to 1.5.
[0015]
Next, a method of detecting a fractal dimension object using the database obtained as described above will be described with reference to FIGS.
[0016]
In step S11, object information to be detected is specified. In step S12, a fractal dimension value database is selected. For example, if the object information is a face, the A object fractal dimension database D1 is selected.
[0017]
On the other hand, in step S21, an arbitrary image for which an object is to be detected, for example, image 1 in FIG. 4 is input. In step S22, as in step S2, an operation of sliding the designated area (or an arbitrary side length area) 2 is performed. In step S23, the fractal dimension of each designated area associated with the slide is calculated. In step S13, the fractal dimension obtained in step S23 is compared with the A-object fractal dimension database D1, and an object area whose fractal dimension belongs to a predetermined confidence interval, for example, 1.3 to 1.5 is detected. You. In step S14, it is determined whether the slide of the designated area has been completed over the entire area of the image input. If this determination is negative, the process proceeds to step S22, in which the specified area is slid. The slide in the designated area may be a part of the image input area instead of the entire area. Hereinafter, the above-described processing is repeated.
[0018]
If the determination in step S14 becomes affirmative as a result of the repetition of this process, the operation proceeds to step S15 to perform an operation of integrating the same object overlapping area. That is, when the determination in step S14 is affirmative, a plurality of object regions detected in step S13 are generally detected. For example, as shown in FIG. 5, a plurality of object areas are detected. When the confidence interval of the feature fractal dimension value is specified widely, a shape object as complicated as a face, for example, a hair, a design of clothes, and wrinkles may be erroneously extracted.
[0019]
Thus, in step S15, the same object overlapping area is integrated. In this integration processing, the higher the number of integrated objects, the higher the priority. That is, as shown in FIG. 3, ranking is performed based on the number of integrations of the detected object areas, and the one with the largest number of integrations is set as the first object candidate, and the one with the second largest number of integrations is the object candidate 2 The object having the next highest number of integrations is the third object candidate. Note that the fractal dimension value information obtained in step S23 is added to each object area to be integrated.
[0020]
When the object overlapping areas are integrated as described above, for example, a face object as shown in FIG. 4B can be detected accurately or with increased detection accuracy. In other words, a region unrelated to the object can be ignored with high precision.
[0021]
Next, when the number of object areas to be integrated is the same and the object candidates cannot be ranked, the priority is set higher as (| average fractal dimension value of integrated object−characteristic fractal dimension value |) is smaller. For example, as shown in FIG. 6, a difference between the central value of the fractal dimension value of the database (1.4 in the above example) and the average value of the fractal dimension value of the integrated area is calculated, and the difference is calculated. The smaller one is ranked higher and the larger one is ranked lower.
[0022]
By the above processing, for example, the possibility of erroneously detecting the screen of the hair, the design of the clothes, and the wrinkles for the target object on the face screen is reduced.
[0023]
【The invention's effect】
As is apparent from the above description, according to the present invention, the overlapping area of the corresponding object detected by comparison with the fractal dimension confidence interval of the fractal dimension value database is integrated, so that it is accurate or with high accuracy. , The target object can be detected. Alternatively, a region unrelated to the target object can be ignored with high accuracy.
[0024]
Further, according to the present invention, the ranking of the object candidates is performed based on the number of integrated regions, and in the case of the same number, the one closer to the central value of the fractal dimension value is ranked higher. Will be able to do it.
[Brief description of the drawings]
FIG. 1 is a flowchart showing a procedure for creating a fractal dimension object database.
FIG. 2 is a diagram illustrating an example of an image input, an arbitrary side length area, and a detected object area.
FIG. 3 is a diagram in which a fractal dimension database D1 of a face is graphed.
FIG. 4 is a flowchart illustrating an operation of detecting a designated object area according to an embodiment of the present invention.
FIG. 5 is a diagram illustrating an example of a corresponding object detected by comparison with a fractal dimension confidence interval in a fractal dimension value database.
FIG. 6 is a flowchart showing a process when the object candidates are at the same rank.
FIG. 7 is an explanatory diagram of a fractal dimension.
[Explanation of symbols]
1 ... image, 2 ... designated area (arbitrary side length area)

Claims (5)

画像中から予め指定されたオブジェクトを検出するフラクタル次元によるオブジェクト検出方法であって、
画像入力の一部または全域に対して予め定められたサイズの指定領域をスライドさせ、各指定領域毎にフラクタル次元を求めるステップと、
該各指定領域毎に求めたフラクタル次元と、フラクタル次元値データベースのフラクタル次元信頼区間とを比較し、該信頼区間に入る指定領域を該当オブジェクト領域として検出するステップと、
前記該当オブジェクトの重複領域を統合するステップとからなるフラクタル次元によるオブジェクト検出方法。
An object detection method based on a fractal dimension for detecting an object designated in advance from an image,
Sliding a designated area of a predetermined size with respect to a part or the whole area of the image input, and obtaining a fractal dimension for each designated area;
Comparing the fractal dimension determined for each of the designated areas with the fractal dimension confidence interval of the fractal dimension value database, and detecting a designated area falling within the confidence interval as a corresponding object area;
Integrating the overlapping areas of the object in question by a fractal dimension.
請求項1に記載のフラクタル次元によるオブジェクト検出方法において、
前記指定領域内の画像を任意辺長領域に分割し、該任意辺長領域内の輝度値からフラクタル次元値を算出することを特徴とするフラクタル次元によるオブジェクト検出方法。
The object detection method based on fractal dimension according to claim 1,
An object detection method using fractal dimension, wherein an image in the designated area is divided into an arbitrary side length area, and a fractal dimension value is calculated from luminance values in the arbitrary side length area.
請求項1または2に記載のフラクタル次元によるオブジェクト検出方法において、
前記指定領域内の画素データにエッジフィルタを用いた上でフラクタル次元値を算出することを特徴とするフラクタル次元によるオブジェクト検出方法。
3. The method for detecting an object according to a fractal dimension according to claim 1 or 2,
An object detection method based on fractal dimension, wherein a fractal dimension value is calculated after using an edge filter for pixel data in the designated area.
請求項1ないし3のいずれかに記載のフラクタル次元によるオブジェクト検出方法において、
前記重複領域の統合数が多い順に、オブジェクト候補の順位付けを行うこととを特徴とするフラクタル次元によるオブジェクト検出方法。
4. The object detection method according to claim 1, wherein the object is detected by a fractal dimension.
A method for detecting objects by a fractal dimension, wherein ranking of candidate objects is performed in descending order of the number of integrations of the overlapping areas.
請求項4に記載のフラクタル次元によるオブジェクト検出方法において、
前記重複領域の統合数が等しい場合に、前記データベースのフラクタル次元値の中心値に近い方を高位の順位にすることを特徴とするフラクタル次元によるオブジェクト検出方法。
The object detection method based on a fractal dimension according to claim 4,
An object detection method based on fractal dimension, wherein, when the number of integrations of the overlapping areas is equal, a part closer to a central value of fractal dimension values of the database is ranked higher.
JP2003091303A 2003-03-28 2003-03-28 Object detection method by fractal dimension Pending JP2004302519A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003091303A JP2004302519A (en) 2003-03-28 2003-03-28 Object detection method by fractal dimension

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003091303A JP2004302519A (en) 2003-03-28 2003-03-28 Object detection method by fractal dimension

Publications (1)

Publication Number Publication Date
JP2004302519A true JP2004302519A (en) 2004-10-28

Family

ID=33404704

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003091303A Pending JP2004302519A (en) 2003-03-28 2003-03-28 Object detection method by fractal dimension

Country Status (1)

Country Link
JP (1) JP2004302519A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006277020A (en) * 2005-03-28 2006-10-12 Kddi R & D Laboratories Inc Object detection method
CN109658429A (en) * 2018-12-21 2019-04-19 电子科技大学 A kind of infrared image cirrus detection method based on boundary fractal dimension

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006277020A (en) * 2005-03-28 2006-10-12 Kddi R & D Laboratories Inc Object detection method
JP4609936B2 (en) * 2005-03-28 2011-01-12 株式会社Kddi研究所 Object detection method
CN109658429A (en) * 2018-12-21 2019-04-19 电子科技大学 A kind of infrared image cirrus detection method based on boundary fractal dimension

Similar Documents

Publication Publication Date Title
US8879847B2 (en) Image processing device, method of controlling image processing device, and program for enabling computer to execute same method
CN104504120B (en) A kind of similar pictures detection method and device
US8089548B2 (en) Image processing device, method, and storage medium
EP3189469B1 (en) A method for selecting frames from video sequences based on incremental improvement
JP5878924B2 (en) Image processing apparatus, imaging apparatus, and image processing method
CN108389195B (en) Image detection method and device
CN104053984A (en) Image examination method and image examination apparatus
JP5495934B2 (en) Image processing apparatus, processing method thereof, and program
US20090116731A1 (en) Method and system for detection of concha and intertragal notch point in 3D undetailed ear impressions
CN107423738B (en) Test paper subject positioning method and device based on template matching
JP4411152B2 (en) Fingerprint reading method, fingerprint reading system and program
JP2008011484A (en) Apparatus and method for extracting character and graphic string, program for executing the method, recording medium with the program stored therein
JP2004030694A (en) Digital video texture analytic method
JP2006119927A (en) Pattern matching method and program
EP1443458A3 (en) Image processing method, apparatus and computer program
JP2016053763A (en) Image processor, image processing method and program
JP2004302519A (en) Object detection method by fractal dimension
JP5401605B2 (en) Template matching processing apparatus and template matching processing program
JP6816818B2 (en) Image processing equipment, image processing method and recording medium
JP2005293367A (en) Image processing method and device
JP6467817B2 (en) Image processing apparatus, image processing method, and program
JP2017004052A (en) Learning device, method, and program
JP4609936B2 (en) Object detection method
CN110866923B (en) Computer-aided fibrosis analysis method and electronic device
JP2006023798A (en) Image data processor, image data processing method, and image data processing program