JP2006185271A - Image processing apparatus, image processing method, program and recording medium - Google Patents

Image processing apparatus, image processing method, program and recording medium Download PDF

Info

Publication number
JP2006185271A
JP2006185271A JP2004379398A JP2004379398A JP2006185271A JP 2006185271 A JP2006185271 A JP 2006185271A JP 2004379398 A JP2004379398 A JP 2004379398A JP 2004379398 A JP2004379398 A JP 2004379398A JP 2006185271 A JP2006185271 A JP 2006185271A
Authority
JP
Japan
Prior art keywords
image
unit
voting
processing
target image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004379398A
Other languages
Japanese (ja)
Inventor
Tadataka Yoshikawa
忠孝 吉川
Yasusuke Hosoi
康丞 細井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2004379398A priority Critical patent/JP2006185271A/en
Publication of JP2006185271A publication Critical patent/JP2006185271A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus, an image processing method detecting individual objects with good precision and with ease when two or more objects exist in an image, a program and a recording medium thereof. <P>SOLUTION: The image forming apparatus is provided with an image input part 1 to which a processing subject image is inputted, a pre-processing part 2 extracting an object region occupied by the object and an outline of the object from the processing subject image, a template storing part 3 storing beforehand the subject to be detected in a processing subject image as a template, a poll part 4 carrying out polling by using the template for the outline of the object and mask processing all the poll result except the poll result matching the object region, and an analyzing part 5 detecting the object contained in the processing subject image based on the mask processed poll result. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、画像中から特定の物体を検出する画像処理装置に係り、特に、検出すべき複数の物体が画像中に存在する場合に個々の物体を精度良く検出することできる画像処理装置、画像処理方法、及びその方法をコンピュータに実行させるプログラム並びにそのプログラムを記録した記録媒体に関する。   The present invention relates to an image processing apparatus that detects a specific object from an image, and in particular, an image processing apparatus and an image that can accurately detect individual objects when a plurality of objects to be detected exist in the image. The present invention relates to a processing method, a program for causing a computer to execute the method, and a recording medium on which the program is recorded.

従来の画像処理装置としては、例えば移動体の検出を行うことができる移動体検出装置を設けたものなどが知られている(例えば、特許文献1参照)。
この移動体検出装置は、図16に示すように、画像入力部101からの入力画像と背景画像データベース部102からの背景画像との輝度値に基づいて輝度値変化領域を抽出する変化領域抽出部103と、ハフ変換に基づいて輝度変化領域の画素毎にその画素に対応したパラメータ空間へ投票パターンの各点の重みを投票する投票部104と、前記パラメータ空間において投票度数の極大点を移動体候補点として検出する極大点検出部105と、各移動体候補点の周辺の輝度変化領域と各移動体モデルとの一致度を算出して移動体の有無を判断するモデルマッチング部106と、発見した各移動体を経時的に追跡する追跡部107などで構成することで、移動体の検出を行うものである。
特開2001−118182号公報
As a conventional image processing apparatus, for example, an apparatus provided with a moving body detection apparatus capable of detecting a moving body is known (for example, see Patent Document 1).
As shown in FIG. 16, the moving body detection apparatus includes a change area extraction unit that extracts a luminance value change area based on the luminance values of the input image from the image input unit 101 and the background image from the background image database unit 102. 103, a voting unit 104 for voting the weight of each point of the voting pattern to the parameter space corresponding to each pixel of the luminance change region based on the Hough transform, and the maximum point of the vote frequency in the parameter space A maximum point detection unit 105 that detects a candidate point, a model matching unit 106 that calculates the degree of coincidence between a luminance change region around each moving object candidate point and each moving object model, and determines the presence or absence of the moving object; The mobile unit is detected by configuring the mobile unit with the tracking unit 107 that tracks each mobile unit over time.
JP 2001-118182 A

しかしながら、従来の画像処理装置では、検出すべき複数の物体が画像中に存在すると、個々の物体を検出する精度が低下する場合があった。
例えば、図17(A)のパラメータ空間画像201において点線で示す輪郭202から、図16に示す画像処理装置に格納された投票パターンデータベース108に登録されたテンプレート203を従来の画像処理装置で検出する方法について説明する。
ここで、投票部104は、画像201をスキャンし、輪郭202の画素が存在する座標を基準点としてハフ変換により投票処理を行う。例えば、座標204を基準点としたときのハフ変換による投票処理は、投票結果205のように行われる。そして、パラメータ空間上に投票された投票結果をパラメータ画像201に投影した様子を、このパラメータ画像201内に実線で示す。
次に、画像処理装置の極大点検出部105は、パラメータ空間上での極大点(最も投票されている座標)を検出する。この時点で、テンプレート203により本来期待する物体(ここでは、移動体(人)の頭部とする)の座標は座標206であり、検出する物体領域は、図17(B)の実空間画像211において領域212であるのに対して、実空間画像211中には複数の物体が存在しているために、近傍の物体同士の投票値が干渉してしまい、極大点が座標207となり、背景部の領域213を検出する。
そして、図16の画像処理装置の移動体データベース109に移動体214が登録されていた場合に、モデルマッチング部106において座標207を基準点としてテンプレートとの一致度を演算し、その一致度が低いため、物体が検出できなかったと判定してしまう。したがって、複数の物体が画像中に存在する場合、投票結果が干渉してしまい投票精度が低下するため、物体を検出することが困難であった。
However, in the conventional image processing apparatus, when a plurality of objects to be detected exist in an image, the accuracy of detecting individual objects may be reduced.
For example, the template 203 registered in the voting pattern database 108 stored in the image processing apparatus shown in FIG. 16 is detected by the conventional image processing apparatus from the outline 202 indicated by the dotted line in the parameter space image 201 of FIG. A method will be described.
Here, the voting unit 104 scans the image 201 and performs voting processing by Hough transform using the coordinates where the pixels of the contour 202 exist as a reference point. For example, the voting process by the Hough transform using the coordinates 204 as the reference point is performed as a voting result 205. A state in which the vote result voted on the parameter space is projected onto the parameter image 201 is indicated by a solid line in the parameter image 201.
Next, the local maximum point detection unit 105 of the image processing apparatus detects the local maximum point (coordinates most voted) on the parameter space. At this time, the coordinates of the object originally expected by the template 203 (here, the head of the moving body (person)) is the coordinates 206, and the object area to be detected is the real space image 211 in FIG. In contrast, since there are a plurality of objects in the real space image 211, the vote values of neighboring objects interfere with each other, and the maximum point becomes the coordinate 207, and the background portion The region 213 is detected.
When the moving body 214 is registered in the moving body database 109 of the image processing apparatus of FIG. 16, the model matching unit 106 calculates the degree of coincidence with the template using the coordinates 207 as a reference point, and the degree of coincidence is low. Therefore, it is determined that the object cannot be detected. Therefore, when a plurality of objects exist in the image, the voting result interferes and the voting accuracy is lowered, so that it is difficult to detect the object.

本発明は、上記事情に鑑みてなされたもので、複数の物体が画像中に存在する場合に個々の物体を精度良く、しかも容易に検出することができる画像処理装置、画像処理方法、及びプログラム並びに記録媒体を提供することを目的とする。   The present invention has been made in view of the above circumstances, and an image processing apparatus, an image processing method, and a program capable of accurately and easily detecting individual objects when a plurality of objects are present in an image. It is another object of the present invention to provide a recording medium.

本発明の画像処理装置は、検出すべき特定の物体が含まれる処理対象画像を入力する画像入力部と、前記処理対象画像から前記物体が占有する物体領域と前記物体の輪郭とを抽出する前処理部と、前記処理対象画像内の検出すべき対象をテンプレートとして予め記憶しておくテンプレート記億部と、前記物体の輪郭に対して前記テンプレートを用いて投票を行い、前記投票結果において前記物体領域と一致する投票結果以外をマスク処理する投票部と、前記マスク処理した前記投票結果に基づいて前記処理対象画像に含まれる前記物体を検出する解析部とを備えることを特徴としている。この構成により、対象画像中に複数の物体が含まれるときには、物体の輪郭に対してテンプレートを用いて投票を行い、この投票結果において、物体領域と一致する投票結果以外にマスク処理を行って個々の物体を検出する。これによって、対象画像の背景部分を誤って物体として検出することを解消し、精度良く物体を検出することができる。   The image processing apparatus of the present invention includes an image input unit that inputs a processing target image including a specific object to be detected, an object region occupied by the object, and an outline of the object from the processing target image. A processing unit, a template storage unit that preliminarily stores a target to be detected in the processing target image as a template, and voting using the template with respect to the contour of the object; A voting unit that performs mask processing on a part other than the voting result that matches the region, and an analysis unit that detects the object included in the processing target image based on the voting result subjected to the masking process. With this configuration, when a plurality of objects are included in the target image, voting is performed on the outline of the object using a template, and in this voting result, masking processing is performed in addition to the voting result that matches the object region. Detect the object. This eliminates erroneous detection of the background portion of the target image as an object, and the object can be detected with high accuracy.

本発明の画像処理装置は、前記前処理部が、前記物体領域を抽出して前記処理対象画像の範囲を特定する手段を有するとともに、前記投票部は、範囲を特定した前記処理対象画像をマスク処理する手段を有することを特徴としている。この構成により、対象画像から範囲を特定してマスク処理することによって、処理量を削減することができる。   In the image processing apparatus according to the aspect of the invention, the preprocessing unit includes a unit that extracts the object region and specifies a range of the processing target image, and the voting unit masks the processing target image that specifies the range. It has a means for processing. With this configuration, the processing amount can be reduced by specifying a range from the target image and performing mask processing.

本発明の画像処理方法は、検出すべき特定の物体が含まれる処理対象画像を入力する画像入力ステップと、前記処理対象画像から前記物体が占有する物体領域と物体の輪郭とを抽出する前処理ステップと、前記処理対象画像内の検出すべき検出対象として記憶するテンプレートを用いて、前記物体の輪郭に対して投票を行い、前記投票結果において前記物体領域と一致する投票結果以外をマスク処理する投票ステップと、マスク処理した前記投票結果に基づいて前記処理対象画像に含まれる前記物体を検出する解析ステップとを備えることを特徴としている。この構成により、対象画像中に複数の物体が含まれるときには、物体の輪郭に対してテンプレートを用いて投票を行い、投票結果において物体領域と一致する投票結果以外にマスク処理を行って個々の物体を検出する。これによって、対象画像の背景部分を誤って物体として検出することを解消し、精度良く物体を検出することができる。   The image processing method according to the present invention includes an image input step of inputting a processing target image including a specific object to be detected, and a preprocessing for extracting an object region occupied by the object and the contour of the object from the processing target image Voting is performed on the contour of the object using a step and a template stored as a detection target to be detected in the processing target image, and masking is performed on the voting result except for the voting result that matches the object region The method includes a voting step and an analysis step of detecting the object included in the processing target image based on the voting result subjected to mask processing. With this configuration, when a plurality of objects are included in the target image, voting is performed using the template for the outline of the object, and each object is subjected to mask processing other than the voting result that matches the object region in the voting result. Is detected. This eliminates erroneous detection of the background portion of the target image as an object, and the object can be detected with high accuracy.

本発明の画像処理方法は、前記前処理ステップが、前記物体領域を抽出して前記処理対象画像の範囲を特定し、前記投票ステップは、範囲を特定した前記処理対象画像をマスク処理することを特徴としている。この構成により、対象画像から範囲を特定してマスク処理することによって、処理量を削減することができる。   In the image processing method of the present invention, the preprocessing step extracts the object region and specifies a range of the processing target image, and the voting step masks the processing target image that specifies the range. It is a feature. With this configuration, the processing amount can be reduced by specifying a range from the target image and performing mask processing.

本発明のプログラムは、上記の画像処理方法における各ステップをコンピュータに実行させることを特徴としている。   The program of the present invention is characterized by causing a computer to execute each step in the above image processing method.

また、本発明の記録媒体は、上記の画像処理方法における各ステップをコンピュータに実行させるためのプログラムを記録してあることを特徴としている。   The recording medium of the present invention is characterized by recording a program for causing a computer to execute each step in the above image processing method.

本発明によれば、物体領域を抽出する領域抽出部と、物体の輪郭を抽出する輪郭抽出部と、検出対象を記憶するテンプレート記億部と、前記物体の輪郭に対して前記テンプレートを用いて投票を行い、前記投票結果において前記物体領域と一致する投票結果以外をマスク処理する投票部により、対象画像の背景部分を誤って物体として検出することを解消し、精度良く物体を検出することができる画像処理装置を提供できる。   According to the present invention, an area extraction unit that extracts an object region, an outline extraction unit that extracts an outline of an object, a template storage unit that stores a detection target, and the template for the outline of the object are used. The voting unit that performs voting and masks other than the voting result that matches the object region in the voting result eliminates erroneously detecting the background portion of the target image as an object, and can detect the object with high accuracy. An image processing apparatus that can be used is provided.

以下、本発明の実施形態について添付図面を参照しながら詳細に説明する。
[第1の実施形態]
図1は、本発明の第1の実施形態に係る画像処理装置の全体のブロック構成を示すものである。本実施形態の画像処理装置は、対象画像を入力する画像入力部1と、画像入力部1から入力された画像から物体領域と物体の輪郭を抽出する前処理部2と、検出対象を記憶するテンプレート記億部3と、前処理部2によって抽出された物体領域と物体の輪郭からテンプレート記億部3に記憶されているテンプレートに基づいて投票を行う投票部4と、この投票部4から入力される投票結果を用いて検出対象を画像中から検出する解析部5とを備える。
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
[First Embodiment]
FIG. 1 shows an overall block configuration of an image processing apparatus according to the first embodiment of the present invention. The image processing apparatus according to the present embodiment stores an image input unit 1 that inputs a target image, a preprocessing unit 2 that extracts an object region and an outline of an object from an image input from the image input unit 1, and a detection target. Template storage unit 3, voting unit 4 for voting based on the template stored in template storage unit 3 from the object region and the contour of the object extracted by preprocessing unit 2, and input from this voting unit 4 And an analysis unit 5 that detects a detection target from the image using the voted result.

まず、本実施形態に係る画像処理装置の前処理部2について、図2から図5を用いて説明する。
図2は、特に前処理部2の詳細な構成を示すものであり、同図に示すように、この前処理部2は、少なくとも、画像入力部1から入力された画像を保持するフレームメモリ2Aと、画像入力部1から入力された対象画像とフレームメモリ2Aに保持されている画像より物体領域を抽出する物体領域抽出部2Bと、画像入力部1から入力された対象画像より物体の輪郭を抽出する輪郭抽出部2Cを備える。なお、以下の本実施形態では、図3(A)に示す画像10Aがフレームメモリ2Aに保持されているものとし、画像入力部1から画像データが入力された場合について説明する。
物体領域抽出部2Bは、例えば画像入力部1から入力されフレームメモリ2Aに保持されている図3(A)に示す背景画像10Aと、画像入力部1から入力された図3(B)に示す対象画像10Bとから、背景差分法によって物体領域を抽出する。即ち、この背景差分法により、背景画像10Aと対象画像10Bとの輝度値の差を画素毎に計算し、その差分を所定の閾値で二値化処理し、差分が閾値より大きい画素のみを抽出する。画像に物体が出現した場合、対象画像10Bと背景画像10Aとを比較することにより、物体に対応した画素に大きな差分が発生し、図4に示す二値化画像20内では黒色で示す部分が物体領域20Aとして抽出され、二値化画像20の物体領域20A以外の領域は背景領域となる(以下、この画像を「物体領域画像20」と呼ぶ。)。
輪郭抽出部2Cは、画像入力部1から入力された対象画像10Bからフィルタ処理により物体の輪郭を抽出する。画像から物体の輪郭を抽出する方法としては、例えばSobelフィルタによる方法が広く知られており、例えば図5に示すような二値化画像30に示す物体の輪郭30Aとして抽出する(以下、この画像を「輪郭画像30」と呼ぶ。)。
First, the preprocessing unit 2 of the image processing apparatus according to the present embodiment will be described with reference to FIGS.
FIG. 2 particularly shows a detailed configuration of the preprocessing unit 2. As shown in FIG. 2, the preprocessing unit 2 includes at least a frame memory 2A that holds an image input from the image input unit 1. An object region extraction unit 2B for extracting an object region from the target image input from the image input unit 1 and the image held in the frame memory 2A, and the contour of the object from the target image input from the image input unit 1 An outline extracting unit 2C for extracting is provided. In the following embodiment, it is assumed that an image 10A shown in FIG. 3A is held in the frame memory 2A, and a case where image data is input from the image input unit 1 will be described.
The object region extraction unit 2B is, for example, the background image 10A shown in FIG. 3A input from the image input unit 1 and held in the frame memory 2A and the background image 10A input from the image input unit 1 shown in FIG. An object region is extracted from the target image 10B by the background subtraction method. That is, by this background difference method, the difference in luminance value between the background image 10A and the target image 10B is calculated for each pixel, and the difference is binarized with a predetermined threshold value, and only pixels whose difference is larger than the threshold value are extracted. To do. When an object appears in the image, a large difference is generated in the pixel corresponding to the object by comparing the target image 10B and the background image 10A, and the portion shown in black in the binarized image 20 shown in FIG. An area other than the object area 20A of the binarized image 20 extracted as the object area 20A is a background area (hereinafter, this image is referred to as “object area image 20”).
The contour extraction unit 2C extracts the contour of the object from the target image 10B input from the image input unit 1 by filtering. As a method for extracting the contour of an object from an image, for example, a method using a Sobel filter is widely known, and for example, it is extracted as a contour 30A of an object shown in a binarized image 30 as shown in FIG. Is referred to as “contour image 30”).

次に、図6から図8を用いて、本実施形態に係る画像処理装置の投票部4について説明する。
投票部4は、少なくとも、図6に示すように前処理部2から入力された輪郭画像30に対して、テンプレート記億部3に登録されているテンプレートを読み出してハフ変換による投票を行う投票処理部4Aと、この投票処理部4Aから得られた投票結果に対して前処理部2から入力された物体領域画像20を用いてマスク処理を行うマスク処理部4Bとを備える。
このうち、投票処理部4Aは、輪郭画像30とテンプレート記億部5に記憶されているテンプレートを用いて、ハフ変換による投票処理を行う。例えば、図7に示すように、テンプレート記億部3に、テンプレート3Aが登録されていたとする。このテンプレート3Aの×印はテンプレートの重心を表し、パラメータ空間ヘテンプレートを用いて投票を行う際の基準点とする。また、この投票処理部4Aは、輪郭画像30をスキャンして輪郭が存在する画素を見つけた場合には、輪郭画像30の輪郭が存在する座標値を投票の基準座標としてパラメータ空間40へ投票を行う。例えば、規準座標40Aに対する投票は、投票結果40Bのように表される。パラメータ空間40の各座標における投票は蓄積され、投票数が多く蓄積されている座標ほどテンプレート3Aの重心である可能性が高いことを示す。これらの処理を輪郭画像30の全ての座標に対して行い、ハフ変換による投票結果とする。
一方、マスク処理部4Bは、投票処理部4Aで投票した結果について、前処理部2で得られた物体領域画像20を用いてマスク処理を行い、背景領域に対応する投票結果を除去する。例えば、図7に示すパラメータ空間40の投票結果から物体領域画像20の物体領域20A(図4参照)に対応する投票結果のみをマスク処理すると、図8に示すパラメータ空間50で物体領域20Aに対応する領域50Aのみ投票データが蓄積される。
Next, the voting unit 4 of the image processing apparatus according to the present embodiment will be described with reference to FIGS.
The voting unit 4 reads at least a template registered in the template storage unit 3 and performs voting by Hough transform on the contour image 30 input from the preprocessing unit 2 as shown in FIG. 4A, and a mask processing unit 4B that performs mask processing on the voting result obtained from the voting processing unit 4A using the object region image 20 input from the preprocessing unit 2.
Among these, the voting processing unit 4 </ b> A performs voting processing by Hough transform using the templates stored in the contour image 30 and the template storage unit 5. For example, as illustrated in FIG. 7, it is assumed that the template 3A is registered in the template storage unit 3. The x mark of the template 3A represents the center of gravity of the template, and is used as a reference point when voting using the template in the parameter space. When the voting processing unit 4A scans the contour image 30 and finds a pixel having a contour, the voting processing unit 4A votes the parameter space 40 using the coordinate value of the contour of the contour image 30 as a reference coordinate for voting. Do. For example, a vote for the reference coordinate 40A is expressed as a vote result 40B. Votes at each coordinate in the parameter space 40 are accumulated, and the more accumulated the number of votes, the higher the possibility of being the center of gravity of the template 3A. These processes are performed on all the coordinates of the contour image 30 to obtain a voting result by Hough transform.
On the other hand, the mask processing unit 4B performs mask processing on the result of voting by the voting processing unit 4A using the object region image 20 obtained by the preprocessing unit 2, and removes the voting result corresponding to the background region. For example, when only the voting result corresponding to the object region 20A (see FIG. 4) of the object region image 20 is masked from the voting result of the parameter space 40 shown in FIG. 7, it corresponds to the object region 20A in the parameter space 50 shown in FIG. The voting data is accumulated only in the area 50A.

次に、解析部5について説明する。
この解析部5は、図9に示すように、少なくとも極大点検出部5Aと判定部5Bとを備える。
このうち、極大点検出部5Aは、投票部4によって得られた投票結果から最も投票数が多いところの座標(以下、単に「座標」と略す)50Bを検出する。この座標50Bが検出する物体の候補点となる。
一方、判定部5Bは、極大点検出部5Aで得られた座標50Bが検出する物体の候補点か否か判定を行う。例えば、座標50Bにおける投票数が一定の閾値以上である場合のみ、物体の候補点であると判定し、図10に示すように対象画像60(図3の対象画像10Aと同一)から、物体60Aを検出する。
Next, the analysis unit 5 will be described.
As shown in FIG. 9, the analysis unit 5 includes at least a local maximum point detection unit 5A and a determination unit 5B.
Among these, the local maximum point detection unit 5 </ b> A detects coordinates (hereinafter simply referred to as “coordinates”) 50 </ b> B where the number of votes is the largest from the voting results obtained by the voting unit 4. This coordinate 50B is an object candidate point to be detected.
On the other hand, the determination unit 5B determines whether or not the coordinate 50B obtained by the local maximum point detection unit 5A is a candidate point of an object to be detected. For example, only when the number of votes at the coordinate 50B is equal to or larger than a certain threshold value, it is determined as a candidate point of the object, and as shown in FIG. 10, from the target image 60 (the same as the target image 10A in FIG. 3), the object 60A Is detected.

したがって、本実施形態によれば、対象画像中に複数の物体が含まれる際には、輪郭画像に対してハフ変換による投票した結果に物体領域画像でマスク処理を行って個々の物体を検出することによって、対象画像の背景部分を誤って物体として検出することを解消し、精度良く物体を検出することができる。   Therefore, according to the present embodiment, when a plurality of objects are included in the target image, each object is detected by performing mask processing with the object region image on the result of voting by the Hough transform on the contour image. This eliminates erroneous detection of the background portion of the target image as an object, and the object can be detected with high accuracy.

なお、本実施形態では、前処理部2における物体領域の抽出方法は特に限定されない。例えば、本実施形態では、背景差分法により背景画像と対象画像との輝度値の差を計算して物体領域を抽出するようにしたが、特にこれに限定されるものではなく、例えば他に一般的な画像処理手法として広く知られているフレーム間差分法により、時間的に異なる対象画像同士の輝度慎の差を計算して物体領域を抽出してもよい。その場合、フレームメモリ2Aには、画像入力部1から入力される対象画像とは時間的に異なる画像を保持すればよい。また、他に一般的な画像処理手法として広く知られているオプティカルフローによる動画像解析などを用いて画素単位、または対象画像を複数個の画素からなるブロック単位に区切って物体領域を抽出しても良い。また、本実施形態では、画像入力部1から入力される対象画像と、対象画像とは時間的に異なる画像をフレームメモリ2Aに保持して、2枚の画像から物体領域を抽出するようにしたが、3枚以上の画像から物体領域を抽出するようにしても良い。その場合には、前処理部2の構成要素であるフレームメモリ2Aを複数個用意することによって実現可能である。   In the present embodiment, the object region extraction method in the preprocessing unit 2 is not particularly limited. For example, in the present embodiment, the object region is extracted by calculating the difference in luminance value between the background image and the target image by the background difference method, but the present invention is not particularly limited thereto, and for example, other general An object region may be extracted by calculating a difference in brightness between target images that are temporally different by an inter-frame difference method that is widely known as a typical image processing method. In that case, the frame memory 2 </ b> A may hold an image that is temporally different from the target image input from the image input unit 1. In addition, the object region is extracted by dividing the target image into block units composed of a plurality of pixels by using moving image analysis by optical flow, which is widely known as another general image processing method. Also good. In the present embodiment, the target image input from the image input unit 1 and an image that is temporally different from the target image are held in the frame memory 2A, and an object region is extracted from the two images. However, the object region may be extracted from three or more images. In that case, it can be realized by preparing a plurality of frame memories 2A which are components of the preprocessing unit 2.

また、本実施形態では、前処理部2における輪郭の抽出方法は特に限定されない。例えば、本実施形態では、Sobelフィルタによる輪郭抽出法により輪郭画像を抽出するようにしたが、特にこれに限定されるものではなく、他に一般的な画像処理手法として広く知られているRobertsフィルタなどを用いてもよい。   In the present embodiment, the contour extraction method in the preprocessing unit 2 is not particularly limited. For example, in the present embodiment, the contour image is extracted by the contour extraction method using the Sobel filter. However, the present invention is not particularly limited to this, and the Roberts filter widely known as a general image processing method. Etc. may be used.

また、本実施形態では、解析部5における物体の検出方法は特に限定されない。例えば本実施形態では、極大点検出部5Aで投票数が多いところの座標を検出し、判定部5Bで投票数が多いところの座標での投票数が一定の閾値以上である場合のみ物体の候補点であると判定したが、これ以外に、下記のような構成でも良い。即ち、例えば極大点検出部5Aで投票数が多いところの座標を検出し、判定部5Bで投票数が多いところの座標でテンプレート記億部5に記憶されているテンプレートと対象画像との一致率を計算し、一致率が一定の閾値以上である場合のみ物体の候補点であると判定してもよい。   Moreover, in this embodiment, the detection method of the object in the analysis part 5 is not specifically limited. For example, in this embodiment, the coordinates of the place where the number of votes is large is detected by the local maximum point detection unit 5A, and the object candidate only when the number of votes at the place where the number of votes is large is equal to or greater than a certain threshold value by the determination unit 5B. In addition to this, the following configuration may be used. That is, for example, the coordinates where the number of votes is large is detected by the local maximum point detection unit 5A, and the matching rate between the template and the target image stored in the template storage unit 5 at the coordinates where the number of votes is large is determined by the determination unit 5B. May be determined as an object candidate point only when the matching rate is equal to or greater than a certain threshold.

[第2の実施形態]
次に、本発明の第2の実施形態について、図面を参照しながら説明する。なお、本実施形態において、第1の実施形態と同一部分には同一符号を付して重複説明を避ける。
本実施形態の画像処理装置は、図1に示す第1の実施形態と同様に、画像入力部1と、前処理部2と、テンプレート記億部3と、投票部4と、解析部5とを備えるが、前処理部2の構成が第1の実施形態とは異なる。
[Second Embodiment]
Next, a second embodiment of the present invention will be described with reference to the drawings. In the present embodiment, the same parts as those in the first embodiment are denoted by the same reference numerals to avoid redundant description.
As in the first embodiment shown in FIG. 1, the image processing apparatus according to the present embodiment includes an image input unit 1, a preprocessing unit 2, a template storage unit 3, a voting unit 4, an analysis unit 5, and the like. However, the configuration of the preprocessing unit 2 is different from that of the first embodiment.

ここで、図11を参照しながら、前処理部2について詳細に説明する。
前処理部2は少なくとも、同図に示すように、画像入力部1から入力された対象画像を保持するフレームメモリ2Aと、画像入力部1から入力された対象画像とフレームメモリ2Aに保持されている画像から物体領域を抽出する物体領域抽出部2Dと、この物体領域抽出部2Dで抽出した物体領域を対象画像から分割して抽出する物体領域分割部2Eと、物体領域抽出部2Dから入力された物体領域部分画像からフィルタ処理により物体の輪郭を抽出する輪郭抽出部2Fとを備える。以下、本実施形態では、図3に示す背景画像10Aがフレームメモリ2Aに保持されているものとし、画像入力部1から対象画像10Bが入力された場合について説明する。
このうち、物体領域抽出部2Dは、本発明の第1の実施形態で説明した図2に示す物体領域抽出部2Bと同一のものであるため、詳細な説明を省略する。即ち、物体領域抽出部2Dは、図2における物体領域抽出部2Bと同様に、背景画像10Aと対象画像10Bとを処理して物体領域画像70を得る。
一方、物体領域分割部2Eは、物体領域抽出部2Dで得られた物体領域画像70から個々の物体の領域に対応する物体領域部分画像70A、70Bをラベリング処理によって取り出す。このラベリング処理は、隣接した同一の特徴を持つ点もしくは領域に同じラベルを付けてグループ化する処理であり、一般的に広く知られている手法である。以下、物体領域抽出部2Dによって取り出された物体領域部分画像70Aにおける処理例を挙げて説明を行う。なお、物体領域部分画像70Bについても、以下同様の処理を行う。
輪郭抽出部2Fは、物体領域抽出部2Dから入力された物体領域部分画像80A(図13参照)からフィルタ処理により物体の輪郭を抽出する。画像から物体領域を抽出する方法は、本発明の第1の実施形態と同様であるため、その説明を省略する。この処理により、輪郭部分画像80B(図14参照)を抽出する。
Here, the pre-processing unit 2 will be described in detail with reference to FIG.
As shown in the figure, the preprocessing unit 2 has at least a frame memory 2A that holds the target image input from the image input unit 1, and a target image and frame memory 2A that are input from the image input unit 1. An object region extracting unit 2D that extracts an object region from an existing image, an object region dividing unit 2E that divides and extracts the object region extracted by the object region extracting unit 2D from the target image, and an object region extracting unit 2D A contour extraction unit 2F that extracts a contour of the object from the partial image of the object region by filtering. Hereinafter, in the present embodiment, it is assumed that the background image 10A illustrated in FIG. 3 is held in the frame memory 2A, and a case where the target image 10B is input from the image input unit 1 will be described.
Among these, the object region extraction unit 2D is the same as the object region extraction unit 2B shown in FIG. 2 described in the first embodiment of the present invention, and thus detailed description thereof is omitted. That is, the object region extraction unit 2D processes the background image 10A and the target image 10B to obtain the object region image 70, similarly to the object region extraction unit 2B in FIG.
On the other hand, the object area dividing unit 2E extracts the object area partial images 70A and 70B corresponding to the areas of the individual objects from the object area image 70 obtained by the object area extracting unit 2D by labeling processing. This labeling process is a process in which adjacent points or regions having the same feature are grouped with the same label, and is a widely known technique. Hereinafter, an example of processing in the object region partial image 70A extracted by the object region extraction unit 2D will be described. The same processing is performed for the object region partial image 70B.
The contour extraction unit 2F extracts the contour of the object by filtering from the object region partial image 80A (see FIG. 13) input from the object region extraction unit 2D. Since the method for extracting the object region from the image is the same as that in the first embodiment of the present invention, the description thereof is omitted. By this process, the contour partial image 80B (see FIG. 14) is extracted.

次に、図6、図14および図15を参照しながら、本実施形態に係る投票部4について説明する。
本実施形態の投票部4は、少なくとも、図6に示す第1の実施形態と同様に、前処理部2から入力された図14に示す輪郭部分画像80Bに対して、図6のテンプレート記億部3に登録されているテンプレートを読み出してハフ変換による投票を行う投票処理部4Aと、投票処理部4Aから得られた投票結果に対して前処理部2から入力された図13に示す物体領域部分画像80Aを用いてマスク処理を行うマスク処理部4Bとを備える。ところが、本実施形態における投票部4では、本発明の第1の実施形態と異なり、処理対象画像から切り出した物体領域部分画像80Aと図14に示す輪郭部分画像80Bとをマスク処理するものである。
投票処理部4Aは、輪郭部分画像80Bについて、テンプレート記億部3に記憶されているテンプレートを用いて、ハフ変換による投票処理を行う。例えば、テンプレート記億部3に、図15(A)に示すテンプレート3Bが登録されていたとする。ここで、テンプレート3Bの×印はテンプレートの重心を表し、パラメータ空間ヘテンプレートを用いて投票を行う際の基準点とする。投票処理部4Aは、輪郭部分画像80Bをスキャンして輪郭が存在する画素を見つけた場合には、輪郭部分画像80Bの輪郭が存在する座標値を投票の基準座標としてパラメータ空間90へ投票を行う。例えば、規準座標90Aに対する投票は、投票結果90Bのように表される。パラメータ空間90の各座標における投票は蓄積され、投票数が多く蓄積されている座標ほどテンプレート3Bの重心である可能性が高いことを示す。これらの処理を輪郭部分画像80Bの全ての座標に対して行い、ハフ変換による投票結果とする。
マスク処理部4Bは、投票処理部4Aで投票した結果について、物体領域部分画像80Aを用いてマスク処理を行い、背景領域に対応する投票結果を除去する。例えば、図15(A)に示すパラメータ空間90の投票結果から物体領域部分画像80Aの黒色で示す投票結果のみをマスク処理すると、図15(B)に示すパラメータ空間100で物体部分画像80Aに対応するパラメータ空間100Aのみ投票が蓄積される。
Next, the voting unit 4 according to the present embodiment will be described with reference to FIGS. 6, 14, and 15.
As in the first embodiment shown in FIG. 6, the voting unit 4 of the present embodiment applies at least the template storage of FIG. 6 to the contour partial image 80B shown in FIG. 14 input from the preprocessing unit 2. A voting processing unit 4A for reading a template registered in the unit 3 and voting by Hough transform, and an object region shown in FIG. 13 inputted from the preprocessing unit 2 with respect to a voting result obtained from the voting processing unit 4A And a mask processing unit 4B that performs mask processing using the partial image 80A. However, unlike the first embodiment of the present invention, the voting unit 4 in the present embodiment masks the object region partial image 80A cut out from the processing target image and the contour partial image 80B shown in FIG. .
The voting processing unit 4A performs voting processing by the Hough transform using the template stored in the template storage unit 3 for the contour partial image 80B. For example, it is assumed that a template 3B shown in FIG. Here, the cross mark of the template 3B represents the center of gravity of the template and is used as a reference point when voting using the template in the parameter space. When the voting processing unit 4A scans the contour partial image 80B and finds a pixel having a contour, the voting processing unit 4A votes the parameter space 90 using the coordinate value of the contour of the contour partial image 80B as a reference coordinate for voting. . For example, a vote for the reference coordinate 90A is expressed as a vote result 90B. Votes at each coordinate in the parameter space 90 are accumulated, and the more accumulated the number of votes, the higher the possibility of being the center of gravity of the template 3B. These processes are performed on all coordinates of the contour partial image 80B, and the result is a voting result by Hough transform.
The mask processing unit 4B performs mask processing on the result of voting by the voting processing unit 4A using the object region partial image 80A, and removes the voting result corresponding to the background region. For example, if only the voting result shown in black in the object region partial image 80A is masked from the voting result in the parameter space 90 shown in FIG. 15A, it corresponds to the object partial image 80A in the parameter space 100 shown in FIG. Votes are accumulated only in the parameter space 100A.

次に、解析部5について説明する。
解析部5は、少なくとも、図9に示す第1の実施形態の解析部5と同様に、極大点検出部5Aと判定部5Bとを備える。なお、本実施形態の解析部5は、パラメータ空間100を処理する点が、本発明の第1の実施形態と異なる。
極大点検出部5Aは、投票部4によって得られた投票結果から最も投票数が多いところの座標100Bを検出する。この座標100Bが切り出した物体領域部分画像80Aにおいて検出すべき物体の候補点となる。
判定部5Bは、極大点検出部5Aで得られた座標100Bが検出すべき物体の候補点か否か判定を行う。例えば、座標100Bにおける投票数が一定の閾値以上である場合のみ、物体の候補点であると判定し、物体領域部分画像80Aにおける座標系を図10に示す対象画像60の座標系に変換するように対象画像60(図3の対象画像10Aと同一)から、物体60Aを検出する。
Next, the analysis unit 5 will be described.
The analysis unit 5 includes at least a local maximum point detection unit 5A and a determination unit 5B, similar to the analysis unit 5 of the first embodiment shown in FIG. Note that the analysis unit 5 of the present embodiment is different from the first embodiment of the present invention in that the parameter space 100 is processed.
The local maximum point detection unit 5 </ b> A detects the coordinates 100 </ b> B having the largest number of votes from the voting result obtained by the voting unit 4. The coordinates 100B are object candidate points to be detected in the cut out object region partial image 80A.
The determination unit 5B determines whether or not the coordinate 100B obtained by the local maximum point detection unit 5A is a candidate point of an object to be detected. For example, only when the number of votes at the coordinates 100B is equal to or larger than a certain threshold value, it is determined that the point is an object candidate point, and the coordinate system in the object region partial image 80A is converted to the coordinate system of the target image 60 shown in FIG. Then, the object 60A is detected from the target image 60 (same as the target image 10A in FIG. 3).

従って、本実施形態によれば、対象画像中に複数の物体が含まれるときには、処理対象ではない物体のエッジの影響による投票の干渉を防ぎ、かつ、輪郭画像に対してハフ変換による投票した結果に物体領域画像でマスク処理を行って個々の物体を検出することによって、対象画像の背景部分を誤って物体として検出することを解消し、精度良く物体を検出することができる。また、対象画像から物体領域部分画像を抽出して処理することによって、従来の画像処理装置と比較してハフ変換による投票処理の処理量を削減することができる。   Therefore, according to the present embodiment, when a plurality of objects are included in the target image, the interference of voting due to the influence of the edge of the object that is not the processing target is prevented, and the result of voting by the Hough transform on the contour image In addition, by performing mask processing on the object region image to detect individual objects, it is possible to eliminate erroneous detection of the background portion of the target image as an object, and to detect the object with high accuracy. Further, by extracting and processing the object region partial image from the target image, it is possible to reduce the processing amount of the voting process by the Hough transform as compared with the conventional image processing apparatus.

なお、本実施形態では、第1の実施形態と同様に、前処理部2における物体領域の抽出方法は特に限定されない。例えば、本実施形態では、前処理部2は背景差分法により背景画像と対象画像との輝度値の差を計算して物体領域を抽出するようにしたが、特に限定されるものではない。即ち、他に一般的な画像処理手法として広く知られているフレーム間差分法により、時間的に異なる対象画像どうしの輝度値の差を計算して物体領域を抽出してもよい。その場合、フレームメモリ2Aには画像入力部1から入力される対象画像とは時間的に異なる画像を保持すればよい。また、他に一般的な画像処理手法として広く知られているオプティカルフローによる動画像解析などを用いて画素単位、または対象画像を複数個の画素からなるブロック単位に区切って物体領域を抽出しても良い。
また、本実施形態では、第1の実施形態と同様に、画像入力部1から入力される対象画像と、対象画像とは時間的に異なる画像をフレームメモリ2Aに保持して、2枚の画像から物体領域を抽出するようにしたが、3枚以上の画像から物体領域を抽出するようにしても良い。その場合、前処理部2の構成要素であるフレームメモリ2Aを複数個用意することによってこれを実現することが可能である。
また、本実施形態では、第1の実施形態と同様に、輪郭抽出部2Fにおける輪郭の抽出方法は特に限定されない。例えば、本実施形態ではSobelフィルタによる輪郭抽出法により輪郭画像を抽出するようにしたが、これ以外に一般的な画像処理手法として広く知られているRobertsフィルタなどを用いてもよい。
なお、本実施形態では、第1の実施形態と同様に、解析部5における物体の検出方法は特に限定されない。例えば、本実施形態では、極大点検出部5Aで投票数が多いところの座標を検出し、判定部5Bで投票数が多いところの座標での投票数が一定の閾値以上である場合のみ物体の候補点であると判定したが、例えば極大点検出部5Aで投票散が大きい座標を検出し、判定部5Bで投票数が多いところの座標でテンプレート記億部5に記憶されているテンプレートと対象画像との一致率を計算し、一致率がー定の閾値以上である場合のみ物体の候補点であると判定してもよい。
In the present embodiment, the object region extraction method in the preprocessing unit 2 is not particularly limited, as in the first embodiment. For example, in the present embodiment, the preprocessing unit 2 calculates the difference in luminance value between the background image and the target image by the background subtraction method and extracts the object region, but is not particularly limited. That is, an object region may be extracted by calculating a difference in luminance value between temporally different target images by an inter-frame difference method that is widely known as another general image processing method. In that case, an image that is temporally different from the target image input from the image input unit 1 may be held in the frame memory 2A. In addition, the object region is extracted by dividing the target image into block units composed of a plurality of pixels by using moving image analysis by optical flow, which is widely known as another general image processing method. Also good.
In the present embodiment, similarly to the first embodiment, the target image input from the image input unit 1 and an image temporally different from the target image are held in the frame memory 2A, and two images are stored. Although the object region is extracted from the object region, the object region may be extracted from three or more images. In this case, it is possible to realize this by preparing a plurality of frame memories 2A that are components of the preprocessing unit 2.
In the present embodiment, as in the first embodiment, the contour extracting method in the contour extracting unit 2F is not particularly limited. For example, in the present embodiment, the contour image is extracted by the contour extraction method using the Sobel filter. However, a Roberts filter that is widely known as a general image processing method may be used.
In the present embodiment, the object detection method in the analysis unit 5 is not particularly limited, as in the first embodiment. For example, in the present embodiment, the maximum point detection unit 5A detects the coordinates where the number of votes is large, and the determination unit 5B detects the coordinates of the object only when the number of votes at the coordinates where the number of votes is large is equal to or greater than a certain threshold. Although it is determined as a candidate point, for example, a coordinate and a target stored in the template storage unit 5 at a coordinate where the vote count is large is detected by the maximum point detection unit 5A, and the number of votes is determined by the determination unit 5B. The coincidence rate with the image may be calculated, and the object candidate point may be determined only when the coincidence rate is equal to or greater than a predetermined threshold.

本発明の画像処理装置および画像処理方法は、対象画像の背景部分を誤って物体として検出することを防止することができる効果を有し、市街地や重要施設などの防犯装置などとして有用可能である。   INDUSTRIAL APPLICABILITY The image processing device and the image processing method of the present invention have an effect of preventing the background portion of the target image from being erroneously detected as an object, and can be useful as a security device for an urban area or an important facility. .

本発明の第1の実施形態に係る画像処理装置の全体構成を示すブロック図1 is a block diagram showing the overall configuration of an image processing apparatus according to a first embodiment of the present invention. その画像処理装置における前処理部の構成を示すブロック図The block diagram which shows the structure of the pre-processing part in the image processing apparatus (A)及び(B)は、それぞれ、本発明の第1の実施形態における対象画像及び背景画像の一例を示す説明図(A) And (B) is explanatory drawing which respectively shows an example of the target image and background image in the 1st Embodiment of this invention. 本発明の第1の実施形態における物体領域画像を示す説明図Explanatory drawing which shows the object area | region image in the 1st Embodiment of this invention. 本発明の第1の実施形態における輪郭画像を示す説明図Explanatory drawing which shows the outline image in the 1st Embodiment of this invention. 本発明の第1の実施形態に係る画像処理装置の投票部の構成を示すブロック図1 is a block diagram showing a configuration of a voting unit of an image processing apparatus according to a first embodiment of the present invention. 本発明の第1の実施形態に係る画像処理装置の投票部の投票処理部で投票するときの状態を示す説明図Explanatory drawing which shows a state when voting by the voting process part of the voting part of the image processing apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る画像処理装置の投票部のマスク処理器でマスク処理するときの状態を示す説明図Explanatory drawing which shows the state at the time of masking with the mask processor of the voting part of the image processing apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る画像処理装置の解析部の構成を示すブロック図1 is a block diagram showing a configuration of an analysis unit of an image processing apparatus according to a first embodiment of the present invention. 本発明の第1の実施形態に係る画像処理装置の対象画像から物体を検出した後の状態を示す説明図Explanatory drawing which shows the state after detecting an object from the target image of the image processing apparatus which concerns on the 1st Embodiment of this invention. 本発明の第2の実施形態に係る画像処理装置の前処理部の構成を示すブロック図The block diagram which shows the structure of the pre-processing part of the image processing apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態に係る画像処理装置の物体領域分割部の処理の状態を示す説明図Explanatory drawing which shows the state of a process of the object area division part of the image processing apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態に係る画像処理装置の物体領域部分画像を示す説明図Explanatory drawing which shows the object area | region partial image of the image processing apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態に係る画像処理装置の輪郭部分画像を示す説明図Explanatory drawing which shows the outline partial image of the image processing apparatus which concerns on the 2nd Embodiment of this invention. (A)及び(B)は本発明の第2の実施形態2に係る画像処理装置の投票部及び解析部の処理の概要を示す説明図(A) And (B) is explanatory drawing which shows the outline | summary of the process of the voting part of the image processing apparatus which concerns on the 2nd Embodiment of this invention, and an analysis part. 従来の画像処理装置の全体の構成を示すブロック図The block diagram which shows the whole structure of the conventional image processing apparatus (A)及び(B)は従来の画像処理装置の処理の概要を示すパラメータ空間画像図及び実空間画像図(A) And (B) is a parameter space image figure and a real space image figure which show the outline | summary of the process of the conventional image processing apparatus.

符号の説明Explanation of symbols

1 画像入力部
10A 背景画像
10B 対象画像
2 前処理部
2A フレームメモリ
2B、2D 物体領域抽出部
2C、2F 輪郭抽出部
2E 物体領域分割部
20 二値化画像
20A 物体領域
3 テンプレート記億部
30 二値化画像(輪郭画像)
30A 物体の輪郭
4 投票部
4A 投票処理部
4B マスク処理部
40、50 パラメータ空間
40A 規準座標
40B 投票結果
5A 極大点検出部
5B 判定部
50A 物体領域に対応する領域
50B 最も投票数が多いところの座標
60 対象画像
60A 物体
DESCRIPTION OF SYMBOLS 1 Image input part 10A Background image 10B Target image 2 Preprocessing part 2A Frame memory 2B, 2D Object area extraction part 2C, 2F Contour extraction part 2E Object area division part 20 Binary image 20A Object area 3 Template storage part 30 2 Binary image (contour image)
30A Object outline 4 Voting unit 4A Voting processing unit 4B Mask processing unit 40, 50 Parameter space 40A Normal coordinate 40B Voting result 5A Local maximum point detection unit 5B Determination unit 50A Area corresponding to object region 50B Coordinate with the largest number of votes 60 Target image 60A Object

Claims (6)

検出すべき特定の物体が含まれる処理対象画像を入力する画像入力部と、
前記処理対象画像から前記物体が占有する物体領域と前記物体の輪郭とを抽出する前処理部と、
前記処理対象画像内の検出すべき対象をテンプレートとして予め記憶しておくテンプレート記億部と、
前記物体の輪郭に対して前記テンプレートを用いて投票を行い、前記投票結果において前記物体領域と一致する投票結果以外をマスク処理する投票部と、
前記マスク処理した前記投票結果に基づいて前記処理対象画像に含まれる前記物体を検出する解析部と
を備える画像処理装置。
An image input unit for inputting a processing target image including a specific object to be detected;
A pre-processing unit that extracts an object region occupied by the object and a contour of the object from the processing target image;
A template storage unit that pre-stores a target to be detected in the processing target image as a template;
A voting unit that performs voting on the outline of the object using the template, masks other than the voting result that matches the object region in the voting result, and
An image processing apparatus comprising: an analysis unit that detects the object included in the processing target image based on the voting result subjected to the mask processing.
前記前処理部は、前記物体領域を抽出して前記処理対象画像の範囲を特定する手段を有するとともに、
前記投票部は、範囲を特定した前記処理対象画像をマスク処理する手段を有する
請求項1に記載の画像処理装置。
The pre-processing unit has means for extracting the object region and specifying a range of the processing target image,
The image processing apparatus according to claim 1, wherein the voting unit includes means for performing mask processing on the processing target image whose range is specified.
検出すべき特定の物体が含まれる処理対象画像を入力する画像入力ステップと、
前記処理対象画像から前記物体が占有する物体領域と物体の輪郭とを抽出する前処理ステップと、
前記処理対象画像内の検出すべき検出対象として記憶するテンプレートを用いて、前記物体の輪郭に対して投票を行い、前記投票結果において前記物体領域と一致する投票結果以外をマスク処理する投票ステップと、
マスク処理した前記投票結果に基づいて前記処理対象画像に含まれる前記物体を検出する解析ステップと
を備える画像処理方法。
An image input step for inputting a processing target image including a specific object to be detected;
A preprocessing step of extracting an object region occupied by the object and an outline of the object from the processing target image;
A voting step that performs voting on the outline of the object using a template stored as a detection target to be detected in the processing target image, and masks other than the voting result that matches the object region in the voting result; ,
And an analysis step of detecting the object included in the processing target image based on the voting result subjected to mask processing.
前記前処理ステップは、前記物体領域を抽出して前記処理対象画像の範囲を特定し、
前記投票ステップは、範囲を特定した前記処理対象画像をマスク処理する
請求項3に記載の画像処理方法。
The preprocessing step identifies the range of the processing target image by extracting the object region,
The image processing method according to claim 3, wherein the voting step masks the processing target image whose range is specified.
請求項3又は4に記載の画像処理方法における各ステップをコンピュータに実行させるプログラム。   The program which makes a computer perform each step in the image processing method of Claim 3 or 4. 請求項3又は4に記載の画像処理方法における各ステップをコンピュータに実行させるためのプログラムを記録した記録媒体。   A recording medium on which a program for causing a computer to execute each step in the image processing method according to claim 3 or 4 is recorded.
JP2004379398A 2004-12-28 2004-12-28 Image processing apparatus, image processing method, program and recording medium Pending JP2006185271A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004379398A JP2006185271A (en) 2004-12-28 2004-12-28 Image processing apparatus, image processing method, program and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004379398A JP2006185271A (en) 2004-12-28 2004-12-28 Image processing apparatus, image processing method, program and recording medium

Publications (1)

Publication Number Publication Date
JP2006185271A true JP2006185271A (en) 2006-07-13

Family

ID=36738332

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004379398A Pending JP2006185271A (en) 2004-12-28 2004-12-28 Image processing apparatus, image processing method, program and recording medium

Country Status (1)

Country Link
JP (1) JP2006185271A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001118182A (en) * 1999-10-18 2001-04-27 Mitsubishi Electric Corp Mobile object detection device and mobile object detection method
JP2001222719A (en) * 1999-12-01 2001-08-17 Matsushita Electric Ind Co Ltd Face extracting device, face extracting method and recording medium for face extraction program
JP2004062393A (en) * 2002-07-26 2004-02-26 Japan Science & Technology Corp Method and device for determining attention
JP2004295776A (en) * 2003-03-28 2004-10-21 Minolta Co Ltd Image recognition device and image recognition program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001118182A (en) * 1999-10-18 2001-04-27 Mitsubishi Electric Corp Mobile object detection device and mobile object detection method
JP2001222719A (en) * 1999-12-01 2001-08-17 Matsushita Electric Ind Co Ltd Face extracting device, face extracting method and recording medium for face extraction program
JP2004062393A (en) * 2002-07-26 2004-02-26 Japan Science & Technology Corp Method and device for determining attention
JP2004295776A (en) * 2003-03-28 2004-10-21 Minolta Co Ltd Image recognition device and image recognition program

Similar Documents

Publication Publication Date Title
US8285056B2 (en) Method and apparatus for computing degree of matching
JP4232800B2 (en) Line noise elimination device, line noise elimination method, line noise elimination program
CN109035219B (en) FICS golden finger defect detection system and detection method based on BP neural network
JP2006067585A (en) Method and apparatus for specifying position of caption in digital image and extracting thereof
JPH0467234B2 (en)
US20230065041A1 (en) Geometric pattern matching method and device for performing the method
US20050271260A1 (en) Device, method and program for removing pores
JP2008011484A (en) Apparatus and method for extracting character and graphic string, program for executing the method, recording medium with the program stored therein
CN117115117B (en) Pathological image recognition method based on small sample, electronic equipment and storage medium
CN112200789B (en) Image recognition method and device, electronic equipment and storage medium
Cozzolino et al. PRNU-based forgery localization in a blind scenario
JP2006323779A (en) Image processing method and device
JP2016053763A (en) Image processor, image processing method and program
CN109658452B (en) Track gauge detection method and device
CN114627113B (en) Method, system, device and medium for detecting defects of printed circuit board
CN116485779A (en) Adaptive wafer defect detection method and device, electronic equipment and storage medium
CN112348112B (en) Training method and training device for image recognition model and terminal equipment
JPH08190690A (en) Method for determining number plate
CN103971376A (en) Application program execution method and device
JP4492258B2 (en) Character and figure recognition and inspection methods
CN114677552A (en) Fingerprint detail database labeling method and system for deep learning
JP2006185271A (en) Image processing apparatus, image processing method, program and recording medium
JP4449483B2 (en) Image analysis apparatus, image analysis method, and computer program
JP2001099625A (en) Device and method for pattern inspection
JP2005071125A (en) Object detector, object detection method, object data selection program and object position detection program

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20071113

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20071120

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071130

A977 Report on retrieval

Effective date: 20100601

Free format text: JAPANESE INTERMEDIATE CODE: A971007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100608

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100803

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100907