JP2006185271A - Image processing apparatus, image processing method, program and recording medium - Google Patents
Image processing apparatus, image processing method, program and recording medium Download PDFInfo
- Publication number
- JP2006185271A JP2006185271A JP2004379398A JP2004379398A JP2006185271A JP 2006185271 A JP2006185271 A JP 2006185271A JP 2004379398 A JP2004379398 A JP 2004379398A JP 2004379398 A JP2004379398 A JP 2004379398A JP 2006185271 A JP2006185271 A JP 2006185271A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- voting
- processing
- target image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、画像中から特定の物体を検出する画像処理装置に係り、特に、検出すべき複数の物体が画像中に存在する場合に個々の物体を精度良く検出することできる画像処理装置、画像処理方法、及びその方法をコンピュータに実行させるプログラム並びにそのプログラムを記録した記録媒体に関する。 The present invention relates to an image processing apparatus that detects a specific object from an image, and in particular, an image processing apparatus and an image that can accurately detect individual objects when a plurality of objects to be detected exist in the image. The present invention relates to a processing method, a program for causing a computer to execute the method, and a recording medium on which the program is recorded.
従来の画像処理装置としては、例えば移動体の検出を行うことができる移動体検出装置を設けたものなどが知られている(例えば、特許文献1参照)。
この移動体検出装置は、図16に示すように、画像入力部101からの入力画像と背景画像データベース部102からの背景画像との輝度値に基づいて輝度値変化領域を抽出する変化領域抽出部103と、ハフ変換に基づいて輝度変化領域の画素毎にその画素に対応したパラメータ空間へ投票パターンの各点の重みを投票する投票部104と、前記パラメータ空間において投票度数の極大点を移動体候補点として検出する極大点検出部105と、各移動体候補点の周辺の輝度変化領域と各移動体モデルとの一致度を算出して移動体の有無を判断するモデルマッチング部106と、発見した各移動体を経時的に追跡する追跡部107などで構成することで、移動体の検出を行うものである。
As shown in FIG. 16, the moving body detection apparatus includes a change area extraction unit that extracts a luminance value change area based on the luminance values of the input image from the
しかしながら、従来の画像処理装置では、検出すべき複数の物体が画像中に存在すると、個々の物体を検出する精度が低下する場合があった。
例えば、図17(A)のパラメータ空間画像201において点線で示す輪郭202から、図16に示す画像処理装置に格納された投票パターンデータベース108に登録されたテンプレート203を従来の画像処理装置で検出する方法について説明する。
ここで、投票部104は、画像201をスキャンし、輪郭202の画素が存在する座標を基準点としてハフ変換により投票処理を行う。例えば、座標204を基準点としたときのハフ変換による投票処理は、投票結果205のように行われる。そして、パラメータ空間上に投票された投票結果をパラメータ画像201に投影した様子を、このパラメータ画像201内に実線で示す。
次に、画像処理装置の極大点検出部105は、パラメータ空間上での極大点(最も投票されている座標)を検出する。この時点で、テンプレート203により本来期待する物体(ここでは、移動体(人)の頭部とする)の座標は座標206であり、検出する物体領域は、図17(B)の実空間画像211において領域212であるのに対して、実空間画像211中には複数の物体が存在しているために、近傍の物体同士の投票値が干渉してしまい、極大点が座標207となり、背景部の領域213を検出する。
そして、図16の画像処理装置の移動体データベース109に移動体214が登録されていた場合に、モデルマッチング部106において座標207を基準点としてテンプレートとの一致度を演算し、その一致度が低いため、物体が検出できなかったと判定してしまう。したがって、複数の物体が画像中に存在する場合、投票結果が干渉してしまい投票精度が低下するため、物体を検出することが困難であった。
However, in the conventional image processing apparatus, when a plurality of objects to be detected exist in an image, the accuracy of detecting individual objects may be reduced.
For example, the
Here, the
Next, the local maximum
When the moving
本発明は、上記事情に鑑みてなされたもので、複数の物体が画像中に存在する場合に個々の物体を精度良く、しかも容易に検出することができる画像処理装置、画像処理方法、及びプログラム並びに記録媒体を提供することを目的とする。 The present invention has been made in view of the above circumstances, and an image processing apparatus, an image processing method, and a program capable of accurately and easily detecting individual objects when a plurality of objects are present in an image. It is another object of the present invention to provide a recording medium.
本発明の画像処理装置は、検出すべき特定の物体が含まれる処理対象画像を入力する画像入力部と、前記処理対象画像から前記物体が占有する物体領域と前記物体の輪郭とを抽出する前処理部と、前記処理対象画像内の検出すべき対象をテンプレートとして予め記憶しておくテンプレート記億部と、前記物体の輪郭に対して前記テンプレートを用いて投票を行い、前記投票結果において前記物体領域と一致する投票結果以外をマスク処理する投票部と、前記マスク処理した前記投票結果に基づいて前記処理対象画像に含まれる前記物体を検出する解析部とを備えることを特徴としている。この構成により、対象画像中に複数の物体が含まれるときには、物体の輪郭に対してテンプレートを用いて投票を行い、この投票結果において、物体領域と一致する投票結果以外にマスク処理を行って個々の物体を検出する。これによって、対象画像の背景部分を誤って物体として検出することを解消し、精度良く物体を検出することができる。 The image processing apparatus of the present invention includes an image input unit that inputs a processing target image including a specific object to be detected, an object region occupied by the object, and an outline of the object from the processing target image. A processing unit, a template storage unit that preliminarily stores a target to be detected in the processing target image as a template, and voting using the template with respect to the contour of the object; A voting unit that performs mask processing on a part other than the voting result that matches the region, and an analysis unit that detects the object included in the processing target image based on the voting result subjected to the masking process. With this configuration, when a plurality of objects are included in the target image, voting is performed on the outline of the object using a template, and in this voting result, masking processing is performed in addition to the voting result that matches the object region. Detect the object. This eliminates erroneous detection of the background portion of the target image as an object, and the object can be detected with high accuracy.
本発明の画像処理装置は、前記前処理部が、前記物体領域を抽出して前記処理対象画像の範囲を特定する手段を有するとともに、前記投票部は、範囲を特定した前記処理対象画像をマスク処理する手段を有することを特徴としている。この構成により、対象画像から範囲を特定してマスク処理することによって、処理量を削減することができる。 In the image processing apparatus according to the aspect of the invention, the preprocessing unit includes a unit that extracts the object region and specifies a range of the processing target image, and the voting unit masks the processing target image that specifies the range. It has a means for processing. With this configuration, the processing amount can be reduced by specifying a range from the target image and performing mask processing.
本発明の画像処理方法は、検出すべき特定の物体が含まれる処理対象画像を入力する画像入力ステップと、前記処理対象画像から前記物体が占有する物体領域と物体の輪郭とを抽出する前処理ステップと、前記処理対象画像内の検出すべき検出対象として記憶するテンプレートを用いて、前記物体の輪郭に対して投票を行い、前記投票結果において前記物体領域と一致する投票結果以外をマスク処理する投票ステップと、マスク処理した前記投票結果に基づいて前記処理対象画像に含まれる前記物体を検出する解析ステップとを備えることを特徴としている。この構成により、対象画像中に複数の物体が含まれるときには、物体の輪郭に対してテンプレートを用いて投票を行い、投票結果において物体領域と一致する投票結果以外にマスク処理を行って個々の物体を検出する。これによって、対象画像の背景部分を誤って物体として検出することを解消し、精度良く物体を検出することができる。 The image processing method according to the present invention includes an image input step of inputting a processing target image including a specific object to be detected, and a preprocessing for extracting an object region occupied by the object and the contour of the object from the processing target image Voting is performed on the contour of the object using a step and a template stored as a detection target to be detected in the processing target image, and masking is performed on the voting result except for the voting result that matches the object region The method includes a voting step and an analysis step of detecting the object included in the processing target image based on the voting result subjected to mask processing. With this configuration, when a plurality of objects are included in the target image, voting is performed using the template for the outline of the object, and each object is subjected to mask processing other than the voting result that matches the object region in the voting result. Is detected. This eliminates erroneous detection of the background portion of the target image as an object, and the object can be detected with high accuracy.
本発明の画像処理方法は、前記前処理ステップが、前記物体領域を抽出して前記処理対象画像の範囲を特定し、前記投票ステップは、範囲を特定した前記処理対象画像をマスク処理することを特徴としている。この構成により、対象画像から範囲を特定してマスク処理することによって、処理量を削減することができる。 In the image processing method of the present invention, the preprocessing step extracts the object region and specifies a range of the processing target image, and the voting step masks the processing target image that specifies the range. It is a feature. With this configuration, the processing amount can be reduced by specifying a range from the target image and performing mask processing.
本発明のプログラムは、上記の画像処理方法における各ステップをコンピュータに実行させることを特徴としている。 The program of the present invention is characterized by causing a computer to execute each step in the above image processing method.
また、本発明の記録媒体は、上記の画像処理方法における各ステップをコンピュータに実行させるためのプログラムを記録してあることを特徴としている。 The recording medium of the present invention is characterized by recording a program for causing a computer to execute each step in the above image processing method.
本発明によれば、物体領域を抽出する領域抽出部と、物体の輪郭を抽出する輪郭抽出部と、検出対象を記憶するテンプレート記億部と、前記物体の輪郭に対して前記テンプレートを用いて投票を行い、前記投票結果において前記物体領域と一致する投票結果以外をマスク処理する投票部により、対象画像の背景部分を誤って物体として検出することを解消し、精度良く物体を検出することができる画像処理装置を提供できる。 According to the present invention, an area extraction unit that extracts an object region, an outline extraction unit that extracts an outline of an object, a template storage unit that stores a detection target, and the template for the outline of the object are used. The voting unit that performs voting and masks other than the voting result that matches the object region in the voting result eliminates erroneously detecting the background portion of the target image as an object, and can detect the object with high accuracy. An image processing apparatus that can be used is provided.
以下、本発明の実施形態について添付図面を参照しながら詳細に説明する。
[第1の実施形態]
図1は、本発明の第1の実施形態に係る画像処理装置の全体のブロック構成を示すものである。本実施形態の画像処理装置は、対象画像を入力する画像入力部1と、画像入力部1から入力された画像から物体領域と物体の輪郭を抽出する前処理部2と、検出対象を記憶するテンプレート記億部3と、前処理部2によって抽出された物体領域と物体の輪郭からテンプレート記億部3に記憶されているテンプレートに基づいて投票を行う投票部4と、この投票部4から入力される投票結果を用いて検出対象を画像中から検出する解析部5とを備える。
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
[First Embodiment]
FIG. 1 shows an overall block configuration of an image processing apparatus according to the first embodiment of the present invention. The image processing apparatus according to the present embodiment stores an
まず、本実施形態に係る画像処理装置の前処理部2について、図2から図5を用いて説明する。
図2は、特に前処理部2の詳細な構成を示すものであり、同図に示すように、この前処理部2は、少なくとも、画像入力部1から入力された画像を保持するフレームメモリ2Aと、画像入力部1から入力された対象画像とフレームメモリ2Aに保持されている画像より物体領域を抽出する物体領域抽出部2Bと、画像入力部1から入力された対象画像より物体の輪郭を抽出する輪郭抽出部2Cを備える。なお、以下の本実施形態では、図3(A)に示す画像10Aがフレームメモリ2Aに保持されているものとし、画像入力部1から画像データが入力された場合について説明する。
物体領域抽出部2Bは、例えば画像入力部1から入力されフレームメモリ2Aに保持されている図3(A)に示す背景画像10Aと、画像入力部1から入力された図3(B)に示す対象画像10Bとから、背景差分法によって物体領域を抽出する。即ち、この背景差分法により、背景画像10Aと対象画像10Bとの輝度値の差を画素毎に計算し、その差分を所定の閾値で二値化処理し、差分が閾値より大きい画素のみを抽出する。画像に物体が出現した場合、対象画像10Bと背景画像10Aとを比較することにより、物体に対応した画素に大きな差分が発生し、図4に示す二値化画像20内では黒色で示す部分が物体領域20Aとして抽出され、二値化画像20の物体領域20A以外の領域は背景領域となる(以下、この画像を「物体領域画像20」と呼ぶ。)。
輪郭抽出部2Cは、画像入力部1から入力された対象画像10Bからフィルタ処理により物体の輪郭を抽出する。画像から物体の輪郭を抽出する方法としては、例えばSobelフィルタによる方法が広く知られており、例えば図5に示すような二値化画像30に示す物体の輪郭30Aとして抽出する(以下、この画像を「輪郭画像30」と呼ぶ。)。
First, the preprocessing
FIG. 2 particularly shows a detailed configuration of the preprocessing
The object region extraction unit 2B is, for example, the
The
次に、図6から図8を用いて、本実施形態に係る画像処理装置の投票部4について説明する。
投票部4は、少なくとも、図6に示すように前処理部2から入力された輪郭画像30に対して、テンプレート記億部3に登録されているテンプレートを読み出してハフ変換による投票を行う投票処理部4Aと、この投票処理部4Aから得られた投票結果に対して前処理部2から入力された物体領域画像20を用いてマスク処理を行うマスク処理部4Bとを備える。
このうち、投票処理部4Aは、輪郭画像30とテンプレート記億部5に記憶されているテンプレートを用いて、ハフ変換による投票処理を行う。例えば、図7に示すように、テンプレート記億部3に、テンプレート3Aが登録されていたとする。このテンプレート3Aの×印はテンプレートの重心を表し、パラメータ空間ヘテンプレートを用いて投票を行う際の基準点とする。また、この投票処理部4Aは、輪郭画像30をスキャンして輪郭が存在する画素を見つけた場合には、輪郭画像30の輪郭が存在する座標値を投票の基準座標としてパラメータ空間40へ投票を行う。例えば、規準座標40Aに対する投票は、投票結果40Bのように表される。パラメータ空間40の各座標における投票は蓄積され、投票数が多く蓄積されている座標ほどテンプレート3Aの重心である可能性が高いことを示す。これらの処理を輪郭画像30の全ての座標に対して行い、ハフ変換による投票結果とする。
一方、マスク処理部4Bは、投票処理部4Aで投票した結果について、前処理部2で得られた物体領域画像20を用いてマスク処理を行い、背景領域に対応する投票結果を除去する。例えば、図7に示すパラメータ空間40の投票結果から物体領域画像20の物体領域20A(図4参照)に対応する投票結果のみをマスク処理すると、図8に示すパラメータ空間50で物体領域20Aに対応する領域50Aのみ投票データが蓄積される。
Next, the voting unit 4 of the image processing apparatus according to the present embodiment will be described with reference to FIGS.
The voting unit 4 reads at least a template registered in the
Among these, the voting processing unit 4 </ b> A performs voting processing by Hough transform using the templates stored in the
On the other hand, the
次に、解析部5について説明する。
この解析部5は、図9に示すように、少なくとも極大点検出部5Aと判定部5Bとを備える。
このうち、極大点検出部5Aは、投票部4によって得られた投票結果から最も投票数が多いところの座標(以下、単に「座標」と略す)50Bを検出する。この座標50Bが検出する物体の候補点となる。
一方、判定部5Bは、極大点検出部5Aで得られた座標50Bが検出する物体の候補点か否か判定を行う。例えば、座標50Bにおける投票数が一定の閾値以上である場合のみ、物体の候補点であると判定し、図10に示すように対象画像60(図3の対象画像10Aと同一)から、物体60Aを検出する。
Next, the
As shown in FIG. 9, the
Among these, the local maximum
On the other hand, the
したがって、本実施形態によれば、対象画像中に複数の物体が含まれる際には、輪郭画像に対してハフ変換による投票した結果に物体領域画像でマスク処理を行って個々の物体を検出することによって、対象画像の背景部分を誤って物体として検出することを解消し、精度良く物体を検出することができる。 Therefore, according to the present embodiment, when a plurality of objects are included in the target image, each object is detected by performing mask processing with the object region image on the result of voting by the Hough transform on the contour image. This eliminates erroneous detection of the background portion of the target image as an object, and the object can be detected with high accuracy.
なお、本実施形態では、前処理部2における物体領域の抽出方法は特に限定されない。例えば、本実施形態では、背景差分法により背景画像と対象画像との輝度値の差を計算して物体領域を抽出するようにしたが、特にこれに限定されるものではなく、例えば他に一般的な画像処理手法として広く知られているフレーム間差分法により、時間的に異なる対象画像同士の輝度慎の差を計算して物体領域を抽出してもよい。その場合、フレームメモリ2Aには、画像入力部1から入力される対象画像とは時間的に異なる画像を保持すればよい。また、他に一般的な画像処理手法として広く知られているオプティカルフローによる動画像解析などを用いて画素単位、または対象画像を複数個の画素からなるブロック単位に区切って物体領域を抽出しても良い。また、本実施形態では、画像入力部1から入力される対象画像と、対象画像とは時間的に異なる画像をフレームメモリ2Aに保持して、2枚の画像から物体領域を抽出するようにしたが、3枚以上の画像から物体領域を抽出するようにしても良い。その場合には、前処理部2の構成要素であるフレームメモリ2Aを複数個用意することによって実現可能である。
In the present embodiment, the object region extraction method in the
また、本実施形態では、前処理部2における輪郭の抽出方法は特に限定されない。例えば、本実施形態では、Sobelフィルタによる輪郭抽出法により輪郭画像を抽出するようにしたが、特にこれに限定されるものではなく、他に一般的な画像処理手法として広く知られているRobertsフィルタなどを用いてもよい。
In the present embodiment, the contour extraction method in the
また、本実施形態では、解析部5における物体の検出方法は特に限定されない。例えば本実施形態では、極大点検出部5Aで投票数が多いところの座標を検出し、判定部5Bで投票数が多いところの座標での投票数が一定の閾値以上である場合のみ物体の候補点であると判定したが、これ以外に、下記のような構成でも良い。即ち、例えば極大点検出部5Aで投票数が多いところの座標を検出し、判定部5Bで投票数が多いところの座標でテンプレート記億部5に記憶されているテンプレートと対象画像との一致率を計算し、一致率が一定の閾値以上である場合のみ物体の候補点であると判定してもよい。
Moreover, in this embodiment, the detection method of the object in the
[第2の実施形態]
次に、本発明の第2の実施形態について、図面を参照しながら説明する。なお、本実施形態において、第1の実施形態と同一部分には同一符号を付して重複説明を避ける。
本実施形態の画像処理装置は、図1に示す第1の実施形態と同様に、画像入力部1と、前処理部2と、テンプレート記億部3と、投票部4と、解析部5とを備えるが、前処理部2の構成が第1の実施形態とは異なる。
[Second Embodiment]
Next, a second embodiment of the present invention will be described with reference to the drawings. In the present embodiment, the same parts as those in the first embodiment are denoted by the same reference numerals to avoid redundant description.
As in the first embodiment shown in FIG. 1, the image processing apparatus according to the present embodiment includes an
ここで、図11を参照しながら、前処理部2について詳細に説明する。
前処理部2は少なくとも、同図に示すように、画像入力部1から入力された対象画像を保持するフレームメモリ2Aと、画像入力部1から入力された対象画像とフレームメモリ2Aに保持されている画像から物体領域を抽出する物体領域抽出部2Dと、この物体領域抽出部2Dで抽出した物体領域を対象画像から分割して抽出する物体領域分割部2Eと、物体領域抽出部2Dから入力された物体領域部分画像からフィルタ処理により物体の輪郭を抽出する輪郭抽出部2Fとを備える。以下、本実施形態では、図3に示す背景画像10Aがフレームメモリ2Aに保持されているものとし、画像入力部1から対象画像10Bが入力された場合について説明する。
このうち、物体領域抽出部2Dは、本発明の第1の実施形態で説明した図2に示す物体領域抽出部2Bと同一のものであるため、詳細な説明を省略する。即ち、物体領域抽出部2Dは、図2における物体領域抽出部2Bと同様に、背景画像10Aと対象画像10Bとを処理して物体領域画像70を得る。
一方、物体領域分割部2Eは、物体領域抽出部2Dで得られた物体領域画像70から個々の物体の領域に対応する物体領域部分画像70A、70Bをラベリング処理によって取り出す。このラベリング処理は、隣接した同一の特徴を持つ点もしくは領域に同じラベルを付けてグループ化する処理であり、一般的に広く知られている手法である。以下、物体領域抽出部2Dによって取り出された物体領域部分画像70Aにおける処理例を挙げて説明を行う。なお、物体領域部分画像70Bについても、以下同様の処理を行う。
輪郭抽出部2Fは、物体領域抽出部2Dから入力された物体領域部分画像80A(図13参照)からフィルタ処理により物体の輪郭を抽出する。画像から物体領域を抽出する方法は、本発明の第1の実施形態と同様であるため、その説明を省略する。この処理により、輪郭部分画像80B(図14参照)を抽出する。
Here, the
As shown in the figure, the
Among these, the object
On the other hand, the object
The
次に、図6、図14および図15を参照しながら、本実施形態に係る投票部4について説明する。
本実施形態の投票部4は、少なくとも、図6に示す第1の実施形態と同様に、前処理部2から入力された図14に示す輪郭部分画像80Bに対して、図6のテンプレート記億部3に登録されているテンプレートを読み出してハフ変換による投票を行う投票処理部4Aと、投票処理部4Aから得られた投票結果に対して前処理部2から入力された図13に示す物体領域部分画像80Aを用いてマスク処理を行うマスク処理部4Bとを備える。ところが、本実施形態における投票部4では、本発明の第1の実施形態と異なり、処理対象画像から切り出した物体領域部分画像80Aと図14に示す輪郭部分画像80Bとをマスク処理するものである。
投票処理部4Aは、輪郭部分画像80Bについて、テンプレート記億部3に記憶されているテンプレートを用いて、ハフ変換による投票処理を行う。例えば、テンプレート記億部3に、図15(A)に示すテンプレート3Bが登録されていたとする。ここで、テンプレート3Bの×印はテンプレートの重心を表し、パラメータ空間ヘテンプレートを用いて投票を行う際の基準点とする。投票処理部4Aは、輪郭部分画像80Bをスキャンして輪郭が存在する画素を見つけた場合には、輪郭部分画像80Bの輪郭が存在する座標値を投票の基準座標としてパラメータ空間90へ投票を行う。例えば、規準座標90Aに対する投票は、投票結果90Bのように表される。パラメータ空間90の各座標における投票は蓄積され、投票数が多く蓄積されている座標ほどテンプレート3Bの重心である可能性が高いことを示す。これらの処理を輪郭部分画像80Bの全ての座標に対して行い、ハフ変換による投票結果とする。
マスク処理部4Bは、投票処理部4Aで投票した結果について、物体領域部分画像80Aを用いてマスク処理を行い、背景領域に対応する投票結果を除去する。例えば、図15(A)に示すパラメータ空間90の投票結果から物体領域部分画像80Aの黒色で示す投票結果のみをマスク処理すると、図15(B)に示すパラメータ空間100で物体部分画像80Aに対応するパラメータ空間100Aのみ投票が蓄積される。
Next, the voting unit 4 according to the present embodiment will be described with reference to FIGS. 6, 14, and 15.
As in the first embodiment shown in FIG. 6, the voting unit 4 of the present embodiment applies at least the template storage of FIG. 6 to the contour
The
The
次に、解析部5について説明する。
解析部5は、少なくとも、図9に示す第1の実施形態の解析部5と同様に、極大点検出部5Aと判定部5Bとを備える。なお、本実施形態の解析部5は、パラメータ空間100を処理する点が、本発明の第1の実施形態と異なる。
極大点検出部5Aは、投票部4によって得られた投票結果から最も投票数が多いところの座標100Bを検出する。この座標100Bが切り出した物体領域部分画像80Aにおいて検出すべき物体の候補点となる。
判定部5Bは、極大点検出部5Aで得られた座標100Bが検出すべき物体の候補点か否か判定を行う。例えば、座標100Bにおける投票数が一定の閾値以上である場合のみ、物体の候補点であると判定し、物体領域部分画像80Aにおける座標系を図10に示す対象画像60の座標系に変換するように対象画像60(図3の対象画像10Aと同一)から、物体60Aを検出する。
Next, the
The
The local maximum
The
従って、本実施形態によれば、対象画像中に複数の物体が含まれるときには、処理対象ではない物体のエッジの影響による投票の干渉を防ぎ、かつ、輪郭画像に対してハフ変換による投票した結果に物体領域画像でマスク処理を行って個々の物体を検出することによって、対象画像の背景部分を誤って物体として検出することを解消し、精度良く物体を検出することができる。また、対象画像から物体領域部分画像を抽出して処理することによって、従来の画像処理装置と比較してハフ変換による投票処理の処理量を削減することができる。 Therefore, according to the present embodiment, when a plurality of objects are included in the target image, the interference of voting due to the influence of the edge of the object that is not the processing target is prevented, and the result of voting by the Hough transform on the contour image In addition, by performing mask processing on the object region image to detect individual objects, it is possible to eliminate erroneous detection of the background portion of the target image as an object, and to detect the object with high accuracy. Further, by extracting and processing the object region partial image from the target image, it is possible to reduce the processing amount of the voting process by the Hough transform as compared with the conventional image processing apparatus.
なお、本実施形態では、第1の実施形態と同様に、前処理部2における物体領域の抽出方法は特に限定されない。例えば、本実施形態では、前処理部2は背景差分法により背景画像と対象画像との輝度値の差を計算して物体領域を抽出するようにしたが、特に限定されるものではない。即ち、他に一般的な画像処理手法として広く知られているフレーム間差分法により、時間的に異なる対象画像どうしの輝度値の差を計算して物体領域を抽出してもよい。その場合、フレームメモリ2Aには画像入力部1から入力される対象画像とは時間的に異なる画像を保持すればよい。また、他に一般的な画像処理手法として広く知られているオプティカルフローによる動画像解析などを用いて画素単位、または対象画像を複数個の画素からなるブロック単位に区切って物体領域を抽出しても良い。
また、本実施形態では、第1の実施形態と同様に、画像入力部1から入力される対象画像と、対象画像とは時間的に異なる画像をフレームメモリ2Aに保持して、2枚の画像から物体領域を抽出するようにしたが、3枚以上の画像から物体領域を抽出するようにしても良い。その場合、前処理部2の構成要素であるフレームメモリ2Aを複数個用意することによってこれを実現することが可能である。
また、本実施形態では、第1の実施形態と同様に、輪郭抽出部2Fにおける輪郭の抽出方法は特に限定されない。例えば、本実施形態ではSobelフィルタによる輪郭抽出法により輪郭画像を抽出するようにしたが、これ以外に一般的な画像処理手法として広く知られているRobertsフィルタなどを用いてもよい。
なお、本実施形態では、第1の実施形態と同様に、解析部5における物体の検出方法は特に限定されない。例えば、本実施形態では、極大点検出部5Aで投票数が多いところの座標を検出し、判定部5Bで投票数が多いところの座標での投票数が一定の閾値以上である場合のみ物体の候補点であると判定したが、例えば極大点検出部5Aで投票散が大きい座標を検出し、判定部5Bで投票数が多いところの座標でテンプレート記億部5に記憶されているテンプレートと対象画像との一致率を計算し、一致率がー定の閾値以上である場合のみ物体の候補点であると判定してもよい。
In the present embodiment, the object region extraction method in the
In the present embodiment, similarly to the first embodiment, the target image input from the
In the present embodiment, as in the first embodiment, the contour extracting method in the
In the present embodiment, the object detection method in the
本発明の画像処理装置および画像処理方法は、対象画像の背景部分を誤って物体として検出することを防止することができる効果を有し、市街地や重要施設などの防犯装置などとして有用可能である。 INDUSTRIAL APPLICABILITY The image processing device and the image processing method of the present invention have an effect of preventing the background portion of the target image from being erroneously detected as an object, and can be useful as a security device for an urban area or an important facility. .
1 画像入力部
10A 背景画像
10B 対象画像
2 前処理部
2A フレームメモリ
2B、2D 物体領域抽出部
2C、2F 輪郭抽出部
2E 物体領域分割部
20 二値化画像
20A 物体領域
3 テンプレート記億部
30 二値化画像(輪郭画像)
30A 物体の輪郭
4 投票部
4A 投票処理部
4B マスク処理部
40、50 パラメータ空間
40A 規準座標
40B 投票結果
5A 極大点検出部
5B 判定部
50A 物体領域に対応する領域
50B 最も投票数が多いところの座標
60 対象画像
60A 物体
DESCRIPTION OF
30A Object outline 4
Claims (6)
前記処理対象画像から前記物体が占有する物体領域と前記物体の輪郭とを抽出する前処理部と、
前記処理対象画像内の検出すべき対象をテンプレートとして予め記憶しておくテンプレート記億部と、
前記物体の輪郭に対して前記テンプレートを用いて投票を行い、前記投票結果において前記物体領域と一致する投票結果以外をマスク処理する投票部と、
前記マスク処理した前記投票結果に基づいて前記処理対象画像に含まれる前記物体を検出する解析部と
を備える画像処理装置。 An image input unit for inputting a processing target image including a specific object to be detected;
A pre-processing unit that extracts an object region occupied by the object and a contour of the object from the processing target image;
A template storage unit that pre-stores a target to be detected in the processing target image as a template;
A voting unit that performs voting on the outline of the object using the template, masks other than the voting result that matches the object region in the voting result, and
An image processing apparatus comprising: an analysis unit that detects the object included in the processing target image based on the voting result subjected to the mask processing.
前記投票部は、範囲を特定した前記処理対象画像をマスク処理する手段を有する
請求項1に記載の画像処理装置。 The pre-processing unit has means for extracting the object region and specifying a range of the processing target image,
The image processing apparatus according to claim 1, wherein the voting unit includes means for performing mask processing on the processing target image whose range is specified.
前記処理対象画像から前記物体が占有する物体領域と物体の輪郭とを抽出する前処理ステップと、
前記処理対象画像内の検出すべき検出対象として記憶するテンプレートを用いて、前記物体の輪郭に対して投票を行い、前記投票結果において前記物体領域と一致する投票結果以外をマスク処理する投票ステップと、
マスク処理した前記投票結果に基づいて前記処理対象画像に含まれる前記物体を検出する解析ステップと
を備える画像処理方法。 An image input step for inputting a processing target image including a specific object to be detected;
A preprocessing step of extracting an object region occupied by the object and an outline of the object from the processing target image;
A voting step that performs voting on the outline of the object using a template stored as a detection target to be detected in the processing target image, and masks other than the voting result that matches the object region in the voting result; ,
And an analysis step of detecting the object included in the processing target image based on the voting result subjected to mask processing.
前記投票ステップは、範囲を特定した前記処理対象画像をマスク処理する
請求項3に記載の画像処理方法。 The preprocessing step identifies the range of the processing target image by extracting the object region,
The image processing method according to claim 3, wherein the voting step masks the processing target image whose range is specified.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004379398A JP2006185271A (en) | 2004-12-28 | 2004-12-28 | Image processing apparatus, image processing method, program and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004379398A JP2006185271A (en) | 2004-12-28 | 2004-12-28 | Image processing apparatus, image processing method, program and recording medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006185271A true JP2006185271A (en) | 2006-07-13 |
Family
ID=36738332
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004379398A Pending JP2006185271A (en) | 2004-12-28 | 2004-12-28 | Image processing apparatus, image processing method, program and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006185271A (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001118182A (en) * | 1999-10-18 | 2001-04-27 | Mitsubishi Electric Corp | Mobile object detection device and mobile object detection method |
JP2001222719A (en) * | 1999-12-01 | 2001-08-17 | Matsushita Electric Ind Co Ltd | Face extracting device, face extracting method and recording medium for face extraction program |
JP2004062393A (en) * | 2002-07-26 | 2004-02-26 | Japan Science & Technology Corp | Method and device for determining attention |
JP2004295776A (en) * | 2003-03-28 | 2004-10-21 | Minolta Co Ltd | Image recognition device and image recognition program |
-
2004
- 2004-12-28 JP JP2004379398A patent/JP2006185271A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001118182A (en) * | 1999-10-18 | 2001-04-27 | Mitsubishi Electric Corp | Mobile object detection device and mobile object detection method |
JP2001222719A (en) * | 1999-12-01 | 2001-08-17 | Matsushita Electric Ind Co Ltd | Face extracting device, face extracting method and recording medium for face extraction program |
JP2004062393A (en) * | 2002-07-26 | 2004-02-26 | Japan Science & Technology Corp | Method and device for determining attention |
JP2004295776A (en) * | 2003-03-28 | 2004-10-21 | Minolta Co Ltd | Image recognition device and image recognition program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8285056B2 (en) | Method and apparatus for computing degree of matching | |
JP4232800B2 (en) | Line noise elimination device, line noise elimination method, line noise elimination program | |
CN109035219B (en) | FICS golden finger defect detection system and detection method based on BP neural network | |
JP2006067585A (en) | Method and apparatus for specifying position of caption in digital image and extracting thereof | |
JPH0467234B2 (en) | ||
US20230065041A1 (en) | Geometric pattern matching method and device for performing the method | |
US20050271260A1 (en) | Device, method and program for removing pores | |
JP2008011484A (en) | Apparatus and method for extracting character and graphic string, program for executing the method, recording medium with the program stored therein | |
CN117115117B (en) | Pathological image recognition method based on small sample, electronic equipment and storage medium | |
CN112200789B (en) | Image recognition method and device, electronic equipment and storage medium | |
Cozzolino et al. | PRNU-based forgery localization in a blind scenario | |
JP2006323779A (en) | Image processing method and device | |
JP2016053763A (en) | Image processor, image processing method and program | |
CN109658452B (en) | Track gauge detection method and device | |
CN114627113B (en) | Method, system, device and medium for detecting defects of printed circuit board | |
CN116485779A (en) | Adaptive wafer defect detection method and device, electronic equipment and storage medium | |
CN112348112B (en) | Training method and training device for image recognition model and terminal equipment | |
JPH08190690A (en) | Method for determining number plate | |
CN103971376A (en) | Application program execution method and device | |
JP4492258B2 (en) | Character and figure recognition and inspection methods | |
CN114677552A (en) | Fingerprint detail database labeling method and system for deep learning | |
JP2006185271A (en) | Image processing apparatus, image processing method, program and recording medium | |
JP4449483B2 (en) | Image analysis apparatus, image analysis method, and computer program | |
JP2001099625A (en) | Device and method for pattern inspection | |
JP2005071125A (en) | Object detector, object detection method, object data selection program and object position detection program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20071113 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20071120 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071130 |
|
A977 | Report on retrieval |
Effective date: 20100601 Free format text: JAPANESE INTERMEDIATE CODE: A971007 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100608 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100803 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100907 |