JP5012703B2 - Target detection system - Google Patents
Target detection system Download PDFInfo
- Publication number
- JP5012703B2 JP5012703B2 JP2008176256A JP2008176256A JP5012703B2 JP 5012703 B2 JP5012703 B2 JP 5012703B2 JP 2008176256 A JP2008176256 A JP 2008176256A JP 2008176256 A JP2008176256 A JP 2008176256A JP 5012703 B2 JP5012703 B2 JP 5012703B2
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- similarity
- image
- search
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Image Analysis (AREA)
Description
本発明は、画像中から目的とするパターンを検出するための技術に関し、特にパンクロマチック衛星画像に対して好適なパターン検出技術に関する。 The present invention relates to a technique for detecting a target pattern from an image, and more particularly to a pattern detection technique suitable for a panchromatic satellite image.
QuickBird(米国DigitalGlobe)、ALOS“だいち”(日本JAXA)、TERRA/ASTER(日本ERSDAC)など陸域観測・地球観測衛星は高度約450km上空で地球を極軌道で周回しており、高分解能な光学センサや合成開口レーダ(SAR)を搭載し、地上を連続的にスキャニングし、定時的に地球局に画像データを伝送している。主として3種類の画像が活用され、光学センサのマルチスペクトラル・モード(カラー写真)は、可視光のRGBバンドに近赤外を加えた4バンド構成で夜間も撮影でき、地上の資源探索や大規模災害などの状況を収集するのに有効である。SAR画像は電波によるレーダ画像で、雲がかかっていても透過するため、天候が悪いときでも画像を収集でき、ドップラー効果を用いて航行中の船舶を計測することもできる(特許文献1参照)。中でも、光学センサのパンクロマチック・モード(モノクロ写真)は地上の乗用車を識別できる1m弱(世界最高分解能QuickBird 0.6m)の分解能をもち、交通状況の監視などに有益である。交通状況の監視については、地上に設置された監視カメラやヘリコプター・航空機による航空写真の方が鮮明な画像が得られるが、広域を同時観測することが難しいのと、建築物などの陰に隠れた死角が必ず発生するという問題から、近年衛星画像が注目されている。 Land observation and earth observation satellites such as QuickBird (DigitalGlobe, USA), ALOS “Daichi” (Japan AXA), and TERRA / ASTER (Japan ERSDAC) orbit around the Earth in a polar orbit at an altitude of about 450 km. It is equipped with sensors and synthetic aperture radar (SAR), continuously scanning the ground, and transmitting image data to the earth station on a regular basis. Three types of images are mainly used, and the optical sensor's multi-spectral mode (color photo) can be photographed at night in a 4-band configuration that adds the near-infrared to the RGB band of visible light. It is effective for collecting disasters and other situations. The SAR image is a radar image generated by radio waves and transmits even when it is cloudy. Therefore, the image can be collected even when the weather is bad, and a ship in operation can be measured using the Doppler effect (see Patent Document 1). . Among them, the panchromatic mode (monochrome photo) of the optical sensor has a resolution of less than 1 m (the world's highest resolution QuickBird 0.6 m) that can identify passenger cars on the ground, and is useful for monitoring traffic conditions. With regard to traffic monitoring, aerial photography with a surveillance camera, helicopter, or aircraft installed on the ground provides clearer images, but it is difficult to observe a wide area at the same time, and it is hidden behind buildings. In recent years, satellite images have attracted attention due to the problem that a blind spot always occurs.
また、目標物を航空機と船舶に特化したテンプレートマッチングによる検出方法(特許文献2参照)、テンプレートをあらかじめ準備し、画像データの先頭画素から順次スキャンしながらテンプレートと同サイズの画素ブロックを抽出し、テンプレートと照合する手法(特許文献3参照)なども提案されている。 In addition, a target detection method using template matching that specializes in aircraft and ships (see Patent Document 2), a template is prepared in advance, and pixel blocks of the same size as the template are extracted while sequentially scanning from the first pixel of the image data Also, a method of matching with a template (see Patent Document 3) has been proposed.
しかし、特許文献2、特許文献3の手法では、画像全体を探索することになるため、探索範囲が広く、処理負荷が高いという問題があった。
しかしながら、上記特許文献2、特許文献3の手法では、衛星画像全体を探索するため、探索範囲が広く、処理負荷が高いという問題がある。通常、テンプレートマッチングを用いた探索処理自体には、相当な処理負荷がかかるため、できれば事前に探索範囲を絞りこんでおくことが望ましい。 However, the methods disclosed in Patent Document 2 and Patent Document 3 have a problem that the search range is wide and the processing load is high because the entire satellite image is searched. Usually, the search processing using template matching itself requires a considerable processing load, so it is desirable to narrow down the search range in advance if possible.
そこで、本発明は、探索範囲を的確に設定し、金属材質の目標物を対象とする場合における探索の処理負荷を軽減することが可能な目標物検出システムを提供することを課題とする。 Therefore, an object of the present invention is to provide a target detection system capable of accurately setting a search range and reducing a search processing load when a target made of a metal material is targeted.
上記課題を解決するため、本発明では、目標物を含むテンプレート画像を用いて、探索対象である探索対象画像から、目標物を検出するシステムであって、所定サイズの画素ブロックに対して、少なくとも2つ以上の画素群を定め、各々の画素群別に、あるいは異なる画素群間で所定の画素評価算出式、当該画素評価算出式に応じた画素判定基準値、画素評価算出式により算出される画素評価値と画素判定基準値の関係による設定条件が定義された画素評価ルールを利用して、前記探索対象画像から、前記所定数の画素ブロックを順次抽出し、当該画素ブロックにおける画素を用いて前記画素評価算出式により画素評価値を算出し、当該画素評価値と前記画素判定基準値を比較し、比較結果が前記設定条件を満たすか否かに従って、前記抽出した画素ブロックにおける画素を、探索対象か探索非対象かのいずれかに設定する探索領域設定手段と、前記設定された探索対象領域に対して、先頭画素位置から最終画素位置まで抽出位置を順次移動させながら、前記各テンプレート画像と同一サイズの画素ブロックを前記探索対象画像から抽出し、前記テンプレート画像と前記画素ブロックの類似性評価値を算出し、当該類似性評価値と前記設定された判定基準値と比較することにより類似性を判断する類似性判断手段と、前記類似性判断手段により類似性ありと判断された場合に、その際のテンプレート画像のID、前記探索対象画像上における画素ブロックの位置を特定する画素位置、前記テンプレート画像の回転角度を出力する探索結果出力手段を有する目標物検出システムを提供する。 In order to solve the above problems, the present invention is a system for detecting a target from a search target image that is a search target using a template image including the target, and at least for a pixel block of a predetermined size. Pixels calculated by a predetermined pixel evaluation calculation formula for each pixel group or between different pixel groups, a pixel determination reference value corresponding to the pixel evaluation calculation formula, and a pixel evaluation calculation formula for two or more pixel groups Using the pixel evaluation rule in which a setting condition based on the relationship between the evaluation value and the pixel determination reference value is defined, the predetermined number of pixel blocks are sequentially extracted from the search target image, and the pixels in the pixel block are used to A pixel evaluation value is calculated by a pixel evaluation calculation formula, the pixel evaluation value is compared with the pixel determination reference value, and the extraction is performed according to whether a comparison result satisfies the setting condition. Search area setting means for setting a pixel in the pixel block as either a search target or a non-search target, and sequentially moving the extraction position from the start pixel position to the final pixel position with respect to the set search target area Then, a pixel block having the same size as each template image is extracted from the search target image, a similarity evaluation value between the template image and the pixel block is calculated, and the similarity evaluation value and the set determination criterion Similarity determination means for determining similarity by comparing with a value, and when the similarity determination means determines that there is similarity, the ID of the template image at that time, the pixel block on the search target image Provided is a target detection system having a search result output means for outputting a pixel position for specifying a position and a rotation angle of the template image. That.
本発明によれば、目標物を含むテンプレート画像と探索対象画像中の画素ブロックとの比較により探索対象画像から目標物を検出するにあたり、事前に、所定サイズの画素ブロックに対して、少なくとも2つ以上の画素群を定め、各々の画素群別に、あるいは異なる画素群間で所定の画素評価算出式および当該画素評価算出式に応じた画素判定基準値が定義された画素評価ルールを利用して、探索対象画像において、目標物の検出可能性の高い領域を探索対象領域として設定し、この探索対象領域のみに対して、テンプレート画像との比較を行うようにしたので、金属材質の目標物を対象とする場合における探索の処理負荷を軽減するとともに、目標物が存在する可能性の無い領域からの誤探索を防止し探索精度を向上することが可能となる。 According to the present invention, in detecting a target from a search target image by comparing a template image including the target and a pixel block in the search target image, at least two pixel blocks of a predetermined size are detected in advance. Using the pixel evaluation rule in which a predetermined pixel evaluation calculation formula and a pixel determination reference value corresponding to the pixel evaluation calculation formula are defined for each pixel group or between different pixel groups, by defining the above pixel groups, In the search target image, an area where the target is highly likely to be detected is set as the search target area, and only the search target area is compared with the template image. It is possible to reduce the search processing load in the case of, and to prevent a false search from an area where there is no possibility that the target exists, and to improve the search accuracy.
本発明によれば、探索範囲を的確に設定し、金属材質の目標物を対象とする場合における探索の処理負荷を軽減するとともに、探索範囲外からの目的物の誤探索を抑止し目的物探索精度を向上させることが可能となる。 According to the present invention, the search range is accurately set, the processing load of the search when the target is made of a metal material is reduced, and the erroneous search of the target from outside the search range is suppressed and the target search is performed. The accuracy can be improved.
以下、本発明の実施形態について図面を参照して詳細に説明する。
(1.システム構成)
まず、本発明に係る目標物検出システムの構成について説明する。図1は本発明に係る目標物検出システムの構成図である。図1において、10は探索対象画像記憶部、20はテンプレート準備部、30はテンプレート記憶部、40は目標物探索部、50は探索結果記憶部、60は探索領域設定部である。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(1. System configuration)
First, the configuration of the target object detection system according to the present invention will be described. FIG. 1 is a configuration diagram of a target object detection system according to the present invention. In FIG. 1, 10 is a search target image storage unit, 20 is a template preparation unit, 30 is a template storage unit, 40 is a target search unit, 50 is a search result storage unit, and 60 is a search region setting unit.
探索対象画像記憶部10は、探索対象となる画像である探索対象画像、および目標物のサンプルを記憶したサンプル画像を記憶したものである。探索対象画像上に探索対象とする目標物が多数存在していれば、その内の1つをサンプルとして用いることも可能である。この場合、探索対象画像はサンプル画像としての役割も果たすことになる。また、本実施形態では、人工衛星により撮影された画像である衛星画像を探索対象画像として記憶している。テンプレート準備部20は、サンプル画像に対して対話的に設定を行い、テンプレート画像を準備するものであり、テンプレート作成手段21、判定基準値設定手段22、テンプレート更新手段23を有している。テンプレート記憶部30は、テンプレート準備部20により準備されたテンプレート画像を記憶するものである。目標物探索部40は、探索対象画像中の所定の領域とテンプレート画像を比較することにより、目標物を探索するものであり、角度非依存類似性判断手段41、角度依存類似性判断手段42、探索結果出力手段43、検出目標物消去手段44、第2のテンプレート更新手段45を有している。探索結果記憶部50は、目標物探索部40により探索された結果を記憶するものである。探索領域設定部60は、所定サイズの画素ブロックに適用する画素評価ルールを用いて、探索対象画像中において実際に探索を行う範囲である探索対象領域を設定するものであり、画素判定基準値設定手段61、探索領域設定手段62を有している。図1に示した目標物検出システムは、現実には汎用のコンピュータに専用のプログラムを組み込むことにより実現される。また、各記憶部は、コンピュータに内蔵または接続されたハードディスク等の記憶装置で実現される。 The search target image storage unit 10 stores a search target image that is an image to be searched and a sample image that stores a sample of the target. If there are many targets to be searched on the search target image, one of them can be used as a sample. In this case, the search target image also serves as a sample image. In the present embodiment, a satellite image that is an image taken by an artificial satellite is stored as a search target image. The template preparation unit 20 interactively sets a sample image to prepare a template image, and includes a template creation unit 21, a determination reference value setting unit 22, and a template update unit 23. The template storage unit 30 stores the template image prepared by the template preparation unit 20. The target searching unit 40 searches for a target by comparing a predetermined region in the search target image with the template image, and includes an angle-independent similarity determining unit 41, an angle-dependent similarity determining unit 42, A search result output unit 43, a detected target erasing unit 44, and a second template updating unit 45 are provided. The search result storage unit 50 stores the results searched by the target object search unit 40. The search area setting unit 60 sets a search target area that is a range to be actually searched in the search target image using a pixel evaluation rule applied to a pixel block of a predetermined size. Means 61 and search area setting means 62 are provided. The target object detection system shown in FIG. 1 is actually realized by incorporating a dedicated program into a general-purpose computer. Each storage unit is realized by a storage device such as a hard disk built in or connected to the computer.
(2.探索対象領域の設定)
次に、図1に示した目標物検出システムの処理動作について説明する。目標物検出システムにおいては、探索領域設定手段62が、探索対象画像記憶部10から探索対象画像を読み込み、この探索対象画像上において、目標物が検出される可能性が高い領域を探索対象領域として設定する。本システムでは、後述するように、テンプレート画像上の画素ブロックと探索対象画像上の画素ブロックを比較することにより、目標物の検出を行うが、この比較処理にかかる演算負荷が高いため、全体としての処理効率を上げるためには、探索対象画像上において実際に探索を行う範囲をできるだけ小さくすることが望ましい。そこで、本システムでは、実際の探索処理に入る前に、目標物が検出される可能性が高い領域を探索対象領域として設定する処理を行う。
(2. Setting search area)
Next, the processing operation of the target object detection system shown in FIG. 1 will be described. In the target object detection system, the search area setting unit 62 reads a search target image from the search target image storage unit 10, and an area where the target is likely to be detected on the search target image is set as a search target area. Set. In this system, as will be described later, the target is detected by comparing the pixel block on the template image and the pixel block on the search target image. In order to improve the processing efficiency, it is desirable to reduce the actual search range on the search target image as much as possible. Therefore, in the present system, before entering the actual search process, a process for setting an area where the target is likely to be detected as a search target area is performed.
探索対象領域の設定は、探索対象画像上の各画素を、探索対象領域とするか、探索非対称領域とするかを決定することにより行うが、本発明では、所定サイズの画素ブロックに適用する画素評価ルールを用いる。画素ブロックの形状、サイズとしては、適宜定めることが可能であるが、M×M画素の正方形状が望ましい。図2(a)は、本実施形態における画素評価ルールが適用される画素ブロックを示す図である。図2(a)に示すように、本実施形態では、探索対象画像から4×4個(M=4)の正方形状の画素ブロックを抽出し、抽出した画素ブロックに対して画素評価ルールを適用する。画素評価ルールは、抽出した画素ブロックのうち、中央2×2画素の画素値(Vi1〜Vi4)、周辺の12画素の画素値(VO1〜VO12)を用いて評価し、探索対象とするか否かを定めるルールである。具体的には、まず、以下の〔数式1〕により、周辺最小値Vomin、周辺最大値Vomax、中央最小値Vimin、中央最大値Vimax、周辺平均値Voave、中央平均値Viave、周辺標準偏差Vdirを求める。 The search target area is set by determining whether each pixel on the search target image is a search target area or a search asymmetric area. In the present invention, pixels to be applied to a pixel block of a predetermined size are used. Use evaluation rules. The shape and size of the pixel block can be determined as appropriate, but a square shape of M × M pixels is desirable. FIG. 2A is a diagram illustrating a pixel block to which the pixel evaluation rule in the present embodiment is applied. As shown in FIG. 2A, in this embodiment, 4 × 4 (M = 4) square pixel blocks are extracted from the search target image, and pixel evaluation rules are applied to the extracted pixel blocks. To do. The pixel evaluation rule is evaluated by using the pixel value (V i1 to V i4 ) of the center 2 × 2 pixels and the pixel values of the surrounding 12 pixels (V O1 to V O12 ) among the extracted pixel blocks. It is a rule that determines whether or not. Specifically, first, according to the following [Formula 1], the peripheral minimum value V omin , the peripheral maximum value V omax , the central minimum value V imin , the central maximum value V imax , the peripheral average value V oave , and the central average value V iave The peripheral standard deviation V dir is obtained.
〔数式1〕
Vomin=MIN[Vok]
Vomax=MAX[Vok]
Vimin=MIN[Vik]
Vimax=MAX[Vik]
Voave=(Σk=1,12Vok)/12
Viave=(Σk=1,4Vik)/4
Vdir={Σk=1,12(Voave−Vok)2/12}1/2
[Formula 1]
V omin = MIN [V ok ]
V omax = MAX [V ok ]
V imin = MIN [V ik ]
V imax = MAX [V ik ]
V oave = (Σ k = 1,12 V ok ) / 12
V iave = (Σ k = 1,4 V ik ) / 4
V dir = {Σ k = 1,12 (V oave -V ok) 2/12} 1/2
さらに、画素判定基準値である7つの閾値Saoi、Sdoi、Simin、Simax、Somin、Somax、Sdirを用いて、以下の〔数式2〕に従って判断を行う。 Further, using the seven threshold values S aoi , S doi , S imin , S imax , S omin , S omax , S dir which are pixel determination reference values, a determination is made according to the following [Equation 2].
〔数式2〕
1)中央周辺の平均レベル差|Voave−Viave|>Saoi
2)中央周辺のコントラスト
Vomax−Vimin>Vimax−Vominの場合、Vomax−Vimin>Sdoi
Vomax−Vimin<Vimax−Vominの場合、Vimax−Vomin>Sdoi
3)周辺平均レベルSomin<Voave<Somax
4)中央平均レベル
Voave>Viaveの場合、Viave<Simin
Voave<Viaveの場合、Viave>Simax
5)周辺標準偏差Vdir>Sdir
[Formula 2]
1) Average level difference around the center | V oave −V iave |> S aoi
2) Contrast around the center When V omax −V imin > V imax −V omin , V omax −V imin > S doi
When V omax −V imin <V imax −V omin , V imax −V omin > S doi
3) Surrounding average level S omin <V oave <S omax
4) If the median average level is V oave > V iave , then V iave <S imin
In the case of V oave <V iave , V iave > S imax
5) Peripheral standard deviation V dir > S dir
上記〔数式2〕における5つの条件は、金属材質を撮影した場合の物体の特徴をとらえたものである。すなわち、金属材質を撮影した場合、1)中央と周辺の平均レベルの差が所定以上になり、2)周辺の最大値と中央の最小値の差、または中央の最大値と周辺の最小値の差が所定以上になり、3)周辺の平均レベルが所定の範囲に収まり、4)中央平均レベルについては、周辺平均レベルより小さい場合に所定値以下となり、周辺平均レベルより大きい場合に所定値以上となる。中央平均レベルについては、周辺平均レベルとの大小関係により、用いる閾値が異なる。5)周辺標準偏差は所定以上となる。金属材質の場合、これらの条件を全て満たすと考えられる。 The five conditions in the above [Equation 2] capture the characteristics of an object when a metal material is photographed. In other words, when a metal material is photographed, 1) the difference between the average level of the center and the periphery is greater than a predetermined value, 2) the difference between the maximum value of the periphery and the minimum value of the center, or the maximum value of the center and the minimum value of the periphery The difference becomes greater than or equal to a predetermined value. 3) The average level of the surrounding area falls within a predetermined range. 4) The central average level is less than a predetermined value when it is smaller than the peripheral average level. It becomes. The threshold value used for the central average level differs depending on the magnitude relationship with the peripheral average level. 5) The peripheral standard deviation is a predetermined value or more. In the case of a metal material, all of these conditions are considered to be satisfied.
上記7つの画素判定基準値には、具体的な目標物の内容に応じて適宜設定される。中央平均レベルの場合、周辺平均レベルとの大小関係により、用いる閾値が異なるため、実際には、同時に利用される閾値は6つとなる。上記〔数式1〕に示した数式、上記画素判定基準値、上記〔数式2〕に示した条件が画素評価ルールとして事前に設定される。 The seven pixel determination reference values are set as appropriate according to the specific content of the target. In the case of the central average level, the threshold value to be used differs depending on the magnitude relationship with the peripheral average level. The formula shown in [Formula 1], the pixel determination reference value, and the condition shown in [Formula 2] are set in advance as pixel evaluation rules.
7つの画素判定基準値Saoi、Sdoi、Simin、Simax、Somin、Somax、Sdirについては、直接その数値を設定することもできるが、本実施形態では、目標物のサンプル画像を利用して、そのサンプルが目標物として検出されるような値を設定する。サンプル画像としては、目標物のサンプルだけを切り出したものを利用しても良いし、目標物が写っている探索対象画像を利用しても良い。ここでは、探索対象画像をサンプル画像として利用する場合を例にとって説明する。 The seven pixel determination reference values S aoi , S doi , S imin , S imax , S omin , S omax , S dir can be set directly, but in this embodiment, a sample image of the target object Is used to set a value such that the sample is detected as a target. As the sample image, an image obtained by cutting out only a sample of the target may be used, or a search target image in which the target is shown may be used. Here, a case where the search target image is used as a sample image will be described as an example.
この場合、システムを起動させると、画素判定基準値設定手段61は、サンプル画像としての探索対象画像を画面に表示させ、目標物のサンプルの指定を促す。図3は、目標物が写っている探索対象画像の一例を示す図である。図3の例では、中央暗部タイプと中央明部タイプが1つずつ写っている。金属材質の場合、中央と周辺の画素値が異なるところが特徴となっている。この場合において、中央が周辺より暗いものを中央暗部タイプと呼び、中央が周辺より明るいものを中央明部タイプと呼ぶことにする。例えば、黒い自動車は中央暗部タイプとなり、白い自動車は中央明部タイプとなる。 In this case, when the system is activated, the pixel determination reference value setting unit 61 displays a search target image as a sample image on the screen and prompts the user to specify a target sample. FIG. 3 is a diagram illustrating an example of a search target image in which a target is shown. In the example of FIG. 3, one central dark part type and one central bright part type are shown. In the case of a metal material, the pixel values at the center and the periphery are different. In this case, a case where the center is darker than the periphery is referred to as a central dark portion type, and a portion where the center is brighter than the periphery is referred to as a central bright portion type. For example, a black automobile is a central dark part type, and a white automobile is a central bright part type.
画面には、正方形状のカーソルが表示され、利用者がマウス等を用いて画面上を移動させることが可能となっている。画面上では、中央暗部タイプ、中央明部タイプそれぞれにカーソルが重ねられているが、実際には、カーソルは1つだけ表示される。カーソルのサイズは、画素評価ルールに対応したM×M画素分となっている。利用者がカーソルを中央暗部タイプまたは中央明部タイプに移動させ、確定指示を行うと、画素判定基準値設定手段61は、確定した位置に対応するM×M画素の画素ブロックを抽出する。そして、抽出した画素ブロック中の画素に対して、以下の〔数式3〕に従った処理を実行して、画素判定基準値Saoi、Sdoi、Simin、Simax、Somin、Somax、Sdirを設定する。 A square cursor is displayed on the screen, and the user can move the screen using a mouse or the like. On the screen, a cursor is overlaid on each of the central dark part type and the central bright part type, but only one cursor is actually displayed. The size of the cursor is M × M pixels corresponding to the pixel evaluation rule. When the user moves the cursor to the central dark part type or the central bright part type and issues a confirmation instruction, the pixel determination reference value setting unit 61 extracts a pixel block of M × M pixels corresponding to the confirmed position. Then, the pixels in the extracted pixel block, by performing a process in accordance with the following [Equation 3], the pixel determination reference value S aoi, S doi, S imin , S imax, S omin, S omax, Set S dir .
〔数式3〕
Saoi=MIN(|Voave−Viave|)・0.9
Vomax−Vimin>Vimax−Vominの場合、S1=MIN(Vomax−Vimin)
Vomax−Vimin<Vimax−Vominの場合、S2=MIN(Vimax−Vomin)
Saoi=MIN(S1、S2)・0.9
Voave>Viaveの場合、Simin=MAX(Viave)・1.1
Voave<Viaveの場合、Simax=MIN(Viave)・0.9
Somin=MIN(Voave)・0.9
Somax=MAX(Voave)・1.1
Sdir=MIN(Vdir)・0.9
[Formula 3]
S aoi = MIN (| V oave −V iave |) · 0.9
When V omax −V imin > V imax −V omin , S 1 = MIN (V omax −V imin )
When V omax −V imin <V imax −V omin , S 2 = MIN (V imax −V omin )
S aoi = MIN (S 1 , S 2 ) · 0.9
When V oave > V iave , S imin = MAX (V iave ) · 1.1
When V oave <V iave , S imax = MIN (V iave ) · 0.9
S omin = MIN (V oave ) · 0.9
S omax = MAX (V oave ) · 1.1
S dir = MIN (V dir ) · 0.9
サンプル画像上においては、複数のサンプルを選択することが可能である。上記〔数式3〕においては、複数箇所選択された場合に、各画素ブロックで算出された値の最小値、最大値をそれぞれMIN、MAXとしている。上記〔数式3〕に従って画素判定基準値を設定した場合、中央平均レベルVoaveと周辺平均レベルViaveの大小関係により、Simin、Simaxは、どちらか一方しか設定されないため、同時に6つの画素判定基準値が設定されることになる。上記〔数式3〕では、いずれの画素判定基準値を算出する際においても、所定の演算を行った後、0.9または1.1を乗ずる演算を行っている。これは、指定されたサンプルと同様の目標物を漏れなく検出するため、抽出条件をやや緩めにするために行われるものである。 A plurality of samples can be selected on the sample image. In the above [Equation 3], when a plurality of locations are selected, the minimum value and the maximum value calculated in each pixel block are MIN and MAX, respectively. When the pixel determination reference value is set according to the above [Equation 3], only one of S imin and S imax is set due to the magnitude relationship between the central average level V oave and the peripheral average level V iave. A determination reference value is set. In the above [Equation 3], in calculating any pixel determination reference value, after performing a predetermined calculation, an operation of multiplying 0.9 or 1.1 is performed. This is performed in order to make the extraction conditions slightly relaxed in order to detect the same target as the specified sample without omission.
サンプル画像上においては、同時に複数のサンプルを指定することも可能である。同時に複数のサンプルが指定された場合には、指定されたサンプルと同様の目標物が全て検出されるようにするため、7つの画素判定基準値のそれぞれについて、一番緩やかな条件となるような値を設定する。 On the sample image, a plurality of samples can be specified at the same time. When a plurality of samples are specified at the same time, all of the target objects similar to the specified sample are detected, so that the conditions for the seven pixel determination reference values are the most lenient. Set the value.
探索領域設定手段62は、上記のような画素評価ルールが設定された状態で、探索領域の設定を行う。具体的には、探索対象画像の原点である(0,0)の画素を代表画素とする4×4の画素ブロックを抽出する。画素(0,0)が代表画素である場合、図2(b)に示したような(0,0)〜(3,3)までの16画素が抽出される。そして、探索領域設定手段62は、図2(a)の画素配置に従って上記画素評価ルールを適用する。すなわち、画素(0,0)の画素値をVO1、…画素(0,0)の画素値をVO12、として16画素全てを用いて、上記〔数式1〕に従った処理を実行し、上記〔数式2〕の条件を判定処理して、上記〔数式2〕の条件を全て満たす場合に、代表画素(0,0)を探索対象として設定する。上記〔数式2〕の条件を1つでも満たさなかった場合は、代表画素(0,0)を探索非対象として設定する。 The search area setting unit 62 sets the search area in a state where the pixel evaluation rule as described above is set. Specifically, a 4 × 4 pixel block having the pixel (0, 0) that is the origin of the search target image as a representative pixel is extracted. When the pixel (0, 0) is a representative pixel, 16 pixels from (0, 0) to (3, 3) as shown in FIG. 2B are extracted. Then, the search area setting means 62 applies the pixel evaluation rule according to the pixel arrangement of FIG. That is, the processing according to the above [Equation 1] is executed using all 16 pixels with the pixel value of the pixel (0, 0) as V O1 ,. When the condition of [Expression 2] is determined and all of the conditions of [Expression 2] are satisfied, the representative pixel (0, 0) is set as a search target. If even one of the conditions of [Formula 2] is not satisfied, the representative pixel (0, 0) is set as a non-search target.
画素(0,0)についての設定を終えたら、次に、探索領域設定手段62は、図2(c)に示すような画素(1,0)を代表画素とする4×4の画素ブロックに対して上記画素評価ルールを適用し、画素(1,0)を探索対象か探索非対象のいずれかに設定する。同様にして、探索領域設定手段62は、探索対象画像の全ての画素について、探索対象か探索非対象のいずれかに設定する処理を行う。このような処理を行うと、最後の3列と3行に属する画素については、代表画素として処理が行われないが、画像全体から見るとほんの一部であり、また、探索領域設定処理は、後の探索処理の負荷を軽減するために行うものであるため、あまり問題にはならない。 When the setting for the pixel (0, 0) is completed, the search area setting unit 62 then converts the pixel (1, 0) as shown in FIG. 2C into a 4 × 4 pixel block. On the other hand, the pixel evaluation rule is applied to set the pixel (1, 0) as either a search target or a search non-target. Similarly, the search area setting means 62 performs a process of setting all pixels of the search target image as either a search target or a non-search target. When such processing is performed, the pixels belonging to the last three columns and three rows are not processed as representative pixels, but are only a part when viewed from the entire image, and the search region setting processing is This is not a problem because it is performed to reduce the load of the later search process.
探索領域として設定された画素には、それを示す情報が記録されることになる。探索対象画像の各画素が探索領域であるか否かの具体的な記録手法については、様々なものがあるが、本実施形態では、1画素の値を表現する8ビット中の1ビットを用いる。したがって、探索領域設定手段62は、1画素256階調で表現された元の探索対象画像を読み込み、各画素の0〜255の値を0〜127の値に変換し、2〜8ビット目までに格納する。そして、探索領域設定手段62は、1ビット目には、階調とは関係なく、探索対象領域であるか探索非対象領域であるかを示す値を設定する。したがって、本実施形態では、探索領域の設定と同時に、探索対象画像が256階調から128階調に変換されることになる。 Information indicating it is recorded in the pixel set as the search area. There are various specific recording methods for determining whether or not each pixel of the search target image is a search region. In the present embodiment, 1 bit out of 8 bits representing the value of one pixel is used. . Therefore, the search area setting means 62 reads the original search target image expressed in 256 gradations per pixel, converts the values of 0 to 255 of each pixel into values of 0 to 127, and the 2nd to 8th bits. To store. Then, the search area setting means 62 sets a value indicating whether it is a search target area or a search non-target area regardless of the gradation in the first bit. Therefore, in this embodiment, the search target image is converted from 256 gradations to 128 gradations simultaneously with the setting of the search area.
探索対象画像上の全画素を代表画素として、探索対象か探索非対象かの設定が終わったら、次に、探索領域設定手段62は、探索対象を画素ブロック単位で拡張する処理を行う。具体的には、探索対象とされた代表画素について、その代表画素に対応する画素ブロック内に含まれる4×4画素全てを探索対象に設定する。例えば、図4(a)に示すような、濃い網掛けが施された3つの画素が探索対象である場合、図4(b)に示すような、薄い網掛けが施された画素が全て探索対象として設定される。 After setting all the pixels on the search target image as representative pixels and setting the search target or non-search target, the search area setting unit 62 performs a process of expanding the search target in units of pixel blocks. Specifically, for the representative pixel that is the search target, all 4 × 4 pixels included in the pixel block corresponding to the representative pixel are set as the search target. For example, when three pixels with dark shading as shown in FIG. 4A are to be searched, all pixels with light shading as shown in FIG. 4B are searched. Set as a target.
(3.テンプレート画像の準備)
次に、テンプレート画像の準備について説明する。まず、探索対象画像記憶部10には、人工衛星により撮影された衛星画像が探索対象画像として記憶され、さらに上述のように、探索対象領域と探索非対象領域が設定される。本実施形態では、衛星画像として、Adobe社TIFF規格準拠のGeo−TIFF形式であり、画像データに地理情報(緯度経度情報など)が付加されたものを採用する。衛星画像には、輸送機関(航空機、船舶、自動車、電車など)、建築物、交通路(道路、線路など)などの目標物になり得るものが写っている。
(3. Preparation of template image)
Next, preparation of a template image will be described. First, the search target image storage unit 10 stores a satellite image captured by an artificial satellite as a search target image, and further sets a search target region and a search non-target region as described above. In the present embodiment, the satellite image is in the Geo-TIFF format compliant with the Adobe TIFF standard, and the image data with geographic information (such as latitude / longitude information) added thereto is adopted. The satellite image shows objects that can be targets such as transportation facilities (aircraft, ships, automobiles, trains, etc.), buildings, traffic paths (roads, railways, etc.).
この状態で、テンプレート準備部20は探索対象画像記憶部10に記憶された探索対象画像をソース画像の形式からワーク画像の形式に変換する。これは、探索の効率を上げるために行われるものである。具体的には、公知のヒストグラム平坦化技術を用いてワーク画像の形式に変換する。本実施形態では、ワーク画像をRXY形式(縦横の画素数と各画素のビット数という最小限のヘッダ情報と画素配列だけで構成されるTIFF形式等に比べ極めてシンプルな画像ファイル形式で、RAW形式とも呼ばれる)で作成する。テンプレート準備部20は、この探索対象画像をサンプル画像として用いる。 In this state, the template preparation unit 20 converts the search target image stored in the search target image storage unit 10 from the source image format to the work image format. This is done to increase the search efficiency. Specifically, it is converted into a work image format using a known histogram flattening technique. In this embodiment, the work image is in the RXY format (raw file format in an extremely simple image file format compared to the TIFF format composed of only minimum header information such as the number of vertical and horizontal pixels and the number of bits of each pixel and the pixel arrangement). Also called). The template preparation unit 20 uses this search target image as a sample image.
続いて、テンプレート準備部20は、ワーク画像形式に変換したサンプル画像としての探索対象画像を画面に表示し、テンプレート画像作成のための画像領域の指定を利用者に促す。これに対して、利用者は、画面に表示された探索対象画像において、多角形形状(本実施形態では4頂点で構成される自由な四角形形状)の画像領域の輪郭を指定する。これは、マウス操作により、四角形形状の4つの頂点を指定することにより行われる。例えば、自動車を目的物とする場合、利用者は、衛星画像に写っている自動車を見つけ、その自動車を含む有効画像領域を指定することになる。具体的にはテンプレート作成手段21が、画面上に初期状態として正方形形状の四角形を表示し、利用者はいずれかの頂点を画面上で選択し、前記頂点を所望の位置までドラッギングさせることにより頂点を指示し、4つの頂点に対して順次同様な操作を行なう。 Subsequently, the template preparation unit 20 displays the search target image as the sample image converted into the work image format on the screen, and prompts the user to specify an image area for creating the template image. On the other hand, the user designates the contour of an image area having a polygonal shape (in this embodiment, a free rectangular shape including four vertices) in the search target image displayed on the screen. This is performed by designating four vertices of a square shape by operating the mouse. For example, when a car is an object, the user finds a car in a satellite image and designates an effective image area including the car. Specifically, the template creation means 21 displays a square of a square shape as an initial state on the screen, and the user selects one of the vertices on the screen, and drags the vertex to a desired position to make the vertex The same operation is sequentially performed on the four vertices.
テンプレート作成手段21が、画面上に発生させる四角形は二重の四角形であり、外側四角形を構成する各辺と内側四角形を構成する各辺の幅は所定の値に設定されている。したがって、利用者が、外側四角形か内側四角形のいずれかの頂点をドラッギングにより移動させると、テンプレート作成手段21は、それに応じて他方の四角形の頂点も両四角形の各片の距離を保つように移動させる。指定が行われると、テンプレート作成手段21は、図5(a)に示されるように、外側四角形の外側に外側四角形を360度回転させても、はみ出さないように外接する正方形形状(図5(a)の外側正方形形状)を同時に生成する。従って、初期状態では画面上に3重の正方形が表示されており、利用者が内側の2重正方形形状を所望の四角形に変形させると、それに連動して最外側正方形形状が正方形を維持しながら変化する。更に、利用者の負担を軽減するため、利用者が内側の四角形形状を変形させると、テンプレート作成手段21は、それに連動して外側の四角形形状を、内側の四角形形状を所定の幅だけ外側にオフセットさせた形状に自動的に定義するようにしている。即ち、利用者は内側の四角形形状のみを主に定義すればよく、外側の四角形形状については自動設定される形状に対して補正を施す程度で良い。 The quadrangle generated by the template creation means 21 on the screen is a double quadrangle, and the width of each side constituting the outer quadrangle and the side constituting the inner quadrangle is set to a predetermined value. Therefore, when the user moves the vertex of either the outer rectangle or the inner rectangle by dragging, the template creation means 21 moves accordingly so that the vertex of the other rectangle also keeps the distance of each piece of both rectangles. Let When the designation is made, as shown in FIG. 5 (a), the template creating means 21 circumscribes the square so as not to protrude even if the outer square is rotated 360 degrees outside the outer square (FIG. 5). (Outer square shape of (a)) is generated simultaneously. Therefore, in the initial state, a triple square is displayed on the screen, and when the user transforms the inner double square shape into a desired square, the outermost square shape maintains a square in conjunction with it. Change. Furthermore, in order to reduce the burden on the user, when the user deforms the inner quadrangular shape, the template creation means 21 interlocks with the outer quadrangular shape and the inner quadrangular shape outwards by a predetermined width. The offset shape is automatically defined. In other words, the user only needs to define only the inner rectangular shape, and the outer rectangular shape may be corrected to the automatically set shape.
利用者が、表示された探索対象画像内において、所定の四角形形状の指定を完了すると、テンプレート作成手段21は、探索対象画像内から指定された四角形形状の外側に定義された正方形形状に基づいてトリミングする。さらに、テンプレート作成手段21は、テンプレート画像内で利用者が指定した外側四角形形状の外側部分である外側マスク領域(マスク階調値0)と、外側四角形形状と内側四角形形状の間である内側マスク領域(マスク階調値1)および有効画像領域(マスク階調値2)にそれぞれマスク値を設定する。この際、内側マスク領域および有効画像領域の画素階調値に対しては、変更を行わず、外側マスク領域の画素階調値は一律0に変更する。この結果、正方形サイズのテンプレート画像が得られ、その内部は、有効画像領域、内側マスク領域、外側マスク領域で構成される。具体的には、図5(b)に示されるように、有効画像領域にはマスク値“2”、内側マスク領域にはマスク値“1”、外側マスク領域にはマスク値“0”が設定される。また、有効画像領域および内側マスク領域には画素値“0”〜“127”が設定されるが、外側マスク領域には画素値は設定されない(全ての画素値が“0”にクリアされる)。有効画像領域および内側マスク領域の画素値が“0”〜“127”に設定されるのは、探索対象領域設定後の探索対象画像の階調に合わせたためである。 When the user completes designation of a predetermined quadrangular shape in the displayed search target image, the template creation means 21 is based on the square shape defined outside the quadrangular shape specified from within the search target image. Trim. Further, the template creation means 21 includes an outer mask area (mask gradation value 0) that is an outer portion of the outer rectangular shape designated by the user in the template image, and an inner mask that is between the outer rectangular shape and the inner rectangular shape. A mask value is set for each of the area (mask gradation value 1) and the effective image area (mask gradation value 2). At this time, the pixel gradation values in the inner mask area and the effective image area are not changed, and the pixel gradation values in the outer mask area are uniformly changed to zero. As a result, a square-sized template image is obtained, and the inside is composed of an effective image area, an inner mask area, and an outer mask area. Specifically, as shown in FIG. 5B, a mask value “2” is set for the effective image area, a mask value “1” is set for the inner mask area, and a mask value “0” is set for the outer mask area. Is done. Also, pixel values “0” to “127” are set in the effective image area and the inner mask area, but no pixel value is set in the outer mask area (all pixel values are cleared to “0”). . The reason why the pixel values of the effective image area and the inner mask area are set to “0” to “127” is to match the gradation of the search target image after the search target area is set.
さらに、テンプレート準備部20は、多角形形状およびその内部だけを所定の角度で回転させたパターンもテンプレート記憶部30に登録する。本実施形態では、角度を45度単位で回転させ、8つの異なる傾き角度に従ったテンプレート画像を作成する。角度が異なる8つのテンプレート画像を図6に示す。このとき、外側の正方形形状は利用者が指定した多角形を360度回転させても、はみ出さないように定義しているため、前記8種類の角度の多角形は同一サイズのテンプレート画像で表現することができる。本実施形態では、角度を異ならせたパターンは同一のテンプレート画像として同一のテンプレートIDで登録する。したがって、図6に示したテンプレート画像は、全て同一のテンプレートIDを持ち、各パターンは、その角度で特定する。本実施形態では、テンプレートIDを8個登録可能となっている。この場合、8個のテンプレート画像について、それぞれ8つの角度で登録されるので、全部で64パターンが登録されることになる。 Furthermore, the template preparation unit 20 also registers in the template storage unit 30 a polygon shape and a pattern obtained by rotating only the inside of the polygon shape at a predetermined angle. In the present embodiment, the angle is rotated in units of 45 degrees, and template images according to eight different inclination angles are created. FIG. 6 shows eight template images having different angles. At this time, since the outer square shape is defined so that it does not protrude even if the polygon specified by the user is rotated 360 degrees, the polygons of the eight types of angles are represented by template images of the same size. can do. In this embodiment, patterns with different angles are registered with the same template ID as the same template image. Therefore, the template images shown in FIG. 6 all have the same template ID, and each pattern is specified by its angle. In this embodiment, eight template IDs can be registered. In this case, since eight template images are registered at eight angles, 64 patterns are registered in total.
本実施形態では、テンプレート画像と探索対象画像とのマッチング処理を行う際、テンプレート画像の各角度パターンに依存しない処理と、各角度パターンに依存する処理を行う。このうち、各角度パターンに依存しない処理は、全角度パターンに共通の有効画像領域である共通有効画像領域に対して実行する。共通有効画像領域は、例えば、図7(a)に示すような角度パターンのテンプレート画像の場合、図7(b)に示すような全ての角度パターンにおける内側四角形に囲まれた領域となる。すなわち、共通有効画像領域は、図7(c)に示したような領域となる。実際には、テンプレート作成手段21が各角度パターンにおける有効画像領域に属する画素(マスク値が“2”である画素)を認識し、全ての角度パターンで有効画像領域に属する画素にマスク値“3”を付与することにより、共通有効画像領域を設定する。 In the present embodiment, when matching processing between the template image and the search target image is performed, processing that does not depend on each angle pattern of the template image and processing that depends on each angle pattern are performed. Among these, the processing not depending on each angle pattern is executed on a common effective image area which is an effective image area common to all angle patterns. For example, in the case of a template image having an angle pattern as shown in FIG. 7A, the common effective image area is an area surrounded by inner squares in all angle patterns as shown in FIG. 7B. That is, the common effective image area is an area as shown in FIG. Actually, the template creation means 21 recognizes pixels belonging to the effective image area in each angle pattern (pixels having a mask value of “2”), and applies the mask value “3” to pixels belonging to the effective image area in all angle patterns. By assigning "", a common effective image area is set.
テンプレート画像が登録されたら、テンプレート準備部20は、探索対象画像上の適合とすべき対象物を指定するように促す。利用者が、適合とすべき対象物を指定すると、指定された位置付近の画素値を利用して、判定基準値の算出およびテンプレート画像の更新を行う。この判定基準値の算出およびテンプレート画像の更新について図8のフローチャートを用いて説明する。 When the template image is registered, the template preparation unit 20 prompts the user to specify an object to be matched on the search target image. When the user designates an object to be matched, the determination reference value is calculated and the template image is updated using the pixel values near the designated position. The calculation of the determination reference value and the update of the template image will be described with reference to the flowchart of FIG.
まず、利用者は、画面に表示された探索対象画像の内容を見て、探索対象に含めたいと考える対象物を見つけ、その対象物上の点を指定する(S101)。図9(a)は、対象物を指定する際の探索対象画像の様子を示す図である。探索対象画像中で、利用者が探索対象に含めたい対象物上の点を指定すると、図9(a)に示すように、テンプレート画像の正方形形状の外枠および二重の多角形形状が表示される。例えば、衛星画像の中から自動車を検出したい場合、衛星画像中の1つの自動車の上の点を指定する。 First, the user looks at the contents of the search target image displayed on the screen, finds a target object that he wants to include in the search target, and designates a point on the target object (S101). FIG. 9A is a diagram illustrating a state of a search target image when an object is specified. When the user designates a point on the target object to be included in the search target image in the search target image, a square outer frame and a double polygonal shape of the template image are displayed as shown in FIG. Is done. For example, when it is desired to detect a car from a satellite image, a point on one car in the satellite image is designated.
続いて、テンプレート準備部20は、指定された位置を基点にしてテンプレート画像とのマッチング処理を行う(S102)。この処理を行う理由は、図9(a)のように、利用者が画面上で指定した点は視覚的な判断によるもので曖昧性に富むため、この点を基にそのまま判定基準値を算出すると、不適切な探索が行なわれる可能性が高いためである。そこで、本処理では利用者が指示した点を最適な位置に補正するものである。具体的には、図9(b)に示すように、指定された探索対象画像上の基点(Xc、Yc)とテンプレート画像の中心位置を合わせ、そこからテンプレート画像をx方向,y方向に1画素単位で、設定された範囲内において移動させながら、マッチング処理を行う。このマッチング処理の詳細については後述する。同一位置において、角度を変えた8通りのテンプレート画像に対してマッチング処理を行い、最も類似度の高い角度のテンプレート画像を選出するとともにその探索対象画像の画素位置を最適位置として特定する。 Subsequently, the template preparation unit 20 performs matching processing with the template image using the designated position as a base point (S102). The reason for this processing is that the point specified by the user on the screen is based on visual judgment as shown in FIG. 9A and is ambiguous. Therefore, the judgment reference value is calculated as it is based on this point. This is because there is a high possibility that an inappropriate search is performed. Therefore, in this process, the point designated by the user is corrected to an optimum position. Specifically, as shown in FIG. 9B, the base point (Xc, Yc) on the designated search target image and the center position of the template image are aligned, and from there, the template image is set to 1 in the x and y directions. Matching processing is performed while moving within a set range in pixel units. Details of this matching process will be described later. At the same position, matching processing is performed on eight types of template images with different angles, a template image having the highest similarity is selected, and the pixel position of the search target image is specified as the optimum position.
次に、判定基準値設定手段22が、探索対象画像上の対象物が適合判定されるように判定基準値の設定を行う(S103)。判定基準値の設定が終わったら、テンプレート更新手段23が、最適位置における探索対象画像の画素ブロックとテンプレート画像を合成し、その合成画像でテンプレート画像を更新する(S104)。 Next, the determination reference value setting unit 22 sets a determination reference value so that the object on the search target image is determined to be compatible (S103). When the determination reference value is set, the template updating unit 23 combines the pixel block of the search target image at the optimum position and the template image, and updates the template image with the combined image (S104).
次に、上記S102におけるマッチング処理の詳細について、図10のフローチャートを用いて説明する。図10に示したS201〜S206の処理のうち、S201、S202はテンプレート画像内の多角形の角度に依存しない処理であり、S203〜S206はテンプレート画像内の多角形の角度に依存する処理である。角度に依存しないS201、S202の処理は、1つのテンプレート画像について1回だけ、共通有効画像領域に対して実行されるが、角度に依存するS203〜S206の処理は、各角度のパターンの有効画像領域に対して実行されるため、1つのテンプレート画像について8回実行されることになる。マッチング処理を行う際は、まず、類似性評価値となる各変数の初期化を行う。具体的には、角度に依存しない輝度ヒストグラム(階調ヒストグラム)の差分の最小値、角度に依存しない輝度分散(階調分散)の差分の最小値、角度に依存する輝度ヒストグラムの差分の最小値、角度に依存する輝度分散の差分の最小値、グレー階調画素差分の最小値、正規化相関係数の最大値の6つの変数(類似性評価値)を初期化する。本実施形態では、これら6つの変数は全て0〜1000の値をとり、正規化相関係数については、初期値を最小値0とし、他の5つの変数については、初期値を最大値1000とする。 Next, the details of the matching process in S102 will be described using the flowchart of FIG. Of the processes of S201 to S206 shown in FIG. 10, S201 and S202 are processes that do not depend on the angle of the polygon in the template image, and S203 to S206 are processes that depend on the angle of the polygon in the template image. . The processes of S201 and S202 that do not depend on the angle are executed for the common effective image area only once for one template image. However, the processes of S203 to S206 that depend on the angle are effective images of patterns of each angle. Since it is executed for a region, it is executed eight times for one template image. When performing the matching process, first, each variable that becomes the similarity evaluation value is initialized. Specifically, the minimum value of the difference of the luminance histogram (gradation histogram) independent of the angle, the minimum value of the difference of luminance dispersion (tone distribution) independent of the angle, and the minimum value of the difference of the luminance histogram dependent on the angle 6 variables (similarity evaluation values) are initialized: a minimum value of the difference in luminance dispersion depending on the angle, a minimum value of the gray gradation pixel difference, and a maximum value of the normalized correlation coefficient. In the present embodiment, all of these six variables take values from 0 to 1000, with respect to the normalized correlation coefficient, the initial value is the minimum value 0, and for the other five variables, the initial value is the maximum value 1000. To do.
各変数の初期化が終わったら、角度に依存しない輝度ヒストグラムの照合を行う(S201)。具体的には、まず、テンプレート画像のサイズをS×Sとし、テンプレート画像の画素(x,y) (0≦x≦S-1, 0≦y≦S-1)における階調値をVt(x,y)(0〜127)、マスク値をMt(x,y) (0,1,2,3)、探索対象画像の位置(Xc+dx,Yc+dy) を起点とする領域内のテンプレート位置(x,y)に対応する画像階調値をV(x+Xc+dx,y+Yc+dy)(1〜127)とする。S×S 画素の範囲内で、Mt(x,y)=3となる画素(x,y)において、V(x,y)/8の値に基づく探索対象画像の16階調の輝度ヒストグラムH(v) (0≦v≦15)、およびVt(x,y)/8の値に基づくテンプレート画像の16階調の輝度ヒストグラムHt(v) (0≦v≦15)を算出する。さらに、以下の〔数式4〕に従った処理を実行して輝度ヒストグラム差分、すなわち輝度ヒストグラム同士のユークリッド距離を算出する。 When the initialization of each variable is completed, the brightness histogram is checked without depending on the angle (S201). Specifically, first, the size of the template image is set to S × S, and the gradation value at the pixel (x, y) (0 ≦ x ≦ S−1, 0 ≦ y ≦ S−1) of the template image is set to Vt ( x, y) (0 to 127), the mask value is Mt (x, y) (0,1,2,3), and the position of the search target image (Xc + dx, Yc + dy) The image gradation value corresponding to the template position (x, y) is assumed to be V (x + Xc + dx, y + Yc + dy) (1-127). A 16-gradation luminance histogram H of the search target image based on the value of V (x, y) / 8 at the pixel (x, y) where Mt (x, y) = 3 within the range of S × S pixels. (v) A 16-tone luminance histogram Ht (v) (0 ≦ v ≦ 15) of the template image based on the values of (0 ≦ v ≦ 15) and Vt (x, y) / 8 is calculated. Furthermore, the process according to the following [Equation 4] is executed to calculate the luminance histogram difference, that is, the Euclidean distance between the luminance histograms.
〔数式4〕
(輝度ヒストグラム差分)=1000・Σ v=0,15|H(v)−Ht(v)|/ Σ v=0,15(H(v)+Ht(v))
[Formula 4]
(Luminance histogram difference) = 1000 · Σv = 0,15 | H (v) −Ht (v) | / Σv = 0,15 (H (v) + Ht (v))
続いて、輝度分散の照合を行う(S202)。具体的には、S201と同様、テンプレート画像のサイズをS×Sとし、S×S 画素の範囲内で、Mt(x,y)=3となるC個の画素(x,y)を用いて、探索対象画像の平均階調値Vaとテンプレート画像の平均階調値Vatを以下の〔数式5〕に従った処理を実行して算出する。 Subsequently, collation of luminance dispersion is performed (S202). Specifically, as in S201, the size of the template image is S × S, and C pixels (x, y) with Mt (x, y) = 3 are used within the range of S × S pixels. The average gradation value Va of the search target image and the average gradation value Vat of the template image are calculated by executing processing according to the following [Equation 5].
〔数式5〕
Va= Σ y=0,S-1 Σ x=0,S-1 | Mt(x,y) =3 V(x+Xc+dx,y+Yc+dy)/ C
Vat= Σ y=0,S-1 Σ x=0,S-1 | Mt(x,y) =3 Vt(x,y)/ C
C= Σ y=0,S-1 Σ x=0,S-1 | Mt(x,y) =3 1
[Formula 5]
Va = Σy = 0, S-1 Σx = 0, S-1 | Mt (x, y) = 3 V (x + Xc + dx, y + Yc + dy) / C
Vat = Σy = 0, S-1 Σx = 0, S-1 | Mt (x, y) = 3 Vt (x, y) / C
C = Σy = 0, S-1 Σx = 0, S-1 | Mt (x, y) = 3 1
そして、S×S 画素の範囲内で、Mt(x,y)=3となる画素(x,y)を用いて、探索対象画像の輝度分散値Dとテンプレート画像の輝度分散値Dtを以下の〔数式6〕に従った処理を実行して算出する。 Then, using the pixel (x, y) where Mt (x, y) = 3 within the range of S × S pixels, the luminance dispersion value D of the search target image and the luminance dispersion value Dt of the template image are expressed as follows: Calculation is performed by executing processing according to [Formula 6].
〔数式6〕
D= Σ y=0,S-1 Σ x=0,S-1 | Mt(x,y) =3 |V(x+Xc+dx,y+Yc+dy) -Va|/C
Dt= Σ y=0,S-1 Σ x=0,S-1 | Mt(x,y) =3 | Vt(x,y) -Vat|/C
[Formula 6]
D = Σy = 0, S-1 Σx = 0, S-1 | Mt (x, y) = 3 | V (x + Xc + dx, y + Yc + dy) -Va | / C
Dt = Σ y = 0, S-1 Σ x = 0, S-1 | Mt (x, y) = 3 | Vt (x, y) -Vat | / C
そして、S×S 画素の範囲内で、Mt(x,y)=3となる画素(x,y)を用いて、周知の計算式である以下の〔数式7〕に従った処理を実行して輝度分散差分を算出する。 Then, within the range of S × S pixels, using the pixel (x, y) with Mt (x, y) = 3, the process according to the following [Formula 7], which is a well-known calculation formula, is executed. To calculate the luminance dispersion difference.
〔数式7〕
(輝度分散差分)=1000・|D-Dt|/(D+Dt)
[Formula 7]
(Luminance dispersion difference) = 1000 · | D-Dt | / (D + Dt)
上述のようにS201、S202は、角度に依存しない処理である。したがって、各テンプレート画像について1回だけ行えばよい。共通有効画像領域に対するS201、S202の処理は、いずれの角度パターンの画素値を用いても良いが、本実施形態では、代表して0度のパターンの画素値を用いている。ここからのS203〜S206は、角度に依存する処理であるため、同一IDをもつテンプレート画像についても、角度別に処理を行う。S203〜S206の処理において、各角度パターンのテンプレート画像上で処理対象となるのは、有効画像領域と内側マスク領域の画素である。 As described above, S201 and S202 are processes that do not depend on the angle. Therefore, it is only necessary to perform once for each template image. The processing of S201 and S202 for the common effective image area may use pixel values of any angle pattern, but in the present embodiment, pixel values of a pattern of 0 degrees are representatively used. Since S203 to S206 from here are processes depending on the angle, the template image having the same ID is also processed for each angle. In the processing of S203 to S206, the pixels to be processed on the template image of each angle pattern are the pixels of the effective image region and the inner mask region.
次に、角度に依存する輝度ヒストグラムの照合を行う(S203)。具体的には、S×S 画素の範囲内で、Mt(x,y) >0となる画素(x,y)において、V(x,y)/8の値に基づく探索対象画像の16階調の輝度ヒストグラムH(v) (0≦v≦15)、およびVt(x,y)/8の値に基づくテンプレート画像の16階調の輝度ヒストグラムHt(v) (0≦v≦15)を算出する。さらに、上記〔数式4〕に従った処理を実行して輝度ヒストグラム差分、すなわち輝度ヒストグラム同士のユークリッド距離を算出する。 Next, the brightness histogram depending on the angle is collated (S203). Specifically, within the range of S × S pixels, the 16th floor of the search target image based on the value of V (x, y) / 8 at the pixel (x, y) where Mt (x, y)> 0. Luminance histogram H (v) (0 ≦ v ≦ 15) of tone and 16-gradation luminance histogram Ht (v) (0 ≦ v ≦ 15) of the template image based on the value of Vt (x, y) / 8 calculate. Further, the process according to the above [Equation 4] is executed to calculate the luminance histogram difference, that is, the Euclidean distance between the luminance histograms.
次に、角度に依存する輝度分散の照合を行う(S204)。具体的には、S×S 画素の範囲内で、Mt(x,y) >0となるC個の画素(x,y)を用いて、探索対象画像の平均階調値Vaとテンプレート画像の平均階調値Vatを上記〔数式5〕に従った処理を実行して算出する。そして、S×S 画素の範囲内で、Mt(x,y) >0となる画素(x,y)を用いて、上記〔数式7〕に従った処理を実行して輝度分散差分を算出する。 Next, collation of luminance dispersion depending on the angle is performed (S204). Specifically, using C pixels (x, y) where Mt (x, y)> 0 within the range of S × S pixels, the average gradation value Va of the search target image and the template image The average gradation value Vat is calculated by executing the process according to [Formula 5]. Then, using the pixel (x, y) where Mt (x, y)> 0 within the range of S × S pixels, the process according to the above [Equation 7] is executed to calculate the luminance dispersion difference. .
次に、グレー階調画素差分の算出を行う(S205)。具体的には、上記と同様に、テンプレート画像のサイズをS×Sとし、テンプレート画像の画素(x,y) (0≦x≦S-1, 0≦y≦S-1)における階調値をVt(x,y) (0〜127)、マスク値をMt(x,y)(0,1,2,3)、探索対象画像の位置(Xc+dx,Yc+dy) を起点とする領域内のテンプレート位置(x,y)に対応する画像階調値をV(x+Xc+dx,y+Yc+dy) (0〜127)とする。ここで、シャドウ側をハイライト側に上げ、中間調部をシャドウ側に落とすような以下の階調変換を施す。Vt(x,y)≧64のとき、Vt'(x,y)=Vt(x,y)-64、 Vt(x,y)<64のとき、Vt'(x,y)=63-Vt(x,y) 。V(x,y) ≧64のとき、V'(x,y)=V(x,y)-64、 V(x,y)<64のとき、V'(x,y)=63-V(x,y)。 さらに、S×S 画素の範囲内で、Mt(x,y) >0となるC個の画素(x,y)を用いて、以下の〔数式8〕に従った処理を実行して探索対象画像とテンプレート画像の画素差分であるグレー階調画素差分を算出する。 Next, a gray gradation pixel difference is calculated (S205). Specifically, in the same manner as described above, the size of the template image is S × S, and the gradation value at the pixel (x, y) (0 ≦ x ≦ S-1, 0 ≦ y ≦ S-1) of the template image Is Vt (x, y) (0 to 127), the mask value is Mt (x, y) (0,1,2,3), and the search target image position (Xc + dx, Yc + dy) is the starting point. An image gradation value corresponding to the template position (x, y) in the region is V (x + Xc + dx, y + Yc + dy) (0 to 127). Here, the following tone conversion is performed to raise the shadow side to the highlight side and drop the halftone portion to the shadow side. When Vt (x, y) ≥64, Vt '(x, y) = Vt (x, y) -64, when Vt (x, y) <64, Vt' (x, y) = 63-Vt (x, y). When V (x, y) ≥64, V '(x, y) = V (x, y) -64, when V (x, y) <64, V' (x, y) = 63-V (x, y). Further, within the range of S × S pixels, using C pixels (x, y) satisfying Mt (x, y)> 0, the processing according to the following [Equation 8] is executed, and the search target A gray gradation pixel difference that is a pixel difference between the image and the template image is calculated.
〔数式8〕
(グレー階調画素差分)= 1000・Σ y=0,S-1 Σ x=0,S-1 | Mt(x,y)≠0 |V'(x+Xc+dx,y+Yc+dy)−Vt'(x,y)| / ( V'(x+Xc+dx,y+Yc+dy)+Vt'(x,y) )
[Formula 8]
(Gray gradation pixel difference) = 1000 · Σ y = 0, S-1 Σx = 0, S-1 | Mt (x, y) ≠ 0 | V '(x + Xc + dx, y + Yc + dy ) −Vt ′ (x, y) | / (V ′ (x + Xc + dx, y + Yc + dy) + Vt ′ (x, y))
次に、正規化相関係数の算出を行う(S206)。具体的には、上記と同様に、テンプレート画像のサイズをS×Sとし、テンプレート画像の画素(x,y) (0≦x≦S-1, 0≦y≦S-1)における階調値をVt(x,y)(0〜127)、マスク値をMt(x,y)(0,1,2,3)、探索対象画像の位置(Xc+dx,Yc+dy) を起点とする領域内のテンプレート位置(x,y)に対応する画像階調値をV(x+Xc+dx,y+Yc+dy) (1〜127)とする。S×S画素の範囲内で、Mt(x,y) >0となるC個の画素(x,y)を用いて、探索対象画像の平均階調値Vaとテンプレート画像の平均階調値Vatを上記〔数式5〕(ただし、Mt(x,y) >0)に従った処理を実行して算出する。 Next, a normalized correlation coefficient is calculated (S206). Specifically, in the same manner as described above, the size of the template image is S × S, and the gradation value at the pixel (x, y) (0 ≦ x ≦ S-1, 0 ≦ y ≦ S-1) of the template image Is Vt (x, y) (0 to 127), the mask value is Mt (x, y) (0,1,2,3), and the search target image position (Xc + dx, Yc + dy) is the starting point. An image gradation value corresponding to the template position (x, y) in the region is V (x + Xc + dx, y + Yc + dy) (1 to 127). Within the range of S × S pixels, using C pixels (x, y) with Mt (x, y)> 0, the average gradation value Va of the search target image and the average gradation value Vat of the template image Is calculated by executing the processing according to the above [Equation 5] (where Mt (x, y)> 0).
そして、S×S 画素の範囲内で、Mt(x,y) >0となる画素(x,y)を用いて、周知の計算式である以下の〔数式9〕に従った処理を実行して正規化相関係数を算出する。ただし、正規化相関係数が負値(負の相関)となる場合は0(相関無し)として扱う。 Then, within the range of S × S pixels, using a pixel (x, y) with Mt (x, y)> 0, a process according to the following [Formula 9], which is a well-known calculation formula, is executed. To calculate a normalized correlation coefficient. However, when the normalized correlation coefficient is a negative value (negative correlation), it is treated as 0 (no correlation).
〔数式9〕
(正規化相関係数)= 1000・Σ y=0,S-1 Σ x=0,S-1 | Mt(x,y) ≠0 (V(x+Xc+dx,y+Yc+dy)-Va)・(Vt(x,y)-Vat) / [Σ y=0,S-1 Σ x=0,S-1 | Mt(x,y) ≠0 (V(x+Xc+dx,y+Yc+dy)-Va)2・ Σ y=0,S-1 Σ x=0,S-1 | Mt(x,y) ≠0 (Vt(x,y)-Vat)2]1/2
[Formula 9]
(Normalized correlation coefficient) = 1000 · Σ y = 0, S-1 Σ x = 0, S-1 | Mt (x, y) ≠ 0 (V (x + Xc + dx, y + Yc + dy) -Va) ・ (Vt (x, y) -Vat) / [Σ y = 0, S-1 Σ x = 0, S-1 | Mt (x, y) ≠ 0 (V (x + Xc + dx, y + Yc + dy) -Va) 2. Σ y = 0, S-1 Σ x = 0, S-1 | Mt (x, y) ≠ 0 (Vt (x, y) -Vat) 2 ] 1/2
続いて、各変数の更新を行う(S207)。具体的には、S201において算出した輝度ヒストグラム差分が、現在設定されている輝度ヒストグラム差分の最小値より小さく、かつS206において算出した正規化相関係数が現在設定されている正規化相関係数の最大値より大きい場合、角度に依存しない輝度ヒストグラムの差分の最小値、角度に依存しない輝度差分の最小値、角度に依存する輝度ヒストグラムの差分の最小値、角度に依存する輝度差分の最小値、グレー階調画素差分の最小値、正規化相関係数の最大値の6つの変数(類似性評価値)を今回算出した値に置き換える。そして、位置、テンプレートID、角度の値を、このときの位置、テンプレートID、角度の値で更新する。 Subsequently, each variable is updated (S207). Specifically, the luminance histogram difference calculated in S201 is smaller than the minimum value of the currently set luminance histogram difference, and the normalized correlation coefficient calculated in S206 is the normalized correlation coefficient currently set. If greater than the maximum value, the minimum value of the luminance histogram difference independent of the angle, the minimum value of the luminance difference independent of the angle, the minimum value of the luminance histogram difference dependent on the angle, the minimum value of the luminance difference dependent on the angle, Six variables (similarity evaluation values) of the minimum value of the gray gradation pixel difference and the maximum value of the normalized correlation coefficient are replaced with the values calculated this time. Then, the position, template ID, and angle values are updated with the position, template ID, and angle values at this time.
各変数の更新が終わったら、1つのテンプレート画像について、全ての角度のパターンの処理が終わったかどうかを判断する(S208)。全ての角度のパターンについて処理が終わっていない場合は、S203に戻って、角度に依存する輝度ヒストグラムの差分、角度に依存する輝度差分、グレー階調画素差分、正規化相関係数の算出を行う。全ての角度のパターンについて処理が終わった場合は、S209に進む。したがって、本実施形態では、1つのテンプレート画像につき、8通りの角度について、S203〜S207の処理が繰り返される。 When the update of each variable is completed, it is determined whether or not the processing of all angle patterns has been completed for one template image (S208). If the processing has not been completed for all the angle patterns, the process returns to S203 to calculate the angle-dependent luminance histogram difference, the angle-dependent luminance difference, the gray gradation pixel difference, and the normalized correlation coefficient. . If the process is completed for all angle patterns, the process proceeds to S209. Therefore, in the present embodiment, the processing of S203 to S207 is repeated for eight angles for one template image.
1つのテンプレート画像の全角度について処理が終わったら、全てのテンプレート画像について処理が終わったかどうかを判断する(S209)。全てのテンプレート画像について処理が終わっていない場合は、S201〜S208の処理を繰り返す。全てのテンプレート画像について処理が終わった場合は、S210に進む。したがって、本実施形態では、1つの画素位置につき、8個のテンプレート画像について、S201〜S208の処理が繰り返される。 When processing is completed for all angles of one template image, it is determined whether or not processing has been completed for all template images (S209). If the processing has not been completed for all template images, the processing of S201 to S208 is repeated. If the processing is completed for all template images, the process proceeds to S210. Therefore, in the present embodiment, the processing of S201 to S208 is repeated for eight template images for one pixel position.
全てのテンプレート画像について処理が終わったら、全ての画素位置について処理が終わったかどうかを判断する(S210)。全ての画素位置とは、指定された基点(Xc、Yc)からx軸、y軸方向にそれぞれ所定画素の範囲に含まれる画素の位置を意味する。所定画素の範囲としては、テンプレート画像のx軸、y軸方向のそれぞれ5%程度が設定されている。例えば、テンプレート画像が100×100画素である場合、5×5の計25画素の位置について、図9に示した処理が繰り返される。全ての画素位置について処理が終わっていない場合は、S201〜S209の処理を繰り返す。全ての画素位置について処理が終わった場合は、各変数を出力して、マッチング処理を終了する。各変数は、各テンプレート画像単位で出力される。 When processing is completed for all template images, it is determined whether processing has been completed for all pixel positions (S210). All pixel positions mean the positions of pixels included in a predetermined pixel range in the x-axis and y-axis directions from the designated base point (Xc, Yc). As the predetermined pixel range, about 5% of each of the x-axis and y-axis directions of the template image is set. For example, when the template image is 100 × 100 pixels, the process shown in FIG. 9 is repeated for a total of 25 pixels of 5 × 5. If the processing has not been completed for all pixel positions, the processing of S201 to S209 is repeated. When the process is completed for all pixel positions, each variable is output and the matching process is terminated. Each variable is output for each template image.
次に、S103の判定基準値の設定の詳細について説明する。判定基準値は、判定基準値設定手段22により、マッチング処理において出力された各変数に所定の値を乗じることにより設定される。本実施形態では、正規化相関係数については、出力された正規化相関係数の最大値に0.9を乗じた値を判定基準値とし、他の5つの変数については、出力された値に1.1を乗じた値を判定基準値としている。具体的には、以下の〔数式10〕に従った処理を実行して算出する。 Next, details of setting the determination reference value in S103 will be described. The determination reference value is set by multiplying each variable output in the matching process by a predetermined value by the determination reference value setting means 22. In the present embodiment, for the normalized correlation coefficient, a value obtained by multiplying the maximum value of the output normalized correlation coefficient by 0.9 is used as a determination reference value, and for the other five variables, the output value A value obtained by multiplying 1.1 by 1.1 is used as a criterion value. Specifically, the calculation is performed by executing processing according to the following [Equation 10].
〔数式10〕
(角度非依存の輝度ヒストグラム差分の判定基準値)=(角度非依存の輝度ヒストグラム差分の最小値)×1.1
(角度非依存の輝度分散差分の判定基準値)=(角度非依存の輝度分散差分の最小値)×1.1
(角度依存の輝度ヒストグラム差分の判定基準値)=(角度依存の輝度ヒストグラム差分の最小値)×1.1
(角度依存の輝度分散差分の判定基準値)=(角度依存の輝度分散差分の最小値)×1.1
(グレー階調画素差分の判定基準値)=(グレー階調画素差分の最小値)×1.1
(正規化相関係数の判定基準値)=(正規化相関係数の最大値)×0.9
[Formula 10]
(Criteria value for angle-independent luminance histogram difference) = (minimum value of angle-independent luminance histogram difference) × 1.1
(Criteria value of angle-independent luminance dispersion difference) = (minimum value of angle-independent luminance dispersion difference) × 1.1
(Judgment reference value of angle-dependent luminance histogram difference) = (minimum value of angle-dependent luminance histogram difference) × 1.1
(Criteria value for angle-dependent luminance dispersion difference) = (minimum value of angle-dependent luminance dispersion difference) × 1.1
(Determination reference value of gray gradation pixel difference) = (Minimum value of gray gradation pixel difference) × 1.1
(Criteria value of normalized correlation coefficient) = (maximum value of normalized correlation coefficient) × 0.9
続いて、S104のテンプレートの更新の詳細について説明する。S104では、テンプレート更新手段23が、各テンプレート画像を更新する。具体的には、各テンプレート画像の最適位置における探索対象画像上の画素ブロックを用いて、各テンプレート画像の各角度の画像を更新する。まず、各テンプレート画像のうち、最適角度のものと探索対象画像上の画素ブロックの合成を行う。テンプレート画像において外側マスク領域は合成を行わないので、テンプレート画像中の内側マスク領域および有効画像領域内部についてのみ合成を行う。 Next, details of the template update in S104 will be described. In S104, the template update unit 23 updates each template image. Specifically, the image of each angle of each template image is updated using the pixel block on the search target image at the optimum position of each template image. First, among the template images, the one with the optimum angle and the pixel block on the search target image are synthesized. Since the outer mask area is not combined in the template image, only the inner mask area and the inside of the effective image area in the template image are combined.
合成の具体的な手法としては、内側マスク領域および有効画像領域内部の各画素単位で整数の擬似乱数を順次発生させ、所定の数が出たら、探索対象画像上の画素ブロックの対応する画素の値に置き換える。例えば、奇数が出たら、探索対象画像上の画素ブロックの対応する画素に置き換えるように設定しておけば、約半分の確率で内側マスク領域および有効画像領域内部の画素が探索対象画像の画素に置き換えられる。図11は、探索対象画像とテンプレート画像の合成によりテンプレート画像を更新する例を示す図である。図11の例では、説明の便宜のため、画像サイズを5×5画素に簡略化している。図11(b)はテンプレート画像であり、Tは外側多角形内部(有効画像領域および内側マスク領域)の画素を示し、空白は外側マスク領域の画素を示している。図11(a)はテンプレート画像に対して最適位置と判断された探索対象画像上の画素ブロックであり、Wは探索対象画像上の画素を示している。この2つの画像に上述のような合成処理を施した結果、図11(c)に示すように、テンプレート画像の内側マスク領域および有効画像領域の画素Tのうち約半数が探索対象画像の画素Wに置き換えられた合成画像が得られる。この合成画像が、更新されたテンプレート画像として登録される。なお、乱数の発生方式は処理を行う度に異なる系列になるように、シーズを毎回変更する。 As a specific method of synthesis, an integer pseudo-random number is sequentially generated for each pixel in the inner mask area and the effective image area, and when a predetermined number is obtained, the corresponding pixel of the pixel block on the search target image is calculated. Replace with a value. For example, if an odd number appears, if it is set to replace the corresponding pixel block pixel on the search target image, the pixels in the inner mask area and the effective image area become pixels of the search target image with approximately half the probability. Replaced. FIG. 11 is a diagram illustrating an example in which the template image is updated by combining the search target image and the template image. In the example of FIG. 11, the image size is simplified to 5 × 5 pixels for convenience of explanation. FIG. 11B shows a template image, where T indicates a pixel inside the outer polygon (effective image area and inner mask area), and a blank indicates a pixel in the outer mask area. FIG. 11A shows a pixel block on the search target image determined to be the optimum position with respect to the template image, and W indicates a pixel on the search target image. As a result of performing the above-described combining processing on these two images, as shown in FIG. 11C, about half of the pixels T in the inner mask area and the effective image area of the template image are pixels W of the search target image. A composite image replaced with is obtained. This composite image is registered as an updated template image. Note that the seeds are changed each time so that the random number generation method becomes a different series each time processing is performed.
最適角度のパターンについて、更新処理が終わったら、他の角度のパターンについても更新を行う。他の角度のパターンについては、最適角度との角度の差を求め、その角度だけ探索対象画像上の画素ブロックを回転し、有効画像領域内部の各画素単位を回転した探索対象画像上の画素ブロックの対応する画素に置き換える。このようにして、全ての角度についてテンプレート画像が更新される。あらかじめ用意した全てのテンプレート画像に対して同様の処理を行うことにより、全てのテンプレート画像を更新する。図12はテンプレート画像の更新の様子を示す図である。図12に示すように、探索対象画像上における最適位置の画素ブロックを用いて、全ての角度の画像を更新する。 When the update process is completed for the optimum angle pattern, the other angle patterns are also updated. For other angle patterns, obtain the difference between the angle and the optimum angle, rotate the pixel block on the search target image by that angle, and rotate the pixel unit inside the effective image area to rotate the pixel block on the search target image. Replace with the corresponding pixel. In this way, the template image is updated for all angles. All template images are updated by performing the same process on all template images prepared in advance. FIG. 12 is a diagram showing how the template image is updated. As shown in FIG. 12, the image of all angles is updated using the pixel block at the optimum position on the search target image.
(4.探索処理)
以上のようにして、テンプレート画像の準備が完了したら、準備されたテンプレート画像を用いて、目標物探索部40が目標物の探索を行う。この目標物の探索処理について図13のフローチャートを用いて説明する。利用者が目標物探索処理を指示すると、目標物探索部40の角度非依存類似性判断手段41、角度依存類似性判断手段42が連携して、順次マッチング処理を行う(S301)。具体的には、探索対象画像中の始点画素位置から順次パターンマッチング処理を実行し、類似判定する位置を見つける。
(4. Search process)
As described above, when the preparation of the template image is completed, the target object search unit 40 searches for the target object using the prepared template image. This target searching process will be described with reference to the flowchart of FIG. When the user instructs the target searching process, the angle-independent similarity determining unit 41 and the angle-dependent similarity determining unit 42 of the target searching unit 40 cooperate to sequentially perform the matching process (S301). Specifically, pattern matching processing is sequentially executed from the start pixel position in the search target image to find a position for determining similarity.
図14は、順次マッチング処理の概略を示す図である。順次マッチング処理は、最初に、探索対象画像中の始点画素位置(0,0)を起点として(S−1,S−1)までのS×S個の正方形状の画素ブロックと、テンプレート画像との比較を行い、(1,0)を起点とする正方形領域、(2,0)を起点とする正方形領域…というように、X方向スキャン範囲に1画素づつ移動させて比較を行っていき、x軸方向について終了したら、Y方向スキャン範囲に1画素分移動し、(0,1)を起点とする正方形領域、(1,1)を起点とする正方形領域…というように順次探索対象画像全体についてテンプレート画像との比較を行っていく。 FIG. 14 is a diagram showing an outline of sequential matching processing. In the sequential matching process, first, S × S square pixel blocks from the start pixel position (0, 0) in the search target image to (S−1, S−1), the template image, The comparison is performed by moving one pixel at a time in the X-direction scan range, such as a square region starting from (1, 0), a square region starting from (2, 0), and so on. When the x-axis direction is finished, the entire search target image is sequentially moved by one pixel in the Y-direction scan range, and a square area starting from (0, 1), a square area starting from (1, 1), and so on. Compare with the template image.
各画素位置におけるマッチング処理は、同一IDのテンプレート画像の全8個の角度パターンのうちいずれか1つの角度パターンとのマッチングを行う角度非依存テンプレートマッチングと、同一IDのテンプレート画像のうちの全8個の角度パターンとのマッチングを行う角度依存テンプレートマッチングとに分けて行われる。角度非依存テンプレートマッチングで不適合と判断された場合は、角度依存テンプレートマッチングを行うことなく、次の画素位置に移動する。 The matching processing at each pixel position includes angle-independent template matching for matching with any one of the eight angle patterns of the template image with the same ID, and all eight of the template images with the same ID. This is divided into angle-dependent template matching for matching with individual angle patterns. If it is determined that the angle-independent template matching is incompatible, the position shifts to the next pixel position without performing the angle-dependent template matching.
画素位置を特定した場合の順次マッチング処理の詳細を図15のフローチャートに示す。まず、S102のマッチング処理と同様、類似性評価値となる各変数の初期化を行う。具体的には、角度に依存しない輝度ヒストグラムの差分の最小値、角度に依存しない輝度差分の最小値、角度に依存する輝度ヒストグラムの差分の最小値、角度に依存する輝度差分の最小値、グレー階調画素差分の最小値、正規化相関係数の最大値の6つの変数(類似性評価値)を初期化する。探索処理で用いる6つの類似性評価値も全て0〜1000の値をとり、正規化相関係数については、初期値を最小値0とし、他の5つの変数については、初期値を最大値1000とする。 The details of the sequential matching process when the pixel position is specified are shown in the flowchart of FIG. First, as in the matching process in S102, each variable that becomes a similarity evaluation value is initialized. Specifically, the minimum value of the luminance histogram difference independent of the angle, the minimum value of the luminance difference independent of the angle, the minimum value of the difference of the luminance histogram dependent on the angle, the minimum value of the luminance difference dependent on the angle, gray Six variables (similarity evaluation values) of the minimum value of the gradation pixel difference and the maximum value of the normalized correlation coefficient are initialized. All of the six similarity evaluation values used in the search process also take a value of 0 to 1000. For the normalized correlation coefficient, the initial value is set to the minimum value 0, and for the other five variables, the initial value is set to the maximum value 1000. And
類似性評価値の初期化が行われたら、まず、その画素位置における探索対象領域の確認を行う(S400)。最初の画素位置は(0,0)であるので、ここから(S−1、S−1)の範囲におけるS×S個の各画素について、探索対象領域として設定されているかどうかを確認する。本実施形態では、各画素の1ビット目の値により探索領域を設定しているため、この値を確認することにより、探索領域であるか非探索領域であるかを判断する。(0,0)を起点とするS×S画素の過半数が探索非対象領域である場合には(1ビット目が0である画素の個数>S×S/2)、次の画素位置(1,0)に移動し(不適合終了)、S400の探索対象領域の確認を行う。このS400における処理により、探索非対象領域に対しては、S401以降の処理を行わないことになり、全体としての探索処理の効率化が図られる。 When the similarity evaluation value is initialized, first, the search target area at the pixel position is confirmed (S400). Since the first pixel position is (0, 0), it is confirmed whether or not each of S × S pixels in the range of (S−1, S−1) is set as a search target region. In this embodiment, since the search area is set by the value of the first bit of each pixel, whether this is a search area or a non-search area is determined by checking this value. When a majority of S × S pixels starting from (0, 0) are search non-target regions (number of pixels whose first bit is 0> S × S / 2), the next pixel position (1 , 0) (nonconformity end), and the search target area in S400 is confirmed. By the process in S400, the process after S401 is not performed for the search non-target area, and the efficiency of the search process as a whole is improved.
S400において、1画素でも探索対象領域として設定された画素が存在する場合は、輝度ヒストグラムの照合を行う(S401)。具体的には、上記S201と同様に、〔数式4〕に従った処理を実行して輝度ヒストグラム差分を算出する。そして、この輝度ヒストグラム差分と、S103で設定した判定基準値の比較を行い、判定基準値より大きい場合は、不適合となる。判定基準値と等しい場合は、どちらになるように設定しておいても良いが、本実施形態では、不適合と判断するよう設定している。これは、他の類似性評価値についても同様である。なお、不適合とは、類似性がないことを意味する。不適合となった場合は、現在利用しているテンプレート画像では適合しないと判断し、全てのテンプレート画像との処理を終えたかどうかを判断する(S411)。全てのテンプレート画像との処理が終了していない場合は、別のテンプレート画像に変更して(S412)、S400に戻る。 In S400, when there is a pixel set as a search target region even in one pixel, the luminance histogram is collated (S401). Specifically, as in S201 above, the process according to [Formula 4] is executed to calculate the luminance histogram difference. Then, the luminance histogram difference is compared with the determination reference value set in S103, and if it is larger than the determination reference value, it is not suitable. If it is equal to the determination reference value, it may be set to be either, but in this embodiment, it is set to be determined as non-conforming. The same applies to other similarity evaluation values. Nonconformity means that there is no similarity. If it does not match, it is determined that the currently used template image does not match, and it is determined whether or not the processing with all template images has been completed (S411). If processing with all template images has not been completed, the template image is changed to another template image (S412), and the process returns to S400.
S401において、輝度ヒストグラム差分が判定基準値より小さい場合は、輝度分散の照合を行う(S402)。具体的には、上記S202と同様に、〔数式7〕に従った処理を実行して輝度分散差分を算出する。そして、この輝度分散差分と、S103で設定した判定基準値の比較を行い、判定基準値以上の場合は、不適合となる。不適合となった場合の処理は、S401で不適合となった場合と同様である。S401、S402の処理は、上記S201、S202の処理と同様、共通有効画像領域に対して行われる。S401、S402の処理は、角度に依存しない処理であるため、それぞれテンプレート画像と照合して1回でも不適合であれば、別のテンプレート画像との処理に移行することになる。 If the luminance histogram difference is smaller than the determination reference value in S401, the luminance dispersion is checked (S402). Specifically, as in S202 above, the process according to [Formula 7] is executed to calculate the luminance dispersion difference. Then, the luminance dispersion difference is compared with the determination reference value set in S103. Processing in the case of nonconformity is the same as that in the case of nonconformity in S401. The processes in S401 and S402 are performed on the common effective image area, similar to the processes in S201 and S202. Since the processes of S401 and S402 are processes that do not depend on the angle, if they do not match even once after collating with each template image, the process proceeds to a process with another template image.
S402において、輝度分散差分が判定基準値より小さい場合は、角度に依存する輝度ヒストグラムの照合を行う(S403)。具体的には、上記S401と同様に、〔数式4〕に従った処理を実行して輝度ヒストグラム差分を算出する。ただし、S401、S402の処理とは異なり、同一のテンプレート画像について全ての角度に対して処理を行う。角度に依存する輝度ヒストグラムは、最小のものに更新され、そのときの角度が記録される。そして、全ての角度に対して輝度ヒストグラム差分の算出が終わったら(S404)、最小となった輝度ヒストグラム差分と、S103で設定した判定基準値の比較を行い、輝度ヒストグラム差分が判定基準値以上の場合は、不適合となる。不適合となった場合の処理は、S401で不適合となった場合と同様である。 In S402, when the luminance dispersion difference is smaller than the determination reference value, collation of the luminance histogram depending on the angle is performed (S403). Specifically, as in S401, the process according to [Formula 4] is executed to calculate the luminance histogram difference. However, unlike the processing in S401 and S402, the same template image is processed for all angles. The luminance histogram depending on the angle is updated to the minimum one, and the angle at that time is recorded. When the calculation of the luminance histogram difference is completed for all angles (S404), the minimum luminance histogram difference is compared with the determination reference value set in S103, and the luminance histogram difference is equal to or greater than the determination reference value. In that case, it becomes nonconforming. Processing in the case of nonconformity is the same as that in the case of nonconformity in S401.
角度に依存する輝度ヒストグラムで適合となった場合は、角度に依存する輝度分散の照合を行う(S405)。具体的には、上記S402と同様に、〔数式7〕に従った処理を実行して輝度分散差分を算出する。ただし、S401、S402の処理とは異なり、同一のテンプレート画像について全ての角度に対して処理を行う。角度に依存する輝度分散差分は、最小のものに更新され、そのときの角度が記録される。そして、全ての角度に対して輝度分散差分の算出が終わったら(S406)、最小となった輝度分散差分と、S103で設定した判定基準値の比較を行い、輝度分散差分が判定基準値以上の場合は、不適合となる。不適合となった場合の処理は、S401で不適合となった場合と同様である。 When the luminance histogram depending on the angle is matched, the luminance distribution depending on the angle is collated (S405). Specifically, similarly to S402, the process according to [Formula 7] is executed to calculate the luminance dispersion difference. However, unlike the processing in S401 and S402, the same template image is processed for all angles. The luminance dispersion difference depending on the angle is updated to the minimum, and the angle at that time is recorded. When the calculation of the luminance dispersion difference is completed for all angles (S406), the minimum luminance dispersion difference is compared with the determination reference value set in S103, and the luminance dispersion difference is greater than or equal to the determination reference value. In that case, it becomes nonconforming. Processing in the case of nonconformity is the same as that in the case of nonconformity in S401.
角度に依存する輝度ヒストグラムで適合となった場合は、グレー階調画素差分の算出を行う(S407)。具体的には、上記S205と同様に、〔数式8〕に従った処理を実行してグレー階調画素差分を算出する。グレー階調画素差分の算出処理においても、同一のテンプレート画像について全ての角度に対して処理を行う。グレー階調画素差分は、最小のものに更新され、そのときの角度が記録される。そして、全ての角度に対してグレー階調画素差分の算出が終わったら(S408)、最小となったグレー階調画素差分と、S103で設定した判定基準値の比較を行い、グレー階調画素差分が判定基準値以上の場合は、不適合となる。不適合となった場合の処理は、S401で不適合となった場合と同様である。 When the luminance histogram depending on the angle is matched, the gray gradation pixel difference is calculated (S407). Specifically, similarly to S205 described above, processing according to [Equation 8] is executed to calculate the gray gradation pixel difference. Also in the gray tone pixel difference calculation process, the same template image is processed for all angles. The gray gradation pixel difference is updated to the minimum, and the angle at that time is recorded. When the calculation of the gray gradation pixel difference is completed for all angles (S408), the gray gradation pixel difference that has been minimized is compared with the determination reference value set in S103, and the gray gradation pixel difference is determined. If is more than the criterion value, it is not conforming. Processing in the case of nonconformity is the same as that in the case of nonconformity in S401.
グレー階調画素差分で適合となった場合は、正規化相関係数の算出を行う(S409)。具体的には、上記S206と同様に、〔数式5〕〔数式9〕に従った処理を実行して正規化相関係数を算出する。正規化相関係数の算出処理においても、同一のテンプレート画像について全ての角度に対して処理を行う。正規化相関係数は、最大のものに更新され、そのときの角度が記録される。そして、全ての角度に対して正規化相関係数の算出が終わったら(S410)、最大となった正規化相関係数と、S103で設定した判定基準値の比較を行い、正規化相関係数が判定基準値より大きい場合は適合となり、正規化相関係数が判定基準値以下の場合は不適合となる。 If the gray gradation pixel difference is met, a normalized correlation coefficient is calculated (S409). Specifically, the normalized correlation coefficient is calculated by executing the processing according to [Equation 5] and [Equation 9] as in S206. In the normalized correlation coefficient calculation process, the same template image is processed for all angles. The normalized correlation coefficient is updated to the maximum value, and the angle at that time is recorded. When calculation of the normalized correlation coefficient is completed for all angles (S410), the normalized normalized correlation coefficient is compared with the criterion value set in S103, and the normalized correlation coefficient is calculated. Is greater than the criterion value, it is compliant, and when the normalized correlation coefficient is less than the criterion value, it is not compliant.
全テンプレート画像について処理が終わったら(S411)、全項目すなわち6つの類似性評価値全てが適合であるテンプレートがあるかどうかを判断する(S413)。全項目が適合であるテンプレートがある場合は、グレー階調画素差分が最小の場合と、正規化相関係数が最大の場合のテンプレートIDと、その角度が一致するかどうかを判断する(S414)。すなわち、S407およびS408におけるグレー階調画素差分の算出処理において最小値を与えるテンプレートおよび角度と、S409およびS410における正規化相関係数の算出処理において最大値を与えるテンプレートおよび角度とが各々一致し、前記一致するテンプレートがS401、S402、S403、S405、S407およびS409において全て適合すると判断された場合は、適合終了となり、各変数、すなわちテンプレートID、画素位置(Xc、Yc)、角度、6つの類似性評価値を出力する。いずれかにおいて、不適合となる場合は、不適合終了となり、次の画素位置に対して、順次マッチング処理を行う。 When the processing is completed for all template images (S411), it is determined whether or not there is a template in which all items, that is, all six similarity evaluation values are suitable (S413). If there is a template in which all items are compatible, it is determined whether or not the angle coincides with the template ID when the gray gradation pixel difference is minimum and when the normalized correlation coefficient is maximum (S414). . That is, the template and angle that give the minimum value in the calculation processing of the gray gradation pixel difference in S407 and S408 and the template and angle that give the maximum value in the calculation processing of the normalized correlation coefficient in S409 and S410 respectively match. If it is determined in S401, S402, S403, S405, S407, and S409 that the matching templates are all matched, matching ends, and each variable, that is, template ID, pixel position (Xc, Yc), angle, and six similarities. The sex evaluation value is output. In any case, in the case of non-conformity, the non-conformance ends, and matching processing is sequentially performed on the next pixel position.
図15に示した順次マッチング処理においては、探索領域設定手段62により、S400の探索対象領域の確認、角度非依存類似性判断手段41により、S401の角度に依存しない輝度ヒストグラムの照合、S402の角度に依存しない輝度分散の照合、角度依存類似性判断手段42により、S403の角度に依存する輝度ヒストグラムの照合、S405の角度に依存する輝度分散の照合、S407のグレー階調画素差分の算出、S409の正規化相関係数の算出の計7つの適合性判定処理が行われるが、これらの適合性判定処理は、処理負荷が小さいものから順に行われるように設定されている。すなわち、本実施形態では、S400の探索対象領域の確認が最も処理負荷が小さく、続いて角度に依存しない輝度ヒストグラムの照合が処理負荷が2番目に小さく、正規化相関係数の算出が最も処理負荷が大きい。これは、1つの処理で不適合と判定された場合に、全体として非類似と判断するという条件とすると、処理負荷が小さいものから先に行った方が効率が良いからである。特に、S400の探索対象領域の確認はテンプレートと照合を行う必要がなく、順次マッチング処理の対象となる領域内で探索領域設定手段62により設定された画素をカウントするだけでよいため、これ以降の順次マッチング処理のいずれよりも処理負荷が小さくなり、探索領域設定手段62により設定される画素の割合は一般に10%以下であるため、90%強の領域においてこれ以降の順次マッチング処理を実行せずに不適合と判断できる。続いて順次マッチング処理の中で、角度に依存する輝度ヒストグラムの照合、角度に依存する輝度分散の照合、グレー階調画素差分の算出、正規化相関係数の算出については、各角度について実行するため、1つの角度についてのみ実行する角度に依存しない輝度ヒストグラムの照合、角度に依存しない輝度分散の照合に比べて処理負荷は格段に大きくなる。また、角度に依存する処理の中でも、輝度ヒストグラム、輝度分散のように画像全体で1つの値を算出し、照合する処理は、グレー階調画素差分、正規化相関係数のように、画素単位で照合する処理に比べて処理負荷が小さいため、先に行うようにし、全体としての処理負荷を軽減している。 In the sequential matching process shown in FIG. 15, the search area setting unit 62 confirms the search target area in S400, the angle-independent similarity determination unit 41 collates the luminance histogram independent of the angle in S401, and the angle in S402. Brightness-dependent collation that does not depend on the angle, the angle-dependent similarity determination means 42 collates the brightness histogram that depends on the angle in S403, the brightness dispersion that depends on the angle in S405, the calculation of the gray-scale pixel difference in S407, S409 A total of seven suitability determination processes for calculating the normalized correlation coefficient are performed, and these suitability determination processes are set so as to be performed in order from the smallest processing load. In other words, in the present embodiment, checking the search target area in S400 has the smallest processing load, followed by matching of the brightness histogram that does not depend on the angle has the second smallest processing load, and the calculation of the normalized correlation coefficient is the most processed. The load is large. This is because, when it is determined that the non-conformity is determined in one process, it is more efficient to perform the process starting from the one with the smallest processing load if it is determined as dissimilar as a whole. In particular, the search target area in S400 does not need to be checked against the template, and it is only necessary to count the pixels set by the search area setting means 62 in the area that is the target of the matching process in sequence. Since the processing load is smaller than that of any of the sequential matching processes, and the ratio of pixels set by the search area setting unit 62 is generally 10% or less, the subsequent sequential matching processes are not executed in an area of more than 90%. Can be judged as non-conforming. Subsequently, in the matching process, the angle-dependent luminance histogram matching, the angle-dependent luminance dispersion matching, the gray-scale pixel difference calculation, and the normalized correlation coefficient calculation are executed for each angle. For this reason, the processing load is significantly increased as compared to the luminance histogram matching that is executed for only one angle and the luminance dispersion matching that is independent of the angle. In addition, among the processes depending on the angle, a process for calculating and collating one value for the entire image such as a luminance histogram and luminance variance is performed in units of pixels such as a gray gradation pixel difference and a normalized correlation coefficient. Since the processing load is small compared to the processing of collating with the above, the processing load is reduced as a whole because the processing load is performed first.
S301の順次マッチング処理が適合終了となったら、次に、目標物探索部40は、局所マッチング処理を行う(S302)。S301の順次マッチング処理は、探索対象画像全体における目標物の大まかな位置を探索するのに対し、S302の局所マッチング処理は、目標物の詳細な位置を探索する。具体的には、順次マッチング処理で最適と判断された位置(Xc、Yc)を起点に、画素スキャン進行方向(右方向、下方向)に所定の微小幅(ΔX、ΔY)だけ動かしながらテンプレートマッチングを実行し、6つの類似性評価値を最小値、最大値に更新し、そのときのテンプレートID、画素位置(Xm、Ym)、角度Amを出力する。マッチング処理の詳細は、図15に示した順次マッチング処理とは異なり図8のS102のマッチング処理、具体的には図10に示される処理と同じである。順次マッチング処理はある位置(Xc,Yc)で適合するか否かだけを判定すれば良かったが、局所マッチング処理は適合判定される微小範囲内で、更に最良の条件で適合する位置を探索する必要があるためである。 When the sequential matching process in S301 is completed, the target object search unit 40 performs a local matching process (S302). The sequential matching process in S301 searches for a rough position of the target in the entire search target image, whereas the local matching process in S302 searches for a detailed position of the target. Specifically, template matching is performed by moving a predetermined minute width (ΔX, ΔY) in the pixel scan progression direction (rightward, downward) starting from the position (Xc, Yc) determined to be optimal by sequential matching processing. And the six similarity evaluation values are updated to the minimum value and the maximum value, and the template ID, pixel position (Xm, Ym), and angle Am at that time are output. The details of the matching process are the same as the matching process in S102 of FIG. 8, specifically the process shown in FIG. 10, unlike the sequential matching process shown in FIG. The sequential matching process only has to determine whether or not the matching is performed at a certain position (Xc, Yc), but the local matching process searches for a matching position under the best condition within a minute range in which the matching is determined. This is necessary.
局所マッチング処理が終了したら、目標物探索部40の探索結果出力手段43が、探索結果の出力を行う(S303)。具体的には、テンプレートID、位置(Xm、Ym)、角度Am、および6つの類似性評価値をリスト出力する。 When the local matching process is completed, the search result output unit 43 of the target object search unit 40 outputs the search result (S303). Specifically, the template ID, position (Xm, Ym), angle Am, and six similarity evaluation values are output as a list.
続いて、検出目標物消去手段44が、検出領域の消去を行う(S304)。具体的には、探索対象画像において、最適位置におけるテンプレート画像の図5で示した有効画像領域内部(内側多角形内部)に相当する部分を消去する。すなわち、有効画像領域内部に位置する探索対象画像上の画素の値を全て0(探索対象を示す1ビット目は変更せず、2〜8ビット目のビット値を全て0)にセットする。図16は、探索対象画像上における探索の結果の最適位置と、消去された領域を示す図である。探索の結果、探索対象画像上の目標物に対して、図16(a)に示すような位置がテンプレート画像の内側多角形と外側多角形の最適位置となった場合、図16(b)に示すように、探索対象画像上における有効画像領域(内側多角形内部)に相当する部分が消去される。図16(b)においては、外側多角形を点線で示しているが、仮に外側多角形の内部、すなわち有効画像領域内部に加えて内側マスク領域を消去すると、隣接する目標物の一部を消去してしまうことになり、隣接する目標物の検出が困難となる。このように、テンプレート画像の内側多角形内部に対応する領域を消去した場合でも、本探索処理終了後に探索位置を探索対象画像上でグラフィカルに表示する要求に応えるため、目標物探索部40は、消去前のオリジナルの探索対象画像をバックアップ保存する。 Subsequently, the detection target erasing unit 44 erases the detection area (S304). Specifically, in the search target image, a portion corresponding to the inside of the effective image area (inside the inner polygon) shown in FIG. 5 of the template image at the optimum position is deleted. That is, the values of the pixels on the search target image located inside the effective image area are all set to 0 (the first bit indicating the search target is not changed and the bit values of the second to eighth bits are all 0). FIG. 16 is a diagram illustrating the optimum position of the search result on the search target image and the erased area. As a result of the search, when the position as shown in FIG. 16A is the optimum position of the inner polygon and the outer polygon of the template image with respect to the target on the search target image, FIG. As shown, the portion corresponding to the effective image area (inside the inner polygon) on the search target image is deleted. In FIG. 16B, the outer polygon is indicated by a dotted line. However, if the inner mask area is deleted in addition to the inside of the outer polygon, that is, the effective image area, a part of the adjacent target is deleted. Therefore, it is difficult to detect an adjacent target. Thus, even when the region corresponding to the inside of the inner polygon of the template image is deleted, in order to respond to a request to graphically display the search position on the search target image after the end of the search process, the target object search unit 40 Backup the original search target image before erasure.
S301〜S304の処理は、探索対象領域上の全画素に対して行われる。その際、S304において、有効画像領域の内部に対応する領域が消去されるため、その付近の画素に対して順次マッチング処理を行っても類似判定されることはなく、1つの目標物を重複して見つけてしまうことを防ぐことができる。一方、角度依存テンプレートマッチングで利用される内側マスク領域に対応する探索対象画像上の領域は消去されないため、隣接する目標物を消去するのを防ぐことができる。 The processing of S301 to S304 is performed on all pixels on the search target area. At this time, since the area corresponding to the inside of the effective image area is deleted in S304, the similarity determination is not performed even if the matching processing is sequentially performed on the neighboring pixels, and one target is overlapped. Can be prevented. On the other hand, since the area on the search target image corresponding to the inner mask area used in the angle-dependent template matching is not deleted, it is possible to prevent the adjacent target from being deleted.
S303において出力された結果は、上述のように、探索結果出力手段43により探索結果として出力される。具体的には、検出された目的物の位置・方角をリスト出力する。この場合、位置については、画素位置を衛星画像が保有する緯度経度の情報に変換して出力する。また、探索画像上に検出した目的物の位置をグラフィカルに示すことも可能である。この場合、探索された箇所が全て消去されているため、バックアップ保存されたオリジナルの探索対象画像を再ロードする必要がある。その上に、指定の位置に内側多角形形状の輪郭線を指定の角度で回転させてオーバーレイ表示させ、検出された目的物の位置・方角を明示するようにする。S304の検出領域消去処理を行っても、重複する結果が存在する場合には、人手により1つを残して他は削除するような操作が行なわれる。 The result output in S303 is output as a search result by the search result output means 43 as described above. Specifically, the position / direction of the detected object is output as a list. In this case, for the position, the pixel position is converted into information on latitude and longitude held in the satellite image and output. It is also possible to graphically indicate the position of the target object detected on the search image. In this case, since all the searched parts are deleted, it is necessary to reload the original search target image stored in the backup. In addition, the outline of the inner polygonal shape is rotated at a specified position at a specified angle and displayed as an overlay, and the detected position / direction of the target object is clearly indicated. Even if the detection area erasing process of S304 is performed, if there are overlapping results, an operation is performed in which one is manually deleted and the others are deleted.
探索結果出力手段43は、リスト出力以外の形態で探索結果を出力することも可能である。本実施形態では、リスト出力を行うとともに、目標物の検出位置に対応した内側四角形形状を画像上に配置する出力も行う。図17は、探索結果出力手段43が出力した探索済み画面の一例を示す図である。長方形状の多数の枠は、テンプレート画像の内側四角形形状に対応し、目標物が検出された箇所を示すものである。また、濃い網掛けは、探索対象領域を示しており、その他は、探索非対象領域を示している。図17から明らかなように、長方形状の枠は、探索対象領域にだけ存在している。これは、探索非対象領域においては、探索を行わないためである。なお、実際には、探索結果出力手段43は、カラー出力を行うため、探索対象領域を赤で出力し、長方形の枠を緑で出力する処理を行う。 The search result output means 43 can output search results in a form other than list output. In the present embodiment, a list output is performed, and an output in which an inner rectangular shape corresponding to the target detection position is arranged on the image is also performed. FIG. 17 is a diagram illustrating an example of a searched screen output by the search result output unit 43. A large number of rectangular frames correspond to the inner rectangular shape of the template image, and indicate locations where the target is detected. In addition, dark shading indicates a search target area, and the other indicates a search non-target area. As is clear from FIG. 17, the rectangular frame exists only in the search target region. This is because the search is not performed in the search non-target region. In practice, the search result output means 43 performs a process of outputting the search target area in red and outputting a rectangular frame in green in order to perform color output.
上記実施形態では、探索時には、テンプレート画像については、その内容が更新されることなく利用される場合について説明したが、探索時においても、探索準備段階と同様、テンプレート画像の更新を行うようにしても良い。この場合、S302の局所マッチング処理の後、第2のテンプレート更新手段45が、S104と同様の処理を実行する。具体的には、S302で決定された画素位置(Xm、Ym)の画素ブロックを用いて、S302で決定されたテンプレートIDで特定されるテンプレート画像の各角度の画像を更新する。ここでも、S104と同様、まず、各テンプレート画像のうち、S302で決定された最適角度のものと探索対象画像上の画素ブロックの合成を行う。テンプレート画像においてマスク領域は合成を行わないので、テンプレート画像中の有効画像領域と内側マスク領域についてのみ合成を行う。 In the above embodiment, the case where the template image is used without being updated at the time of searching has been described. However, at the time of searching, the template image is updated as in the search preparation stage. Also good. In this case, after the local matching process in S302, the second template updating unit 45 executes the same process as in S104. Specifically, the image at each angle of the template image specified by the template ID determined in S302 is updated using the pixel block at the pixel position (Xm, Ym) determined in S302. Here, as in S104, first, among the template images, the optimal angle determined in S302 and the pixel block on the search target image are synthesized. Since the mask area is not combined in the template image, only the effective image area and the inner mask area in the template image are combined.
合成の具体的な手法としては、図11を用いて説明したように、S104と同様、外側多角形形状内部の各画素単位で整数の擬似乱数を順次発生させ、所定の数が出たら、探索対象画像上の画素ブロックの対応する画素の値に置き換える。最適角度のパターンについて更新処理が終わったら、第2のテンプレート更新手段45が、他の角度のパターンについても更新を行うのもS104と同様である。なお、本実施形態では、第2のテンプレート更新手段45は、目標物探索部40の一部として機能するが、その具体的な機能は、テンプレート準備部20内のテンプレート更新手段23と同一であり、実際にはソフトウェアモジュールとして提供される。そのため、角度非依存類似性判断手段41、角度依存類似性判断手段42による処理の後、目標物探索部40からの指示により、テンプレート更新手段23がテンプレート画像の更新処理を実行するようにしても良い。この場合は、テンプレート更新手段23が第2のテンプレート更新手段として機能することになる。 As a specific method of synthesis, as described with reference to FIG. 11, as in S104, an integer pseudorandom number is sequentially generated for each pixel inside the outer polygonal shape, and when a predetermined number is obtained, a search is performed. Replace with the value of the corresponding pixel in the pixel block on the target image. When the update process for the optimum angle pattern is completed, the second template update unit 45 updates the other angle patterns as in S104. In the present embodiment, the second template update unit 45 functions as a part of the target object search unit 40, but its specific function is the same as the template update unit 23 in the template preparation unit 20. Actually provided as a software module. Therefore, after the processing by the angle-independent similarity determination unit 41 and the angle-dependent similarity determination unit 42, the template update unit 23 may execute a template image update process according to an instruction from the target object search unit 40. good. In this case, the template update unit 23 functions as a second template update unit.
10・・・探索対象画像記憶部
20・・・テンプレート準備部
21・・・テンプレート作成手段
22・・・判定基準値設定手段
23・・・テンプレート更新手段
30・・・テンプレート記憶部
40・・・目標物探索部
41・・・角度非依存類似性判断手段
42・・・角度依存類似性判断手段
43・・・探索結果出力手段
44・・・検出目標物消去手段
45・・・第2のテンプレート更新手段
50・・・探索結果記憶部
60・・・探索領域設定部
61・・・画素判定基準値設定手段
62・・・探索領域設定手段
DESCRIPTION OF SYMBOLS 10 ... Search object image storage part 20 ... Template preparation part 21 ... Template preparation means 22 ... Determination reference value setting means 23 ... Template update means 30 ... Template storage part 40 ... Target search unit 41... Angle-independent similarity determination means 42... Angle-dependent similarity determination means 43... Search result output means 44. Update means 50 ... search result storage section 60 ... search area setting section 61 ... pixel judgment reference value setting means 62 ... search area setting means
Claims (15)
所定サイズの画素ブロックに対して、少なくとも2つ以上の画素群を定め、各々の画素群別に、あるいは異なる画素群間で所定の画素評価算出式、当該画素評価算出式に応じた画素判定基準値、画素評価算出式により算出される画素評価値と画素判定基準値の関係による設定条件が定義された画素評価ルールを利用して、前記探索対象画像から、前記所定数の画素ブロックを順次抽出し、当該画素ブロックにおける画素を用いて前記画素評価算出式により画素評価値を算出し、当該画素評価値と前記画素判定基準値を比較し、比較結果が前記設定条件を満たすか否かに従って、前記抽出した画素ブロックにおける画素を、探索対象か探索非対象かのいずれかに設定する探索領域設定手段と、
前記設定された探索対象領域に対して、先頭画素位置から最終画素位置まで抽出位置を順次移動させながら、前記各テンプレート画像と同一サイズの画素ブロックを前記探索対象画像から抽出し、前記テンプレート画像と前記画素ブロックの類似性評価値を算出し、当該類似性評価値と前記設定された判定基準値と比較することにより類似性を判断する類似性判断手段と、
前記類似性判断手段により類似性ありと判断された場合に、その際のテンプレート画像のID、前記探索対象画像上における画素ブロックの位置を特定する画素位置、前記テンプレート画像の回転角度を出力する探索結果出力手段と、
を有することを特徴とする目標物検出システム。 A system for detecting a target from a search target image, which is a search target, using a template image including the target,
At least two or more pixel groups are defined for a pixel block of a predetermined size, a predetermined pixel evaluation calculation formula for each pixel group or between different pixel groups, and a pixel determination reference value corresponding to the pixel evaluation calculation formula The predetermined number of pixel blocks are sequentially extracted from the search target image using a pixel evaluation rule in which a setting condition based on a relationship between a pixel evaluation value calculated by a pixel evaluation calculation formula and a pixel determination reference value is defined. The pixel evaluation value is calculated by the pixel evaluation calculation formula using the pixel in the pixel block, the pixel evaluation value is compared with the pixel determination reference value, and whether the comparison result satisfies the setting condition, Search area setting means for setting a pixel in the extracted pixel block to either a search target or a search non-target;
Extracting a block of pixels having the same size as each of the template images from the search target image while sequentially moving the extraction position from the start pixel position to the final pixel position with respect to the set search target region, Similarity determination means for calculating a similarity evaluation value of the pixel block and determining the similarity by comparing the similarity evaluation value with the set determination reference value;
A search for outputting the template image ID, the pixel position for specifying the position of the pixel block on the search target image, and the rotation angle of the template image when the similarity determination unit determines that there is similarity. A result output means;
A target detection system comprising:
前記探索領域設定手段は、前記探索対象画像から抽出した画素ブロック内の所定の一画素が探索対象である場合に、前記抽出した画素ブロック内の画素全てを探索対象として設定することを特徴とする目標物検出システム。 In claim 1,
The search area setting means sets all pixels in the extracted pixel block as search targets when a predetermined pixel in the pixel block extracted from the search target image is a search target. Target detection system.
前記画素ブロックは、M×M画素の正方形状であって、前記探索領域設定手段は、前記画素群として、中央の(M−2)×(M−2)画素の中央画素群と残りの周辺画素の周辺画素群の2つを定め、中央画素群の最小値、最大値、平均値をVimin、Vimax、Viave、周辺画素群の最小値、最大値、平均値をVomin、Vomax、Voaveとしたときの、前記画素評価値Viave、Voave、Vimax−Vomin、Vomax−Vimin、Viave−Voaveを算出し、画素評価値Viave、Voaveについては、それぞれ2種の画素判定基準値、画素評価値Vimax−Vomin、Vomax−Vimin、Viave−Voaveについては、それぞれ1種の画素判定基準値が設定されていることを特徴とする目標物検出システム。 In claim 1,
The pixel block has a square shape of M × M pixels, and the search area setting means includes a central pixel group of the center (M−2) × (M−2) pixels and the remaining surroundings as the pixel group. Two peripheral pixel groups are defined, and the minimum, maximum, and average values of the central pixel group are V imin , V imax , V iave , and the minimum, maximum, and average values of the peripheral pixel group are V omin , V omax, when formed into a V OAVE, the pixel evaluated value V iave, V oave, V imax -V omin, V omax -V imin, calculates V iave -V oave, pixel evaluation value V Iave, the V OAVE is Each of the two types of pixel determination reference values, pixel evaluation values V imax −V omin , V omax −V imin , and V iave −V oave is characterized in that one type of pixel determination reference value is set. Target detection system.
目標物のサンプルが写っているサンプル画像で指定された位置に対応する前記所定サイズの画素ブロックを抽出し、当該画素ブロックに対して画素評価値を算出し、当該画素評価値に所定の演算を施すことにより画素判定基準値を算出する画素判定基準値設定手段をさらに有することを特徴とする目標物検出システム。 In any one of Claims 1-3,
The pixel block of the predetermined size corresponding to the position specified in the sample image in which the sample of the target object is shown is extracted, a pixel evaluation value is calculated for the pixel block, and a predetermined calculation is performed on the pixel evaluation value. A target object detection system, further comprising: a pixel determination reference value setting unit that calculates a pixel determination reference value by applying the pixel determination reference value.
前記類似性判断手段は、
前記探索対象画像に対して、先頭画素位置から最終画素位置まで抽出位置を順次移動させながら、前記各テンプレート画像と同一サイズの画素ブロックを前記探索対象画像から抽出し、前記テンプレート画像の角度を回転させず、前記テンプレート画像に含まれる画素とそれに対応する前記画素ブロック内の画素とを所定の照合方法で照合して、角度に依存しない類似性評価値を算出し、当該類似性評価値と事前に設定された判定基準値と比較することにより類似性を判断する角度非依存類似性判断手段と、
前記角度非依存類似性判断手段で類似性ありと判断された場合に、前記テンプレート画像を所定の角度で回転させながら、前記テンプレート画像に含まれる画素とそれに対応する前記画素ブロック内の画素とを所定の照合方法で照合して類似性評価値を算出し、事前に設定された判定基準値と比較することにより類似性を判断する角度依存類似性判断手段と、
を有することを特徴とする目標物検出システム。 In any one of Claims 1-4,
The similarity determination means includes
Extracting a pixel block of the same size as each template image from the search target image while sequentially moving the extraction position from the start pixel position to the final pixel position with respect to the search target image, and rotating the angle of the template image Without comparing, the pixel included in the template image and the corresponding pixel in the pixel block are collated with a predetermined collation method to calculate a similarity evaluation value that does not depend on the angle, Angle-independent similarity determination means for determining similarity by comparing with a determination reference value set to
When the angle-independent similarity determining unit determines that there is similarity, the template image is rotated by a predetermined angle, and the pixels included in the template image and the corresponding pixels in the pixel block are An angle-dependent similarity determination unit that calculates a similarity evaluation value by collating with a predetermined collation method, and determines similarity by comparing with a preset criterion value;
A target detection system comprising:
前記角度非依存類似性判断手段は、複数の類似性評価値を算出し、各類似性評価値と対応する判定基準値と比較することにより、各類似性評価値に対応した類似性を判断し、いずれか1つの類似性評価値で類似性がない場合には、類似性なしと判断するものであることを特徴とする目標物検出システム。 In claim 5,
The angle-independent similarity determination means determines a similarity corresponding to each similarity evaluation value by calculating a plurality of similarity evaluation values and comparing each similarity evaluation value with a corresponding criterion value. A target detection system characterized in that if there is no similarity in any one of the similarity evaluation values, it is determined that there is no similarity.
前記角度依存類似性判断手段は、複数の類似性評価値を算出し、各類似性評価値と対応する判定基準値と比較することにより、各類似性評価値に対応した類似性を判断し、いずれか1つの類似性評価値で類似性がない場合には、類似性なしと判断するものであることを特徴とする目標物検出システム。 In claim 5 or claim 6,
The angle-dependent similarity determination means determines a similarity corresponding to each similarity evaluation value by calculating a plurality of similarity evaluation values and comparing each similarity evaluation value with a corresponding criterion value, A target object detection system characterized in that if there is no similarity in any one of the similarity evaluation values, it is determined that there is no similarity.
前記角度非依存類似性判断手段は、前記テンプレート画像に含まれる画素とそれに対応する前記画素ブロック内の画素の各々に対する輝度ヒストグラムを算出し、双方の輝度ヒストグラム同士のユークリッド距離を、前記類似性評価値として用いるものであることを特徴とする目標物検出システム。 In any one of Claims 5-7,
The angle-independent similarity determination means calculates a luminance histogram for each of the pixels included in the template image and the corresponding pixels in the pixel block, and calculates the Euclidean distance between the two luminance histograms as the similarity evaluation. A target detection system characterized by being used as a value.
前記角度非依存類似性判断手段は、前記テンプレート画像に含まれる画素とそれに対応する前記画素ブロック内の画素の各々に対する輝度分散を算出し、双方の輝度分散同士の差を、前記類似性評価値として用いるものであることを特徴とする目標物検出システム。 In any one of Claims 5-8,
The angle-independent similarity determining means calculates a luminance variance for each of the pixels included in the template image and the corresponding pixels in the pixel block, and the difference between the two luminance variances is calculated as the similarity evaluation value. A target object detection system characterized by being used as an object.
前記角度依存類似性判断手段は、前記テンプレート画像に含まれる画素とそれに対応する前記画素ブロック内の画素の各々に対する輝度ヒストグラムを算出し、双方の輝度ヒストグラム同士のユークリッド距離を、前記類似性評価値として用いるものであることを特徴とする目標物検出システム。 In any one of Claims 5-9,
The angle-dependent similarity determining means calculates a luminance histogram for each of the pixels included in the template image and the corresponding pixels in the pixel block, and calculates the Euclidean distance between the two luminance histograms as the similarity evaluation value. A target object detection system characterized by being used as an object.
前記角度依存類似性判断手段は、前記テンプレート画像に含まれる画素とそれに対応する前記画素ブロック内の画素の各々に対する輝度分散を算出し、双方の輝度分散同士の差を、前記類似性評価値として用いるものであることを特徴とする目標物検出システム。 In any one of Claims 5-10,
The angle-dependent similarity determination unit calculates a luminance variance for each of the pixels included in the template image and the corresponding pixels in the pixel block, and the difference between the two luminance variances is used as the similarity evaluation value. A target detection system characterized by being used.
前記角度依存類似性判断手段は、前記テンプレート画像に含まれる画素とそれに対応する前記画素ブロック内の画素のグレー階調値の差分値を、前記類似性評価値として用いるものであることを特徴とする目標物検出システム。 In any one of Claims 5-11,
The angle-dependent similarity determination means uses a difference value between a gray gradation value of a pixel included in the template image and a corresponding pixel in the pixel block as the similarity evaluation value. Target detection system.
前記角度依存類似性判断手段は、前記テンプレート画像に含まれる画素とそれに対応する前記画素ブロック内の画素の階調値に基づく正規化相関係数を、前記類似性評価値として用いるものであることを特徴とする目標物検出システム。 In any one of Claims 5-12,
The angle-dependent similarity determination means uses a normalized correlation coefficient based on a gradation value of a pixel included in the template image and a corresponding pixel in the pixel block as the similarity evaluation value. A target detection system.
前記探索結果出力手段は、前記探索対象画像上に、前記探索対象領域と前記探索非対象領域を区別して表示するとともに、前記類似性判断手段により検出された目標物について、前記テンプレート画像の回転角度に対応したテンプレート画像の内側に定義されている多角形形状を、前記探索対象画像上に重ねて出力することを特徴とする目標物検出システム。 In any one of Claims 1-13,
The search result output means distinguishes and displays the search target area and the search non-target area on the search target image, and the rotation angle of the template image for the target detected by the similarity determination means. A target object detection system, wherein a polygonal shape defined inside a template image corresponding to is overlapped on the search target image and output.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008176256A JP5012703B2 (en) | 2008-07-04 | 2008-07-04 | Target detection system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008176256A JP5012703B2 (en) | 2008-07-04 | 2008-07-04 | Target detection system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010015468A JP2010015468A (en) | 2010-01-21 |
JP5012703B2 true JP5012703B2 (en) | 2012-08-29 |
Family
ID=41701522
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008176256A Expired - Fee Related JP5012703B2 (en) | 2008-07-04 | 2008-07-04 | Target detection system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5012703B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108399410A (en) * | 2017-12-15 | 2018-08-14 | 天津津航计算技术研究所 | A kind of right angle detection method based on image procossing |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3988657B2 (en) * | 2003-02-27 | 2007-10-10 | 日産自動車株式会社 | Object detection device |
JP4365776B2 (en) * | 2004-12-17 | 2009-11-18 | 日立ソフトウエアエンジニアリング株式会社 | Spot image detection method and spot image detection program |
JP4941420B2 (en) * | 2008-07-08 | 2012-05-30 | 大日本印刷株式会社 | Target detection system |
-
2008
- 2008-07-04 JP JP2008176256A patent/JP5012703B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2010015468A (en) | 2010-01-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9245345B2 (en) | Device for generating three dimensional feature data, method for generating three-dimensional feature data, and recording medium on which program for generating three-dimensional feature data is recorded | |
US7983474B2 (en) | Geospatial modeling system and related method using multiple sources of geographic information | |
US11804025B2 (en) | Methods and systems for identifying topographic features | |
JP5035549B2 (en) | Target detection system | |
JP4941420B2 (en) | Target detection system | |
CN112633185A (en) | Image processing method and device | |
JP2005234603A (en) | Map information updating method and map updating device | |
JP4984261B2 (en) | Target detection system | |
JP7418281B2 (en) | Feature classification system, classification method and its program | |
JP5076956B2 (en) | Target detection system | |
JP5076969B2 (en) | Target detection system | |
AU2012100257A4 (en) | Method for Radiometric Information Restoration of Mountainous Shadows in Remotely Sensed Images | |
US20240020924A1 (en) | Method for generating land-cover maps | |
JP5076972B2 (en) | Target detection system | |
Yoo et al. | True orthoimage generation by mutual recovery of occlusion areas | |
JP3437671B2 (en) | Landmark recognition device and landmark recognition method | |
JP5012703B2 (en) | Target detection system | |
JP5076976B2 (en) | Target detection system | |
KR100981588B1 (en) | A system for generating geographical information of city facilities based on vector transformation which uses magnitude and direction information of feature point | |
JP4941421B2 (en) | Target detection system | |
Sofina et al. | Object-based change detection using high-resolution remotely sensed data and GIS | |
US20240273860A1 (en) | Image processing device and image processing method | |
Beumier et al. | Building change detection by histogram classification | |
Lavigne et al. | Automatic building detection and 3D shape recovery from single monocular electro-optic imagery | |
JP5126533B2 (en) | Target detection system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110517 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120426 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120508 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120521 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150615 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5012703 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |