JP2011070264A - Pattern recognition device - Google Patents

Pattern recognition device Download PDF

Info

Publication number
JP2011070264A
JP2011070264A JP2009218715A JP2009218715A JP2011070264A JP 2011070264 A JP2011070264 A JP 2011070264A JP 2009218715 A JP2009218715 A JP 2009218715A JP 2009218715 A JP2009218715 A JP 2009218715A JP 2011070264 A JP2011070264 A JP 2011070264A
Authority
JP
Japan
Prior art keywords
correlation value
template
image
value map
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009218715A
Other languages
Japanese (ja)
Other versions
JP5353597B2 (en
Inventor
Yasushi Tomita
安 富田
Masahiko Nagao
政彦 長尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2009218715A priority Critical patent/JP5353597B2/en
Publication of JP2011070264A publication Critical patent/JP2011070264A/en
Application granted granted Critical
Publication of JP5353597B2 publication Critical patent/JP5353597B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To solve the problem wherein when an object to be recognized lies partially out of a search area, a position recognition error is produced. <P>SOLUTION: A first correlation value map generating means 112 performs template matching processing by a template image 143 on a template selection image 141, to generate a first correlation value map 144 as a distribution of correlation values at respective positions. A second correlation value map generating means 113 sets a search area for an input image 142 and performs template matching processing by the template image 143, to generate a second correlation value map 145 as a distribution of correlation values at respective positions. A correlation value maximum position estimation means 114 obtains, as an estimated recognition position 146, a position on the input image 142, corresponding to a correlation value maximum place in the first correlation value map 144, when the distribution state of correlation values of the first correlation value map 144 is superimposed so as to best match the distribution state of correlation values of the second correlation value map 145. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、テンプレートマッチング処理により入力画像中の認識対象物の位置を認識するパターン認識装置、パターン認識方法およびプログラムに関する。   The present invention relates to a pattern recognition apparatus, a pattern recognition method, and a program for recognizing the position of a recognition target in an input image by template matching processing.

テンプレートマッチング処理とは、入力画像中でテンプレート画像と同じパターンを持つ認識対象物の位置を検出する処理である。一般的には、入力画像に対して探索領域を設定し、探索領域内の画像にテンプレート画像をずらしながら重ね合わせて相関値を計算し、最も高い相関値が得られた場所を認識対象物の存在場所と判断するという処理が行われる。   The template matching process is a process for detecting the position of a recognition object having the same pattern as the template image in the input image. In general, a search area is set for an input image, and a correlation value is calculated by superimposing a template image while shifting the image in the search area, and the location where the highest correlation value is obtained is determined as the recognition target object. A process of determining the location is performed.

テンプレートマッチング処理により認識対象物の位置を認識する技術の一例が特許文献1に記載されている。この技術(以下、関連技術1と称す)では、入力画像に対するテンプレート画像を用いたテンプレートマッチング処理において、相関値の高い箇所が複数検出された場合に、その何れが正解であるかを、それらの個所の周辺のパターンから判断する。具体的には、テンプレート選択画像からテンプレート画像を切り出したときに、このテンプレート選択画像中の当該テンプレート画像を含む領域に対して当該テンプレート画像によるテンプレートマッチング処理を行って、各位置における相関値の分布である周辺類似度分布情報を求めておく。そして、入力画像に対するテンプレートマッチング処理で、相関値の高い複数の個所が検出された場合に、それらの検出個所における周辺の類似度分布(探索画像類似度分布)を上記周辺類似度分布と比較し、上記周辺類似度分布により類似している探索画像類似度分布となる箇所を認識結果とする(0023、0024、0040段落)。   An example of a technique for recognizing the position of a recognition object by template matching processing is described in Patent Document 1. In this technique (hereinafter, referred to as related technique 1), when a plurality of locations having high correlation values are detected in a template matching process using a template image for an input image, which one is correct is determined. Judging from the pattern around the location. Specifically, when a template image is cut out from the template selection image, a template matching process is performed using the template image for an area including the template image in the template selection image, and the correlation value distribution at each position is determined. The peripheral similarity distribution information is obtained in advance. When a plurality of locations with high correlation values are detected in the template matching process for the input image, the peripheral similarity distribution (search image similarity distribution) at those detection locations is compared with the peripheral similarity distribution. A location that becomes a search image similarity distribution that is similar to the peripheral similarity distribution is set as a recognition result (paragraphs 0023, 0024, and 0040).

特開2009−86920号公報JP 2009-86920 A

テンプレートマッチング処理では処理の高速化を図るために、入力画像に対して探索領域を設定するが、その副作用として、認識対象物が探索領域から一部はみ出した場合に、認識対象物の位置の認識誤差が発生する。その理由は、認識対象物が探索領域から一部はみ出していると、テンプレート画像を認識対象物の真上にぴったり重ねることができず、すこしずれた位置で相関値の最大値が出現するためである。   In the template matching process, a search area is set for the input image in order to speed up the process. As a side effect, when the recognition object partially protrudes from the search area, the position of the recognition object is recognized. An error occurs. The reason for this is that if the recognition object partially protrudes from the search area, the template image cannot be superimposed directly above the recognition object, and the maximum correlation value appears at a slightly shifted position. is there.

上述した関連技術1は、このように認識対象物が探索領域から一部はみ出した場合における認識誤差を改善するためには役立たない。その理由は、認識候補となる各箇所の探索画像類似度と周辺類似度分布とを比較するだけでは、認識対象物が探索領域からどれだけはみ出しているかを求めることができないためである。   The related technique 1 described above is not useful for improving the recognition error when the recognition target object partially protrudes from the search area. The reason is that it is not possible to determine how far the recognition object protrudes from the search area simply by comparing the search image similarity at each location that is a recognition candidate and the peripheral similarity distribution.

本発明の目的は、認識対象物が探索領域から一部はみ出している場合に位置の認識誤差が発生するという課題を解決するパターン認識装置、パターン認識方法およびプログラムを提供することにある。   An object of the present invention is to provide a pattern recognition apparatus, a pattern recognition method, and a program that solve the problem that a position recognition error occurs when a recognition object partially protrudes from a search area.

本発明の一形態であるパターン認識装置は、
テンプレート選択画像からテンプレート画像を作成するテンプレート画像作成手段と、
上記テンプレート選択画像に対して、上記テンプレート画像によるテンプレートマッチング処理を行い、上記テンプレート選択画像の各位置での相関値の分布である第1の相関値マップを作成する第1の相関値マップ作成手段と、
入力画像に設定された探索領域に対して、上記テンプレート画像によるテンプレートマッチング処理を行い、上記入力画像の各位置での相関値の分布である第2の相関値マップを作成する第2の相関値マップ作成手段と、
上記第2の相関値マップにおける相関値の分布状態に最も良く適合するように上記第1の相関値マップの相関値の分布状態を重ね合わせたときの上記第1の相関値マップにおける相関値最大箇所に対応する上記入力画像上の位置を推定認識位置として求める相関値最大位置推定手段とを備える。
A pattern recognition apparatus according to an aspect of the present invention is
Template image creation means for creating a template image from a template selection image;
First correlation value map creating means for performing template matching processing on the template selection image using the template image and creating a first correlation value map that is a distribution of correlation values at each position of the template selection image When,
A second correlation value for performing a template matching process using the template image on the search region set in the input image and creating a second correlation value map that is a distribution of correlation values at each position of the input image Map creation means;
The maximum correlation value in the first correlation value map when the correlation value distribution states in the first correlation value map are superimposed so as to best match the distribution state of the correlation values in the second correlation value map. Correlation value maximum position estimating means for obtaining a position on the input image corresponding to the location as an estimated recognition position.

また、本発明の他の形態であるパターン認識方法は、
テンプレート画像作成手段が、テンプレート選択画像からテンプレート画像を作成し、
第1の相関値マップ作成手段が、上記テンプレート選択画像に対して、上記テンプレート画像によるテンプレートマッチング処理を行い、上記テンプレート選択画像の各位置での相関値の分布である第1の相関値マップを作成し、
第2の相関値マップ作成手段が、入力画像に設定された探索領域に対して、上記テンプレート画像によるテンプレートマッチング処理を行い、上記入力画像の各位置での相関値の分布である第2の相関値マップを作成し、
相関値最大位置推定手段が、上記第2の相関値マップにおける相関値の分布状態に最も良く適合するように上記第1の相関値マップの相関値の分布状態を重ね合わせたときの上記第1の相関値マップにおける相関値最大箇所に対応する上記入力画像上の位置を推定認識位置として求める、
という構成を採る。
Moreover, the pattern recognition method which is the other form of this invention is the following.
The template image creation means creates a template image from the template selection image,
A first correlation value map creating means performs a template matching process using the template image on the template selection image, and obtains a first correlation value map that is a distribution of correlation values at each position of the template selection image. make,
A second correlation value map creating means performs a template matching process using the template image for the search region set in the input image, and a second correlation that is a distribution of correlation values at each position of the input image. Create a value map
The first correlation value when the correlation value maximum position estimating means superimposes the correlation value distribution states of the first correlation value map so as to best fit the correlation value distribution states in the second correlation value map. The position on the input image corresponding to the maximum correlation value location in the correlation value map is obtained as the estimated recognition position.
The structure is taken.

また、本発明の他の形態であるプログラムは、
コンピュータを、
テンプレート選択画像からテンプレート画像を作成するテンプレート画像作成手段と、
上記テンプレート選択画像に対して、上記テンプレート画像によるテンプレートマッチング処理を行い、上記テンプレート選択画像の各位置での相関値の分布である第1の相関値マップを作成する第1の相関値マップ作成手段と、
入力画像に設定された探索領域に対して、上記テンプレート画像によるテンプレートマッチング処理を行い、上記入力画像の各位置での相関値の分布である第2の相関値マップを作成する第2の相関値マップ作成手段と、
上記第2の相関値マップにおける相関値の分布状態に最も良く適合するように上記第1の相関値マップの相関値の分布状態を重ね合わせたときの上記第1の相関値マップにおける相関値最大箇所に対応する上記入力画像上の位置を推定認識位置として求める相関値最大位置推定手段と
して機能させる、という形態を採る。
Moreover, the program which is the other form of this invention is:
Computer
Template image creation means for creating a template image from a template selection image;
First correlation value map creating means for performing template matching processing on the template selection image using the template image and creating a first correlation value map that is a distribution of correlation values at each position of the template selection image When,
A second correlation value for performing a template matching process using the template image on the search region set in the input image and creating a second correlation value map that is a distribution of correlation values at each position of the input image Map creation means;
The maximum correlation value in the first correlation value map when the correlation value distribution states in the first correlation value map are superimposed so as to best match the distribution state of the correlation values in the second correlation value map. It takes the form of functioning as a correlation value maximum position estimating means for obtaining a position on the input image corresponding to a location as an estimated recognition position.

本発明は上述のように構成されているため、認識対象物が探索領域から一部はみ出している場合における認識位置の誤差を小さくすることができる。   Since the present invention is configured as described above, it is possible to reduce the error of the recognition position when the recognition target object partially protrudes from the search area.

本発明の第1の実施の形態のブロック図である。It is a block diagram of a 1st embodiment of the present invention. 本発明の第1の実施の形態の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the 1st Embodiment of this invention. テンプレート選択画像の一例を示す図である。It is a figure which shows an example of a template selection image. テンプレート画像の一例を示す図である。It is a figure which shows an example of a template image. テンプレート選択画像に設定された探索領域の一例を示す図である。It is a figure which shows an example of the search area | region set to the template selection image. 第1の相関値マップの一例を示す図である。FIG. 6 is a diagram showing an example of a first correlation value map. 入力画像に設定された探索領域の一例を示す図である。It is a figure which shows an example of the search area | region set to the input image. 入力画像に設定された探索領域の中央部に認識目標物が存在する状況を示す図である。It is a figure which shows the condition where a recognition target exists in the center part of the search area | region set to the input image. 入力画像に設定された探索領域内に認識目標物が存在するときの第2の相関値マップの一例を示す図である。It is a figure which shows an example of the 2nd correlation value map when a recognition target exists in the search area | region set to the input image. 入力画像に設定された探索領域の周辺部に認識目標物が存在する状況を示す図である。It is a figure which shows the condition where the recognition target exists in the peripheral part of the search area | region set to the input image. 入力画像に設定された探索領域の周辺部に認識目標物が存在するときの第2の相関値マップの一例を示す図である。It is a figure which shows an example of the 2nd correlation value map when a recognition target exists in the peripheral part of the search area | region set to the input image. 入力画像に設定された探索領域から認識目標物の一部がはみ出している状況を示す図である。It is a figure which shows the condition where a part of recognition target object has protruded from the search area | region set to the input image. 入力画像に設定された探索領域から認識目標物の一部がはみ出しているときの第2の相関値マップの一例を示す図である。It is a figure which shows an example of the 2nd correlation value map when a part of recognition target object has protruded from the search area | region set to the input image. 第1の相関値マップと第2の相関値マップとが最も良くフィティングしている状態を示す図である。It is a figure which shows the state which the 1st correlation value map and the 2nd correlation value map are fitting best. 本発明の第2の実施の形態のブロック図である。It is a block diagram of the 2nd Embodiment of this invention. 本発明の第2の実施の形態の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the 2nd Embodiment of this invention.

[第1の実施の形態]
図1を参照すると、本発明の第1の実施の形態に係るパターン認識装置100は、処理装置110と、入力装置120と、出力装置130と、記憶装置140とを備えている。
[First embodiment]
Referring to FIG. 1, the pattern recognition apparatus 100 according to the first embodiment of the present invention includes a processing device 110, an input device 120, an output device 130, and a storage device 140.

入力装置120は、テンプレート画像を含むテンプレート選択画像や、認識対象物の画像を含む入力画像を入力する装置、例えばカメラである。   The input device 120 is a device that inputs a template selection image including a template image or an input image including an image of a recognition target, for example, a camera.

出力装置130は、パターン認識結果を出力する装置、例えばディスプレイ装置や通信装置などである。本実施の形態では、入力画像中の認識対象物の位置情報をパターン認識結果として出力する。   The output device 130 is a device that outputs a pattern recognition result, such as a display device or a communication device. In the present embodiment, position information of the recognition target object in the input image is output as a pattern recognition result.

記憶装置140は、処理対象となる画像や処理結果、あるいは中間結果を保持する記憶装置であり、例えばコンピュータのメモリや外部記憶装置で構成される。本実施の形態の記憶装置140は、入力装置120から入力されたテンプレート選択画像141および入力画像142と、処理装置110から出力されたテンプレート画像143、第1の相関値マップ144、第2の相関値マップ145および推定認識位置146とが記憶される。   The storage device 140 is a storage device that holds an image to be processed, a processing result, or an intermediate result, and includes, for example, a computer memory or an external storage device. The storage device 140 according to the present embodiment includes a template selection image 141 and an input image 142 input from the input device 120, a template image 143 output from the processing device 110, a first correlation value map 144, and a second correlation. A value map 145 and an estimated recognition position 146 are stored.

処理装置110は、パターン認識処理を実行する装置であり、例えばコンピュータのCPUである。本実施の形態の処理装置110は、テンプレート画像作成手段111と、第1の相関値マップ作成手段112と、第2の相関値マップ作成手段113と、相関値最大位置推定手段114と、位置出力手段115とを備えている。これらの手段はそれぞれ以下のような機能を有する。   The processing device 110 is a device that executes pattern recognition processing, and is, for example, a CPU of a computer. The processing apparatus 110 according to the present embodiment includes a template image creation unit 111, a first correlation value map creation unit 112, a second correlation value map creation unit 113, a correlation value maximum position estimation unit 114, and a position output. Means 115. Each of these means has the following functions.

テンプレート画像作成手段111は、入力装置120から入力されたテンプレート選択画像141を記憶装置140から読み出し、このテンプレート選択画像141から所望のパターンを包含する矩形の領域をテンプレート画像143として切り出して、記憶装置140に記憶する。   The template image creation unit 111 reads the template selection image 141 input from the input device 120 from the storage device 140, cuts out a rectangular area including a desired pattern from the template selection image 141 as a template image 143, 140.

第1の相関値マップ作成手段112は、記憶装置140からテンプレート選択画像141とテンプレート画像143とを読み出し、テンプレート選択画像141に所定の探索領域を設定してテンプレート画像143によるテンプレートマッチング処理を行い、テンプレート選択画像141の各位置での相関値の分布である第1の相関値マップ144を作成する。   The first correlation value map creating unit 112 reads the template selection image 141 and the template image 143 from the storage device 140, sets a predetermined search area in the template selection image 141, performs template matching processing using the template image 143, A first correlation value map 144 that is a distribution of correlation values at each position of the template selection image 141 is created.

第2の相関値マップ作成手段113は、記憶装置140から入力画像142とテンプレート画像143とを読み出し、入力画像に所定の探索領域を設定してテンプレート画像143によるテンプレートマッチング処理を行い、入力画像142の各走査位置での相関値の分布である第2の相関値マップ145を作成する。   The second correlation value map creating unit 113 reads the input image 142 and the template image 143 from the storage device 140, sets a predetermined search area in the input image, performs template matching processing using the template image 143, and inputs the input image 142. A second correlation value map 145 that is a distribution of correlation values at each scanning position is created.

相関値最大位置推定手段114は、記憶装置140から第1の相関値マップ144と第2の相関値マップ145とを読み出し、第2の相関値マップ145における相関値の分布状態に最も良く適合するように第1の相関値マップ144の相関値の分布状態を重ね合わせたときの第1の相関値マップ144における相関値最大箇所に対応する入力画像142上の位置を求め、推定認識位置146として記憶装置140に記憶する。   The correlation value maximum position estimation means 114 reads the first correlation value map 144 and the second correlation value map 145 from the storage device 140, and best fits the distribution state of the correlation values in the second correlation value map 145. Thus, the position on the input image 142 corresponding to the maximum correlation value location in the first correlation value map 144 when the correlation value distribution states of the first correlation value map 144 are overlaid is obtained as the estimated recognition position 146. Store in the storage device 140.

位置出力手段115は、記憶装置140から推定認識位置146を読み出して、パターン認識結果として出力装置130に出力する。   The position output means 115 reads the estimated recognition position 146 from the storage device 140 and outputs it to the output device 130 as a pattern recognition result.

次に、図2に示すフローチャートの流れに沿って、本実施の形態の動作を説明する。   Next, the operation of the present embodiment will be described along the flow of the flowchart shown in FIG.

まず、テンプレート画像作成手段111によりテンプレート画像を作成する(S101)。例えば、テンプレート選択画像141が、図3に示すようなパターンを有する濃淡画像とし、その中に存在する円形のマーク141aをテンプレートに使用するものとする。この場合、テンプレート画像作成手段111は、テンプレート選択画像141からマーク141aの外接矩形を切り出し、この外接矩形をテンプレート画像143とする。従って、テンプレート画像143は図4に示すような画像となる。   First, a template image is created by the template image creation means 111 (S101). For example, it is assumed that the template selection image 141 is a grayscale image having a pattern as shown in FIG. 3, and a circular mark 141a existing therein is used for the template. In this case, the template image creating unit 111 cuts out a circumscribed rectangle of the mark 141a from the template selection image 141, and uses this circumscribed rectangle as the template image 143. Therefore, the template image 143 is an image as shown in FIG.

次に、第1の相関値マップ作成手段112により第1の相関値マップ144を作成する(S102)。具体的には、第1の相関値マップ作成手段112は、テンプレート画像143の縦サイズをH、横サイズをWとすると、図5に示すように、テンプレート選択画像141上に、マーク141aを中心とし、縦のサイズが3H、横のサイズが3Wの探索領域141bを設定する。次に、第1の相関値マップ作成手段112は、探索領域141b内の画像を被探索画像として、テンプレート画像143によるテンプレートマッチング処理を行い、テンプレート選択画像141の各走査位置での相関値の分布を求め、この分布を第1の相関値マップ144として記憶装置140に記憶する。ここで、或る走査位置における相関値の算出は、式1に示す正規化相関にて行う。但し、本発明は正規化相関に限定するものではない。   Next, the first correlation value map creating means 112 creates the first correlation value map 144 (S102). Specifically, when the vertical size of the template image 143 is H and the horizontal size is W, the first correlation value map creating unit 112 centers the mark 141a on the template selection image 141 as shown in FIG. A search area 141b having a vertical size of 3H and a horizontal size of 3W is set. Next, the first correlation value map creating means 112 performs a template matching process using the template image 143 using the image in the search area 141b as a search target image, and distribution of correlation values at each scanning position of the template selection image 141. And this distribution is stored in the storage device 140 as the first correlation value map 144. Here, the calculation of the correlation value at a certain scanning position is performed by the normalized correlation shown in Equation 1. However, the present invention is not limited to normalized correlation.

正規化相関値
={Σn=1 N(In-Iave)(Tn-Tave)}/[{Σn=1 N(In-Iave)2}1/2・{Σn=1 N(Tn-Tave)2}1/2] …(式1)
但し、Tnはテンプレート画像、Inは被探索画像、Nはテンプレート画像の画素数であり、IaveとTaveは、次式で与えられる。
Iave=(1/N)Σn=1 NIn …(式2)
Tave=(1/N)Σn=1 NTn …(式3)
Normalized correlation value = {Σ n = 1 N (I n -I ave ) (T n -T ave )} / [{Σ n = 1 N (I n -I ave ) 2 } 1/2・ {Σ n = 1 N (T n -T ave ) 2 } 1/2 ] (Formula 1)
However, T n is the template image, I n is the search image, N is the number of pixels of the template image, I ave and T ave is given by the following equation.
I ave = (1 / N) Σ n = 1 N I n (Formula 2)
T ave = (1 / N) Σ n = 1 N T n (Formula 3)

上述のようにして作成された第1の相関値マップ144は、2次元マップであり、テンプレート画像143の中心が探索領域141bの中心に重なるときに最大の相関値を示し、双方の中心が離れるに従って相関値が徐々に低下していく傾向を示す。図6は、第1の相関値マップ144の分布状態を模式的に示しており、1つの升目が1つの走査位置を示し、枡目内に記載された数値は相関値の値を示す。ここでは、値4の相関値が最大とし、値0は図示を省略している。   The first correlation value map 144 created as described above is a two-dimensional map, and shows the maximum correlation value when the center of the template image 143 overlaps the center of the search area 141b, and the centers of both are separated. As shown, the correlation value gradually decreases. FIG. 6 schematically shows the distribution state of the first correlation value map 144, in which one cell indicates one scanning position, and the numerical value described in the cell indicates the value of the correlation value. Here, the correlation value of value 4 is the maximum, and the value 0 is not shown.

次に、第2の相関値マップ作成手段113により第2の相関値マップ145を作成する(S103)。具体的には、第2の相関値マップ作成手段113は、図7に示すように、テンプレート画像143よりは大きく、入力画像142よりは小さいか同じサイズの探索領域142aを設定する。次に、第2の相関値マップ作成手段113は、探索領域142a内の画像を被探索画像として、テンプレート画像143によるテンプレートマッチング処理を行い、探索領域142a上における入力画像142の各走査位置での相関値の分布を求め、この分布を第2の相関値マップ145として記憶装置140に記憶する。ここで、或る走査位置における相関値の算出は、前述した式1に示す正規化相関にて行う。但し、本発明は正規化相関に限定するものではない。   Next, the second correlation value map creating unit 113 creates the second correlation value map 145 (S103). Specifically, as shown in FIG. 7, the second correlation value map creating unit 113 sets a search area 142 a that is larger than the template image 143 and smaller than or equal to the input image 142. Next, the second correlation value map creating means 113 performs a template matching process using the template image 143 using the image in the search area 142a as the image to be searched, and at each scanning position of the input image 142 on the search area 142a. A correlation value distribution is obtained, and this distribution is stored in the storage device 140 as a second correlation value map 145. Here, the calculation of the correlation value at a certain scanning position is performed by the normalized correlation shown in Equation 1 described above. However, the present invention is not limited to normalized correlation.

上述のようにして作成された第2の相関値マップ145は、2次元マップであり、テンプレート画像143と全く同一のパターンを有する認識対象物が図8に示すように探索領域142aの中央部分に存在すれば、図9の第2の相関値マップの例に示すように、第1の相関値マップ144と同様の分布状態が第2の相関値マップ145上に現れる。また、テンプレート画像143と全く同一のパターンを有する認識対象物が探索領域142aの周辺部分に存在していても、その認識対象物が図10に示すように探索領域142aからはみ出していなければ、図11の第2の相関値マップの例に示すように、少なくとも第1の相関値マップ144の最大相関値4を含む一部の分布が第2の相関値マップ145上に現れる。しかし、図12に示すように、認識対象物が探索領域142aからはみ出していると、図13の第2の相関値マップの例に示すように、第1の相関値マップ144の最大相関値4が第2の相関値マップには現れない。   The second correlation value map 145 created as described above is a two-dimensional map, and a recognition object having the same pattern as the template image 143 is located at the center of the search area 142a as shown in FIG. If present, a distribution state similar to that of the first correlation value map 144 appears on the second correlation value map 145 as shown in the example of the second correlation value map of FIG. Further, even if a recognition object having the same pattern as the template image 143 exists in the peripheral portion of the search area 142a, the recognition object does not protrude from the search area 142a as shown in FIG. As shown in the example of the eleventh second correlation value map, a part of the distribution including at least the maximum correlation value 4 of the first correlation value map 144 appears on the second correlation value map 145. However, as shown in FIG. 12, when the recognition object protrudes from the search area 142a, the maximum correlation value 4 of the first correlation value map 144 is obtained as shown in the example of the second correlation value map of FIG. Does not appear in the second correlation value map.

そこで、相関値最大位置推定手段114は、第2の相関値作成マップ手段113により作成された第2の相関値マップ145において、相関値が最大となる位置を計測し、この計測した位置が、探索領域142aの周辺付近であるか否かをチェックする(S104)。ここで、周辺付近とは、探索領域142aの縁から予め設定された画素幅の範囲を指す。そして、計測した位置が探索領域142aの周辺付近ではない場合は、計測した位置を推定認識位置146として出力する。   Therefore, the correlation value maximum position estimation unit 114 measures the position where the correlation value is maximum in the second correlation value map 145 created by the second correlation value creation map unit 113, and the measured position is It is checked whether or not the area is in the vicinity of the search area 142a (S104). Here, the vicinity of the periphery indicates a range of a pixel width set in advance from the edge of the search area 142a. If the measured position is not near the vicinity of the search area 142a, the measured position is output as the estimated recognition position 146.

他方、計測した位置が探索領域142aの周辺付近である場合は、相関値最大位置推定手段114は、第1の相関値マップ144を対象に、第2の相関値マップ145とのフィティング処理を行い、第2の相関値マップ145の分布状態が第1の相関値マップ144の分布状態のどこと一致するかを算出し、分布状態が一致する位置から相関値が最大となる位置を算出する(S105)。例えば、第2の相関値マップ145が図13に示したものであれば、第1の相関値マップ144と第2の相関値マップ145とは図14に示すように重ね合わせたときが最も良く適合するので、第1の相関値マップ144における最大の相関値4の箇所に対応する入力画像142上の位置を求め、推定認識位置146として記憶装置140に記憶する。   On the other hand, when the measured position is near the vicinity of the search region 142a, the correlation value maximum position estimation unit 114 performs the fitting process with the second correlation value map 145 for the first correlation value map 144. And calculating where the distribution state of the second correlation value map 145 matches the distribution state of the first correlation value map 144, and calculating the position where the correlation value becomes maximum from the position where the distribution state matches. (S105). For example, if the second correlation value map 145 is as shown in FIG. 13, the first correlation value map 144 and the second correlation value map 145 are best overlapped as shown in FIG. Therefore, the position on the input image 142 corresponding to the location of the maximum correlation value 4 in the first correlation value map 144 is obtained and stored in the storage device 140 as the estimated recognition position 146.

最後に、位置出力手段115は、推定認識位置146をパターン認識結果として出力装置130へ出力する(S106)。   Finally, the position output means 115 outputs the estimated recognition position 146 as a pattern recognition result to the output device 130 (S106).

なお、同じテンプレート画像143と第1の相関値マップ144を使用して、複数の入力画像に対するパターン認識処理を繰り返す場合、図2のステップS101及びS102は最初に設定する時のみ行い、それ以降はテンプレート画像143の読み出しと第1の相関値マップ144の読み出しを行うだけにしても良い。   When the same template image 143 and the first correlation value map 144 are used to repeat the pattern recognition processing for a plurality of input images, steps S101 and S102 in FIG. 2 are performed only at the time of initial setting, and thereafter The template image 143 and the first correlation value map 144 may only be read.

このように本実施の形態によれば、テンプレート選択画像141からテンプレート画像143を作成するテンプレート画像作成手段111と、テンプレート選択画像141に設定した探索領域141bに対してテンプレート画像143によるテンプレートマッチング処理を行い、各走査位置での相関値の分布である第1の相関値マップ144を作成する第1の相関値マップ作成手段112と、入力画像142に設定した探索領域141bに対してテンプレート画像143によるテンプレートマッチング処理を行い、各走査位置での相関値の分布である第2の相関値マップ145を作成する第2の相関値マップ作成手段113と、第2の相関値マップ145における相関値の分布状態に最も良く適合するように第1の相関値マップ144の相関値の分布状態を重ね合わせたときの第1の相関値マップ144における相関値最大箇所に対応する入力画像142上の位置を求める相関値最大位置推定手段114と、この相関値最大位置推定手段114で求められた位置をパターン認識結果として出力する位置出力手段115とを備えているため、認識対象物が探索領域141bからはみ出している場合における認識位置の誤差を小さくすることができる。   As described above, according to the present embodiment, the template image creation unit 111 that creates the template image 143 from the template selection image 141 and the template matching process by the template image 143 are performed on the search area 141b set in the template selection image 141. The first correlation value map creating means 112 for creating the first correlation value map 144 that is the correlation value distribution at each scanning position and the template image 143 for the search area 141b set in the input image 142 A second correlation value map creating unit 113 that performs template matching processing to create a second correlation value map 145 that is a distribution of correlation values at each scanning position, and a distribution of correlation values in the second correlation value map 145 Correlation of first correlation value map 144 to best fit the state Correlation value maximum position estimation means 114 for obtaining a position on the input image 142 corresponding to the maximum correlation value location in the first correlation value map 144 when the distribution states are superimposed, and this correlation value maximum position estimation means 114 Since the position output unit 115 that outputs the obtained position as a pattern recognition result is provided, the error of the recognition position when the recognition target object protrudes from the search area 141b can be reduced.

また本実施の形態によれば、認識対象物が探索領域141bだけでなく入力画像142からはみ出している場合であっても、認識誤差を小さくすることができる。   Further, according to the present embodiment, the recognition error can be reduced even when the recognition target object protrudes not only from the search area 141b but also from the input image 142.

なお、本発明の別の実施の形態として、図2における第1の相関値マップ144の作成ステップS102を、相関値最大位置の推定ステップS105の直前に移動させた実施の形態が考えられる。このような実施の形態によれば、第2の相関値マップ145の最大値が探索領域の周辺付近と判定されなかった場合(S104でNO)、つまり、相関値最大位置の推定ステップS105を実行しない場合には第1の相関値マップ144の作成処理を省略でき、相関値最大位置の推定ステップS105を実行する場合に限って第1の相関値マップ144の作成処理を実行することができる。ここで、同じテンプレート画像143と第1の相関値マップ144を使用して、複数の入力画像に対するパターン認識処理を繰り返す場合、テンプレート画像の作成ステップS101及び上記移動後の第1の相関値マップの作成ステップS102は最初に設定する時のみ行い、それ以降はテンプレート画像143の読み出しと第1の相関値マップ144の読み出しを行うだけにしても良い。   As another embodiment of the present invention, an embodiment in which the creation step S102 of the first correlation value map 144 in FIG. 2 is moved immediately before the estimation step S105 of the correlation value maximum position is conceivable. According to such an embodiment, when the maximum value of the second correlation value map 145 is not determined to be near the vicinity of the search region (NO in S104), that is, the correlation value maximum position estimation step S105 is executed. If not, the creation process of the first correlation value map 144 can be omitted, and the creation process of the first correlation value map 144 can be executed only when the correlation value maximum position estimation step S105 is executed. Here, when the same template image 143 and the first correlation value map 144 are used to repeat the pattern recognition processing for a plurality of input images, the template image creation step S101 and the first correlation value map after the movement are changed. The creation step S102 may be performed only when it is first set, and thereafter, the template image 143 and the first correlation value map 144 may be read.

[第2の実施の形態]
図15を参照すると、本発明の第2の実施の形態に係るパターン認識装置200は、再マッチング処理手段116をさらに備えている点でのみ、第1の実施の形態に係る図1のパターン認識装置100と相違する。
[Second Embodiment]
Referring to FIG. 15, the pattern recognition apparatus 200 according to the second exemplary embodiment of the present invention includes the pattern recognition of FIG. 1 according to the first exemplary embodiment only in that it further includes a rematching processing unit 116. Different from the device 100.

再マッチング処理手段116は、相関値最大位置推定手段114で求められた推定認識位置146とテンプレート画像143のサイズとに応じたサイズの再探索領域を入力画像142に設定し、この再探索領域に対してテンプレート画像143によるテンプレートマッチング処理を行い、相関値最大箇所に対応する入力画像142上の位置を求め、この求めた位置で推定認識位置146を置き換える。ここで、再探索領域は、処理時間の増大を防止するために、テンプレート画像143の中心が推定認識位置146に一致するように再探索領域に重ねた場合に、テンプレート画像143の辺と再探索領域の辺とがちょうど重なるようなサイズであることが望ましい。なお、このようなサイズの再探索領域が入力画像142からはみ出す場合、再マッチング処理手段116は再マッチング処理を行わず、推定認識位置146を置き換える処理は行わない。   The re-matching processing unit 116 sets a re-search area having a size corresponding to the estimated recognition position 146 obtained by the correlation value maximum position estimating unit 114 and the size of the template image 143 in the input image 142, and the re-search area On the other hand, template matching processing using the template image 143 is performed to obtain a position on the input image 142 corresponding to the maximum correlation value location, and the estimated recognition position 146 is replaced with the obtained position. Here, in order to prevent an increase in processing time, the re-search area is re-searched with the edges of the template image 143 when the center of the template image 143 is overlaid on the re-search area so as to coincide with the estimated recognition position 146. It is desirable that the size is such that the side of the region just overlaps. When the re-search area having such a size protrudes from the input image 142, the re-matching processing unit 116 does not perform the re-matching process and does not perform the process for replacing the estimated recognition position 146.

図16は、本実施の形態の全体の動作を示すフローチャートである。ステップS201〜S205は、第1の実施の形態の動作を示す図2のステップS101〜S105と同じである。ステップS206では、再マッチング処理手段116により再探索領域の設定を伴う再マッチング処理が実行され、この再マッチング処理により求められた相関値最大箇所に対応する入力画像142上の位置で推定認識位置146を書き換える。次のステップS207では、位置出力手段115により推定認識位置146が認識対象物の認識位置として出力装置130に出力される。   FIG. 16 is a flowchart showing the overall operation of the present embodiment. Steps S201 to S205 are the same as steps S101 to S105 in FIG. 2 showing the operation of the first embodiment. In step S206, the rematching processing unit 116 executes a rematching process with setting of the research area, and the estimated recognition position 146 at the position on the input image 142 corresponding to the maximum correlation value location obtained by the rematching process. Rewrite. In the next step S207, the estimated recognition position 146 is output to the output device 130 by the position output means 115 as the recognition position of the recognition object.

なお、同じテンプレート画像143と第1の相関値マップ144を使用して、複数の入力画像に対するパターン認識処理を繰り返す場合、図16のステップS201及びS202は最初に設定する時のみ行い、それ以降はテンプレート画像143の読み出しと第1の相関値マップ144の読み出しを行うだけにしても良い。   When the same template image 143 and the first correlation value map 144 are used to repeat pattern recognition processing for a plurality of input images, steps S201 and S202 in FIG. 16 are performed only at the first setting, and thereafter The template image 143 and the first correlation value map 144 may only be read.

このように本実施の形態によれば、認識対象物が当初の探索領域141bからはみ出している場合における認識誤差を小さくすることができる。また、必要最小限のサイズの探索領域を設定するので、処理時間の増大を抑えることができる。   As described above, according to the present embodiment, it is possible to reduce the recognition error when the recognition target object protrudes from the initial search area 141b. In addition, since the search area having the minimum necessary size is set, an increase in processing time can be suppressed.

なお、本発明の別の実施の形態として、図16における第1の相関値マップ144の作成ステップS202を、相関値最大位置の推定ステップS205の直前に移動させた実施の形態が考えられる。このような実施の形態によれば、第2の相関値マップ145の最大値が探索領域の周辺付近と判定されなかった場合(S204でNO)、つまり、相関値最大位置の推定ステップS205を実行しない場合には第1の相関値マップ144の作成処理を省略でき、相関値最大位置の推定ステップS205を実行する場合に限って第1の相関値マップ144の作成処理を実行することができる。ここで、同じテンプレート画像143と第1の相関値マップ144を使用して、複数の入力画像に対するパターン認識処理を繰り返す場合、テンプレート画像の作成ステップS201及び上記移動後の第1の相関値マップの作成ステップS202は最初に設定する時のみ行い、それ以降はテンプレート画像143の読み出しと第1の相関値マップ144の読み出しを行うだけにしても良い。   As another embodiment of the present invention, an embodiment in which the creation step S202 of the first correlation value map 144 in FIG. 16 is moved immediately before the correlation value maximum position estimation step S205 is conceivable. According to such an embodiment, when the maximum value of the second correlation value map 145 is not determined to be near the vicinity of the search region (NO in S204), that is, the correlation value maximum position estimation step S205 is executed. If not, the creation process of the first correlation value map 144 can be omitted, and the creation process of the first correlation value map 144 can be executed only when the correlation value maximum position estimation step S205 is executed. Here, when the same template image 143 and the first correlation value map 144 are used to repeat the pattern recognition processing for a plurality of input images, the template image creation step S201 and the first correlation value map after the movement are changed. The creation step S202 may be performed only when it is first set, and thereafter, the template image 143 and the first correlation value map 144 may be read.

以上、本発明の実施の形態について説明したが、本発明は以上の実施の形態にのみ限定されず、その他各種の付加変更が可能である。また、本発明のパターン認識装置は、その有する機能をハードウェア的に実現することは勿論、コンピュータとプログラムとで実現することができる。プログラムは、磁気ディスクや半導体メモリ等のコンピュータ可読記録媒体に記録されて提供され、コンピュータの立ち上げ時などにコンピュータに読み取られ、そのコンピュータの動作を制御することにより、そのコンピュータを前述した各実施の形態における処理装置110内の各手段として機能させる。   Although the embodiments of the present invention have been described above, the present invention is not limited to the above embodiments, and various other additions and modifications can be made. In addition, the pattern recognition apparatus of the present invention can be realized by a computer and a program as well as the functions that the pattern recognition apparatus has. The program is provided by being recorded on a computer-readable recording medium such as a magnetic disk or a semiconductor memory, and is read by the computer at the time of starting up the computer, etc. It functions as each means in the processing apparatus 110 in the form.

100 パターン認識装置
110 処理装置
111 テンプレート画像作成手段
112 第1の相関値マップ作成手段
113 第2の相関値マップ作成手段
114 相関値最大位置推定手段
115 位置出力手段
116 再マッチング処理手段
120 入力装置
130 出力装置
140 記憶装置
141 テンプレート選択画像
141a マーク
141b 探索領域
142 入力画像
142a 探索領域
143 テンプレート画像
144 第1の相関値マップ
145 第2の相関値マップ
146 推定認識位置
200 パターン認識装置
100 pattern recognition device 110 processing device 111 template image creation means 112 first correlation value map creation means 113 second correlation value map creation means 114 correlation value maximum position estimation means 115 position output means 116 rematching processing means 120 input device 130 Output device 140 Storage device 141 Template selection image 141a Mark 141b Search region 142 Input image 142a Search region 143 Template image 144 First correlation value map 145 Second correlation value map 146 Estimated recognition position 200 Pattern recognition device

Claims (11)

テンプレート選択画像からテンプレート画像を作成するテンプレート画像作成手段と、
前記テンプレート選択画像に対して、前記テンプレート画像によるテンプレートマッチング処理を行い、前記テンプレート選択画像の各位置での相関値の分布である第1の相関値マップを作成する第1の相関値マップ作成手段と、
入力画像に設定された探索領域に対して、前記テンプレート画像によるテンプレートマッチング処理を行い、前記入力画像の各位置での相関値の分布である第2の相関値マップを作成する第2の相関値マップ作成手段と、
前記第2の相関値マップにおける相関値の分布状態に最も良く適合するように前記第1の相関値マップの相関値の分布状態を重ね合わせたときの前記第1の相関値マップにおける相関値最大箇所に対応する前記入力画像上の位置を推定認識位置として求める相関値最大位置推定手段とを備えることを特徴とするパターン認識装置。
Template image creation means for creating a template image from a template selection image;
First correlation value map creating means for performing template matching processing on the template selection image using the template image and creating a first correlation value map that is a distribution of correlation values at each position of the template selection image. When,
A second correlation value for performing a template matching process using the template image on the search region set in the input image and creating a second correlation value map that is a distribution of correlation values at each position of the input image Map creation means;
The maximum correlation value in the first correlation value map when the correlation value distribution state of the first correlation value map is superimposed so as to best match the distribution state of the correlation value in the second correlation value map. A pattern recognition apparatus comprising: a correlation value maximum position estimation unit that obtains a position on the input image corresponding to a location as an estimated recognition position.
前記相関値最大位置推定手段は、前記第2の相関値マップ上の相関値が最大値となる位置が探索領域の周辺付近でない場合、前記第1の相関値マップと前記第2の相関値マップとのフィティング処理を行わずに、前記第2の相関値マップ上の相関値が最大値となる位置を前記推定認識結果として求める、
ことを特徴とする請求項1に記載のパターン認識装置。
If the position where the correlation value on the second correlation value map becomes the maximum value is not near the vicinity of the search area, the correlation value maximum position estimation means is configured to output the first correlation value map and the second correlation value map. Without performing the fitting process, and obtaining the position where the correlation value on the second correlation value map becomes the maximum value as the estimation recognition result,
The pattern recognition apparatus according to claim 1.
前記第1の相関値マップと前記第2の相関値マップとのフィティング処理で求められた前記推定認識位置と前記テンプレート画像のサイズとに応じた再探索領域を前記入力画像に設定して前記テンプレート画像によるテンプレートマッチング処理を行い、相関値最大箇所に対応する前記入力画像上の位置で前記推定認識位置を置き換える再マッチング処理手段を備えることを特徴とする請求項1または2に記載のパターン認識装置。   A re-search area corresponding to the estimated recognition position obtained by the fitting process of the first correlation value map and the second correlation value map and the size of the template image is set in the input image, and 3. The pattern recognition according to claim 1, further comprising: a re-matching processing unit that performs template matching processing using a template image and replaces the estimated recognition position with a position on the input image corresponding to a maximum correlation value location. apparatus. 前記相関値最大位置推定手段は、前記推定認識位置と前記テンプレート画像のサイズとに応じた再探索領域が前記入力画像からはみ出す場合、前記推定認識位置の置き換え処理を行わない、
ことを特徴とする請求項3に記載のパターン認識装置。
The correlation value maximum position estimation means does not perform the process of replacing the estimated recognition position when a re-search area corresponding to the estimated recognition position and the size of the template image protrudes from the input image.
The pattern recognition apparatus according to claim 3.
前記推定認識位置をパターン認識結果として出力する位置出力手段を備えることを特徴とする請求項1乃至4の何れか1項に記載のパターン認識装置。   The pattern recognition apparatus according to claim 1, further comprising a position output unit that outputs the estimated recognition position as a pattern recognition result. テンプレート画像作成手段が、テンプレート選択画像からテンプレート画像を作成し、
第1の相関値マップ作成手段が、前記テンプレート選択画像に対して前記テンプレート画像によるテンプレートマッチング処理を行い、前記テンプレート選択画像の各位置での相関値の分布である第1の相関値マップを作成し、
第2の相関値マップ作成手段が、入力画像に設定された探索領域に対して、前記テンプレート画像によるテンプレートマッチング処理を行い、前記入力画像の各位置での相関値の分布である第2の相関値マップを作成し、
相関値最大位置推定手段が、前記第2の相関値マップにおける相関値の分布状態に最も良く適合するように前記第1の相関値マップの相関値の分布状態を重ね合わせたときの前記第1の相関値マップにおける相関値最大箇所に対応する前記入力画像上の位置を推定認識位置として求める、
ことを特徴とするパターン認識方法。
The template image creation means creates a template image from the template selection image,
A first correlation value map creating means performs a template matching process using the template image on the template selection image, and creates a first correlation value map that is a distribution of correlation values at each position of the template selection image. And
A second correlation value map creating means performs a template matching process using the template image for the search region set in the input image, and a second correlation that is a distribution of correlation values at each position of the input image. Create a value map
When the correlation value maximum position estimation means superimposes the correlation value distribution states of the first correlation value map so as to best fit the correlation value distribution states in the second correlation value map, A position on the input image corresponding to a maximum correlation value location in the correlation value map is obtained as an estimated recognition position.
A pattern recognition method characterized by the above.
再マッチング手段が、前記相関値最大位置推定手段で求められた前記推定認識位置と前記テンプレート画像のサイズとに応じた再探索領域を前記入力画像に設定して前記テンプレート画像によるテンプレートマッチング処理を行い、相関値最大箇所に対応する前記入力画像上の位置で前記推定認識位置を置き換える、
ことを特徴とする請求項6に記載いのパターン認識方法。
The re-matching means sets a re-search area corresponding to the estimated recognition position obtained by the maximum correlation value position estimating means and the size of the template image to the input image, and performs template matching processing using the template image. , Replacing the estimated recognition position with the position on the input image corresponding to the largest correlation value location,
The pattern recognition method according to claim 6.
位置出力手段が、前記推定認識位置をパターン認識結果として出力する、
ことを特徴とする請求項6または7に記載のパターン認識方法。
A position output means outputs the estimated recognition position as a pattern recognition result.
The pattern recognition method according to claim 6 or 7, wherein:
コンピュータを、
テンプレート選択画像からテンプレート画像を作成するテンプレート画像作成手段と、
前記テンプレート選択画像に対して前記テンプレート画像によるテンプレートマッチング処理を行い、前記テンプレート選択画像の各位置での相関値の分布である第1の相関値マップを作成する第1の相関値マップ作成手段と、
入力画像に設定された探索領域に対して、前記テンプレート画像によるテンプレートマッチング処理を行い、前記入力画像の各位置での相関値の分布である第2の相関値マップを作成する第2の相関値マップ作成手段と、
前記第2の相関値マップにおける相関値の分布状態に最も良く適合するように前記第1の相関値マップの相関値の分布状態を重ね合わせたときの前記第1の相関値マップにおける相関値最大箇所に対応する前記入力画像上の位置を推定認識位置として求める相関値最大位置推定手段と
して機能させるためのプログラム。
Computer
Template image creation means for creating a template image from a template selection image;
First correlation value map creating means for performing template matching processing on the template selected image using the template image and creating a first correlation value map that is a distribution of correlation values at each position of the template selected image; ,
A second correlation value for performing a template matching process using the template image on the search region set in the input image and creating a second correlation value map that is a distribution of correlation values at each position of the input image Map creation means;
The maximum correlation value in the first correlation value map when the correlation value distribution state of the first correlation value map is superimposed so as to best match the distribution state of the correlation value in the second correlation value map. A program for causing a position on the input image corresponding to a location to function as a correlation value maximum position estimating means for obtaining an estimated recognition position.
前記コンピュータを、さらに、
前記相関値最大位置推定手段で求められた前記推定認識位置と前記テンプレート画像のサイズとに応じた再探索領域を前記入力画像に設定して前記テンプレート画像によるテンプレートマッチング処理を行い、相関値最大箇所に対応する前記入力画像上の位置で前記推定認識位置を置き換える再マッチング処理手段
として機能させるための請求項9に記載のプログラム。
Said computer further
A re-search area corresponding to the estimated recognition position obtained by the maximum correlation value position estimation means and the size of the template image is set in the input image, and template matching processing is performed using the template image, and the maximum correlation value location The program according to claim 9, which functions as a rematching processing unit that replaces the estimated recognition position with a position on the input image corresponding to the input image.
前記コンピュータを、さらに、
前記推定認識位置をパターン認識結果として出力する位置出力手段
として機能させるための請求項9または10に記載のプログラム。
Said computer further
The program according to claim 9 or 10 for functioning as position output means for outputting the estimated recognition position as a pattern recognition result.
JP2009218715A 2009-09-24 2009-09-24 Pattern recognition device Expired - Fee Related JP5353597B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009218715A JP5353597B2 (en) 2009-09-24 2009-09-24 Pattern recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009218715A JP5353597B2 (en) 2009-09-24 2009-09-24 Pattern recognition device

Publications (2)

Publication Number Publication Date
JP2011070264A true JP2011070264A (en) 2011-04-07
JP5353597B2 JP5353597B2 (en) 2013-11-27

Family

ID=44015518

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009218715A Expired - Fee Related JP5353597B2 (en) 2009-09-24 2009-09-24 Pattern recognition device

Country Status (1)

Country Link
JP (1) JP5353597B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017010475A (en) * 2015-06-26 2017-01-12 富士通株式会社 Program generation device, program generation method, and generated program
JP2017111011A (en) * 2015-12-16 2017-06-22 キヤノン株式会社 Position detection method, program, position detection device, lithography apparatus, and manufacturing method of article

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000124281A (en) * 1998-10-20 2000-04-28 Hitachi Ltd Pattern search method and apparatus
JP2009086920A (en) * 2007-09-28 2009-04-23 Hitachi High-Technologies Corp Inspection device and inspection method
JP2009093412A (en) * 2007-10-09 2009-04-30 Fujitsu Ltd Image measurement method and image measurement device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000124281A (en) * 1998-10-20 2000-04-28 Hitachi Ltd Pattern search method and apparatus
JP2009086920A (en) * 2007-09-28 2009-04-23 Hitachi High-Technologies Corp Inspection device and inspection method
JP2009093412A (en) * 2007-10-09 2009-04-30 Fujitsu Ltd Image measurement method and image measurement device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017010475A (en) * 2015-06-26 2017-01-12 富士通株式会社 Program generation device, program generation method, and generated program
JP2017111011A (en) * 2015-12-16 2017-06-22 キヤノン株式会社 Position detection method, program, position detection device, lithography apparatus, and manufacturing method of article

Also Published As

Publication number Publication date
JP5353597B2 (en) 2013-11-27

Similar Documents

Publication Publication Date Title
JP4348353B2 (en) Pattern recognition apparatus, pattern recognition method, and recording medium storing program realizing the method
JP5699432B2 (en) Image processing device
WO2012169119A1 (en) Object detection frame display device and object detection frame display method
WO2017122810A1 (en) Image processing device, image processing method, image processing program, and storage medium
US7941008B2 (en) Pattern search method
WO2017050083A1 (en) Element identification method and device
US20110026834A1 (en) Image processing apparatus, image capture apparatus, image processing method, and program
JP2008141394A (en) Interpolation frame generation method, and interpolation frame generation device
CN109543534B (en) Method and device for re-detecting lost target in target tracking
JP2018205800A (en) Image analysis apparatus, neural network apparatus, learning apparatus, image analysis method and program
JPWO2007074605A1 (en) Image processing method, image processing program, image processing apparatus, and imaging apparatus
JP5353597B2 (en) Pattern recognition device
JP5024116B2 (en) Subject tracking program and subject tracking device
WO2013132836A1 (en) Object detection device, object detection method, and object detection program
JP7145440B2 (en) LEARNING DATA GENERATION METHOD, LEARNING DATA GENERATION DEVICE, AND PROGRAM
JP5200786B2 (en) Difference extraction apparatus and difference extraction program
JP4041060B2 (en) Image processing apparatus and image processing method
US9230309B2 (en) Image processing apparatus and image processing method with image inpainting
JP6175878B2 (en) Image processing circuit, image processing apparatus, and image processing method
JP2010191767A (en) Device and method for recognizing character
JP2000124281A (en) Pattern search method and apparatus
JP2021043774A (en) Notification determination device, notification determination method, and notification determination program
JP2008204307A (en) Image-collating device
JP2014021510A (en) Information processor and information processing method, and, program
JP2006031690A (en) Specific image area dividing device and method and program for executing specific image area sectioning processing on computer

Legal Events

Date Code Title Description
RD07 Notification of extinguishment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7427

Effective date: 20120717

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120806

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130709

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130730

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130812

R150 Certificate of patent or registration of utility model

Ref document number: 5353597

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees