JP7403722B1 - Template matching device and template matching method - Google Patents

Template matching device and template matching method Download PDF

Info

Publication number
JP7403722B1
JP7403722B1 JP2023544113A JP2023544113A JP7403722B1 JP 7403722 B1 JP7403722 B1 JP 7403722B1 JP 2023544113 A JP2023544113 A JP 2023544113A JP 2023544113 A JP2023544113 A JP 2023544113A JP 7403722 B1 JP7403722 B1 JP 7403722B1
Authority
JP
Japan
Prior art keywords
pixel
feature
pixels
target
template matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023544113A
Other languages
Japanese (ja)
Inventor
悠介 川岸
亜希子 米田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP7403722B1 publication Critical patent/JP7403722B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

画素比較部(120)は、テンプレート画像から複数の特徴画素を抽出し、抽出された特徴画素ごとに特徴画素と比較される複数の対象画素を観測画像から抽出し、抽出された対象画素ごとに抽出された複数の特徴画素に対する画素距離を算出する。位置検出部(130)は、各対象画素の前記画素距離に基づいて前記テンプレート画像に対応する位置を前記観測画像から検出する。The pixel comparison unit (120) extracts a plurality of feature pixels from the template image, extracts a plurality of target pixels from the observed image to be compared with the feature pixel for each extracted feature pixel, and Pixel distances to the plurality of extracted feature pixels are calculated. A position detection unit (130) detects a position corresponding to the template image from the observed image based on the pixel distance of each target pixel.

Description

本開示は、テンプレートマッチングの高速化に関するものである。 The present disclosure relates to speeding up template matching.

テンプレートマッチングは、観測画像からテンプレート画像の位置を検出する技術である。
観測画像は、カメラ等を使った撮影によって得られる画像である。
テンプレート画像は、探索したい物体が含まれる画像である。
Template matching is a technique for detecting the position of a template image from an observed image.
The observed image is an image obtained by photographing using a camera or the like.
A template image is an image that includes an object to be searched.

テンプレートマッチングは、例えば以下のように活用されている。
防犯分野およびセキュリティ分野において、テンプレートマッチングは顔認証または物体検出のために活用されている。
工場のラインにおいて、テンプレートマッチングは製品検査のために活用されている。
Template matching is used, for example, as follows.
In the crime prevention and security fields, template matching is used for face recognition or object detection.
Template matching is used for product inspection on factory lines.

テンプレートマッチングの処理が高速化されることで、例えばリアルタイムでの検出が実現される。
処理の高速化のために、スパーステンプレートマッチングが提案されている。スパーステンプレートマッチングは、比較される画素をスパース化する方法である。
By speeding up the template matching process, real-time detection, for example, can be realized.
Sparse template matching has been proposed to speed up processing. Sparse template matching is a method of sparsifying the pixels being compared.

特許文献1では、テンプレートマッチングの処理を高速化するための回路構成が提案されている。
具体的には、テンプレート画像の特徴画素と観測画像の複数の対象画素を同時に比較できる回路構成が提案されている。
Patent Document 1 proposes a circuit configuration for speeding up template matching processing.
Specifically, a circuit configuration has been proposed that can simultaneously compare a characteristic pixel of a template image and a plurality of target pixels of an observed image.

特開平03-094387号公報Japanese Patent Application Publication No. 03-094387

特許文献1における制御は、観測画像から対象画素を抽出するために特定画素を順番に参照するような単純な制御である。
そのため、特許文献1の回路構成では、スパーステンプレートマッチングで様々にスパース化された対象画素を効率的に参照することができない。
したがって、特許文献1の回路構成では、スパーステンプレートマッチングによる高速化を実現できない。
The control in Patent Document 1 is a simple control in which specific pixels are sequentially referred to in order to extract a target pixel from an observed image.
Therefore, with the circuit configuration of Patent Document 1, it is not possible to efficiently refer to target pixels that have been made sparse in various ways by sparse template matching.
Therefore, with the circuit configuration of Patent Document 1, speeding up by sparse template matching cannot be realized.

本開示は、スパーステンプレートマッチングによる高速化を実現することを目的とする。 The present disclosure aims to realize speeding up by sparse template matching.

本開示のテンプレートマッチング装置は、
テンプレート画像から複数の特徴画素を抽出する特徴画素抽出部と、
抽出された特徴画素ごとに特徴画素と比較される複数の対象画素を観測画像から抽出する対象画素抽出部と、
抽出された対象画素ごとに抽出された複数の特徴画素に対する画素距離を算出する距離算出部と、
各対象画素の前記画素距離に基づいて前記テンプレート画像に対応する位置を前記観測画像から検出する位置検出部と、を備える。
The template matching device of the present disclosure includes:
a feature pixel extraction unit that extracts a plurality of feature pixels from the template image;
a target pixel extraction unit that extracts a plurality of target pixels from the observed image, which are compared with the characteristic pixel for each extracted feature pixel;
a distance calculation unit that calculates pixel distances to the plurality of feature pixels extracted for each extracted target pixel;
A position detection unit detects a position corresponding to the template image from the observed image based on the pixel distance of each target pixel.

本開示によれば、スパーステンプレートマッチングによる高速化を実現することができる。 According to the present disclosure, speeding up by sparse template matching can be achieved.

実施の形態1におけるテンプレートマッチング装置100の構成図。FIG. 1 is a configuration diagram of a template matching device 100 in Embodiment 1. 実施の形態1における画素比較部120の構成図。FIG. 2 is a configuration diagram of a pixel comparison unit 120 in the first embodiment. 実施の形態1におけるテンプレートマッチング方法のフローチャート。5 is a flowchart of a template matching method in Embodiment 1. 実施の形態1におけるステップS110のフローチャート。5 is a flowchart of step S110 in the first embodiment. 実施の形態1におけるステップS120のフローチャート。5 is a flowchart of step S120 in the first embodiment. 実施の形態2におけるテンプレートマッチング装置100の構成図。FIG. 2 is a configuration diagram of a template matching device 100 in a second embodiment. 実施の形態2における画素比較部120の構成図。FIG. 2 is a configuration diagram of a pixel comparison unit 120 in Embodiment 2. 実施の形態2におけるテンプレートマッチング方法のフローチャート。7 is a flowchart of a template matching method in Embodiment 2. 実施の形態2におけるステップS220のフローチャート。Flowchart of step S220 in Embodiment 2. 実施の形態3におけるテンプレートマッチング方法のフローチャート。7 is a flowchart of a template matching method in Embodiment 3. 実施の形態3におけるステップS320のフローチャート。Flowchart of step S320 in Embodiment 3. 実施の形態におけるテンプレートマッチング装置100のハードウェア構成図。FIG. 1 is a hardware configuration diagram of a template matching device 100 in an embodiment.

実施の形態および図面において、同じ要素または対応する要素には同じ符号を付している。説明した要素と同じ符号が付された要素の説明は適宜に省略または簡略化する。図中の矢印はデータの流れ又は処理の流れを主に示している。 In the embodiments and drawings, the same or corresponding elements are denoted by the same reference numerals. Descriptions of elements assigned the same reference numerals as explained elements will be omitted or simplified as appropriate. Arrows in the figure mainly indicate the flow of data or processing.

実施の形態1.
スパーステンプレートマッチングの形態について、図1から図5に基づいて説明する。
Embodiment 1.
The form of sparse template matching will be explained based on FIGS. 1 to 5.

***構成の説明*** ***Explanation of configuration***

図1に基づいて、テンプレートマッチング装置100の構成を説明する。
テンプレートマッチング装置100は、観測画像取得部110と画素比較部120と位置検出部130と全体制御部170といった要素を備える。
さらに、テンプレートマッチング装置100は記憶部という要素を備える。具体的には、テンプレートマッチング装置100は、観測画像記憶部140とテンプレート画像記憶部150と座標情報記憶部160といった記憶部を備える。
The configuration of the template matching device 100 will be explained based on FIG. 1.
The template matching device 100 includes elements such as an observed image acquisition section 110, a pixel comparison section 120, a position detection section 130, and an overall control section 170.
Furthermore, the template matching device 100 includes an element called a storage section. Specifically, the template matching device 100 includes storage units such as an observed image storage unit 140, a template image storage unit 150, and a coordinate information storage unit 160.

テンプレートマッチング装置100の構成要素は信号線を介して互いに接続される。 The components of the template matching device 100 are connected to each other via signal lines.

図2に基づいて、画素比較部120の構成を説明する。
画素比較部120は、特徴画素抽出部121と対象画素抽出部122と距離算出部123といった要素を備える。
The configuration of the pixel comparison section 120 will be explained based on FIG. 2.
The pixel comparison section 120 includes elements such as a feature pixel extraction section 121, a target pixel extraction section 122, and a distance calculation section 123.

***動作の説明***
テンプレートマッチング装置100の動作の手順はテンプレートマッチング方法に相当する。
***Operation explanation***
The operation procedure of the template matching device 100 corresponds to a template matching method.

図3に基づいて、テンプレートマッチング方法を説明する。
テンプレートマッチング装置100が起動されると、全体制御部170は、テンプレートマッチング方法の実施を開始させる。
テンプレートマッチング方法において、観測画像取得部110、画素比較部120、位置検出部130および各種記憶部は、全体制御部170によって制御される。
The template matching method will be explained based on FIG. 3.
When the template matching apparatus 100 is activated, the overall control unit 170 starts implementing the template matching method.
In the template matching method, the observed image acquisition section 110, pixel comparison section 120, position detection section 130, and various storage sections are controlled by the overall control section 170.

ステップS110において、観測画像取得部110は観測画像を取得する。
観測画像は、対象物体が映った画像であり、カメラなどの撮影機器を使って対象物体を撮影することによって得られる。
対象物体は、テンプレートマッチングの対象となる物体である。
In step S110, the observation image acquisition unit 110 acquires an observation image.
The observed image is an image of the target object, and is obtained by photographing the target object using a photographing device such as a camera.
The target object is an object that is the target of template matching.

図4に基づいて、ステップS110の手順を説明する。
ステップS111において、観測画像が1つ以上の画素ずつ順にテンプレートマッチング装置100に入力される。例えば、観測画像の1つ以上の画素はカメラからテンプレートマッチング装置100に入力される。
観測画像取得部110は、入力された観測画像を受け取る。
The procedure of step S110 will be explained based on FIG. 4.
In step S111, the observed image is input to the template matching device 100 one or more pixels in sequence. For example, one or more pixels of an observed image are input to the template matching device 100 from a camera.
The observation image acquisition unit 110 receives the input observation image.

ステップS112において、観測画像取得部110は、受け取った1つ以上の画素を観測画像記憶部140に格納する。 In step S112, the observed image acquisition unit 110 stores the received one or more pixels in the observed image storage unit 140.

また、観測画像取得部110は、1を加算して観測画像の格納回数を更新する。
観測画像の格納回数は、内部カウンタを使って管理される。観測画像の格納回数の初期値はゼロである。
The observed image acquisition unit 110 also adds 1 to update the number of times the observed image is stored.
The number of times observation images are stored is managed using an internal counter. The initial value of the number of times observation images are stored is zero.

ステップS113において、観測画像取得部110は、テンプレートマッチング方法の実施のために十分な観測画像の画素が観測画像記憶部140に格納されたか判定する。
例えば、格納された画素の数が閾値に到達した場合、観測画像の画素は十分に格納されている。閾値は、例えば観測画像の画素数であり、予め決められる。
観測画像の画素が十分に格納されていない場合、処理はステップS111へ進む。
観測画像の画素が十分に格納された場合、ステップS110は終了する。
In step S113, the observed image acquisition unit 110 determines whether sufficient pixels of the observed image have been stored in the observed image storage unit 140 for implementing the template matching method.
For example, if the number of stored pixels reaches a threshold, enough pixels of the observed image are stored. The threshold value is, for example, the number of pixels of the observed image, and is determined in advance.
If not enough pixels of the observed image are stored, the process advances to step S111.
If enough pixels of the observed image have been stored, step S110 ends.

図3に戻り、ステップS120から説明を続ける。
ステップS120において、画素比較部120は、観測画像の中の対象画素ごとに画素距離を算出する。
画素距離は、テンプレート画像の中の複数の特徴画素に対する対象画素の距離である。
テンプレート画像は、対象物体が映った画像であり、テンプレート画像記憶部150に予め記憶される。
特徴画素は、特徴点が映った画素であり、テンプレート画像から抽出される。
対象画素は、特徴画素と比較される画素であり、観測画像から抽出される。
Returning to FIG. 3, the explanation will continue from step S120.
In step S120, the pixel comparison unit 120 calculates a pixel distance for each target pixel in the observed image.
The pixel distance is the distance of the target pixel to a plurality of characteristic pixels in the template image.
The template image is an image showing the target object, and is stored in the template image storage unit 150 in advance.
A feature pixel is a pixel in which a feature point is reflected, and is extracted from the template image.
A target pixel is a pixel to be compared with a feature pixel and is extracted from an observed image.

図5に基づいて、ステップS120の手順を説明する。
ステップS121において、特徴画素抽出部121は、テンプレート画像から未抽出の特徴画素を1つ抽出する。
そして、特徴画素抽出部121は、抽出した特徴画素を距離算出部123に渡す。
The procedure of step S120 will be explained based on FIG. 5.
In step S121, the feature pixel extraction unit 121 extracts one unextracted feature pixel from the template image.
Then, the feature pixel extraction unit 121 passes the extracted feature pixels to the distance calculation unit 123.

特徴画素は以下のように抽出される。
まず、特徴画素抽出部121は、座標情報と特徴画素数の内部カウンタに基づいて、テンプレート画像の中の特徴画素のアドレスを生成する。
座標情報は、テンプレート画像における複数の特徴画素のそれぞれの座標値を示す。座標情報は、ユーザから指定され、座標情報記憶部160に予め記憶される。
そして、特徴画素抽出部121は、生成したアドレスに基づいて、テンプレート画像から特徴画素を抽出する。
Feature pixels are extracted as follows.
First, the feature pixel extraction unit 121 generates the address of the feature pixel in the template image based on the coordinate information and an internal counter for the number of feature pixels.
The coordinate information indicates the coordinate values of each of the plurality of feature pixels in the template image. The coordinate information is specified by the user and stored in the coordinate information storage section 160 in advance.
Then, the feature pixel extraction unit 121 extracts feature pixels from the template image based on the generated address.

ステップS122の「特徴画素」は、ステップS121で抽出された1つの特徴画素を意味する。 The "feature pixel" in step S122 means one feature pixel extracted in step S121.

ステップS122において、対象画素抽出部122は、観測画像から未抽出の対象画素を1つ抽出する。
そして、対象画素抽出部122は、抽出した対象画素を距離算出部123に渡す。
In step S122, the target pixel extraction unit 122 extracts one unextracted target pixel from the observed image.
Then, the target pixel extraction unit 122 passes the extracted target pixel to the distance calculation unit 123.

対象画素は、特徴画素と同様に、以下のように抽出される。
まず、対象画素抽出部122は、座標情報に基づいて、観測画像の中の対象画素のアドレスを生成する。
そして、対象画素抽出部122は、生成したアドレスに基づいて、観測画像から対象画素を抽出する。
The target pixel is extracted as follows, similar to the feature pixel.
First, the target pixel extraction unit 122 generates the address of the target pixel in the observed image based on the coordinate information.
Then, the target pixel extraction unit 122 extracts the target pixel from the observed image based on the generated address.

ステップS123の「特徴画素」は、ステップS121で抽出された1つの特徴画素を意味する。
ステップS123の「対象画素」は、ステップS122で抽出された1つの対象画素を意味する。
The "feature pixel" in step S123 means one feature pixel extracted in step S121.
The "target pixel" in step S123 means one target pixel extracted in step S122.

ステップS123において、距離算出部123は、特徴画素と対象画素の距離を算出する。 In step S123, the distance calculation unit 123 calculates the distance between the feature pixel and the target pixel.

距離は例えば以下のように算出される。
距離算出部123は、特徴画素の画素値と対象画素の画素値の差(の絶対値)を算出する。算出される差(の絶対値)が特徴画素と対象画素の距離である。
For example, the distance is calculated as follows.
The distance calculation unit 123 calculates the difference (absolute value) between the pixel value of the feature pixel and the pixel value of the target pixel. The calculated difference (absolute value) is the distance between the feature pixel and the target pixel.

ステップS124において、対象画素抽出部122は、未抽出の対象画素があるか判定する。 In step S124, the target pixel extraction unit 122 determines whether there are any unextracted target pixels.

判定は以下のように実行される。
まず、対象画素抽出部122は、1を加算して対象画素の処理数を更新する。
対象画素の処理数は、内部カウンタを使って管理される。対象画素の処理数の初期値はゼロである。
そして、対象画素抽出部122は、対象画素の処理数を閾値と比較する。閾値はユーザから指定されて予め決められた値である。
対象画素の処理数が閾値と等しい場合、未抽出の対象画素がない。
対象画素の処理数が閾値未満である場合、未抽出の対象画素がある。
The determination is performed as follows.
First, the target pixel extraction unit 122 adds 1 to update the number of target pixels to be processed.
The number of target pixels to be processed is managed using an internal counter. The initial value of the number of target pixels to be processed is zero.
Then, the target pixel extraction unit 122 compares the number of processed target pixels with a threshold value. The threshold value is a predetermined value designated by the user.
If the number of target pixels processed is equal to the threshold value, there are no unextracted target pixels.
If the number of target pixels to be processed is less than the threshold, there are target pixels that have not yet been extracted.

未抽出の対象画素がある場合、処理はステップS122へ進む。
未抽出の対象画素がない場合、処理はステップS125へ進む。
If there is an unextracted target pixel, the process advances to step S122.
If there are no unextracted target pixels, the process advances to step S125.

ステップS125の「対象画素」は、ステップS122で抽出された複数の対象画素のそれぞれを意味する。 The "target pixel" in step S125 means each of the plurality of target pixels extracted in step S122.

ステップS125において、距離算出部123は、対象画素ごとに、特徴画素と対象画素の距離に基づいて画素距離を更新する。これにより、各対象画素の画素距離が算出される。 In step S125, the distance calculation unit 123 updates the pixel distance for each target pixel based on the distance between the feature pixel and the target pixel. Thereby, the pixel distance of each target pixel is calculated.

画素距離は例えば以下のように更新される。
距離算出部123は、特徴画素と対象画素の距離を加算して画素距離を更新する。画素距離の初期値はゼロである。
For example, the pixel distance is updated as follows.
The distance calculation unit 123 adds the distance between the feature pixel and the target pixel to update the pixel distance. The initial value of pixel distance is zero.

ステップS126において、特徴画素抽出部121は、未抽出の特徴画素があるか判定する。 In step S126, the feature pixel extraction unit 121 determines whether there are any feature pixels that have not been extracted.

判定は以下のように実行される。
まず、特徴画素抽出部121は、1を加算して特徴画素の処理数を更新する。
特徴画素の処理数は、内部カウンタを使って管理される。特徴画素の処理数の初期値はゼロである。
そして、特徴画素抽出部121は、特徴画素の処理数を閾値と比較する。閾値はユーザから指定されて予め決められた値である。
特徴画素の処理数が閾値と等しい場合、未抽出の特徴画素がない。
特徴画素の処理数が閾値未満である場合、未抽出の特徴画素がある。
The determination is performed as follows.
First, the feature pixel extraction unit 121 adds 1 to update the number of processed feature pixels.
The number of processed feature pixels is managed using an internal counter. The initial value of the number of processed feature pixels is zero.
Then, the feature pixel extraction unit 121 compares the number of processed feature pixels with a threshold value. The threshold value is a predetermined value designated by the user.
If the number of processed feature pixels is equal to the threshold, there are no unextracted feature pixels.
If the number of processed feature pixels is less than the threshold, there are feature pixels that have not been extracted.

未抽出の特徴画素がある場合、処理はステップS121へ進む。
このとき、特徴画素抽出部121は、対象画素の処理数を初期化する。また、特徴画素抽出部121は、1を加算して特徴画素の処理数を更新する。
特徴画素の処理数は、内部カウンタを使って管理される。特徴画素の処理数の初期値はゼロである。
If there are unextracted feature pixels, the process advances to step S121.
At this time, the feature pixel extraction unit 121 initializes the number of target pixels to be processed. Further, the feature pixel extraction unit 121 adds 1 to update the number of processed feature pixels.
The number of processed feature pixels is managed using an internal counter. The initial value of the number of processed feature pixels is zero.

未抽出の特徴画素がない場合、ステップS120は終了する。 If there are no unextracted feature pixels, step S120 ends.

図3に戻り、ステップS130を説明する。
ステップS130において、位置検出部130は、各対象画素の画素距離に基づいて、テンプレート画像に対応する位置を観測画像から検出する。
そして、位置検出部130は、検出結果を出力する。
Returning to FIG. 3, step S130 will be explained.
In step S130, the position detection unit 130 detects a position corresponding to the template image from the observed image based on the pixel distance of each target pixel.
Then, the position detection unit 130 outputs the detection result.

例えば、テンプレート画像に対応する位置は以下のように検出される。
位置検出部130は、画素距離が最も小さい対象画素の位置を選択する。選択される位置がテンプレート画素に対応する位置である。
For example, the position corresponding to the template image is detected as follows.
The position detection unit 130 selects the position of the target pixel with the smallest pixel distance. The selected position is the position corresponding to the template pixel.

ステップS130の後、テンプレートマッチング方法の処理は終了する。 After step S130, the processing of the template matching method ends.

***実施の形態1の効果***
実施の形態1は、効率的なスパーステンプレートマッチング処理による位置検出の高速化を目的とする。
実施の形態1は、スパーステンプレートマッチング処理を実現する。
実施の形態1では、特徴画素と対象画素が座標情報(位置情報)と特徴画素数の内部カウンタに基づいて抽出され、抽出された特徴画素と抽出された対象画像が比較される。そのため、スパーステンプレートマッチング処理による位置検出が高速化される。
***Effects of Embodiment 1***
Embodiment 1 aims at speeding up position detection through efficient sparse template matching processing.
Embodiment 1 implements sparse template matching processing.
In the first embodiment, a feature pixel and a target pixel are extracted based on coordinate information (position information) and an internal counter for the number of feature pixels, and the extracted feature pixel and the extracted target image are compared. Therefore, position detection by sparse template matching processing is sped up.

***実施の形態1の実施例***
テンプレート画像記憶部150は、テンプレート画像の全ての画素を記憶する代わりに、テンプレート画像の中の全ての特徴画素を記憶してもよい。
特徴画素抽出部121は、座標情報を参照せずに、特徴画素数の内部カウンタに基づいて、テンプレート画像記憶部150から特徴画素を抽出する。
例えば、対象画素抽出部122は、特徴画素抽出部121によって抽出される特徴画素に対応する対象画素を抽出する。
***Example of Embodiment 1***
Instead of storing all the pixels of the template image, the template image storage unit 150 may store all the characteristic pixels in the template image.
The feature pixel extraction unit 121 extracts feature pixels from the template image storage unit 150 based on an internal counter of the number of feature pixels without referring to coordinate information.
For example, the target pixel extraction unit 122 extracts target pixels corresponding to the feature pixels extracted by the feature pixel extraction unit 121.

ステップS120は、ステップS110で1枚の観測画像の全ての画素が読み込まれる前に開始されてもよい。この場合、ステップS120でのループ回数は読み込まれた観測画像の大きさに応じて変更される。 Step S120 may be started before all pixels of one observed image are read in step S110. In this case, the number of loops in step S120 is changed depending on the size of the read observation image.

複数のテンプレート画像が使用されてもよい。
この場合、テンプレート画像枚数の内部カウンタが追加され、内部カウンタの値に応じて分岐処理が発生し、複数のテンプレート画像に対する複数の画素距離を比較して位置検出が実行される。
Multiple template images may be used.
In this case, an internal counter for the number of template images is added, a branch process occurs according to the value of the internal counter, and position detection is performed by comparing a plurality of pixel distances to a plurality of template images.

実施の形態2.
スパーステンプレートマッチングを高速化する形態について、主に実施の形態1と異なる点を図6から図9に基づいて説明する。
Embodiment 2.
With regard to a mode for speeding up sparse template matching, the main differences from Embodiment 1 will be explained based on FIGS. 6 to 9.

***構成の説明***
図6に基づいて、テンプレートマッチング装置100の構成を説明する。
テンプレートマッチング装置100の構成は、観測画像記憶部140を複数備える点で実施の形態1における構成と異なる。
***Explanation of configuration***
The configuration of the template matching device 100 will be explained based on FIG. 6.
The configuration of template matching device 100 differs from the configuration in Embodiment 1 in that it includes a plurality of observed image storage units 140.

図7に基づいて、画素比較部120の構成を説明する。
画素比較部120は、特徴画素抽出部121と複数の対象画素抽出部122と複数の距離算出部123と比較範囲制御部124といった要素を備える。
The configuration of the pixel comparison section 120 will be explained based on FIG. 7.
The pixel comparison section 120 includes elements such as a feature pixel extraction section 121, a plurality of target pixel extraction sections 122, a plurality of distance calculation sections 123, and a comparison range control section 124.

複数の対象画素抽出部122は、並列に配置され同時に動作する。
複数の距離算出部123は、並列に配置され同時に動作する。
対象画素抽出部122と距離算出部123は、1対1で対応付けられ接続される。
The plurality of target pixel extraction units 122 are arranged in parallel and operate simultaneously.
The plurality of distance calculation units 123 are arranged in parallel and operate simultaneously.
The target pixel extraction unit 122 and the distance calculation unit 123 are connected in a one-to-one correspondence.

比較範囲制御部124は、複数の対象画素の中から画素距離を算出される2つ以上の対象画素を決定する。 The comparison range control unit 124 determines two or more target pixels whose pixel distances are to be calculated from among the plurality of target pixels.

***動作の説明***
図8に基づいて、テンプレートマッチング方法を説明する。
ステップS210において、観測画像取得部110は観測画像を取得する。
ステップS210の手順は、実施の形態1におけるステップS110の手順と同じである。但し、観測画像は複数の観測画像記憶部140のそれぞれに格納される。
***Operation explanation***
The template matching method will be explained based on FIG. 8.
In step S210, the observation image acquisition unit 110 acquires an observation image.
The procedure of step S210 is the same as the procedure of step S110 in the first embodiment. However, the observed images are stored in each of the plurality of observed image storage units 140.

ステップS220において、画素比較部120は、観測画像の中の対象画素ごとに画素距離を算出する。 In step S220, the pixel comparison unit 120 calculates a pixel distance for each target pixel in the observed image.

図9に基づいて、ステップS220の手順を説明する。
ステップS221において、特徴画素抽出部121は、テンプレート画像から未抽出の特徴画素を1つ抽出する。
ステップS221は、実施の形態1のステップS121と同じである。
The procedure of step S220 will be explained based on FIG. 9.
In step S221, the feature pixel extraction unit 121 extracts one unextracted feature pixel from the template image.
Step S221 is the same as step S121 in the first embodiment.

ステップS222において、複数の対象画素抽出部122は、互いに異なる対象画素を同時に抽出する。これにより、複数の対象画素が一度に抽出される。 In step S222, the plurality of target pixel extraction units 122 simultaneously extract mutually different target pixels. Thereby, multiple target pixels are extracted at once.

複数の対象画素は以下のように抽出される。
それぞれの観測画像記憶部140には、互いに異なるオフセットアドレスが設定される。
それぞれの対象画素抽出部122は、座標情報と特徴画素数の内部カウンタに基づくアドレスと、対応付けられた観測画像記憶部140のオフセットアドレスと、に基づいて、対応付けられた観測画像記憶部140に格納された観測画像から対象画素を抽出する。
A plurality of target pixels are extracted as follows.
Different offset addresses are set in each observed image storage unit 140.
Each target pixel extraction unit 122 extracts the associated observed image storage unit 140 based on the coordinate information and an address based on the internal counter of the number of feature pixels, and the offset address of the associated observed image storage unit 140. Extract the target pixel from the observed image stored in .

観測画像記憶部140の数が対象画素抽出部122の数より多い場合、比較範囲制御部124は、座標情報に基づいて、ステップS222で使用される2つ以上の観測画像記憶部140を決定する。 If the number of observation image storage units 140 is greater than the number of target pixel extraction units 122, the comparison range control unit 124 determines two or more observation image storage units 140 to be used in step S222 based on the coordinate information. .

ステップS223において、複数の距離算出部123は、互いに異なる対象画素に対して特徴画素と対象画素の距離を同時に算出する。これにより、特徴画素と各対象画素の距離が一度に算出される。算出方法は実施の形態1における方法と同じである。 In step S223, the plurality of distance calculation units 123 simultaneously calculate distances between the feature pixel and the target pixel for different target pixels. Thereby, the distance between the feature pixel and each target pixel is calculated at once. The calculation method is the same as the method in the first embodiment.

具体的には、それぞれの距離算出部123が、対応付けられた対象画素抽出部122によって抽出された対象画素に対して特徴画素と対象画素の距離を算出する。 Specifically, each distance calculation unit 123 calculates the distance between the feature pixel and the target pixel for the target pixel extracted by the associated target pixel extraction unit 122.

比較範囲の制御のために、シフトレジスタのような記憶素子を利用することができる。シフトレジスタは、簡単なシフト処理によるデータの移動が可能な記憶素子の一例である。
シフトレジスタには、複数の対象画素が格納される。複数の対象画素のうち一部(ある範囲)が特徴画素と比較される。つまり、一部の対象画素のそれぞれと特徴画素の距離が算出される。
一部の特徴画素は、座標情報の分のシフト処理が記憶素子に対して実行されることによって記憶素子から抽出される。一部の特徴画素は、あらかじめユーザから指定された桁数の分の特徴画素である。
Storage elements such as shift registers can be used to control the comparison range. A shift register is an example of a storage element in which data can be moved by simple shift processing.
A plurality of target pixels are stored in the shift register. A part (certain range) of the plurality of target pixels is compared with the characteristic pixels. In other words, the distance between each of some target pixels and the feature pixel is calculated.
Some of the feature pixels are extracted from the storage element by performing a shift process on the storage element by the amount of coordinate information. Some of the feature pixels have a number of digits specified in advance by the user.

ステップS224において、複数の距離算出部123は、互いに異なる対象画素に対して特徴画素と対象画素の距離に基づいて画素距離を更新する。これにより、各対象画素の画素距離が同時に算出される。更新方法は実施の形態1における方法と同じである。 In step S224, the plurality of distance calculation units 123 update pixel distances for different target pixels based on the distance between the feature pixel and the target pixel. Thereby, the pixel distance of each target pixel is calculated simultaneously. The updating method is the same as the method in the first embodiment.

具体的には、それぞれの距離算出部123が、対応付けられた対象画素抽出部122によって抽出された対象画素の画素距離を更新する。 Specifically, each distance calculation unit 123 updates the pixel distance of the target pixel extracted by the associated target pixel extraction unit 122.

ステップS225において、特徴画素抽出部121は、未抽出の特徴画素があるか判定する。ステップS225は、実施の形態1のステップS126と同じである。 In step S225, the feature pixel extraction unit 121 determines whether there are any unextracted feature pixels. Step S225 is the same as step S126 in the first embodiment.

未抽出の特徴画素がある場合、処理はステップS221へ進む。このとき、特徴画素抽出部121は、1を加算して特徴画素の処理数を更新する。
未抽出の特徴画素がない場合、ステップS220は終了する。
If there are unextracted feature pixels, the process advances to step S221. At this time, the feature pixel extraction unit 121 adds 1 to update the number of processed feature pixels.
If there are no unextracted feature pixels, step S220 ends.

図8に戻り、ステップS230を説明する。
ステップS230において、位置検出部130は、各対象画素の画素距離に基づいて、テンプレート画像に対応する位置を観測画像から検出する。
ステップS230は実施の形態1のステップS130と同じである。
Returning to FIG. 8, step S230 will be explained.
In step S230, the position detection unit 130 detects a position corresponding to the template image from the observed image based on the pixel distance of each target pixel.
Step S230 is the same as step S130 in the first embodiment.

ステップS230の後、テンプレートマッチング方法の処理は終了する。 After step S230, the processing of the template matching method ends.

***実施の形態2の効果***
実施の形態2は、テンプレート画像の特徴画素と観測画像の複数の対象画素を同時に処理することで、スパーステンプレートマッチング処理を高速化する。
実施の形態2では、対象画素抽出部122と距離算出部123が複数配置される。これにより、テンプレート画像の特徴画素と観測画像の複数の対象画素のそれぞれの距離を同時に算出することができる。そのため、スパーステンプレートマッチング処理が高速化される。
テンプレートマッチング装置100は、比較範囲制御部124を備え、比較される対象画素をシフト処理によって複数の観測画像記憶部140から抽出される画素から選択する。これにより、観測画像を格納する際の分割数に制限を与えず他の画像処理に対して柔軟な回路構成を実現できる。
***Effects of Embodiment 2***
Embodiment 2 speeds up sparse template matching processing by processing feature pixels of a template image and a plurality of target pixels of an observed image simultaneously.
In the second embodiment, a plurality of target pixel extraction units 122 and distance calculation units 123 are arranged. Thereby, the distances between the feature pixel of the template image and each of the plurality of target pixels of the observed image can be calculated simultaneously. Therefore, sparse template matching processing is sped up.
The template matching device 100 includes a comparison range control unit 124, and selects target pixels to be compared from pixels extracted from a plurality of observed image storage units 140 by shift processing. This makes it possible to realize a flexible circuit configuration for other image processing without placing any limit on the number of divisions when storing observed images.

実施の形態3.
スパーステンプレートマッチングを高速化する形態について、主に実施の形態2と異なる点を図10および図11に基づいて説明する。
Embodiment 3.
With regard to the mode for speeding up sparse template matching, the main differences from Embodiment 2 will be explained based on FIGS. 10 and 11.

***構成の説明***
テンプレートマッチング装置100の構成は、実施の形態2における構成と同じである。
***Explanation of configuration***
The configuration of template matching device 100 is the same as that in the second embodiment.

***動作の説明***
図10に基づいて、テンプレートマッチング方法を説明する。
ステップS310において、観測画像取得部110は観測画像を取得する。
ステップS310は、実施の形態2のステップS210と同じである。
***Operation explanation***
The template matching method will be explained based on FIG. 10.
In step S310, the observation image acquisition unit 110 acquires an observation image.
Step S310 is the same as step S210 in the second embodiment.

ステップS320において、画素比較部120は、観測画像の中の対象画素ごとに画素距離を算出する。 In step S320, the pixel comparison unit 120 calculates a pixel distance for each target pixel in the observed image.

図11に基づいて、ステップS320の手順を説明する。
ステップS321において、特徴画素抽出部121は、テンプレート画像から未抽出の特徴画素組を1つ抽出する。
The procedure of step S320 will be explained based on FIG. 11.
In step S321, the feature pixel extraction unit 121 extracts one unextracted feature pixel set from the template image.

特徴画素組は1つ以上の特徴画素である。
具体的には、特徴画素組は、テンプレート画像の中の同一ラインにある2つ以上の特徴画素のうち固定距離の間にある1つ以上の画素である。
A feature pixel set is one or more feature pixels.
Specifically, the feature pixel set is one or more pixels that are located a fixed distance apart from two or more feature pixels that are on the same line in the template image.

ステップS322において、複数の対象画素抽出部122は、観測画像から複数の対象画素を抽出する。抽出される複数の対象画素は互いに異なる。 In step S322, the multiple target pixel extraction units 122 extract multiple target pixels from the observed image. The plurality of target pixels to be extracted are different from each other.

複数の対象画素の数は、1つの特徴画素に対する対象画素の数と特徴画素組にある距離の和と同じである。 The number of target pixels is the same as the sum of the number of target pixels and the distance in the feature pixel set to one feature pixel.

ステップS323において、複数の距離算出部123は、特徴画素組の中のそれぞれの特徴画素に対応する対象画素ごとに特徴画素組の中のそれぞれの特徴画素と対象画素の距離を算出する。算出方法は実施の形態2におけるステップS223の方法と同様である。 In step S323, the plurality of distance calculation units 123 calculate the distance between each feature pixel in the feature pixel set and the target pixel for each target pixel corresponding to each feature pixel in the feature pixel set. The calculation method is the same as the method of step S223 in the second embodiment.

一部の特徴画素は、特徴画素の座標情報と特徴画素の固定距離との分のシフト処理が記憶素子に対して実行されることによって記憶素子から抽出される。 Some of the feature pixels are extracted from the storage element by performing a shift process on the storage element by the coordinate information of the feature pixel and the fixed distance of the feature pixel.

ステップS324において、複数の距離算出部123は、対象画素ごとに、特徴画素組の中のそれぞれの特徴画素と対象画素の距離に基づいて、画素距離を更新する。更新方法は実施の形態1における方法と同じである。 In step S324, the plurality of distance calculation units 123 update the pixel distance for each target pixel based on the distance between each feature pixel in the feature pixel set and the target pixel. The updating method is the same as the method in the first embodiment.

具体的には、それぞれの距離算出部123が、対応付けられた対象画素抽出部122によって抽出された対象画素について画素距離を更新する。 Specifically, each distance calculation unit 123 updates the pixel distance for the target pixel extracted by the associated target pixel extraction unit 122.

ステップS325において、特徴画素抽出部121は、未抽出の特徴画素組があるか判定する。ステップS325は、実施の形態1のステップS126と同様である。 In step S325, the feature pixel extraction unit 121 determines whether there is any feature pixel set that has not been extracted. Step S325 is similar to step S126 in the first embodiment.

未抽出の特徴画素組がある場合、処理はステップS321へ進む。このとき、特徴画素抽出部121は、1を加算して特徴画素の処理数を更新する。
未抽出の特徴画素組がない場合、ステップS320は終了する。
If there is a feature pixel set that has not been extracted, the process advances to step S321. At this time, the feature pixel extraction unit 121 adds 1 to update the number of processed feature pixels.
If there is no unextracted feature pixel set, step S320 ends.

図10に戻り、ステップS330を説明する。
ステップS330において、位置検出部130は、各対象画素の画素距離に基づいて、テンプレート画像に対応する位置を観測画像から検出する。
ステップS330は実施の形態2のステップS230と同じである。
Returning to FIG. 10, step S330 will be explained.
In step S330, the position detection unit 130 detects a position corresponding to the template image from the observed image based on the pixel distance of each target pixel.
Step S330 is the same as step S230 in the second embodiment.

ステップS330の後、テンプレートマッチング方法の処理は終了する。 After step S330, the processing of the template matching method ends.

***実施の形態3の効果***
実施の形態3は、テンプレート画像の特徴画素の座標について制約が課された場合にスパーステンプレートマッチング処理を高速化する。
実施の形態3により、複数の対象画素の抽出が効率化される。また、ステップS320における繰り返し回数の減少が可能となる。特徴画素組に含まれる特徴画素が多いほど繰り返し回数の減少の効果が高くなる。また、固定距離が小さいほど複数の対象画素の抽出が効率化される。
***Effects of Embodiment 3***
Embodiment 3 speeds up sparse template matching processing when constraints are imposed on the coordinates of feature pixels of a template image.
According to the third embodiment, extraction of a plurality of target pixels is made more efficient. Furthermore, it is possible to reduce the number of repetitions in step S320. The greater the number of feature pixels included in the feature pixel set, the greater the effect of reducing the number of repetitions. Furthermore, the smaller the fixed distance is, the more efficiently extraction of a plurality of target pixels becomes.

***実施の形態の補足***
図12に基づいて、テンプレートマッチング装置100のハードウェア構成を説明する。
テンプレートマッチング装置100は処理回路101と入出力インタフェース102を備える。
処理回路101は、観測画像取得部110と画素比較部120と位置検出部130と観測画像記憶部140とテンプレート画像記憶部150と座標情報記憶部160と全体制御部170を実現するハードウェアである。
処理回路101は、専用のハードウェアであってもよいし、メモリに格納されるプログラムを実行するプロセッサであってもよい。
プログラムは、光ディスクまたはフラッシュメモリ等の不揮発性の記録媒体にコンピュータ読み取り可能に記録(格納)することができる。
***Supplementary information regarding the implementation form***
The hardware configuration of the template matching device 100 will be explained based on FIG. 12.
The template matching device 100 includes a processing circuit 101 and an input/output interface 102.
The processing circuit 101 is hardware that implements an observation image acquisition section 110, a pixel comparison section 120, a position detection section 130, an observation image storage section 140, a template image storage section 150, a coordinate information storage section 160, and an overall control section 170. .
The processing circuit 101 may be dedicated hardware or may be a processor that executes a program stored in memory.
The program can be recorded (stored) in a computer-readable manner on a non-volatile recording medium such as an optical disk or a flash memory.

処理回路101が専用のハードウェアである場合、処理回路101は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGAまたはこれらの組み合わせである。
ASICは、Application Specific Integrated Circuitの略称である。
FPGAは、Field Programmable Gate Arrayの略称である。
If processing circuit 101 is dedicated hardware, processing circuit 101 is, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC, an FPGA, or a combination thereof.
ASIC is an abbreviation for Application Specific Integrated Circuit.
FPGA is an abbreviation for Field Programmable Gate Array.

テンプレートマッチング装置100は、処理回路101を代替する複数の処理回路を備えてもよい。 The template matching device 100 may include a plurality of processing circuits that replace the processing circuit 101.

処理回路101において、一部の機能が専用のハードウェアで実現されて、残りの機能がソフトウェアまたはファームウェアで実現されてもよい。 In the processing circuit 101, some functions may be realized by dedicated hardware, and the remaining functions may be realized by software or firmware.

このように、テンプレートマッチング装置100の機能はハードウェア、ソフトウェア、ファームウェアまたはこれらの組み合わせで実現することができる。 In this way, the functions of the template matching device 100 can be realized by hardware, software, firmware, or a combination thereof.

各実施の形態は、好ましい形態の例示であり、本開示の技術的範囲を制限することを意図するものではない。各実施の形態は、部分的に実施してもよいし、他の形態と組み合わせて実施してもよい。フローチャート等を用いて説明した手順は、適宜に変更してもよい。 Each embodiment is an illustration of a preferred form and is not intended to limit the technical scope of the present disclosure. Each embodiment may be implemented partially or in combination with other embodiments. The procedures described using flowcharts and the like may be modified as appropriate.

テンプレートマッチング装置100は「画像処理装置」または「画像処理回路」と読み替えてもよい。
テンプレートマッチング装置100の「装置」は「回路」と読み替えてもよい。
テンプレートマッチング装置100の各要素の「部」は「処理」、「工程」、「回路」または「サーキットリ」と読み替えてもよい。
The template matching device 100 may be read as an "image processing device" or an "image processing circuit."
The “device” of the template matching device 100 may be read as a “circuit”.
The "unit" of each element of the template matching device 100 may be read as "process", "process", "circuit", or "circuitry".

100 テンプレートマッチング装置、101 処理回路、102 入出力インタフェース、110 観測画像取得部、120 画素比較部、121 特徴画素抽出部、122 対象画素抽出部、123 距離算出部、124 比較範囲制御部、130 位置検出部、140 観測画像記憶部、150 テンプレート画像記憶部、160 座標情報記憶部、170 全体制御部。 Reference Signs List 100 template matching device, 101 processing circuit, 102 input/output interface, 110 observed image acquisition unit, 120 pixel comparison unit, 121 feature pixel extraction unit, 122 target pixel extraction unit, 123 distance calculation unit, 124 comparison range control unit, 130 position Detection unit, 140 Observation image storage unit, 150 Template image storage unit, 160 Coordinate information storage unit, 170 Overall control unit.

Claims (2)

テンプレート画像の中の同一ラインにある2つ以上の特徴画素のうち固定距離の間にあ
複数の特徴画素を特徴画素組として、前記テンプレート画像から複数の特徴画素組
を抽出する特徴画素抽出部と、
抽出された特徴画素組ごとに特徴画素組と比較される複数の対象画素を観測画像から抽
出する対象画素抽出部と、
抽出された複数の対象画素ごとに複数の対象画素の中から前記複数の特徴画素組に対す
る画素距離を算出される2つ以上の対象画素を決定する比較範囲制御部と、
決定された対象画素ごとに前記複数の特徴画素組に対する画素距離を算出する距離算出
部と、
各対象画素の前記画素距離に基づいて前記テンプレート画像に対応する位置を前記観測
画像から検出する位置検出部と、
を備えるテンプレートマッチング装置。
a feature pixel extraction unit that extracts a plurality of feature pixel sets from the template image by using a plurality of feature pixels located between a fixed distance from each other on the same line in the template image as feature pixel sets; ,
a target pixel extraction unit that extracts a plurality of target pixels from the observed image to be compared with the characteristic pixel set for each extracted feature pixel set;
a comparison range control unit that determines two or more target pixels for which pixel distances to the plurality of characteristic pixel sets are calculated from among the plurality of target pixels for each of the plurality of extracted target pixels;
a distance calculation unit that calculates a pixel distance to the plurality of characteristic pixel sets for each determined target pixel;
a position detection unit that detects a position corresponding to the template image from the observed image based on the pixel distance of each target pixel;
A template matching device comprising:
テンプレート画像の中の同一ラインにある2つ以上の特徴画素のうち固定距離の間にあ
複数の特徴画素を特徴画素組として、前記テンプレート画像から複数の特徴画素組
を抽出し、
抽出された特徴画素組ごとに特徴画素組と比較される複数の対象画素を観測画像から抽
出し、
抽出された複数の対象画素ごとに複数の対象画素の中から前記複数の特徴画素組に対す
る画素距離を算出される2つ以上の対象画素を決定し、
決定された対象画素ごとに前記複数の特徴画素組に対する画素距離を算出し、
各対象画素の前記画素距離に基づいて前記テンプレート画像に対応する位置を前記観測
画像から検出する
テンプレートマッチング方法。
Extracting a plurality of feature pixel sets from the template image, using a plurality of feature pixels located between a fixed distance among two or more feature pixels on the same line in the template image as a feature pixel set;
Extract multiple target pixels from the observed image to be compared with the feature pixel set for each extracted feature pixel set,
determining two or more target pixels for which pixel distances to the plurality of feature pixel sets are calculated from among the plurality of target pixels for each of the plurality of extracted target pixels;
Calculating pixel distances to the plurality of characteristic pixel sets for each determined target pixel,
A template matching method that detects a position corresponding to the template image from the observed image based on the pixel distance of each target pixel.
JP2023544113A 2023-03-30 2023-03-30 Template matching device and template matching method Active JP7403722B1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023013058 2023-03-30

Publications (1)

Publication Number Publication Date
JP7403722B1 true JP7403722B1 (en) 2023-12-22

Family

ID=89307800

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023544113A Active JP7403722B1 (en) 2023-03-30 2023-03-30 Template matching device and template matching method

Country Status (1)

Country Link
JP (1) JP7403722B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030083850A1 (en) 2001-10-26 2003-05-01 Schmidt Darren R. Locating regions in a target image using color matching, luminance pattern matching and hue plane pattern matching

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030083850A1 (en) 2001-10-26 2003-05-01 Schmidt Darren R. Locating regions in a target image using color matching, luminance pattern matching and hue plane pattern matching

Similar Documents

Publication Publication Date Title
US10366504B2 (en) Image processing apparatus and image processing method for performing three-dimensional reconstruction of plurality of images
US8693785B2 (en) Image matching devices and image matching methods thereof
US11080553B2 (en) Image search method and apparatus
CN110210480B (en) Character recognition method and device, electronic equipment and computer readable storage medium
CN110688524B (en) Video retrieval method and device, electronic equipment and storage medium
CN110019895B (en) Image retrieval method and device and electronic equipment
US11087137B2 (en) Methods and systems for identification and augmentation of video content
CN108898148B (en) Digital image corner detection method, system and computer readable storage medium
US8989505B2 (en) Distance metric for image comparison
CN109086690B (en) Image feature extraction method, target identification method and corresponding device
CN106295710B (en) Image local feature matching process, device and terminal based on non-geometric constraint
CN116433559A (en) Product appearance defect detection method, electronic equipment and storage medium
KR102546631B1 (en) Apparatus for video data argumentation and method for the same
JP2021120814A (en) Learning program and learning method and information processor
JP7403722B1 (en) Template matching device and template matching method
WO2019159414A1 (en) Reading system, reading method, and storage medium
WO2018121414A1 (en) Electronic device, and target image recognition method and apparatus
GB2572435A (en) Manipulating a face in an image
CN112396594A (en) Change detection model acquisition method and device, change detection method, computer device and readable storage medium
CN111862239A (en) Area-array camera image overlapping area calibration method, device, equipment and storage medium
CN112380938B (en) Face recognition and temperature measurement method, device, equipment and medium
KR20150050790A (en) Method and Apparatus for Detecting Region of Interest Image by Using Variable Resolution
JP6656453B2 (en) Reading system, reading device, program, and storage medium
CN112464952A (en) Image alignment method and image matching identification method
US10445854B2 (en) Image processing device, image processing method, and non-transitory recording medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230720

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230720

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230815

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230920

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231212

R150 Certificate of patent or registration of utility model

Ref document number: 7403722

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150