JP2011210178A - System and method for processing image - Google Patents

System and method for processing image Download PDF

Info

Publication number
JP2011210178A
JP2011210178A JP2010079645A JP2010079645A JP2011210178A JP 2011210178 A JP2011210178 A JP 2011210178A JP 2010079645 A JP2010079645 A JP 2010079645A JP 2010079645 A JP2010079645 A JP 2010079645A JP 2011210178 A JP2011210178 A JP 2011210178A
Authority
JP
Japan
Prior art keywords
image processing
image
search
bits
processing system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010079645A
Other languages
Japanese (ja)
Inventor
Motoki Moriya
元樹 森谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renesas Electronics Corp
Original Assignee
Renesas Electronics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renesas Electronics Corp filed Critical Renesas Electronics Corp
Priority to JP2010079645A priority Critical patent/JP2011210178A/en
Publication of JP2011210178A publication Critical patent/JP2011210178A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing system which can shorten the maximum processing time required for image processing such as template matching.SOLUTION: The image processing system searches for a matching area which matches a template image from among images for search. The image processing system includes: an operation processing part 501; an extraction processing part 502; a calculation processing part 503; and a specification processing part 504. The operation processing part 501 sequentially operates each of a plurality of continuous first bits to sequentially generate each of a plurality of discontinuous second bits. The extraction processing part 502 extracts partial areas at search positions corresponding to the second bits among positions in a continuous search order among the images for search for each second bits to be sequentially generated. The calculation processing part 503 calculates an index regarding similarity between the extracted partial area and the template image. The specification processing part 504 specifies the matching area from a plurality of partial areas on the basis of a plurality of indexes calculated for the plurality of partial areas corresponding to the plurality of second bits to specify a matching position as a position of the matching area.

Description

本発明は、画像処理システム及び画像処理方法に関し、特にテンプレート・マッチングを行う画像処理システム及び画像処理方法に関する。   The present invention relates to an image processing system and an image processing method, and more particularly to an image processing system and an image processing method for performing template matching.

近年、自動車の走行安全分野や交通安全システムのインフラ分野などにおいて、カメラを搭載又は設置したシステムが急速に普及し始めている。そのシステムの目的の多くは、カメラ画像に映った映像の中から、人や物を見つけ出し、警告や警報を発することで事故を未然に防ぐことである。カメラ画像に映った映像の中から、人や物を見つけ出す処理は、多くの場合テンプレート・マッチングと呼ばれる方法を用いて実現する。   In recent years, a system equipped with a camera or installed in a vehicle safety field or a traffic safety system infrastructure field has been rapidly spreading. Many of the objectives of the system are to prevent accidents by finding people and objects from the images shown in camera images and issuing warnings and warnings. In many cases, a process of finding a person or an object from a video displayed in a camera image is realized by using a method called template matching.

テンプレート・マッチングは、予め用意されたテンプレート画像と類似する部分画像を、探索対象画像内から発見する画像処理の一種である。テンプレート・マッチングは、探索に際して、人手による画像特徴抽出やパラメータ設定などが不要であり、比較的簡便な方法である。そのため、テンプレート・マッチングは、様々な場面で利用されており、画像処理における重要な技術の一つである。   Template matching is a type of image processing for finding a partial image similar to a template image prepared in advance from the search target image. Template matching is a relatively simple method that does not require manual image feature extraction or parameter setting for searching. Therefore, template matching is used in various situations and is one of important techniques in image processing.

自動車の走行安全分野などに利用する画像処理は、一般的にリアルタイム処理が必要となる。リアルタイム処理が必要とされる画像処理システムにおいては、どのような入力画像に対しても一定時間以内に処理を完了し、結果出力することを保障する必要がある。通常、画像処理システム設計時に、入力画像に対する処理完了までの許容時間は、最大処理時間を考慮して決定される。つまり、画像処理に要する最大処理時間を改善することで、画像処理システムの応答性が改善される。その結果、その画像処理システムは、より時間的制約の厳しいシステムに適用することが可能となり、その画像処理システムの適応範囲を拡大することができる。このため最大処理時間の短縮の要求(必要性)は常に存在している。   In general, real-time processing is required for image processing used in the field of driving safety of automobiles. In an image processing system that requires real-time processing, it is necessary to ensure that any input image is processed within a predetermined time and the result is output. Usually, at the time of designing an image processing system, the allowable time until the processing for an input image is completed is determined in consideration of the maximum processing time. That is, the responsiveness of the image processing system is improved by improving the maximum processing time required for image processing. As a result, the image processing system can be applied to a system with more severe time constraints, and the adaptive range of the image processing system can be expanded. For this reason, there is always a demand (necessity) for shortening the maximum processing time.

テンプレート・マッチングに関する技術として、Barnea D.I.,Silverman H.F.,“A Class of Algorithms for Fast Digital Image Registration”,IEEE Trans.Comput.,Vol.c−21,No.2,p.179−186(Feb.1972)(以下、非特許文献1とも言う)に、テンプレート・マッチングにおけるSSDA法の技術が記載されている。図1A及び図1Bは、非特許文献1に記載のSSDA法によるテンプレート・マッチングの様子を示す模式図である。ただし、図1A及び図1Bにおいて、テンプレート画像をT201(図1B)、探索対象画像をU204(図1A)とし、テンプレート画像T201と同じサイズとなる部分画像をQ203(図1A)、部分画像Q203が移動可能な領域を探索領域P202(図1A)とする。このとき、テンプレート・マッチングは、テンプレート画像T201と最も類似性の高い部分画像Q203を探索する処理となる。テンプレート画像T201および探索領域P202は画像の左上を原点(0,0)とし、テンプレート画像T201はM×N、探索領域P202はW×Hのサイズを有するものとする。   As a technique for template matching, Barnea D. I. , Silverman H .; F. "A Class of Algorithms for Fast Digital Image Registration", IEEE Trans. Comput. , Vol. c-21, no. 2, p. 179-186 (Feb. 1972) (hereinafter also referred to as non-patent document 1) describes the technology of the SSDA method in template matching. 1A and 1B are schematic diagrams illustrating a template matching state by the SSDA method described in Non-Patent Document 1. FIG. However, in FIGS. 1A and 1B, the template image is T201 (FIG. 1B), the search target image is U204 (FIG. 1A), the partial image having the same size as the template image T201 is Q203 (FIG. 1A), and the partial image Q203 is A movable area is defined as a search area P202 (FIG. 1A). At this time, the template matching is a process of searching for a partial image Q203 having the highest similarity with the template image T201. Assume that template image T201 and search region P202 have an origin (0, 0) at the upper left of the image, template image T201 has a size of M × N, and search region P202 has a size of W × H.

探索において、テンプレート画像T201と部分画像Q203とが、どの程度類似しているかを示す指標を定義する必要がある。上述のSSDA法においては、類似度は、対応する各画素の差の総和(L1ノルム)であって、下記の式(1)にて定義されるL1(x,y)の値が小さいほど、画像間の類似度が高いものと定義する。以下、下記の式(1)のテンプレート画像と矩形領域の画像との突合せにより類似度を求める処理を照合処理と表現する。なお、式(1)におけるT(i,j)及びP(i,j)は、それぞれテンプレート画像及び探索領域の画像における座標(i,j)における画素の輝度値を示す。 In the search, it is necessary to define an index indicating how similar the template image T201 and the partial image Q203 are. In the SSDA method described above, the similarity is the total sum (L1 norm) of the differences between the corresponding pixels, and the smaller the value of L1 (x, y) defined by the following equation (1), Defined as having high similarity between images. Hereinafter, the process for obtaining the similarity by matching the template image of the following formula (1) and the image of the rectangular area is expressed as a collation process. Note that T (i, j) and P (i, j ) in Equation (1) indicate the luminance values of the pixels at the coordinates (i, j) in the template image and the search area image, respectively.

Figure 2011210178
(但し 0≦x<W、かつ、0≦y<H)
Figure 2011210178
(However, 0 ≦ x <W and 0 ≦ y <H)

ここで、探索領域Pの全画素に対して(1)式による照合処理を行う場合、M×N×W×H回の突合せが発生し、非常に処理負荷の高い処理となる。SSDA法では、図1A及び図1Bに示す例のように、探索領域P202内における最良の部分画像Q203を1個だけ探索する場合において、最適解である部分画像Q203を座標(x’,y’)にて発見することができた場合を考える。その場合、以降の探索において、他の座標での類似度(L1ノルム)が、座標(x’,y’)における類似度(L1ノルム)を上回ることが判明した時点で、式(1)の計算を打ち切ることが可能となる。つまり、式(1)の計算を一部省略することにより、処理負荷を軽減することができ、テンプレート・マッチング処理の高速化が可能となる。   Here, when the matching process according to the equation (1) is performed on all the pixels in the search region P, M × N × W × H matching occurs, which is a process with a very high processing load. In the SSDA method, as in the example shown in FIGS. 1A and 1B, when only one best partial image Q203 is searched in the search region P202, the partial image Q203 that is the optimal solution is represented by coordinates (x ′, y ′). )). In that case, in the subsequent search, when it is found that the similarity (L1 norm) at other coordinates exceeds the similarity (L1 norm) at coordinates (x ′, y ′), the expression (1) It is possible to abort the calculation. That is, by omitting a part of the calculation of Expression (1), the processing load can be reduced, and the template matching process can be speeded up.

関連する技術として、SSDA法、正規化相関の技術を取り上げている特開2000−322571号公報(特許文献1)、特開平11−195122号公報(特許文献2)がある。また、ラスタスキャンでテンプレート画像の類似度に応じて移動量を変化させる技術が記載されている特許第4208011号公報(特許文献3)がある。その他、前述の各技術の有する問題点を改善する技術として、次回に照合処理を行う矩形領域の抽出を行うために、テーブルを利用することで抽出を行う特開2007−128480号公報(特許文献4)がある。また、次回に照合処理を行う矩形領域の抽出を行うために、乱数発生器を使用する特開平01−181178号公報がある(特許文献5)。   As related techniques, there are Japanese Patent Laid-Open No. 2000-322571 (Patent Document 1) and Japanese Patent Laid-Open No. 11-195122 (Patent Document 2) which take up SSDA method and normalized correlation technology. Japanese Patent No. 4208011 (Patent Document 3) describes a technique for changing the amount of movement according to the similarity of template images by raster scanning. In addition, as a technique for improving the problems of each of the above-described techniques, Japanese Patent Application Laid-Open No. 2007-128480 (Patent Document) performs extraction by using a table in order to extract a rectangular area to be subjected to the next collation process. 4). Japanese Patent Laid-Open No. 01-181178 uses a random number generator to extract a rectangular area to be subjected to the next collation process (Patent Document 5).

特開2000−322571号公報JP 2000-322571 A 特開平11−195122号公報JP 11-195122 A 特許第4208011号公報Japanese Patent No. 4208011 特開2007−128480号公報(US2007076951(A1))JP 2007-128480 A (US2007070951 (A1)) 特開平01−181178号公報Japanese Patent Laid-Open No. 01-181178

Barnea D.I.,Silverman H.F.,“A Class of Algorithms for Fast Digital Image Registration”,IEEE Trans.Comput.,Vol.c−21,No.2,p.179−186(Feb.1972).Barnea D. I. , Silverman H .; F. "A Class of Algorithms for Fast Digital Image Registration", IEEE Trans. Comput. , Vol. c-21, no. 2, p. 179-186 (Feb. 1972).

図2は、類似度(L1ノルム)の分布の一例を示すグラフである。カメラから撮影された一般的な画像(自然画像)においては、隣接する矩形領域Q203とQ’207には画像の相関性がある。そのため、矩形領域Q203とQ’207とは、それらの合致位置208(x’,y’)の近傍において良好な類似度(L1ノルム)が得られると考えられる。しかし、逆に、合致位置208(x’,y’)から遠ざかるにつれて、図2に示されるように、抽出された矩形領域から得られる類似度(L1ノルム)は急速に悪化すると考えられる。   FIG. 2 is a graph showing an example of the distribution of similarity (L1 norm). In a general image (natural image) taken from a camera, adjacent rectangular areas Q203 and Q'207 have an image correlation. Therefore, it is considered that the rectangular regions Q203 and Q′207 can obtain a good similarity (L1 norm) in the vicinity of the matching position 208 (x ′, y ′). However, conversely, as shown in FIG. 2, the degree of similarity (L1 norm) obtained from the extracted rectangular area is considered to rapidly deteriorate as the distance from the matching position 208 (x ′, y ′) increases.

そのため、SSDA法では、図2の合致位置208(x’,y’)のような合致位置を探索の早い段階(画像の左上)で発見できた場合、式(1)の計算打ち切りによる高速なテンプレート・マッチング処理が可能になる。しかし、合致位置を探索の終盤(画像の右下)で発見する場合、式(1)の計算打ち切りによる高速化は望めない。そのため、SSDA法では探索完了までの処理時間は、探索領域におけるテンプレート画像と矩形領域の画像との合致位置の場所に大きく影響される。   For this reason, in the SSDA method, when a matching position such as the matching position 208 (x ′, y ′) in FIG. 2 can be found at an early stage of search (upper left of the image), the calculation is quickly performed by truncating the calculation of Expression (1). Template matching processing is possible. However, when finding a matching position at the end of the search (lower right of the image), it is not possible to increase the speed by truncating the calculation of Equation (1). Therefore, in the SSDA method, the processing time until the search is completed is greatly influenced by the location of the matching position between the template image in the search area and the image in the rectangular area.

以下に、発明を実施するための形態で使用される番号・符号を用いて、課題を解決するための手段を説明する。これらの番号・符号は、特許請求の範囲の記載と発明を実施するための形態との対応関係を明らかにするために括弧付きで付加されたものである。ただし、それらの番号・符号を、特許請求の範囲に記載されている発明の技術的範囲の解釈に用いてはならない。   Hereinafter, means for solving the problem will be described using the numbers and symbols used in the embodiments for carrying out the invention. These numbers and symbols are added with parentheses in order to clarify the correspondence between the description of the claims and the mode for carrying out the invention. However, these numbers and symbols should not be used for interpreting the technical scope of the invention described in the claims.

本発明の画像処理システムは、探索対象画像(U)の中からテンプレート画像(T)と一致する一致領域(Q’)を探索する。この画像処理システムは、操作処理部(501)と、抽出処理部(502)と、計算処理部(503)と、特定処理部(504)とを具備する。操作処理部(501)は、連続した複数の第1ビット(r)の各々を順次操作して、不連続な複数の第2ビット(s)の各々を順次生成する。抽出処理部(502)は、順次生成される第2ビット(s)毎に、探索対象画像(U)の中の連続的な探索順の位置のうち、第2ビット(s)に対応した探索位置(x、y)で部分領域(Q)を抽出する。計算処理部(503)は、抽出された部分領域(Q)とテンプレート画像(T)との類似性に関する指標(L1)を算出する。特定処理部(504)は、複数の第2ビット(s)に対応した複数の部分領域(Q)について算出された複数の指標(L1)に基づいて、複数の部分領域(Q)から一致領域(Q)を特定し、一致領域(Q)の位置としての合致位置(x’、y’)を特定する。   The image processing system of the present invention searches for a matching area (Q ′) that matches the template image (T) from the search target image (U). This image processing system includes an operation processing unit (501), an extraction processing unit (502), a calculation processing unit (503), and a specific processing unit (504). The operation processing unit (501) sequentially operates each of a plurality of continuous first bits (r) to sequentially generate each of a plurality of discontinuous second bits (s). For each second bit (s) that is sequentially generated, the extraction processing unit (502) searches for the second bit (s) in the continuous search order position in the search target image (U). The partial region (Q) is extracted at the position (x, y). The calculation processing unit (503) calculates an index (L1) related to the similarity between the extracted partial region (Q) and the template image (T). The specific processing unit (504), based on the plurality of indices (L1) calculated for the plurality of partial regions (Q) corresponding to the plurality of second bits (s), from the plurality of partial regions (Q) to the matching region (Q) is specified, and the matching position (x ′, y ′) as the position of the matching region (Q) is specified.

本発明は、現在までの探索回数の値のような連続した第1ビット(r)のビット操作処理を行い、次回に類似性を評価する探索位置(x、y)(部分領域(Q))のための不連続な第2ビット(s)の生成を行なう。そして、連続する探索順(例えばヒルベルト曲線及びZオーダに代表される空間充填曲線)における、不連続な第2ビット(s)に対応する位置(x、y)の部分領域(Q)を抽出する。それにより、部分領域(Q)間の画像の相関性がより低くなるように、次に類似性を評価する部分領域(Q)を抽出することができる。それにより、探索対象画像(U)全体に対して、偏りなく部分領域(Q)を抽出することが可能となる。その結果、合致位置(x’、y’)(一致領域(Q))の出現位置に依存しない探索が可能となる。この結果、テンプレート・マッチングに要する処理時間の平準化を図ることできる。また、次回に類似性を評価する部分領域(Q)の抽出のために特別な記憶装置を用意する必要はなく、計算操作等により次回の部分領域(Q)の抽出位置を一意に決定できるため、省資源での動作が求められる環境下での適用が可能である。加えて、連続する探索順(例えばヒルベルト曲線及びZオーダに代表される空間充填曲線)を用いることにより、既出の部分領域(Q)を抽出することなく、探索領域(P)全体に対して探索を行うことができる。   The present invention performs a bit operation process of successive first bits (r) like the value of the number of searches up to the present, and next time a search position (x, y) (partial region (Q)) for evaluating similarity Generation of a discontinuous second bit (s) for. Then, a partial region (Q) at a position (x, y) corresponding to the discontinuous second bit (s) in a continuous search order (for example, a space filling curve represented by a Hilbert curve and a Z order) is extracted. . Thereby, the partial area (Q) for which the similarity is evaluated next can be extracted so that the correlation of the images between the partial areas (Q) becomes lower. As a result, it is possible to extract the partial region (Q) without deviation from the entire search target image (U). As a result, a search independent of the appearance position of the match position (x ′, y ′) (match area (Q)) can be performed. As a result, the processing time required for template matching can be leveled. Further, it is not necessary to prepare a special storage device for extracting the partial area (Q) whose similarity is evaluated next time, and the extraction position of the next partial area (Q) can be uniquely determined by a calculation operation or the like. It can be applied in an environment where resource-saving operation is required. In addition, by using a continuous search order (for example, a space filling curve typified by a Hilbert curve and a Z order), the entire search region (P) is searched without extracting the partial region (Q). It can be performed.

本発明の画像処理方法は、探索対象画像(U)の中からテンプレート画像(T)と一致する一致領域(Q’)を探索する。この画像処理方法は、連続した複数の第1ビット(r)の各々を順次操作して、不連続な複数の第2ビット(s)の各々を順次生成するステップと、順次生成される第2ビット(s)毎に、探索対象画像(U)の中の連続的な探索順の位置のうち、第2ビット(s)に対応した探索位置(x、y)で部分領域(Q)を抽出するステップと、抽出された部分領域(Q)とテンプレート画像(T)との類似性に関する指標(L1)を算出するステップと、複数の第2ビット(s)に対応した複数の部分領域(Q)について算出された複数の指標(L1)に基づいて、複数の部分領域(Q)から一致領域(Q)を特定し、一致領域(Q)の位置としての合致位置(x’、y’)を特定するステップとを具備する。
また、本発明のプログラムは、上記の画像処理方法を画像処理システムとしてのコンピュータに実行させる。
これら本発明の画像処理方法及びそのプログラムにおいても、上記画像処理システムと同様の作用・効果を得ることができる。
The image processing method of the present invention searches for a matching area (Q ′) that matches the template image (T) from the search target image (U). In this image processing method, each of a plurality of continuous first bits (r) is sequentially operated to sequentially generate each of a plurality of discontinuous second bits (s); For each bit (s), a partial region (Q) is extracted at a search position (x, y) corresponding to the second bit (s) out of consecutive search order positions in the search target image (U). A step of calculating an index (L1) related to the similarity between the extracted partial area (Q) and the template image (T), and a plurality of partial areas (Q) corresponding to the plurality of second bits (s) ) Based on the plurality of indices (L1) calculated for the matching region (Q) from the plurality of partial regions (Q), and the matching position (x ′, y ′) as the position of the matching region (Q) And a step of specifying.
A program according to the present invention causes a computer as an image processing system to execute the above-described image processing method.
In these image processing methods and programs of the present invention, the same operations and effects as those of the image processing system can be obtained.

本発明により、テンプレート・マッチングのような画像処理に要する最大処理時間を短縮することが可能な画像処理システム及び画像処理方法を提供することができる。   According to the present invention, it is possible to provide an image processing system and an image processing method capable of reducing the maximum processing time required for image processing such as template matching.

図1Aは、非特許文献1に記載のSSDA法によるテンプレート・マッチングの様子を示す模式図である。FIG. 1A is a schematic diagram showing a state of template matching by the SSDA method described in Non-Patent Document 1. 図1Bは、非特許文献1に記載のSSDA法によるテンプレート・マッチングの様子を示す模式図である。FIG. 1B is a schematic diagram showing a state of template matching by the SSDA method described in Non-Patent Document 1. 図2は、類似度(L1ノルム)の分布の一例を示すグラフである。FIG. 2 is a graph showing an example of the distribution of similarity (L1 norm). 図3は、本発明の第1の実施の形態に係る画像処理システムの構成の一例を示すブロック図である。FIG. 3 is a block diagram showing an example of the configuration of the image processing system according to the first embodiment of the present invention. 図4は、図3の画像処理プロセッサの構成を示すブロック図である。FIG. 4 is a block diagram showing a configuration of the image processor of FIG. 図5は、本発明の第1の実施の形態に係る画像処理システムの構成の他の例を示すブロック図である。FIG. 5 is a block diagram showing another example of the configuration of the image processing system according to the first embodiment of the present invention. 図6は、図5の画像処理プロセッサと外部演算装置の構成を示すブロック図である。FIG. 6 is a block diagram illustrating the configuration of the image processing processor and the external arithmetic device in FIG. 図7に、本発明の第1、2の実施の形態に係る画像処理システムの動作(画像処理方法)の一例を示すフローチャートである。FIG. 7 is a flowchart showing an example of the operation (image processing method) of the image processing system according to the first and second embodiments of the present invention. 図8は、ステップS103における8ビット長のデータrに対してビットを逆順に変換する様子を示す模式図である。FIG. 8 is a schematic diagram showing a state in which bits are converted in reverse order with respect to 8-bit data r in step S103. 図9は、ステップS104における次回に照合処理を行う矩形領域を抽出する様子を示す模式図である。FIG. 9 is a schematic diagram showing a state in which a rectangular area to be collated next time in step S104 is extracted. 図10は、ステップS103における8ビット長のデータrに対して2ビット左方向に回転する様子を示す模式図である。FIG. 10 is a schematic diagram showing a state where the data r of 8 bits in step S103 is rotated left by 2 bits. 図11は、ステップS104における次回に照合処理を行う矩形領域を抽出する様子を示す模式図である。FIG. 11 is a schematic diagram showing a state in which a rectangular region to be subjected to the next collation process in step S104 is extracted. 図12は、ステップS104における次回に照合処理を行う矩形領域を抽出する様子を示す模式図である。FIG. 12 is a schematic diagram illustrating a state in which a rectangular area to be collated next time in step S104 is extracted. 図13は、ステップS104における次回に照合処理を行う矩形領域を抽出する様子を示す模式図である。FIG. 13 is a schematic diagram illustrating a state in which a rectangular region to be collated next time in step S104 is extracted. 図14Aは、本発明の概念を示す模式図である。FIG. 14A is a schematic diagram showing the concept of the present invention. 図14Bは、本発明の概念を示す模式図である。FIG. 14B is a schematic diagram showing the concept of the present invention.

以下、本発明の画像処理システム及び画像処理方法の実施の形態に関して、添付図面を参照して説明する。   Embodiments of an image processing system and an image processing method according to the present invention will be described below with reference to the accompanying drawings.

(第1の実施の形態)
本発明の第1の実施の形態に係る画像処理システムの構成について説明する。図3は、本発明の第1の実施の形態に係る画像処理システムの構成の一例を示すブロック図である。画像処理システム1は、画像処理プロセッサ302と、ホストマイコン(ホストマイクロコンピュータ)301と、カメラ303と、モニタ304とを具備している。画像処理プロセッサ302は、ホストマイコン301と、カメラ303と、モニタ304と接続されている。カメラ303は、画像を撮影し、画像処理プロセッサ302に出力する。モニタ304は、画像処理プロセッサ302の出力を表示する。
(First embodiment)
The configuration of the image processing system according to the first embodiment of the present invention will be described. FIG. 3 is a block diagram showing an example of the configuration of the image processing system according to the first embodiment of the present invention. The image processing system 1 includes an image processing processor 302, a host microcomputer (host microcomputer) 301, a camera 303, and a monitor 304. The image processor 302 is connected to the host microcomputer 301, the camera 303, and the monitor 304. The camera 303 captures an image and outputs it to the image processor 302. The monitor 304 displays the output of the image processor 302.

図4は、図3の画像処理プロセッサの構成を示すブロック図である。画像処理プロセッサ302は、CPU402と、(テンプレート画像格納)メモリ403と、(探索対象画像格納)メモリ404と、テンプレート・マッチング処理部405とを備えている。メモリ403は、テンプレート画像を格納している。メモリ404は、カメラ303等から得られ、テンプレート・マッチング処理の対象となる画像としての探索対象画像を格納している。テンプレート・マッチング処理部405は、テンプレート・マッチング処理を実施するソフトウェアを保持している。CPU402がそのソフトウェアを実行することにより、そのテンプレート・マッチング処理(画像処理方法)が実現される。そのソフトウェアは、メモリ403、404のデータについて、そのテンプレート・マッチング処理を実施する。   FIG. 4 is a block diagram showing a configuration of the image processor of FIG. The image processor 302 includes a CPU 402, a (template image storage) memory 403, a (search target image storage) memory 404, and a template matching processing unit 405. The memory 403 stores a template image. The memory 404 stores a search target image as an image to be obtained from the camera 303 or the like and subjected to template matching processing. The template matching processing unit 405 holds software that performs template matching processing. When the CPU 402 executes the software, the template matching process (image processing method) is realized. The software performs the template matching process on the data in the memories 403 and 404.

ここで、テンプレート・マッチング処理は、ビット逆順化に例示されるビット順番を操作する操作処理と、次回に照合処理を行う矩形領域(部分画像の領域である部分領域)のメモリアドレスを特定・抽出する抽出処理と、類似度L1ノルムの計算処理と、テンプレート画像と合致する矩形領域(部分領域)の合致位置を特定する特定処理を含む画像処理方法である。テンプレート・マッチング処理部405は、ソフトウェアとして、上記操作処理を実施する操作処理部501と、上記抽出処理を実施する抽出処理部502と、上記計算処理を実施する計算処理部503と、上記特定処理を実施する特定処理部504とを備えている。   Here, the template matching process specifies and extracts the memory address of a rectangular area (partial area that is an area of a partial image) for performing an operation process for manipulating the bit order exemplified by bit reverse ordering and the next matching process. This is an image processing method that includes an extraction process to be performed, a calculation process for the similarity L1 norm, and a specifying process for specifying a matching position of a rectangular area (partial area) that matches the template image. The template matching processing unit 405 includes, as software, an operation processing unit 501 that performs the operation processing, an extraction processing unit 502 that performs the extraction processing, a calculation processing unit 503 that performs the calculation processing, and the specific processing. And a specific processing unit 504 that implements the above.

図5は、本発明の第1の実施の形態に係る画像処理システムの構成の他の例を示すブロック図である。この画像処理システム1aは、図3の場合と比較して、更に、画像処理プロセッサ302に接続された外部演算装置305(ハードウェア)を具備している。図6は、図5の画像処理プロセッサと外部演算装置の構成を示すブロック図である。外部演算装置305は、画像処理プロセッサ302に接続されたビット操作措置407とアドレス決定装置408とを備えている。この画像処理システム1aでは、ビット操作装置(操作処理部)407が、ビット逆順化に例示されるビット順番を操作する操作処理を実行する。アドレス決定装置(抽出処理部)408が、次回に照合処理を行う矩形領域(部分領域)のメモリアドレスを特定・抽出する抽出処理を実行する。CPU402がテンプレート・マッチング処理部405のソフトウェアを実行することで、テンプレート・マッチング処理(類似度L1ノルムの計算処理、テンプレート画像と合致する矩形領域(部分領域)の合致位置を特定する特定処理)を実現する。すなわち、外部演算装置305(ハードウェア)とCPU402のソフトウェア(計算処理部503、特定処理部504)の実行とで、テンプレート・マッチング処理(画像処理方法)が実現される。   FIG. 5 is a block diagram showing another example of the configuration of the image processing system according to the first embodiment of the present invention. The image processing system 1a further includes an external arithmetic device 305 (hardware) connected to the image processing processor 302, as compared with the case of FIG. FIG. 6 is a block diagram illustrating the configuration of the image processing processor and the external arithmetic device in FIG. The external arithmetic device 305 includes a bit manipulation measure 407 and an address determination device 408 connected to the image processor 302. In this image processing system 1a, the bit operation device (operation processing unit) 407 executes an operation process for operating a bit order exemplified by bit reverse order. An address determination device (extraction processing unit) 408 executes an extraction process for specifying and extracting a memory address of a rectangular area (partial area) to be collated next time. When the CPU 402 executes the software of the template matching processing unit 405, template matching processing (similarity L1 norm calculation processing, specific processing for specifying a matching position of a rectangular region (partial region) that matches the template image) is performed. Realize. That is, the template matching process (image processing method) is realized by the execution of the external arithmetic unit 305 (hardware) and the software of the CPU 402 (calculation processing unit 503 and specific processing unit 504).

本実施の形態では、上記図3及び図4の画像処理システム1、又は、上記図5及び図6の画像処理システム1aのいずれを用いても実施することができる。ただし、これらの構成は例であり、以下に示す機能及び動作を実現可能であれば、他の構成であっても良い。   In the present embodiment, the image processing system 1 shown in FIGS. 3 and 4 or the image processing system 1a shown in FIGS. 5 and 6 can be used. However, these configurations are examples, and other configurations may be used as long as the following functions and operations can be realized.

次に、本発明の第1の実施の形態に係る画像処理システムの動作(画像処理方法)について説明する。本実施の形態では、画像処理プロセッサ302のソフトウェア(画像処理システム1)、もしくは、外部演算装置305のハードウェア(画像処理システム1a)により、現在までの探索回数をビット逆順に変換し、ヒルベルト曲線に基づいて次回に照合処理を行う矩形領域のメモリアドレス特定を行う。   Next, the operation (image processing method) of the image processing system according to the first embodiment of the present invention will be described. In the present embodiment, the number of searches up to the present time is converted in bit reverse order by the software of the image processor 302 (image processing system 1) or the hardware of the external arithmetic unit 305 (image processing system 1a), and the Hilbert curve Based on the above, the memory address of the rectangular area to be checked next time is specified.

図7は、本発明の第1の実施の形態に係る画像処理システムの動作(画像処理方法)の一例を示すフローチャートである。   FIG. 7 is a flowchart showing an example of the operation (image processing method) of the image processing system according to the first embodiment of the present invention.

(1)ステップS101
操作処理部は、打ち切りのための閾値Thに、初期値として画像処理プロセッサ302が設定可能な最大の整数値を閾値Thに設定する。
(1) Step S101
The operation processing unit sets the maximum integer value that can be set by the image processor 302 as the threshold value Th as an initial value for the threshold value Th for abortion.

(2)ステップS102
操作処理部は、変数rによる探索領域の探索ループを開始する。すなわち、初期値をr=0とし、r<22D(Dは自然数)の範囲で探索ループを実行する。
(2) Step S102
The operation processing unit starts a search loop for a search area using the variable r. That is, the initial value is r = 0, and the search loop is executed in the range of r <2 2D (D is a natural number).

(3)ステップS103
操作処理部は、式(2)に定義する関数fを用いて、変数rを変数sに写像する。探索領域のサイズが2x2=22Dである場合、関数fは以下で定義される。
s=f(r) (但し、0≦r<22D、かつ、Dは自然数) …(2)
ここで、関数fは2Dビット長の2進数値rに対して、ビットをMSB(Most Significant Bit)とLSB(Least Significant Bit)の並びを逆順化する処理である。関数fは以下の式(3)、式(4)で定義することが可能である。なお、bはrにおけるビット位置kの値であり、0もしくは1となる。
r =b2D−12D−22D−3…b …(3)
f(r)=b…b2D−32D−22D−1 …(4)
(但し、Dは自然数、かつ、bは0もしくは1)
例として、図8に、8ビット長のデータrに対してビットを逆順に変換する様子を示す。図8より、rで最上位に存在したビットがsの最下位ビットに変換されることがわかる。
(3) Step S103
The operation processing unit maps the variable r to the variable s using the function f defined in Expression (2). If the size of the search area is 2 D x2 D = 2 2D , the function f is defined below.
s = f (r) (where 0 ≦ r <2 2D and D is a natural number) (2)
Here, the function f is a process that reverses the order of the MSB (Most Significant Bit) and LSB (Least Significant Bit) with respect to the binary value r having a 2D bit length. The function f can be defined by the following equations (3) and (4). Note that b k is the value of bit position k in r and is 0 or 1.
r = b 2D-1 b 2D-2 b 2D-3 ... b 2 b 1 b 0 (3)
f (r) = b 0 b 1 b 2 ... b 2D-3 b 2D-2 b 2D-1 (4)
(However, D is a natural number and b k is 0 or 1)
As an example, FIG. 8 shows a state in which bits are converted in reverse order to 8-bit data r. From FIG. 8, it can be seen that the most significant bit at r is converted to the least significant bit of s.

(4)ステップS104
抽出処理部は、探索座標(x、y)の位置を決定する。以下の式(5)におけるHx(s)は、空間充填曲線に基づく探索順でs番目に選択される座標のx座標、また、Hy(s)は、空間充填曲線に基づく探索順でs番目に選択される座標のy座標である。
(x,y)=(Hx(s),Hy(s)) …(5)
(但し、0≦s<22D、かつ、Dは自然数)
例として、図9に、次回に照合処理を行う矩形領域を抽出する様子を示す。この図では、16×16(=2×2;D=4)の探索領域P202を有する探索対象画像204に対してr(R空間205に属する)を関数fによりビット逆順に変換してs=f(r)(S空間206に属する)を得た後、空間充填曲線のひとつであるヒルベルト曲線に基づく探索順(探索領域P202に矢印で表示)の位置に写像することで、次回に照合処理を行う矩形領域203を抽出している。
R空間205上の変数rをインクリメントすることで、探索領域P202上の不連続となる点(例示:0番目に選択される座標(0,0)、32番目に選択される座標(8,8)、16番目に選択される座標(8,0)、…)を対応点として選択することができる。すなわち、現在処理中の矩形領域203からより遠方の矩形領域203を次回の矩形領域203として抽出する可能性を高くすることができる。それにより、抽出される矩形領域203が探索対象領域P202の局所に集中せず、探索領域全体に対して広く探索を行うことができる。
(4) Step S104
The extraction processing unit determines the position of the search coordinates (x, y). In the following equation (5), Hx (s) is the x coordinate of the sth coordinate selected in the search order based on the space filling curve, and Hy (s) is the sth in the search order based on the space filling curve. This is the y coordinate of the coordinates selected for.
(X, y) = (Hx (s), Hy (s)) (5)
(However, 0 ≦ s <2 2D and D is a natural number)
As an example, FIG. 9 shows a state in which a rectangular region to be collated next time is extracted. In this figure, r (belonging to the R space 205) is converted to the search target image 204 having the search region P202 of 16 × 16 (= 2 4 × 2 4 ; D = 4) by the function f to reverse the bit order. After obtaining s = f (r) (belonging to S space 206), mapping to the position in the search order (indicated by an arrow in search area P202) based on the Hilbert curve, which is one of the space filling curves, A rectangular area 203 for performing the matching process is extracted.
By incrementing the variable r on the R space 205, a discontinuous point on the search area P202 (example: 0th selected coordinate (0,0), 32nd selected coordinate (8,8) ), The 16th selected coordinate (8, 0),...) Can be selected as the corresponding point. That is, it is possible to increase the possibility of extracting a rectangular area 203 farther away from the rectangular area 203 currently being processed as the next rectangular area 203. As a result, the extracted rectangular area 203 is not concentrated locally in the search target area P202, and the entire search area can be searched widely.

(5)ステップS105
計算処理部は、前記の式(1)で定義した座標(x,y)における類似度(L1ノルム)の累積値の初期値を0で初期化する。すなわち、L1(x、y)=0とする。
(5) Step S105
The calculation processing unit initializes the initial value of the accumulated value of the similarity (L1 norm) at the coordinates (x, y) defined by the above formula (1) with 0. That is, L1 (x, y) = 0.

(6)ステップS106
計算処理部は、変数nによるテンプレート画像の高さのループを開始する。すなわち、初期値をn=0とし、n<N(Nはテンプレート画像T201(図1B)の高さ)の範囲でループを実行する。
(6) Step S106
The calculation processing unit starts a loop of the template image height by the variable n. That is, the initial value is n = 0, and the loop is executed in the range of n <N (N is the height of the template image T201 (FIG. 1B)).

(7)ステップS107
計算処理部は、変数mによるテンプレート画像の幅のループを開始する。すなわち、初期値をm=0とし、m<M(Mはテンプレート画像T201(図1B)の幅)の範囲でループを実行する。
(7) Step S107
The calculation processing unit starts a loop of the template image width by the variable m. That is, the initial value is m = 0, and the loop is executed in the range of m <M (M is the width of the template image T201 (FIG. 1B)).

(8)ステップS108
計算処理部は、類似度(L1ノルム)の累積処理を行う。ステップS106〜S111の2重ループ処理は、前記の式(1)を計算する処理(照合処理)である。
(8) Step S108
The calculation processing unit performs accumulation processing of similarity (L1 norm). The double loop process of steps S106 to S111 is a process (collation process) for calculating the above equation (1).

(9)ステップS109
計算処理部は、現在までの類似度(L1ノルム)と閾値Thとの比較を行い、類似度(L1ノルム)の累積値が閾値Th(ステップS101で設定)を越えた場合はステップS114に分岐する。
(9) Step S109
The calculation processing unit compares the similarity (L1 norm) up to the present and the threshold Th, and if the accumulated value of the similarity (L1 norm) exceeds the threshold Th (set in step S101), the process branches to step S114. To do.

(10)ステップS110
計算処理部は、変数m<Mの場合、mを1増加させ(m=m+1)、ステップS107に分岐する。
そうでなければ、変数mによるテンプレート画像の幅のループを終了する。
(10) Step S110
When the variable m <M, the calculation processing unit increments m by 1 (m = m + 1) and branches to step S107.
Otherwise, the template image width loop with variable m is terminated.

(11)ステップS111
計算処理部は、変数n<Nの場合、nを1増加させ(n=n+1)、ステップS106に分岐する。
そうでなければ、変数nによるテンプレート画像の高さのループを終了する。
(11) Step S111
When the variable n <N, the calculation processing unit increments n by 1 (n = n + 1) and branches to step S106.
Otherwise, the loop of the template image height by the variable n is terminated.

(12)ステップS112
特定処理部は、最良となる類似度(最小のL1ノルム)を発見した場合、閾値Thを、発見した最良類似度(L1ノルム)の値に更新する。このステップS112は、最良となる類似度(最小のL1ノルム)を発見した場合にのみ実施される。
(12) Step S112
When the specific processing unit finds the best similarity (minimum L1 norm), it updates the threshold Th to the value of the found best similarity (L1 norm). This step S112 is performed only when the best similarity (minimum L1 norm) is found.

(13)ステップS113
特定処理部は、最良となる類似度(最小のL1ノルム)を発見した場合、合致位置の候補座標(x,y)を(x’,y’)に登録する。このステップS113は、最良となる類似度(最小のL1ノルム)を発見した場合にのみ実施される。
(13) Step S113
When the specific processing unit finds the best similarity (minimum L1 norm), it registers the candidate coordinates (x, y) of the matching position in (x ′, y ′). This step S113 is performed only when the best similarity (minimum L1 norm) is found.

(14)ステップS114
操作処理部は、変数r<22Dの場合、rを1増加させ(r=r+1)、ステップS102に分岐する。
そうでなければ、変数rによる探索領域P202の探索ループを終了する。
(14) Step S114
When the variable r < 22D , the operation processing unit increments r by 1 (r = r + 1), and branches to step S102.
Otherwise, the search loop of the search area P202 with the variable r is terminated.

(15)ステップS115
特定処理部は、合致位置(x’,y’)をモニタ304に出力する。
(15) Step S115
The specific processing unit outputs the matching position (x ′, y ′) to the monitor 304.

以上のようにして、本発明の第1の実施の形態に係る画像処理システムの動作(画像処理方法)が実施される。   As described above, the operation (image processing method) of the image processing system according to the first embodiment of the present invention is performed.

本実施の形態では、画像処理プロセッサ、もしくは、外部演算装置により、現在までの探索回数(変数r)に対して、ビット操作処理(例えば、MSBとLSBを逆順に変換する処理)を行い、次回に照合処理を行う矩形領域を抽出している。このとき、写像対象が、探索順が連続した関数(すなわち、ヒルベルト曲線に代表される空間充填曲線のように、多くの区間で微分可能であり、画像相関性が高い順番で探索が行われる関数)であれば、上記ビット操作処理を行うことで、より不連続となる座標を、次回の矩形領域の抽出位置として選択することができる。これにより、現在まで探索された箇所と比較して、より画像相関性の少ない矩形領域、つまり、現在処理中の矩形領域からより遠方の矩形領域を次回の矩形領域として抽出する可能性を高くすることができる。   In the present embodiment, an image processor or an external arithmetic device performs bit operation processing (for example, processing for converting MSB and LSB in reverse order) for the number of searches (variable r) up to the present time, A rectangular area for performing a matching process is extracted. At this time, the mapping target is a function in which the search order is continuous (that is, a function that can be differentiated in many sections, such as a space-filling curve represented by a Hilbert curve, and is searched in the order of high image correlation. ), By performing the bit manipulation process, coordinates that are more discontinuous can be selected as the extraction position of the next rectangular area. This increases the possibility of extracting a rectangular area with less image correlation, that is, a rectangular area farther away from the currently processed rectangular area as the next rectangular area, compared to the location searched to date. be able to.

非特許文献1のSSDA法においては、探索完了までの処理時間がテンプレート画像と部分画像との合致位置に大きく影響する問題が存在する。しかし、本実施の形態においては、上述の理由により、抽出される矩形領域が探索対象領域の局所に集中せず、探索領域全体に対して広く探索を行うため、探索に要する処理時間の平準化(最大処理時間の短縮)が可能となる。   In the SSDA method of Non-Patent Document 1, there is a problem that the processing time until search completion greatly affects the matching position between the template image and the partial image. However, in the present embodiment, for the reasons described above, the extracted rectangular area is not concentrated locally in the search target area, and the search is performed widely over the entire search area, so that the processing time required for the search is leveled. (Reduction of maximum processing time) is possible.

また、自然画像に対しては、画像相関性の少ない矩形領域を、次回の矩形領域として抽出するため、探索打ち切りのための閾値を、照合位置で得られる類似度の値に急速に収束させることができる。上述の理由から、非特許文献1のSSDA法と比較した場合、探索の早い段階において、照合位置で得られる類似度に近い類似度が閾値に設定される。このため、探索の早い段階においても打ち切り処理が有効に作用し、非特許文献1のSSDA法と比較した場合、探索完了までの最大処理時間の短縮、および、平均処理時間の短縮が期待される。   For natural images, a rectangular area with little image correlation is extracted as the next rectangular area, so that the threshold for search termination is rapidly converged to the similarity value obtained at the collation position. Can do. For the reasons described above, when compared with the SSDA method of Non-Patent Document 1, the similarity close to the similarity obtained at the collation position is set as the threshold at an early stage of the search. Therefore, the censoring process works effectively even at an early stage of search, and when compared with the SSDA method of Non-Patent Document 1, it is expected that the maximum processing time until the search is completed and the average processing time are shortened. .

また、特開2007−128480号公報においては、次回に照合処理を行う矩形領域を抽出するためにテーブルを記憶装置に用意する必要があった。しかし、本実施の形態では数式によって次回の矩形領域を抽出するため、事前にテーブルを用意する必要はない。   In Japanese Patent Application Laid-Open No. 2007-128480, it is necessary to prepare a table in the storage device in order to extract a rectangular area to be collated next time. However, in the present embodiment, since the next rectangular area is extracted by a mathematical expression, it is not necessary to prepare a table in advance.

加えて、特開平01−181178号公報においては、既出の矩形領域を重複探索する問題、また、乱数に基づく処理のため、探索対象画像全体に対する探索が困難となる問題があった。しかし、本実施の形態では、現在までの探索回数と、探索順が連続した関数(空間充填曲線、ヒルベルト曲線)と1対1で対応するため、既出の矩形領域に対する重複探索が発生せず、かつ、容易に探索領域全体に対して探索を行うことができる。   In addition, Japanese Patent Laid-Open No. 01-181178 has a problem of overlapping search for the previously described rectangular area, and a problem that makes it difficult to search the entire search target image because of processing based on random numbers. However, in the present embodiment, since the number of searches up to the present time corresponds to the function (space filling curve, Hilbert curve) in which the search order is continuous, there is no overlap search for the previously described rectangular area, In addition, the entire search area can be easily searched.

(第2の実施の形態)
本発明の第2の実施の形態では、画像処理システムの構成は第1の実施の形態と同じであるが、画像処理システムの動作(画像処理方法)について異なっている。以下では、その画像処理システムの動作(画像処理方法)について説明する。
(Second Embodiment)
In the second embodiment of the present invention, the configuration of the image processing system is the same as that of the first embodiment, but the operation (image processing method) of the image processing system is different. Hereinafter, the operation (image processing method) of the image processing system will be described.

図7は、本発明の第2の実施の形態に係る画像処理システムの動作(画像処理方法)の一例を示すフローチャートである。本実施の形態の画像処理システムの動作(画像処理方法)は、ステップS103が相違する以外は、第1の実施の形態と同様である。従って、以下では、ステップS103について説明する。   FIG. 7 is a flowchart showing an example of the operation (image processing method) of the image processing system according to the second embodiment of the present invention. The operation (image processing method) of the image processing system of the present embodiment is the same as that of the first embodiment except that step S103 is different. Accordingly, step S103 will be described below.

本実施の形態のステップS103では、ビット回転処理を行った結果に基づいて、空間充填曲線上の座標(変数s)の取得を行う。具体的には、以下のような動作になる。   In step S103 of the present embodiment, the coordinates (variable s) on the space filling curve are acquired based on the result of the bit rotation process. Specifically, the operation is as follows.

(3)ステップS103:
操作処理部は、式(2)に定義する関数fを用いて、変数rを変数sに写像する。探索領域のサイズが2x2=22Dである場合、関数fは以下で定義される。
s=f(r) (但し、0≦r<22D、かつ、Dは自然数) …(2)
ここで、関数fは2Dビット長の2進数値rに対して、ビットの回転を行う処理である。関数fは以下の式(6)、式(7)、式(8)で定義することが可能である。なお、bはrにおけるビット位置kの値であり、0もしくは1となる。また、式(7)における、cは左方向に回転するビット数である。また、modは剰余算を意味しており、(n+c)を2Dで除算した余りがg(n)に設定される。
r =b2D−12D−22D−3…b …(6)
g(n)=(n+c)mod(2D) …(7)
f(r)=bg(2D−1)g(2D−2)g(2D−3)…bg(2)g(1)g(0) …(8)
(但し、D、n、cは自然数、かつ、bは0もしくは1)
例として、図10に、8ビット長のデータrに対して2ビット左方向に回転する様子を示す。図10より、回転の結果、下位2ビットが上位2ビットに移動され、上位6ビットが右方向に移動されていることが分かる。
(3) Step S103:
The operation processing unit maps the variable r to the variable s using the function f defined in Expression (2). If the size of the search area is 2 D x2 D = 2 2D , the function f is defined below.
s = f (r) (where 0 ≦ r <2 2D and D is a natural number) (2)
Here, the function f is a process of rotating a bit with respect to a binary value r having a 2D bit length. The function f can be defined by the following expressions (6), (7), and (8). Note that b k is the value of bit position k in r and is 0 or 1. In Expression (7), c is the number of bits rotated in the left direction. Further, mod means remainder calculation, and the remainder obtained by dividing (n + c) by 2D is set to g (n).
r = b 2D-1 b 2D-2 b 2D-3 ... b 2 b 1 b 0 (6)
g (n) = (n + c) mod (2D) (7)
f (r) = b g (2D-1) b g (2D-2) b g (2D-3) ... b g (2) b g (1) b g (0) ... (8)
(However, D, n, and c are natural numbers, and b k is 0 or 1.)
As an example, FIG. 10 shows a state where data is rotated left by 2 bits with respect to 8-bit data r. As can be seen from FIG. 10, the lower 2 bits are moved to the upper 2 bits and the upper 6 bits are moved to the right as a result of the rotation.

上記のステップS103のs=f(r)に基づいて、抽出処理部がステップS104を実行した結果を図11に示す。すなわち、図11に、次回に照合処理を行う矩形領域を抽出する様子を示す。この図では、16×16の探索領域P202を有する探索対象画像204に対してr(R空間205に属する)を関数fにより2ビット左方向に回転してs=f(r)(S空間206に属する)を得た後、空間充填曲線のひとつであるヒルベルト曲線に基づく探索順(探索領域P202に矢印で表示)の位置に写像することで、次回に照合処理を行う矩形領域203を抽出している。
R空間205上の変数rをインクリメントすることで、探索領域P202上の不連続となる点(例示:0番目に選択される座標(0,0)、16番目に選択される座標(8,0)、32番目に選択される座標(8,8)、…)を対応点として選択することができる。すなわち、現在処理中の矩形領域203からより遠方の矩形領域203を次回の矩形領域203として抽出する可能性を高くすることができる。それにより、抽出される矩形領域203が探索対象領域P202の局所に集中せず、探索領域全体に対して広く探索を行うことができる。
FIG. 11 shows the result of the extraction processing unit executing step S104 based on s = f (r) in step S103. That is, FIG. 11 shows a state in which a rectangular area to be collated next time is extracted. In this figure, s = f (r) (S space 206) is obtained by rotating r (belonging to the R space 205) to the left by 2 bits with the function f with respect to the search target image 204 having the 16 × 16 search region P202. To the search order (indicated by an arrow in the search area P202) based on the Hilbert curve, which is one of the space-filling curves, thereby extracting the rectangular area 203 to be subjected to the next matching process. ing.
By incrementing the variable r on the R space 205, a discontinuous point on the search area P202 (example: 0th selected coordinate (0,0), 16th selected coordinate (8,0)) ), The 32nd coordinate (8, 8),...) Can be selected as the corresponding point. That is, it is possible to increase the possibility of extracting a rectangular area 203 farther away from the rectangular area 203 currently being processed as the next rectangular area 203. As a result, the extracted rectangular area 203 is not concentrated locally in the search target area P202, and the entire search area can be searched widely.

本実施の形態においても、第1の実施の形態と同様に非特許文献や特許文献の問題を解決することができる。また、本実施の形態においても、第1の実施の形態と同様の効果を得ることができる。   Also in the present embodiment, the problems of non-patent documents and patent documents can be solved as in the first embodiment. Also in this embodiment, the same effect as that of the first embodiment can be obtained.

また、数式によって次回に照合処理を行う矩形領域を、一意に抽出しており、事前にテーブルを用意する必要がなく、かつ、既出の矩形領域に対する重複探索が発生しないことを保障できる。   In addition, the rectangular area to be subjected to the collation process next time is uniquely extracted by using a mathematical formula, so that it is not necessary to prepare a table in advance and it is possible to ensure that an overlapping search with respect to the existing rectangular area does not occur.

更に、式(2)の関数fとして、第1の実施の形態においてはビット逆順化処理を、また、第2の実施の形態においてはビット回転処理を用いている。しかし、本発明はこの例に限定されるものではない。基本的に関数fは、変換前の値rと変換後の値sが1対1で写像される処理でさえあれば、既出の矩形領域に対する重複探索は発生しない。このため、入力される探索対象画像に応じて関数fを再定義することで、処理性能の向上を図ることができる。   Further, as the function f of the expression (2), the bit reverse normalization process is used in the first embodiment, and the bit rotation process is used in the second embodiment. However, the present invention is not limited to this example. Basically, as long as the function f is a process in which the pre-conversion value r and the post-conversion value s are mapped on a one-to-one basis, an overlapping search for the previously described rectangular area does not occur. For this reason, it is possible to improve the processing performance by redefining the function f according to the input search target image.

(第3の実施の形態)
本発明の第3の実施の形態では、画像処理システムの構成は第1の実施の形態と同じであるが、画像処理システムの動作(画像処理方法)について異なっている。以下では、その画像処理システムの動作(画像処理方法)について説明する。
(Third embodiment)
In the third embodiment of the present invention, the configuration of the image processing system is the same as that of the first embodiment, but the operation (image processing method) of the image processing system is different. Hereinafter, the operation (image processing method) of the image processing system will be described.

図7は、本発明の第3の実施の形態に係る画像処理システムの動作(画像処理方法)の一例を示すフローチャートである。本実施の形態の画像処理システムの動作(画像処理方法)は、ステップS104が相違する以外は、第1の実施の形態と同様である。従って、以下では、ステップS104について説明する。   FIG. 7 is a flowchart showing an example of the operation (image processing method) of the image processing system according to the third embodiment of the present invention. The operation (image processing method) of the image processing system of the present embodiment is the same as that of the first embodiment, except that step S104 is different. Accordingly, step S104 will be described below.

本実施の形態のステップS104では、Zオーダに基づくアドレス決定装置により空間充填曲線上への座標(変数s)取得を行う。具体的には、以下のような動作になる。   In step S104 of the present embodiment, the coordinates (variable s) on the space filling curve are acquired by the address determination device based on the Z order. Specifically, the operation is as follows.

(4)ステップS104
抽出処理部は、探索座標(x、y)の位置を決定する。以下の式(5)におけるHx(s)は、空間充填曲線に基づく探索順でs番目に選択される座標のx座標、また、Hy(s)は、空間充填曲線に基づく探索順でs番目に選択される座標のy座標である。
(x,y)=(Hx(s),Hy(s)) …(5)
(但し、0≦s<22D、かつ、Dは自然数)
ただし、このステップS104では、図12に示すようにZオーダを用いる。すなわち、図12に、Zオーダ(Z−Ordering)を用いて次回に照合処理を行う矩形領域を抽出する様子を示す。この図では、16×16の探索領域P202を有する探索対象画像204に対してr(R空間205に属する)を関数fによりビット逆順に変換してs=f(r)(S空間206に属する)を得た後、空間充填曲線のひとつであるZオーダ(Z−Ordering)曲線に基づく探索順(探索領域P202に矢印で表示)の位置に写像することで、次回に照合処理を行う矩形領域203を抽出している。
R空間205上の変数rをインクリメントすることで、探索領域P202上の不連続となる点(例示:0番目に選択される座標(0,0)、32番目に選択される座標(0,8)、16番目に選択される座標(8,0)、…)を対応点として選択することができる。すなわち、現在処理中の矩形領域203からより遠方の矩形領域203を次回の矩形領域203として抽出する可能性を高くすることができる。それにより、抽出される矩形領域203が探索対象領域P202の局所に集中せず、探索領域全体に対して広く探索を行うことができる。
(4) Step S104
The extraction processing unit determines the position of the search coordinates (x, y). In the following equation (5), Hx (s) is the x coordinate of the sth coordinate selected in the search order based on the space filling curve, and Hy (s) is the sth in the search order based on the space filling curve. This is the y coordinate of the coordinates selected for.
(X, y) = (Hx (s), Hy (s)) (5)
(However, 0 ≦ s <2 2D and D is a natural number)
However, in this step S104, the Z order is used as shown in FIG. That is, FIG. 12 shows a state in which a rectangular region to be subjected to the next collation process is extracted using Z-ordering (Z-Ordering). In this figure, r (belonging to the R space 205) is converted to the search target image 204 having the 16 × 16 search region P202 by the function f in the bit reverse order, and s = f (r) (belonging to the S space 206). ), And then mapping to the position in the search order (indicated by an arrow in the search area P202) based on the Z-ordering curve which is one of the space-filling curves, the rectangular area where the next matching process is performed 203 is extracted.
By incrementing the variable r on the R space 205, a discontinuous point on the search area P202 (example: 0th selected coordinate (0, 0), 32nd selected coordinate (0, 8) ), The 16th selected coordinate (8, 0),...) Can be selected as the corresponding point. That is, it is possible to increase the possibility of extracting a rectangular area 203 farther away from the rectangular area 203 currently being processed as the next rectangular area 203. As a result, the extracted rectangular area 203 is not concentrated locally in the search target area P202, and the entire search area can be searched widely.

本実施の形態においても、第1の実施の形態と同様に非特許文献や特許文献の問題を解決することができる。また、本実施の形態においても、第1の実施の形態と同様の効果を得ることができる。   Also in the present embodiment, the problems of non-patent documents and patent documents can be solved as in the first embodiment. Also in this embodiment, the same effect as that of the first embodiment can be obtained.

また、数式によって次回に照合処理を行う矩形領域を、一意に抽出しており、事前にテーブルを用意する必要がなく、かつ、既出の矩形領域に対する重複し探索が発生しないことを保障できる。   In addition, the rectangular area to be subjected to the collation process next time is uniquely extracted by using a mathematical formula, so that it is not necessary to prepare a table in advance, and it can be ensured that there is no duplication search for the already-existing rectangular area.

また、式(5)のHx(s)およびHy(s)として、第1の実施の形態においてはヒルベルト曲線を、また、第3の実施の形態においてはZオーダを用いている。しかし、本発明はこの例に限定されるものではない。基本的には、使用する探索順は探索領域の全画素を網羅する探索順であれば、どのような探索順を用いても良い。このため、入力される探索対象画像に応じて探索順を再定義することで、処理性能の向上を図ることができる。   In addition, as Hx (s) and Hy (s) in Expression (5), the Hilbert curve is used in the first embodiment, and the Z order is used in the third embodiment. However, the present invention is not limited to this example. Basically, any search order may be used as long as the search order used is a search order that covers all pixels in the search region. For this reason, it is possible to improve the processing performance by redefining the search order according to the input search target image.

(第4の実施の形態)
本発明の第4の実施の形態では、画像処理システムの構成は第2の実施の形態と同じであるが、画像処理システムの動作(画像処理方法)について異なっている。以下では、その画像処理システムの動作(画像処理方法)について説明する。
(Fourth embodiment)
In the fourth embodiment of the present invention, the configuration of the image processing system is the same as that of the second embodiment, but the operation of the image processing system (image processing method) is different. Hereinafter, the operation (image processing method) of the image processing system will be described.

図7は、本発明の第4の実施の形態に係る画像処理システムの動作(画像処理方法)の一例を示すフローチャートである。本実施の形態の画像処理システムの動作(画像処理方法)は、ステップS104が相違する以外は、第2の実施の形態と同様である。従って、以下では、ステップS104について説明する。   FIG. 7 is a flowchart showing an example of the operation (image processing method) of the image processing system according to the fourth embodiment of the present invention. The operation (image processing method) of the image processing system of the present embodiment is the same as that of the second embodiment except that step S104 is different. Accordingly, step S104 will be described below.

本実施の形態のステップS104では、Zオーダに基づくアドレス決定装置により空間充填曲線上への座標(変数s)取得を行う。具体的には、以下のような動作になる。   In step S104 of the present embodiment, the coordinates (variable s) on the space filling curve are acquired by the address determination device based on the Z order. Specifically, the operation is as follows.

(4)ステップS104
抽出処理部は、探索座標(x、y)の位置を決定する。以下の式(5)におけるHx(s)は、空間充填曲線に基づく探索順でs番目に選択される座標のx座標、また、Hy(s)は、空間充填曲線に基づく探索順でs番目に選択される座標のy座標である。
(x,y)=(Hx(s),Hy(s)) …(5)
(但し、0≦s<22D、かつ、Dは自然数)
ただし、このステップS104では、図13に示すようにZオーダを用いる。すなわち、図13に、Zオーダを用いて次回に照合処理を行う矩形領域を抽出する様子を示す。この図では、16×16の探索領域P202を有する探索対象画像204に対してr(R空間205に属する)を関数fによりビット逆順に変換してs=f(r)(S空間206に属する)を得た後、空間充填曲線のひとつであるZオーダ曲線に基づく探索順(探索領域P202に矢印で表示)の位置に写像することで、次回に照合処理を行う矩形領域203を抽出している。
R空間205上の変数rをインクリメントすることで、探索領域P202上の不連続となる点(例示:0番目に選択される座標(0,0)、16番目に選択される座標(8,0)、32番目に選択される座標(0,8)、…)を対応点として選択することができる。すなわち、現在処理中の矩形領域203からより遠方の矩形領域203を次回の矩形領域203として抽出する可能性を高くすることができる。それにより、抽出される矩形領域203が探索対象領域P202の局所に集中せず、探索領域全体に対して広く探索を行うことができる。
(4) Step S104
The extraction processing unit determines the position of the search coordinates (x, y). In the following equation (5), Hx (s) is the x coordinate of the sth coordinate selected in the search order based on the space filling curve, and Hy (s) is the sth in the search order based on the space filling curve. This is the y coordinate of the coordinates selected for.
(X, y) = (Hx (s), Hy (s)) (5)
(However, 0 ≦ s <2 2D and D is a natural number)
However, in this step S104, the Z order is used as shown in FIG. That is, FIG. 13 shows a state in which a rectangular region to be subjected to collation processing next time is extracted using the Z order. In this figure, r (belonging to the R space 205) is converted to the search target image 204 having the 16 × 16 search region P202 by the function f in the bit reverse order, and s = f (r) (belonging to the S space 206). ), The rectangular area 203 to be subjected to the next matching process is extracted by mapping to the position in the search order (indicated by an arrow in the search area P202) based on the Z-order curve that is one of the space filling curves. Yes.
By incrementing the variable r on the R space 205, a discontinuous point on the search area P202 (example: 0th selected coordinate (0,0), 16th selected coordinate (8,0)) ), The 32nd coordinate (0, 8),...) Can be selected as a corresponding point. That is, it is possible to increase the possibility of extracting a rectangular area 203 farther away from the rectangular area 203 currently being processed as the next rectangular area 203. As a result, the extracted rectangular area 203 is not concentrated locally in the search target area P202, and the entire search area can be searched widely.

本実施の形態においても、第2、3の実施の形態と同様に非特許文献や特許文献の問題を解決することができる。また、本実施の形態においても、第2、3の実施の形態と同様の効果を得ることができる。   Also in this embodiment, the problems of non-patent documents and patent documents can be solved as in the second and third embodiments. Also in this embodiment, the same effect as in the second and third embodiments can be obtained.

本発明の上記各実施の形態により、以下の各効果を得ることができる。
第1の効果として、探索に要する処理時間の平準化がある。その理由は、探索位置が局所領域に集中せず、分散させて探索を行うからである。第2の効果として、探索処理の高速化がある。その理由は、前回探索領域から、より画像類似度が少ない領域を優先して探索するため、より急速に探索打ち切りのための閾値を降下させることができるからである。第3の効果として、次回の探索位置を記憶する装置が不要になる。その理由は、数式によって次回に照合処理を行う矩形領域を、一意に抽出しており、事前にテーブルを用意する必要がないからである。第4の効果として、既出の矩形領域に対する重複探索が発生しない。その理由は、乱数に基づく探索ではなく、探索領域を必ず1度だけ通過する探索順(空間充填曲線)に数式によって写像するにより、重複探索が発生しないからである。
According to the above embodiments of the present invention, the following effects can be obtained.
As a first effect, there is leveling of processing time required for searching. The reason is that the search positions are not concentrated in the local area but are distributed and searched. As a second effect, there is an increase in search processing speed. The reason is that, since the search is performed with priority given to the region having a lower image similarity from the previous search region, the threshold for search termination can be lowered more rapidly. As a third effect, a device for storing the next search position becomes unnecessary. The reason is that the rectangular area to be subjected to the next collation processing is uniquely extracted by a mathematical formula, and it is not necessary to prepare a table in advance. As a fourth effect, an overlapping search for the previously described rectangular area does not occur. The reason for this is that a duplicate search does not occur by mapping with a mathematical expression in the search order (space filling curve) that always passes through the search region only once instead of a search based on random numbers.

図14A及び図14Bは、本発明の概念を示す模式図である。ただし、図14A及び図14Bにおいて、テンプレート画像をT201(図14B)、探索対象画像をU204(図14A)とし、テンプレート画像T201と同じサイズとなる部分画像をQ203(図14A)、部分画像Q203が移動可能な領域を探索領域P202(図14A)とする。
本発明は、画像処理プロセッサ、もしくは、外部演算装置により、現在までの探索回数の値のビット操作処理(たとえば、MSBとLSBの順番を逆順に入れ替える処理)を行い、次回に照合処理を行なう矩形領域203のメモリアドレス特定を行なう。そして、連続する探索順(例えばヒルベルト曲線に代表される空間充填曲線)に対して写像することで、より画像の相関性の低い領域(現在の矩形領域203“0”と隣接しない、離れた矩形領域203“1”、“2”、“3”、“4”、“5”、“6”、…)を、次回に照合処理を行う矩形領域203として抽出することができる。それにより、探索対象画像U204全体に対して、偏りなく矩形領域203を抽出することが可能となり、合致位置の出現位置に依存しない探索が可能となる。この結果、テンプレート・マッチングに要する処理時間の平準化をはかる効果が得られる。
また、本発明は、次回にテンプレート照合を行う矩形領域の抽出のために特別な記憶装置を用意する必要はなく、数式により次回の矩形領域の抽出位置を一意に決定できるため、省資源での動作が求められる環境下での適用が可能である。
加えて、本発明では、空間充填曲線(空間充填曲線はヒルベルト曲線及びZオーダに限定されない)に代表される探索順を用いることにより、既出の矩形領域を抽出することなく、探索領域全体に対して探索を行うことができる。
14A and 14B are schematic views showing the concept of the present invention. 14A and 14B, the template image is T201 (FIG. 14B), the search target image is U204 (FIG. 14A), the partial image having the same size as the template image T201 is Q203 (FIG. 14A), and the partial image Q203 is A movable area is defined as a search area P202 (FIG. 14A).
In the present invention, a bit operation process (for example, a process of switching the order of MSB and LSB in reverse order) is performed by an image processor or an external arithmetic unit, and a collation process is performed next time. The memory address of the area 203 is specified. Then, by mapping to a continuous search order (for example, a space-filling curve typified by a Hilbert curve), a region with a lower correlation of the image (a rectangle that is not adjacent to the current rectangular region 203 “0” and is not adjacent) The areas 203 “1”, “2”, “3”, “4”, “5”, “6”,...) Can be extracted as the rectangular area 203 to be subjected to collation processing next time. As a result, the rectangular area 203 can be extracted from the entire search target image U204 without deviation, and a search that does not depend on the appearance position of the matching position is possible. As a result, an effect of leveling the processing time required for template matching can be obtained.
In addition, the present invention does not need to prepare a special storage device for extracting a rectangular area to be template-checked next time, and can uniquely determine the extraction position of the next rectangular area by a mathematical expression. It can be applied in an environment where operation is required.
In addition, in the present invention, by using the search order represented by the space filling curve (the space filling curve is not limited to the Hilbert curve and the Z order), the entire search area can be extracted without extracting the previously described rectangular area. Search.

本発明は上記各実施の形態に限定されず、本発明の技術思想の範囲内において、各実施の形態は適宜変形又は変更され得ることは明らかである。   The present invention is not limited to the embodiments described above, and it is obvious that the embodiments can be appropriately modified or changed within the scope of the technical idea of the present invention.

1、1a 画像処理システム
201 テンプレート画像(T)
202 探索対象領域(P)
203 矩形領域(Q)
204 探索対象画像(U)
205 R空間
206 S空間
207 矩形領域Q’
208 合致座標(x’,y’)
301 ホストマイコン(ホストマイクロコンピュータ)
302 画像処理プロセッサ
303 カメラ
304 モニタ
305 外部演算装置
402 CPU
403 テンプレート画像格納メモリ(フレームバッファ)
404 探索対象画像格納メモリ(フレームバッファ)
405 テンプレート・マッチング処理部(ソフトウェア部)
406 外部演算装置
407 ビット操作装置(ハードウェア部)
408 アドレス決定装置(ハードウェア部)
501 操作処理部
502 抽出処理部
503 計算処理部
504 特定処理部
1, 1a Image processing system 201 Template image (T)
202 Search target area (P)
203 Rectangular area (Q)
204 Search target image (U)
205 R space 206 S space 207 Rectangular area Q ′
208 Coordinate coordinates (x ', y')
301 Host microcomputer (host microcomputer)
302 Image processing processor 303 Camera 304 Monitor 305 External arithmetic unit 402 CPU
403 Template image storage memory (frame buffer)
404 Search target image storage memory (frame buffer)
405 Template matching processing section (software section)
406 External arithmetic unit 407 Bit operation device (hardware part)
408 Address determination device (hardware part)
501 Operation processing unit 502 Extraction processing unit 503 Calculation processing unit 504 Specific processing unit

Claims (10)

探索対象画像の中からテンプレート画像と一致する一致領域を探索する画像処理システムであって、
連続した複数の第1ビットの各々を順次操作して、不連続な複数の第2ビットの各々を順次生成する操作処理部と、
順次生成される前記第2ビット毎に、前記探索対象画像の中の連続的な探索順の位置のうち、前記第2ビットに対応した探索位置で部分領域を抽出する抽出処理部と、
抽出された前記部分領域とテンプレート画像との類似性に関する指標を算出する計算処理部と、
前記複数の第2ビットに対応した前記複数の部分領域について算出された前記複数の指標に基づいて、前記複数の部分領域から前記一致領域を特定し、前記一致領域の位置としての合致位置を特定する特定処理部と
を具備する
画像処理システム。
An image processing system for searching a matching area that matches a template image from search target images,
An operation processing unit that sequentially operates each of a plurality of consecutive first bits and sequentially generates each of a plurality of discontinuous second bits;
An extraction processing unit that extracts a partial region at a search position corresponding to the second bit out of positions in a continuous search order in the search target image for each second bit generated sequentially;
A calculation processing unit that calculates an index related to the similarity between the extracted partial region and the template image;
Based on the plurality of indices calculated for the plurality of partial areas corresponding to the plurality of second bits, the matching area is identified from the plurality of partial areas, and the matching position is identified as the position of the matching area An image processing system comprising: a specific processing unit.
請求項1に記載の画像処理システムにおいて、
前記操作処理部は、前記複数の第1ビットの各々を、ビットを逆順化する処理又はビットを回転する処理で、前記複数の第2ビットの各々を順次生成する
画像処理システム。
The image processing system according to claim 1,
The image processing system, wherein the operation processing unit sequentially generates each of the plurality of second bits by processing for reversing the bits of each of the plurality of first bits or processing for rotating the bits.
請求項2に記載の画像処理システムにおいて、
前記抽出処理部は、前記探索対象画像の中から、空間充填曲線に基づく探索順の位置に前記第2ビットを写像した前記探索位置で前記部分領域を抽出する
画像処理システム。
The image processing system according to claim 2,
The image processing system, wherein the extraction processing unit extracts the partial region from the search target image at the search position in which the second bit is mapped to a search order position based on a space filling curve.
請求項3に記載の画像処理システムにおいて、
前記空間充填曲線は、ヒルベルト曲線又はZオーダ曲線である
画像処理システム。
The image processing system according to claim 3.
The image processing system, wherein the space filling curve is a Hilbert curve or a Z-order curve.
請求項3に記載の画像処理システムにおいて、
前記計算処理部は、前記類似性に関する指標としてL1ノルムを算出する
画像処理システム。
The image processing system according to claim 3.
The image processing system, wherein the calculation processing unit calculates an L1 norm as an index related to the similarity.
探索対象画像の中からテンプレート画像と一致する一致領域を探索する画像処理方法であって、
連続した複数の第1ビットの各々を順次操作して、不連続な複数の第2ビットの各々を順次生成するステップと、
順次生成される前記第2ビット毎に、前記探索対象画像の中の連続的な探索順の位置のうち、前記第2ビットに対応した探索位置で部分領域を抽出するステップと、
抽出された前記部分領域とテンプレート画像との類似性に関する指標を算出するステップと、
前記複数の第2ビットに対応した前記複数の部分領域について算出された前記複数の指標に基づいて、前記複数の部分領域から前記一致領域を特定し、前記一致領域の位置としての合致位置を特定するステップと
を具備する
画像処理方法。
An image processing method for searching a matching region that matches a template image from search target images,
Sequentially operating each of a plurality of consecutive first bits to sequentially generate each of a plurality of discontinuous second bits;
Extracting a partial region at a search position corresponding to the second bit out of consecutive search order positions in the search target image for each second bit generated sequentially;
Calculating an index related to the similarity between the extracted partial region and the template image;
Based on the plurality of indices calculated for the plurality of partial areas corresponding to the plurality of second bits, the matching area is identified from the plurality of partial areas, and the matching position is identified as the position of the matching area An image processing method comprising the steps of:
請求項6に記載の画像処理方法において、
前記複数の第2ビットの各々を順次生成するステップは、前記複数の第1ビットの各々を、ビットを逆順化する処理又はビットを回転する処理で、前記複数の第2ビットの各々を順次生成するステップを備える
画像処理方法。
The image processing method according to claim 6,
In the step of sequentially generating each of the plurality of second bits, each of the plurality of second bits is sequentially generated by a process of reverse-ordering the bits or a process of rotating the bits. An image processing method comprising the step of:
請求項7に記載の画像処理方法において、
前記部分領域を抽出するステップは、前記探索対象画像の中から、空間充填曲線に基づく探索順の位置に前記第2ビットを写像した前記探索位置で前記部分領域を抽出するステップを備える
画像処理方法。
The image processing method according to claim 7.
The step of extracting the partial region includes the step of extracting the partial region from the search target image at the search position where the second bit is mapped to a position in the search order based on a space filling curve. .
請求項8に記載の画像処理方法において、
前記合致位置を特定するステップは、前記類似性に関する指標としてL1ノルムを算出するステップを備える
画像処理方法。
The image processing method according to claim 8.
The step of specifying the match position includes a step of calculating an L1 norm as an index related to the similarity.
請求項6乃至9のいずれか一項に記載の画像処理方法を画像処理システムとしてのコンピュータに実行させるプログラム。   A program causing a computer as an image processing system to execute the image processing method according to any one of claims 6 to 9.
JP2010079645A 2010-03-30 2010-03-30 System and method for processing image Withdrawn JP2011210178A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010079645A JP2011210178A (en) 2010-03-30 2010-03-30 System and method for processing image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010079645A JP2011210178A (en) 2010-03-30 2010-03-30 System and method for processing image

Publications (1)

Publication Number Publication Date
JP2011210178A true JP2011210178A (en) 2011-10-20

Family

ID=44941130

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010079645A Withdrawn JP2011210178A (en) 2010-03-30 2010-03-30 System and method for processing image

Country Status (1)

Country Link
JP (1) JP2011210178A (en)

Similar Documents

Publication Publication Date Title
US10332291B2 (en) Content aware image editing
CN107610059B (en) Image processing method and mobile terminal
CN111160288A (en) Gesture key point detection method and device, computer equipment and storage medium
US20230306662A1 (en) Systems, methods, and devices for image processing
US20240095888A1 (en) Systems, methods, and devices for image processing
JP2016186703A (en) Image recognition method, image recognition device, and image recognition program
CN115630236A (en) Global fast retrieval positioning method of passive remote sensing image, storage medium and equipment
JP5477518B1 (en) Image processing apparatus, image processing method, and image processing program
JP6163868B2 (en) Image processing method, image processing apparatus, and image processing program
CN110517299B (en) Elastic image registration algorithm based on local feature entropy
CN108765277B (en) Image splicing method and device, computer equipment and storage medium
JP2011210178A (en) System and method for processing image
JP4387889B2 (en) Template collation apparatus and method
JP2017134596A (en) Image processing method and process simulation device
CN114170257A (en) Curved target contour fitting device, computer equipment and storage medium
JP2011210160A (en) Image processing method, image processor, program and program storage medium
JP6116271B2 (en) Feature amount calculation apparatus, method, and program
CN112200774A (en) Image recognition apparatus
CN114185429B (en) Gesture key point positioning or gesture estimating method, electronic device and storage medium
CN116881515B (en) Method and electronic equipment for comparing capacitance results solved by different algorithms
JP2020030502A (en) Image processing device, image processing method, and image processing program
TWI494900B (en) Method of real time image tracking
CN117540043B (en) Three-dimensional model retrieval method and system based on cross-instance and category comparison
WO2023127005A1 (en) Data augmentation device, data augmentation method, and computer-readable recording medium
CN110009559B (en) Image processing method and device

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130604