JP2013175023A - Image positioning device and image positioning method - Google Patents

Image positioning device and image positioning method Download PDF

Info

Publication number
JP2013175023A
JP2013175023A JP2012038699A JP2012038699A JP2013175023A JP 2013175023 A JP2013175023 A JP 2013175023A JP 2012038699 A JP2012038699 A JP 2012038699A JP 2012038699 A JP2012038699 A JP 2012038699A JP 2013175023 A JP2013175023 A JP 2013175023A
Authority
JP
Japan
Prior art keywords
image
amount
block
positional deviation
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012038699A
Other languages
Japanese (ja)
Other versions
JP5907755B2 (en
Inventor
Mariko Suga
万里子 須賀
Hideaki Maehara
秀明 前原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2012038699A priority Critical patent/JP5907755B2/en
Publication of JP2013175023A publication Critical patent/JP2013175023A/en
Application granted granted Critical
Publication of JP5907755B2 publication Critical patent/JP5907755B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain a highly accurate registration result regardless of the presence/absence of an edge.SOLUTION: The image positioning device includes: a featured value extraction part 2 for extracting a plurality of featured values whose types are different from an image A and an image B; a block division part 3 for dividing the image A and the image B into a plurality of blocks; and a position deviation value calculation part 4 for calculating a position deviation value between blocks having correspondence among the blocks of the image A and the blocks of the image B divided by the block division part 3 by using each of the featured values extracted by the featured value extraction part 2. A registration arithmetic part 5 performs the positioning of the image A and the image B by using the position deviation value between blocks calculated by using each featured value by the position deviation value calculation part 4.

Description

この発明は、2つの画像の位置合わせを行う画像位置合わせ装置及び画像位置合わせ方法に関するものである。   The present invention relates to an image alignment apparatus and an image alignment method for aligning two images.

2つの画像の位置合わせを行う画像位置合わせ装置では、一般的に、2つの画像の濃淡画像を用いて、ブロックマッチング処理を実施することで、2つの画像間の位置ずれ量を算出し、その位置ずれ量を用いて、レジストレーション(画像の位置合わせ)を行う方法を採用している。
近年では、画像のエッジ情報を用いて、マッチング処理を実施することで、2つの画像間の位置ずれ量を算出する方法も提案されている。
In an image alignment apparatus that aligns two images, in general, a block matching process is performed using a grayscale image of the two images to calculate a positional deviation amount between the two images. A method of performing registration (image alignment) using the amount of displacement is employed.
In recent years, a method has been proposed in which the amount of positional deviation between two images is calculated by performing matching processing using edge information of the images.

以下の特許文献1には、ラプラシアンフィルタを用いて画像のエッジを抽出し、画像のエッジを用いて、テンプレートマッチングを実施して、レジストレーションする方法が記載されている。
また、以下の特許文献2には、画像を小領域に分割して、小領域の分散やエッジ量を求め、その分散やエッジ量を用いて、マッチング処理を実施して、レジストレーションする方法が記載されている。
Japanese Patent Application Laid-Open No. 2004-228561 describes a method of registering by extracting an edge of an image using a Laplacian filter and performing template matching using the edge of the image.
Patent Document 2 below discloses a method of dividing an image into small regions, obtaining dispersion and edge amounts of the small regions, performing matching processing using the dispersion and edge amounts, and performing registration. Have been described.

特開平08−161474号公報(段落番号[0043]から[0052]、図 )Japanese Patent Laid-Open No. 08-161474 (paragraph numbers [0043] to [0052], figure) 特開2009−295062号公報(段落番号[0038])JP 2009-295062 A (paragraph number [0038])

従来の画像位置合わせ装置は以上のように構成されているので、濃淡画像を用いて、ブロックマッチング処理を実施する場合、多くのエッジが存在しているブロックでは、良好なマッチング結果が得られるが、エッジが少ないブロックでは、良好なマッチング結果が得られない。このため、エッジが少ないブロックでは、レジストレーションの精度が劣化してしまう課題があった。   Since the conventional image alignment apparatus is configured as described above, when performing block matching processing using a grayscale image, a good matching result can be obtained in a block having many edges. In a block with few edges, a good matching result cannot be obtained. For this reason, there is a problem that the accuracy of registration deteriorates in a block with few edges.

この発明は上記のような課題を解決するためになされたもので、エッジの有無にかかわらず、高精度なレジストレーション結果を得ることができる画像位置合わせ装置及び画像位置合わせ方法を得ることを目的とする。   The present invention has been made to solve the above-described problems, and an object thereof is to provide an image alignment apparatus and an image alignment method capable of obtaining a highly accurate registration result regardless of the presence or absence of an edge. And

この発明に係る画像位置合わせ装置は、第1の画像及び第2の画像から種類が異なる複数の特徴量を抽出する特徴量抽出手段と、特徴量抽出手段により抽出された各々の特徴量を用いて、第1の画像と第2の画像間の位置ずれ量を算出する位置ずれ量算出手段とを設け、位置合わせ手段が、位置ずれ量算出手段により算出された位置ずれ量を用いて、第1の画像と第2の画像の位置合わせを行うようにしたものである。   The image alignment apparatus according to the present invention uses a feature amount extraction unit that extracts a plurality of different types of feature amounts from the first image and the second image, and uses each feature amount extracted by the feature amount extraction unit. And a misregistration amount calculating means for calculating a misregistration amount between the first image and the second image, and the alignment means uses the misregistration amount calculated by the misregistration amount calculation means to The first image and the second image are aligned.

この発明によれば、第1の画像及び第2の画像から種類が異なる複数の特徴量を抽出する特徴量抽出手段と、特徴量抽出手段により抽出された各々の特徴量を用いて、第1の画像と第2の画像間の位置ずれ量を算出する位置ずれ量算出手段とを設け、位置合わせ手段が、位置ずれ量算出手段により算出された位置ずれ量を用いて、第1の画像と第2の画像の位置合わせを行うように構成したので、エッジの有無にかかわらず、高精度なレジストレーション結果を得ることができる効果がある。   According to the present invention, the feature amount extraction means for extracting a plurality of feature amounts of different types from the first image and the second image, and the feature amounts extracted by the feature amount extraction means, A positional deviation amount calculating means for calculating a positional deviation amount between the first image and the second image, and the alignment means uses the positional deviation amount calculated by the positional deviation amount calculating means to Since the second image is aligned, there is an effect that a highly accurate registration result can be obtained regardless of the presence or absence of an edge.

この発明の実施の形態1による画像位置合わせ装置を示す構成図である。1 is a configuration diagram showing an image alignment apparatus according to Embodiment 1 of the present invention. この発明の実施の形態1による画像位置合わせ装置の処理内容(画像位置合わせ方法)を示すフローチャートである。It is a flowchart which shows the processing content (image position alignment method) of the image position alignment apparatus by Embodiment 1 of this invention. レベル補正の処理例を示す説明図である。It is explanatory drawing which shows the process example of level correction. 平坦化の処理例を示す説明図である。It is explanatory drawing which shows the example of a process of planarization. コントラスト補正の処理例を示す説明図である。It is explanatory drawing which shows the example of a process of contrast correction | amendment. 3×3のSobelフィルタのフィルタ係数例を示す説明図である。It is explanatory drawing which shows the filter coefficient example of a 3x3 Sobel filter. この発明の実施の形態2による画像位置合わせ装置を示す構成図である。It is a block diagram which shows the image position alignment apparatus by Embodiment 2 of this invention.

実施の形態1.
図1はこの発明の実施の形態1による画像位置合わせ装置を示す構成図である。
図1において、画像調整処理部1は画像A(第1の画像)を示す画像データと、画像B(第2の画像)を示す画像データを入力すると、後段の特徴量抽出部2における特徴量抽出処理の容易化を図るための前処理として、画像A及び画像Bに対する画像調整処理(例えば、ヒストグラム補正処理、画像の周波数調整処理など)を実施する。なお、画像調整処理部1は画像調整処理手段を構成している。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing an image alignment apparatus according to Embodiment 1 of the present invention.
In FIG. 1, when an image adjustment processing unit 1 receives image data indicating an image A (first image) and image data indicating an image B (second image), the feature amount in a subsequent feature amount extraction unit 2 is input. As pre-processing for facilitating extraction processing, image adjustment processing (for example, histogram correction processing, image frequency adjustment processing, etc.) for images A and B is performed. The image adjustment processing unit 1 constitutes an image adjustment processing unit.

特徴量抽出部2は画像調整処理部1による調整処理後の画像A及び画像Bから種類が異なる複数の特徴量(例えば、エッジ、特徴点(例えば、コーナー点、強度の極大点・極小点、曲線の終点、曲率の極大点、孤立点)など)を抽出する処理を実施する。なお、特徴量抽出部2は特徴量抽出手段を構成している。
ブロック分割部3は画像A及び画像Bを複数のブロックに分割する処理を実施する。なお、ブロック分割部3はブロック分割手段を構成している。
The feature amount extraction unit 2 includes a plurality of feature amounts (for example, edges, feature points (for example, corner points, maximum / minimum points of intensity, different types) from the images A and B after the adjustment processing by the image adjustment processing unit 1. The process of extracting the end point of the curve, the maximum point of curvature, the isolated point, etc.) is performed. Note that the feature quantity extraction unit 2 constitutes a feature quantity extraction unit.
The block dividing unit 3 performs processing for dividing the image A and the image B into a plurality of blocks. The block dividing unit 3 constitutes block dividing means.

位置ずれ量算出部4は特徴量抽出部2により抽出された各々の特徴量を用いて、ブロック分割部3により分割された画像Aのブロックと画像Bのブロックの中で、対応関係があるブロック間の位置ずれ量を算出する処理を実施する。
即ち、位置ずれ量算出部4は画像Aのブロックに対応する画像Bのブロックを画素単位に移動しながら、対応関係があるブロック間の相関値を算出し、その相関値が最高になるブロックの移動位置から、対応関係があるブロック間の位置ずれ量を算出する。
なお、位置ずれ量算出部4は位置ずれ量算出手段を構成している。
The misregistration amount calculation unit 4 uses the feature amounts extracted by the feature amount extraction unit 2 and has a correspondence relationship among the blocks of the image A and the blocks of the image B divided by the block division unit 3. A process for calculating the amount of misalignment is performed.
That is, the positional deviation amount calculation unit 4 calculates the correlation value between the blocks having the corresponding relationship while moving the block of the image B corresponding to the block of the image A in units of pixels, and the block having the highest correlation value is calculated. From the movement position, the amount of positional deviation between the blocks having the corresponding relationship is calculated.
The misregistration amount calculation unit 4 constitutes misregistration amount calculation means.

レジストレーション演算部5は位置ずれ量算出部4により各々の特徴量を用いて算出されたブロック間の位置ずれ量を用いて、画像Aと画像Bのレジストレーションを実施する。
即ち、レジストレーション演算部5は位置ずれ量算出部4により算出されたブロック毎の位置ずれ量のうち、算出元である特徴量の種類が同じであるブロック単位の位置ずれ量から画像単位の位置ずれ量をそれぞれ算出し、複数の画像単位の位置ずれ量の中の1つの位置ずれ量を用いて、画像Aと画像Bのレジストレーションを実施する。
なお、レジストレーション演算部5は位置合わせ手段を構成している。
The registration calculation unit 5 performs registration of the image A and the image B by using the amount of positional deviation between blocks calculated by the positional deviation amount calculation unit 4 using each feature amount.
In other words, the registration calculation unit 5 calculates the position of the image unit from the positional deviation amount of the block unit of the same type of feature quantity as the calculation source among the positional deviation amounts of each block calculated by the positional deviation amount calculation unit 4. The shift amounts are calculated, and registration of the images A and B is performed using one of the shift amounts of the plurality of image units.
The registration calculation unit 5 constitutes an alignment unit.

図1の例では、画像位置合わせ装置の構成要素である画像調整処理部1、特徴量抽出部2、ブロック分割部3、位置ずれ量算出部4及びレジストレーション演算部5のそれぞれが専用のハードウェア(例えば、CPUを実装している半導体集積回路、あるいは、ワンチップマイコンなど)で構成されているものを想定しているが、画像位置合わせ装置がコンピュータで構成されていてもよい。
画像位置合わせ装置がコンピュータで構成されている場合、画像調整処理部1、特徴量抽出部2、ブロック分割部3、位置ずれ量算出部4及びレジストレーション演算部5の処理内容を記述しているプログラムをコンピュータのメモリに格納し、当該コンピュータのCPUが当該メモリに格納されているプログラムを実行するようにすればよい。
図2はこの発明の実施の形態1による画像位置合わせ装置の処理内容(画像位置合わせ方法)を示すフローチャートである。
In the example of FIG. 1, each of the image adjustment processing unit 1, the feature amount extraction unit 2, the block division unit 3, the positional deviation amount calculation unit 4, and the registration calculation unit 5, which are components of the image registration device, is dedicated hardware. Although hardware (for example, a semiconductor integrated circuit on which a CPU is mounted or a one-chip microcomputer) is assumed, the image alignment apparatus may be configured with a computer.
When the image alignment apparatus is configured by a computer, the processing contents of the image adjustment processing unit 1, the feature amount extraction unit 2, the block division unit 3, the positional deviation amount calculation unit 4, and the registration calculation unit 5 are described. The program may be stored in the memory of the computer, and the CPU of the computer may execute the program stored in the memory.
FIG. 2 is a flowchart showing the processing contents (image registration method) of the image registration apparatus according to Embodiment 1 of the present invention.

次に動作について説明する。
画像調整処理部1は、画像Aを示す画像データと、画像Bを示す画像データとを入力すると、特徴量抽出部2における特徴量抽出処理の容易化を図るための前処理として、画像A及び画像Bに対する画像調整処理を実施する(ステップST1)。
即ち、画像調整処理部1は、画像A及び画像Bを構成している各画素の信号レベルのヒストグラムをとり、例えば、画像のレベル補正、平坦化、コントラスト補正や周波数調整などを行う。
Next, the operation will be described.
When the image adjustment processing unit 1 receives the image data indicating the image A and the image data indicating the image B, the image adjustment processing unit 1 performs preprocessing for facilitating the feature amount extraction processing in the feature amount extraction unit 2 as image A and An image adjustment process is performed on the image B (step ST1).
That is, the image adjustment processing unit 1 takes a histogram of signal levels of each pixel constituting the image A and the image B, and performs, for example, image level correction, flattening, contrast correction, frequency adjustment, and the like.

ここで、画像のレベル補正は、画像の信号レベルを調整する処理であり、図3はレベル補正の処理例を示す説明図である。
画像のレベル補正は、例えば、画像A(画像B)を構成している各画素の信号レベルiの中で、最大の信号レベルがimaxであるとき、最大の信号レベルimaxが、入力画像を構成する画素の信号が取り得る最大値Smaxに満たない場合(imax<Smax)、画像A(画像B)を構成している全ての画素の信号レベルiをSmax/imax倍して、画像A(画像B)における信号最大値imaxが、信号が取り得る最大値Smaxと一致するように調整するものである。
なお、入力画像が8bit画像の場合、入力画像を構成する画素の信号が取り得る最大値Smaxは255である。
Here, the image level correction is a process of adjusting the signal level of the image, and FIG. 3 is an explanatory diagram showing an example of the level correction process.
For example, when the maximum signal level is i max among the signal levels i of the pixels constituting the image A (image B), the maximum signal level i max is set to the input image. Is less than the maximum value S max that can be taken by the signal of the pixels constituting the pixel (i max <S max ), the signal levels i of all the pixels constituting the image A (image B) are multiplied by S max / i max Thus, the maximum signal value i max in the image A (image B) is adjusted so as to coincide with the maximum value S max that the signal can take.
When the input image is an 8-bit image, the maximum value S max that can be taken by a pixel signal constituting the input image is 255.

画像の平坦化は、振幅のあるヒストグラムを平坦にする処理であり、図4は平坦化の処理例を示す説明図である。
画像の平坦化を行う場合、一般的には、下記の式(1)が適用される。

Figure 2013175023

式(1)において、iは画像A(画像B)を構成している各画素の信号レベルであり、hist(i)は信号レベルiのヒストグラムを求める関数、Hは画像A(画像B)の縦サイズ、Wは画像A(画像B)の横サイズである。 Image flattening is a process of flattening a histogram having amplitude, and FIG. 4 is an explanatory diagram showing an example of the flattening process.
When flattening an image, the following formula (1) is generally applied.

Figure 2013175023

In Expression (1), i is a signal level of each pixel constituting the image A (image B), hist (i) is a function for obtaining a histogram of the signal level i, and H is an image A (image B). The vertical size W is the horizontal size of the image A (image B).

しかし、単純なヒストグラムの平坦化では、画像のレベル分布に偏りがある場合、コントラストが強い画像に変換されてしまうことがある。
そこで、このような現象を避けるために、重み付けを施したヒストグラムの平坦化を行うようにしてもよい。
下記の式(2)は重み付けを施したヒストグラムの平坦化の式を示している。

Figure 2013175023

式(2)において、LUT(i)はヒストグラムのレベルに応じた重み付け係数であり、総和が1となるように設定されている。 However, simple flattening of the histogram may be converted into an image with high contrast if the level distribution of the image is biased.
Therefore, in order to avoid such a phenomenon, the weighted histogram may be flattened.
Equation (2) below shows an equation for weighted histogram flattening.

Figure 2013175023

In Equation (2), LUT (i) is a weighting coefficient corresponding to the level of the histogram, and is set so that the sum is 1.

画像のコントラスト補正は、ルックアップテーブル(LUT)を用いて、画像の信号レベルを補正する処理であり、図5はコントラスト補正の処理例を示す説明図である。
画像のコントラスト補正では、単純にコントラストを強めたり、コントラストを弱めたりすることもできるが、次のような処理を行うようにしてもよい。
例えば、画像A(画像B)のヒストグラムのピーク値を求め、そのピーク値が所定の値(例えば、入力画像を構成する画素の信号が取り得る最大値の半分の値)より小さい場合と、そのピーク値が所定の値より大きい場合とで、異なるレベル伸張を行うようにしてもよい。
Image contrast correction is a process of correcting the signal level of an image using a look-up table (LUT), and FIG. 5 is an explanatory diagram showing an example of a contrast correction process.
In contrast correction of an image, the contrast can be simply increased or decreased, but the following processing may be performed.
For example, when the peak value of the histogram of the image A (image B) is obtained and the peak value is smaller than a predetermined value (for example, a value that is half of the maximum value that can be taken by the pixel signal constituting the input image) Different level expansion may be performed when the peak value is larger than a predetermined value.

画像の周波数調整は、目的に応じて周波数をカットする処理である。
画像の周波数調整は、画像Aと画像Bの解像度が異なる場合、両方の解像度を合わせるために解像度の高い方の画像に対して、低周波カット処理を行うものである。
周波数調整の処理としては、n×nのローパスフィルタ処理を行うようにしてもよいし、フーリエ変換(FFT)による低周波カット処理を行うようにしてもよい。
The frequency adjustment of the image is a process of cutting the frequency according to the purpose.
In the frequency adjustment of the image, when the resolutions of the image A and the image B are different, a low-frequency cut process is performed on the image having the higher resolution in order to match both the resolutions.
As frequency adjustment processing, n × n low-pass filter processing may be performed, or low-frequency cut processing by Fourier transform (FFT) may be performed.

特徴量抽出部2は、画像調整処理部1が画像A及び画像Bに対する画像調整処理を実施すると、調整処理後の画像A及び画像Bから種類が異なる複数の特徴量を抽出する(ステップST2)。
特徴量の抽出処理としては、例えば、画像のエッジを特徴量として抽出する処理や、画像の特徴点(例えば、コーナー点、強度の極大点・極小点、曲線の終点、曲率の極大点、孤立点など)を特徴量として抽出する処理などが想定される。
When the image adjustment processing unit 1 performs image adjustment processing on the images A and B, the feature amount extraction unit 2 extracts a plurality of feature amounts of different types from the images A and B after the adjustment processing (step ST2). .
As the feature amount extraction processing, for example, processing for extracting image edges as feature amounts, image feature points (for example, corner points, intensity maximum / minimum points, curve end points, curvature maximum points, isolated points) A process of extracting a point etc.) as a feature amount is assumed.

ここで、画像A(画像B)のエッジを特徴量として抽出する処理について説明する。
一般的なエッジ抽出方法として、n×nのSobelフィルタを用いる方法がある。
n×nのSobelフィルタを用いて、エッジを抽出する際の演算式は、下記の式(3)のように表される。

Figure 2013175023

式(3)において、fx(x,y)は注目画素(x,y)に対する水平方向のフィルタ演算を行う関数を示し、fy(x,y)は注目画素(x,y)に対する垂直方向のフィルタ演算を行う関数を示している。
また、fx(x,y)、fy(x,y)には、画像調整処理部1による調整処理後の信号レベルが代入される。
f’(x,y)は注目画素(x,y)におけるエッジの検出結果を示し、その検出結果が8ビットで表される場合、注目画素(x,y)にエッジがなければ0の値、注目画素(x,y)にエッジがあれば255などの値になる。 Here, processing for extracting the edge of the image A (image B) as a feature amount will be described.
As a general edge extraction method, there is a method using an n × n Sobel filter.
An arithmetic expression for extracting an edge using an n × n Sobel filter is expressed as the following Expression (3).

Figure 2013175023

In Expression (3), fx (x, y) represents a function for performing a horizontal filter operation on the target pixel (x, y), and fy (x, y) represents a vertical direction with respect to the target pixel (x, y). A function for performing a filter operation is shown.
Further, the signal level after the adjustment processing by the image adjustment processing unit 1 is substituted into fx (x, y) and fy (x, y).
f ′ (x, y) indicates the detection result of the edge in the target pixel (x, y), and when the detection result is represented by 8 bits, the value of 0 is obtained if the target pixel (x, y) has no edge. If the target pixel (x, y) has an edge, the value becomes 255 or the like.

なお、Sobelは、1次微分によるエッジの検出方法であり、その検出結果はエッジの勾配として出力される。
例えば、3×3のSobelフィルタ場合、水平垂直方向のフィルタ係数は図6のように表される。
Note that Sobel is an edge detection method based on first-order differentiation, and the detection result is output as an edge gradient.
For example, in the case of a 3 × 3 Sobel filter, filter coefficients in the horizontal and vertical directions are expressed as shown in FIG.

ここでは、Sobelフィルタを用いて、エッジを抽出する例を示したが、Sobelフィルタに限るものではなく、例えば、Cannyフィルタを用いて、エッジを抽出するようにしてもよい。
Cannyフィルタを用いる場合、注目画素の8近傍(4方向)に対する勾配が求められ、最も強い勾配を持つ方向にエッジが接続される。このため、抽出されるエッジは、細線化されてノイズが少ないものとなる。
なお、エッジの検出結果は、注目画素がエッジであるか否かを示す2値で表される。
Here, an example in which an edge is extracted using a Sobel filter has been described. However, the present invention is not limited to the Sobel filter, and for example, an edge may be extracted using a Canny filter.
When the Canny filter is used, the gradient with respect to the vicinity of 8 (four directions) of the target pixel is obtained, and the edge is connected in the direction having the strongest gradient. For this reason, the extracted edge is thinned to reduce noise.
Note that the edge detection result is represented by a binary value indicating whether or not the target pixel is an edge.

また、Laplacianフィルタを用いて、エッジを抽出するようにしてもよい。
Laplacianフィルタを用いる場合、x−y両方向の二次微分の和が計算されてエッジが抽出される。
Laplacianフィルタを用いて、エッジを抽出する際の演算式は、下記の式(4)のように表される。

Figure 2013175023

式(4)において、δは微分を示す演算記号である。
Laplacianフィルタは、2次微分フィルタであるため細かくエッジを抽出することができる。 Alternatively, an edge may be extracted using a Laplacian filter.
When a Laplacian filter is used, the sum of secondary differentials in both xy directions is calculated to extract an edge.
An arithmetic expression for extracting an edge using a Laplacian filter is expressed as the following Expression (4).

Figure 2013175023

In Expression (4), δ is an arithmetic symbol indicating differentiation.
Since the Laplacian filter is a second-order differential filter, edges can be extracted finely.

なお、エッジの抽出方法は、フィルタ補正によるものに限るものではなく、例えば、画像に対するFFT処理を実施することで得られるパワー画像の低周波領域に対して、マスクをかけて逆FFT処理を実施することでも、エッジを抽出することができる。   Note that the edge extraction method is not limited to the filter correction method. For example, the inverse FFT processing is performed by applying a mask to the low frequency region of the power image obtained by performing the FFT processing on the image. By doing so, the edge can be extracted.

次に、画像A(画像B)の特徴点を特徴量として抽出する処理について説明する。
特徴点の抽出処理の一般的な抽出方法として、コーナー検出方法がある。
コーナー検出方法では、いわゆるコーナー点だけでなく、強度の極大点・極小点、曲線の終点、曲率の極大点、孤立点などを特徴点として検出することができる。
一般的なコーナー検出方法として、「Moravec」と呼ばれるコーナー検出アルゴリズムがあり、その演算式は、下記の式(5)のように表される。

Figure 2013175023

式(5)において、f(x,y)は注目画素(x,y)の信号レベル(例えば、輝度値)に相当し、画像調整処理部1による調整処理後の信号レベルである。
f(x+i,y+j)は注目画素(x,y)の周辺画素(x+i,y+j)の信号レベルに相当し、画像調整処理部1による調整処理後の信号レベルである。
また、Movacは注目画素(x,y)のコーナー点らしさを評価する値である。 Next, processing for extracting feature points of the image A (image B) as feature amounts will be described.
As a general extraction method of feature point extraction processing, there is a corner detection method.
In the corner detection method, not only so-called corner points but also maximum and minimum points of intensity, end points of curves, maximum points of curvature, isolated points, and the like can be detected as feature points.
As a general corner detection method, there is a corner detection algorithm called “Moravec”, and an arithmetic expression thereof is expressed as the following Expression (5).

Figure 2013175023

In Expression (5), f (x, y) corresponds to the signal level (for example, luminance value) of the target pixel (x, y), and is the signal level after the adjustment processing by the image adjustment processing unit 1.
f (x + i, y + j) corresponds to the signal level of the peripheral pixel (x + i, y + j) of the target pixel (x, y), and is the signal level after the adjustment processing by the image adjustment processing unit 1.
Movac is a value for evaluating the likelihood of a corner point of the pixel of interest (x, y).

ここでは、コーナー検出方法が「Moravec」と呼ばれるコーナー検出アルゴリズムである例を示したが、このコーナー検出アルゴリズムでは、Moravec作用素が8方向に限られる欠点がある。
「SUZAN」と呼ばれるコーナー検出アルゴリズムは、「Moravec」の欠点が改良されているコーナー検出アルゴリズムであり、「SUZAN」を用いるようにしてもよい。
SUZANは、輝度値が不連続に変化する凸領域の曲率が大きい頂点を探索する手法である。
下記の式(6)は、「SUZAN」と呼ばれるコーナー検出アルゴリズムの演算式を示している。
Here, an example in which the corner detection method is a corner detection algorithm called “Moravec” has been shown, but this corner detection algorithm has a drawback that Moravec operators are limited to eight directions.
The corner detection algorithm called “SUZAN” is a corner detection algorithm in which the drawbacks of “Moravec” are improved, and “SUZAN” may be used.
SUZAN is a method of searching for a vertex having a large curvature in a convex region where the luminance value changes discontinuously.
Equation (6) below shows an arithmetic expression of a corner detection algorithm called “SUZAN”.


Figure 2013175023

式(6)において、f(x,y)は注目画素(x,y)の信号レベル(例えば、輝度値)に相当し、画像調整処理部1による調整処理後の信号レベルである。
f’(x’,y’)は注目画素(x,y)の周辺画素(x’,y’)の信号レベルに相当する。
また、Mx,yは注目画素(x,y)を中心とするある近傍領域であり、tは予め設定された閾値である
式(6)では、ある近傍領域内の中心画素と輝度値の差が小さい画素の数を数えており、その極小点を特徴点としている。
Figure 2013175023

In Expression (6), f (x, y) corresponds to the signal level (for example, luminance value) of the target pixel (x, y), and is the signal level after the adjustment processing by the image adjustment processing unit 1.
f ′ (x ′, y ′) corresponds to the signal level of the peripheral pixel (x ′, y ′) of the target pixel (x, y).
M x, y is a certain neighboring area centered on the target pixel (x, y), and t is a preset threshold value. In Expression (6), the central pixel and luminance value in a certain neighboring area The number of pixels with a small difference is counted, and the minimum point is used as a feature point.

「Moravec」や「SUZAN」の他には、「Harris」と呼ばれるコーナー検出アルゴリズムなどがあり、特徴点を抽出する方法であれば、いかなる方法を用いてもよい。
ここでは、特徴量抽出部2が、画像調整処理部1から出力された調整処理後の画像A及び画像Bから種類が異なる複数の特徴量を抽出して、種類が異なる複数の特徴量を位置ずれ量算出部4に出力するものを示しているが、画像調整処理部1から出力された調整処理後の画像A及び画像B自体を特徴量として位置ずれ量算出部4に出力するようにしてもよい。
即ち、画像調整処理部1から出力された調整処理後の画像A及び画像Bは、画像の濃淡を表しているので、その濃淡自体が画像の特徴量であると捉え、調整処理後の画像A及び画像Bから特に特徴量を抽出する処理を行わず、画像A及び画像Bをそのまま位置ずれ量算出部4に出力するようにしてもよい。
In addition to “Moravec” and “SUZAN”, there is a corner detection algorithm called “Harris”, and any method may be used as long as it is a method for extracting feature points.
Here, the feature quantity extraction unit 2 extracts a plurality of feature quantities of different types from the image A and the image B after adjustment processing output from the image adjustment processing section 1, and positions the plurality of feature quantities of different types. Although what is output to the shift amount calculation unit 4 is shown, the image A and the image B itself after adjustment processing output from the image adjustment processing unit 1 are output as feature amounts to the position shift amount calculation unit 4. Also good.
That is, since the image A and the image B after the adjustment process output from the image adjustment processing unit 1 represent the light and shade of the image, the light and shade itself is regarded as the feature amount of the image, and the image A after the adjustment process is processed. In addition, the image A and the image B may be output to the misregistration amount calculation unit 4 as they are without performing the process of extracting the feature amount from the image B.

ブロック分割部3は、特徴量抽出部2により特徴量が抽出された画像A及び画像BをG×Hのブロックに分割する(ステップST3)。
位置ずれ量算出部4は、ブロック分割部3が画像A及び画像BをG×Hのブロックに分割すると、特徴量抽出部2により抽出された各々の特徴量を用いて、ブロック分割部3により分割された画像Aのブロックと画像Bのブロックの中で、対応関係があるブロック間の位置ずれ量を算出する(ステップST4)。
特徴量抽出部2により抽出された特徴量が、例えば、コーナー点とエッジと濃淡値の3種類であれば、コーナー点(特徴量)を用いて、対応関係があるブロック間の位置ずれ量を算出するとともに、エッジ(特徴量)を用いて、対応関係があるブロック間の位置ずれ量を算出する。
また、濃淡値(特徴量)を用いて、対応関係があるブロック間の位置ずれ量を算出する。
The block dividing unit 3 divides the image A and the image B from which the feature amount is extracted by the feature amount extracting unit 2 into G × H blocks (step ST3).
When the block dividing unit 3 divides the image A and the image B into G × H blocks, the positional deviation amount calculating unit 4 uses the feature amounts extracted by the feature amount extracting unit 2 to use the block dividing unit 3. Among the divided blocks of the image A and the block of the image B, a positional deviation amount between the blocks having a correspondence relationship is calculated (step ST4).
If the feature amount extracted by the feature amount extraction unit 2 is, for example, three types of corner points, edges, and gray values, the amount of positional deviation between the blocks having the corresponding relationship can be calculated using the corner points (feature amounts). In addition to the calculation, an edge (feature value) is used to calculate the amount of misalignment between blocks having a corresponding relationship.
Also, the amount of positional deviation between the blocks having the correspondence relationship is calculated using the gray value (feature value).

以下、位置ずれ量算出部4によるブロック間の位置ずれ量の算出処理を具体的に説明する。
画像A及び画像BがG×Hのブロックに分割された場合、ブロック数はG×H個ずつあり、画像Aのブロックを(g,h)ブロックA、画像Bのブロックを(g,h)ブロックBと表記する。ただし、g=0,1,・・・,G−1、h=0,1,・・・,H−1である。
この場合、画像Aと画像Bにおいて、対応関係があるブロックは、(g,h)ブロックAと(g,h)ブロックBである。
Hereinafter, the calculation process of the positional deviation amount between the blocks by the positional deviation amount calculation unit 4 will be described in detail.
When the image A and the image B are divided into G × H blocks, the number of blocks is G × H, the block of the image A is (g, h), the block A, and the block of the image B is (g, h). This is expressed as block B. However, g = 0, 1,..., G−1, h = 0, 1,.
In this case, in the images A and B, the blocks having a correspondence relationship are the (g, h) block A and the (g, h) block B.

位置ずれ量算出部4は、画像Aと画像Bにおいて、対応関係があるブロック毎に、ブロック間の位置ずれ量を算出する。
即ち、位置ずれ量算出部4は、最初に、(g,h)ブロックAと(g,h)ブロックBとの相関値を算出する。相関値の算出方法は後述する。
次に、(g,h)ブロックBを構成している各画素を1画素ずつX方向又は水平方向に移動し、(g,h)ブロックAと移動後の(g,h)ブロックBとの相関値を算出する。
位置ずれ量算出部4は、(g,h)ブロックBの画素単位の移動処理と、(g,h)ブロックAと移動後の(g,h)ブロックBとの相関値を算出する処理とを繰り返し実施する。
上記の繰り返し処理は、(g,h)ブロックBの画素単位の移動を、X軸方向に予め設定された画素分だけ移動するとともに、Y軸方向に予め設定された画素分だけ移動して、相関値の算出処理が完了するまで行われる。
ここでは、(g,h)ブロックBを画素単位に移動している例を示しているが、(g,h)ブロックAを画素単位に移動するようにしてもよい。
The misregistration amount calculation unit 4 calculates the misregistration amount between blocks for each block having a correspondence relationship in the images A and B.
That is, the positional deviation amount calculation unit 4 first calculates a correlation value between the (g, h) block A and the (g, h) block B. A method for calculating the correlation value will be described later.
Next, each pixel constituting the (g, h) block B is moved one pixel at a time in the X direction or the horizontal direction, and the (g, h) block A and the moved (g, h) block B are moved. A correlation value is calculated.
The misregistration amount calculation unit 4 includes a movement process in units of pixels of the (g, h) block B, and a process of calculating a correlation value between the (g, h) block A and the moved (g, h) block B. Repeatedly.
The above iterative process moves the pixel unit of the (g, h) block B by a preset pixel in the X-axis direction and moves by a preset pixel in the Y-axis direction, This is performed until the correlation value calculation process is completed.
Here, an example is shown in which (g, h) block B is moved in units of pixels, but (g, h) block A may be moved in units of pixels.

位置ずれ量算出部4は、上記の繰り返し処理が完了すると、算出した複数の相関値の中で、最も高い相関値を特定し、その相関値が算出された際の(g,h)ブロックBの移動位置から、(g,h)ブロックAと(g,h)ブロックBの位置ずれ量を算出する。
例えば、最高の相関値が算出された際の(g,h)ブロックBの移動位置が(g,h)ブロックBの元の位置から、X軸方向にx1画素だけ移動され、Y軸方向にy1画素だけ移動されたものであれば、(g,h)ブロックAと(g,h)ブロックBの位置ずれ量は、(x1,y1)のように算出される。
When the above-described repetitive processing is completed, the positional deviation amount calculation unit 4 identifies the highest correlation value among the calculated correlation values, and the (g, h) block B when the correlation value is calculated. (G, h) block A and (g, h) block B displacement amounts are calculated from the movement position of.
For example, the movement position of (g, h) block B when the highest correlation value is calculated is moved from the original position of (g, h) block B by x1 pixels in the X axis direction, and in the Y axis direction. If only y1 pixel has been moved, the amount of positional deviation between (g, h) block A and (g, h) block B is calculated as (x1, y1).

ここで、(g,h)ブロックAと(g,h)ブロックBとの相関値は、例えば、下記の式(7)で算出される。

Figure 2013175023
Here, the correlation value between the (g, h) block A and the (g, h) block B is calculated by the following equation (7), for example.

Figure 2013175023

式(7)において、I(j,i)は(g,h)ブロックAを構成している各画素の特徴量、Iバー(電子出願の関係上、式(7)における「I」の上に付記している“−”は、明細書の文章上には表記することができないので、Iバーのように表現している)は(g,h)ブロックAを構成している全画素の特徴量の平均値である。
T(j,i)は(g,h)ブロックBを構成している各画素の特徴量、Tバーは(g,h)ブロックBを構成している全画素の特徴量の平均値である。
また、Nは(g,h)ブロックA,BにおけるX軸方向の画素の数、Mは(g,h)ブロックA,BにおけるY軸方向の画素の数である。
NCCは(g,h)ブロックAと(g,h)ブロックBの正規相互相関値である。
なお、正規相互相関値NCCは、2つの画像の濃淡が異なる場合でも安定して相関値を演算することができるが、2つのブロック間の相関値が求まれば、相関値の算出は、式(7)の演算に限るものではない。
In equation (7), I (j, i) is the (g, h) feature quantity of each pixel constituting block A, I bar (in relation to the electronic application, above “I” in equation (7) Since “-” appended to cannot be described on the text of the specification, it is expressed as I bar) (g, h) of all pixels constituting the block A It is the average value of the feature amount.
T (j, i) is the feature value of each pixel constituting the (g, h) block B, and T bar is the average value of the feature values of all the pixels constituting the (g, h) block B. .
N is the number of pixels in the X-axis direction in the (g, h) blocks A and B, and M is the number of pixels in the Y-axis direction in the (g, h) blocks A and B.
NCC is a normal cross-correlation value of (g, h) block A and (g, h) block B.
Note that the normal cross-correlation value NCC can stably calculate the correlation value even when the two images have different shades. If the correlation value between the two blocks is obtained, the correlation value is calculated by The calculation is not limited to (7).

レジストレーション演算部5は、位置ずれ量算出部4が、各々の特徴量を用いて、(g,h)ブロックAと(g,h)ブロックBの位置ずれ量を算出すると、(g,h)ブロックAと(g,h)ブロックBの位置ずれ量を用いて、画像Aと画像Bのレジストレーションを実施する(ステップST5)。
以下、レジストレーション演算部5による画像Aと画像Bのレジストレーションを具体的に説明する。
When the positional deviation amount calculation unit 4 calculates the positional deviation amounts of the (g, h) block A and the (g, h) block B using the respective feature amounts, the registration calculation unit 5 (g, h ) Registration of the image A and the image B is performed using the positional deviation amounts of the block A and the (g, h) block B (step ST5).
Hereinafter, the registration of the image A and the image B by the registration calculation unit 5 will be specifically described.

レジストレーション演算部5は、位置ずれ量算出部4が、各々の特徴量を用いて、(g,h)ブロックAと(g,h)ブロックBの位置ずれ量を算出すると、算出元である特徴量の種類が同じであるブロック単位の位置ずれ量から画像単位の位置ずれ量をそれぞれ算出する。
特徴量抽出部2により抽出された特徴量が、例えば、コーナー点と濃淡値の2種類であれば、コーナー点(特徴量)を用いて算出された(g,h)ブロックAと(g,h)ブロックBの位置ずれ量から画像単位の位置ずれ量を算出し、濃淡値(特徴量)を用いて算出された(g,h)ブロックAと(g,h)ブロックBの位置ずれ量から画像単位の位置ずれ量を算出する。
画像A及び画像BがG×Hのブロックに分割された場合、ブロック数がG×H個ずつあるので、特徴量の種類毎に、ブロック単位の位置ずれ量((g,h)ブロックAと(g,h)ブロックBの位置ずれ量)がG×H個算出される。このため、ブロック単位の位置ずれ量から画像単位の位置ずれ量を算出する方法としては、特徴量の種類毎に、G×H個のブロック単位の位置ずれ量の平均値や中央値などを、画像単位の位置ずれ量として算出する方法などが考えられる。
The registration calculation unit 5 is a calculation source when the positional deviation amount calculation unit 4 calculates the positional deviation amounts of the (g, h) block A and the (g, h) block B using the respective feature amounts. A positional deviation amount in units of images is calculated from a positional deviation amount in units of blocks having the same feature quantity type.
If the feature quantity extracted by the feature quantity extraction unit 2 is, for example, two types of corner points and gray values, the (g, h) block A and (g, h) calculated using the corner points (feature quantities) are used. h) The positional deviation amount of the image unit is calculated from the positional deviation amount of the block B, and the positional deviation amount between the (g, h) block A and the (g, h) block B calculated using the gray value (feature value). The amount of positional deviation for each image is calculated from the above.
When the image A and the image B are divided into G × H blocks, the number of blocks is G × H. Therefore, for each type of feature amount, a positional deviation amount ((g, h) block A and (G, h) G × H position deviation amounts of block B) are calculated. For this reason, as a method of calculating the positional deviation amount in image units from the positional deviation amount in block units, the average value or median value of the positional deviation amounts in G × H block units for each type of feature amount, A method of calculating the amount of positional deviation in image units is conceivable.

レジストレーション演算部5は、特徴量の種類毎に、画像単位の位置ずれ量を算出すると、複数の画像単位の位置ずれ量の中から、1つの位置ずれ量を選択する。1つの位置ずれ量の選択は、画像A,Bの特徴に基づいて行うことができる。
例えば、各々の特徴量を用いて算出された相関値を比較し、相関値が高い方の特徴量を用いて算出された位置ずれ量を選択する方法などが考えられる。
具体的には、特徴量抽出部2により抽出された特徴量が、例えば、エッジと濃淡値の2種類であれば、画像A,Bに存在しているエッジの数が所定の閾値より多い場合、エッジ(特徴量)を用いて算出された位置ずれ量を選択し、画像A,Bに存在しているエッジの数が所定の閾値より少ない場合、濃淡値(特徴量)を用いて算出された位置ずれ量を選択する。
なお、画像A,Bに存在しているエッジの数は、例えば、全ブロックにおけるエッジ(特徴量)を示す信号値の総和としてもよい。
When the registration calculation unit 5 calculates the positional deviation amount in units of images for each type of feature amount, the registration calculation unit 5 selects one positional deviation amount from among the positional deviation amounts in units of images. Selection of one displacement amount can be performed based on the characteristics of the images A and B.
For example, a method of comparing the correlation values calculated using the respective feature amounts and selecting a displacement amount calculated using the feature amount having the higher correlation value may be considered.
Specifically, if the feature amount extracted by the feature amount extraction unit 2 is, for example, two types of edges and gray values, the number of edges present in the images A and B is greater than a predetermined threshold value. If the position deviation amount calculated using the edges (feature amount) is selected and the number of edges existing in the images A and B is smaller than a predetermined threshold value, the gray level value (feature amount) is used. Select the amount of misalignment.
Note that the number of edges existing in the images A and B may be, for example, the sum of signal values indicating edges (features) in all blocks.

レジストレーション演算部5は、複数の画像単位の位置ずれ量の中から、1つの位置ずれ量を選択すると、その位置ずれ量を用いて、アフィン変換の変換係数(例えば、画像を回転や平行移動するための例えば3×3のフィルタの係数)を算出する。位置ずれ量からアフィン変換の変換係数を算出する処理自体は公知の技術であるため詳細な説明を省略する。
レジストレーション演算部5は、アフィン変換の変換係数を算出すると、その変換係数を画像Bに乗じることで、画像Bの位置を画像Aの位置に合わせるレジストレーションを実施する。
レジストレーション演算部5は、位置合わせ後の画像Bを示す画像データを出力する。
When the registration calculation unit 5 selects one positional deviation amount from among a plurality of image unit positional deviation amounts, the registration unit 5 uses the positional deviation amount to convert an affine transformation coefficient (for example, rotate or translate an image). For example, a 3 × 3 filter coefficient) is calculated. Since the process itself for calculating the conversion coefficient of the affine transformation from the positional deviation amount is a known technique, detailed description thereof is omitted.
When the registration calculation unit 5 calculates the conversion coefficient of the affine transformation, the registration calculation unit 5 multiplies the image B by the conversion coefficient to perform registration that matches the position of the image B with the position of the image A.
The registration calculation unit 5 outputs image data indicating the image B after alignment.

以上で明らかなように、この実施の形態1によれば、画像A及び画像Bから種類が異なる複数の特徴量を抽出する特徴量抽出部2と、画像A及び画像Bを複数のブロックに分割するブロック分割部3と、特徴量抽出部2により抽出された各々の特徴量を用いて、ブロック分割部3により分割された画像Aのブロックと画像Bのブロックの中で、対応関係があるブロック間の位置ずれ量を算出する位置ずれ量算出部4とを設け、レジストレーション演算部5が、位置ずれ量算出部4により各々の特徴量を用いて算出されたブロック間の位置ずれ量を用いて、画像Aと画像Bの位置合わせを行うように構成したので、エッジの有無にかかわらず、高精度なレジストレーション結果を得ることができる効果を奏する。
即ち、画像A及び画像Bから種類が異なる複数の特徴量を抽出して、各々の特徴量を用いて位置ずれ量を算出し、複数の位置ずれ量の中から、適応的に1つの位置ずれ量を選択するようにしているので、画像の特徴に見合う高精度なレジストレーションを実施することができる。
As is apparent from the above, according to the first embodiment, the feature amount extraction unit 2 that extracts a plurality of different feature amounts from the image A and the image B, and the image A and the image B are divided into a plurality of blocks. Blocks having a correspondence relationship among the blocks of the image A and the blocks of the image B that are divided by the block dividing unit 3 by using the feature amounts extracted by the block dividing unit 3 and the feature amount extracting unit 2 A misregistration amount calculation unit 4 for calculating a misregistration amount between the blocks, and the registration calculation unit 5 uses the misregistration amount between blocks calculated by the misregistration amount calculation unit 4 using each feature amount. Thus, since the image A and the image B are aligned, it is possible to obtain a highly accurate registration result regardless of the presence or absence of an edge.
That is, a plurality of different types of feature amounts are extracted from the images A and B, and a positional shift amount is calculated using each feature amount, and one positional shift is adaptively selected from the plurality of positional shift amounts. Since the amount is selected, it is possible to perform highly accurate registration that matches the characteristics of the image.

また、この実施の形態1によれば、画像A及び画像Bに対する画像調整処理を実施し、調整処理後の画像A及び画像Bを特徴量抽出部2に出力する画像調整処理部1を備えたので、特徴量抽出部2における特徴量の抽出が容易になり、高精度に特徴量を抽出することができる効果を奏する   Further, according to the first embodiment, the image adjustment processing unit 1 that performs image adjustment processing on the images A and B and outputs the image A and image B after the adjustment processing to the feature amount extraction unit 2 is provided. Therefore, the feature amount extraction unit 2 can easily extract the feature amount, and the feature amount can be extracted with high accuracy.

実施の形態2.
上記実施の形態1では、レジストレーション演算部5が、算出元である特徴量の種類が同じであるブロック単位の位置ずれ量から画像単位の位置ずれ量をそれぞれ算出して、複数の画像単位の位置ずれ量の中から、1つの位置ずれ量を選択し、1つの位置ずれ量を用いて、画像Aと画像Bの位置合わせを行うものを示したが、各々の特徴量を用いて算出されたブロック間の位置ずれ量の中から、ブロック単位に1つの位置ずれ量を選択して、その選択したブロック単位の位置ずれ量から画像単位の位置ずれ量を算出し、画像単位の位置ずれ量を用いて、画像Aと画像Bの位置合わせを行うようにしてもよい。
Embodiment 2. FIG.
In the first embodiment, the registration calculation unit 5 calculates the image unit misregistration amount from the block unit misregistration amount that has the same type of feature quantity as the calculation source, and obtains a plurality of image unit misregistration values. Although one misregistration amount is selected from the misregistration amounts and the position of image A and image B is aligned using one misregistration amount, it is calculated using each feature amount. One positional deviation amount is selected for each block from among the positional deviation amounts between the blocks, and the positional deviation amount for each image is calculated from the selected positional deviation amount for each block. May be used to align the images A and B.

図7はこの発明の実施の形態2による画像位置合わせ装置を示す構成図であり、図において、図1と同一符号は同一または相当部分を示すので説明を省略する。
レジストレーション演算部6は図1のレジストレーション演算部5と同様に、位置ずれ量算出部4により各々の特徴量を用いて算出されたブロック間の位置ずれ量を用いて、画像Aと画像Bのレジストレーションを実施する。
ただし、レジストレーション演算部6は図1のレジストレーション演算部5と異なり、位置ずれ量算出部4により各々の特徴量を用いて算出されたブロック間の位置ずれ量の中から、ブロック単位に1つの位置ずれ量を選択し、その選択したブロック単位の位置ずれ量から画像単位の位置ずれ量を算出し、画像単位の位置ずれ量を用いて、画像Aと画像Bのレジストレーションを実施する。
なお、レジストレーション演算部6は位置合わせ手段を構成している。
FIG. 7 is a block diagram showing an image alignment apparatus according to Embodiment 2 of the present invention. In the figure, the same reference numerals as those in FIG.
Similar to the registration calculation unit 5 in FIG. 1, the registration calculation unit 6 uses the positional deviation amounts between the blocks calculated by the positional deviation amount calculation unit 4 using the respective feature amounts, and uses the image A and the image B. Perform the registration.
However, the registration calculation unit 6 is different from the registration calculation unit 5 in FIG. 1 from among the positional shift amounts between blocks calculated by the positional shift amount calculation unit 4 using the respective feature amounts, and 1 for each block. One misregistration amount is selected, the misregistration amount for each image is calculated from the misregistration amount for each selected block, and registration of images A and B is performed using the misregistration amount for each image unit.
The registration calculation unit 6 constitutes an alignment unit.

図7の例では、画像位置合わせ装置の構成要素である画像調整処理部1、特徴量抽出部2、ブロック分割部3、位置ずれ量算出部4及びレジストレーション演算部6のそれぞれが専用のハードウェア(例えば、CPUを実装している半導体集積回路、あるいは、ワンチップマイコンなど)で構成されているものを想定しているが、画像位置合わせ装置がコンピュータで構成されていてもよい。
画像位置合わせ装置がコンピュータで構成されている場合、画像調整処理部1、特徴量抽出部2、ブロック分割部3、位置ずれ量算出部4及びレジストレーション演算部6の処理内容を記述しているプログラムをコンピュータのメモリに格納し、当該コンピュータのCPUが当該メモリに格納されているプログラムを実行するようにすればよい。
In the example of FIG. 7, each of the image adjustment processing unit 1, the feature amount extraction unit 2, the block division unit 3, the positional deviation amount calculation unit 4, and the registration calculation unit 6, which are components of the image registration apparatus, is dedicated hardware. Although hardware (for example, a semiconductor integrated circuit on which a CPU is mounted or a one-chip microcomputer) is assumed, the image alignment apparatus may be configured with a computer.
When the image alignment apparatus is configured by a computer, the processing contents of the image adjustment processing unit 1, the feature amount extraction unit 2, the block division unit 3, the positional deviation amount calculation unit 4 and the registration calculation unit 6 are described. The program may be stored in the memory of the computer, and the CPU of the computer may execute the program stored in the memory.

次に動作について説明する。
上記実施の形態1と比べて、レジストレーション演算部6がレジストレーション演算部5の代わりに搭載されている点以外は同じであるため、ここでは、レジストレーション演算部6以外の処理内容は割愛する。
Next, the operation will be described.
Compared to the first embodiment, since the registration calculation unit 6 is the same except that it is mounted instead of the registration calculation unit 5, the processing contents other than the registration calculation unit 6 are omitted here. .

レジストレーション演算部6は、位置ずれ量算出部4が、各々の特徴量を用いて、(g,h)ブロックAと(g,h)ブロックBの位置ずれ量を算出すると、(g,h)ブロックAと(g,h)ブロックBの位置ずれ量を用いて、画像Aと画像Bのレジストレーションを実施する。
以下、レジストレーション演算部6による画像Aと画像Bのレジストレーションを具体的に説明する。
When the positional deviation amount calculation unit 4 calculates the positional deviation amounts of the (g, h) block A and the (g, h) block B using the respective feature amounts, the registration calculation unit 6 (g, h ) Registration of the image A and the image B is performed using the amount of positional deviation between the block A and the block (g, h).
Hereinafter, the registration of the image A and the image B by the registration calculation unit 6 will be specifically described.

レジストレーション演算部6は、位置ずれ量算出部4が、各々の特徴量を用いて、(g,h)ブロックAと(g,h)ブロックBの位置ずれ量を算出すると、対応するブロック毎に、算出された複数の位置ずれ量の中から、1つの位置ずれ量を選択する。
特徴量抽出部2により抽出された特徴量が、例えば、コーナー点と濃淡値の2種類であれば、コーナー点(特徴量)を用いて算出された(g,h)ブロックAと(g,h)ブロックBの位置ずれ量と、濃淡値(特徴量)を用いて算出された(g,h)ブロックAと(g,h)ブロックBの位置ずれ量との中から、1つの位置ずれ量を選択する。
When the positional deviation amount calculation unit 4 calculates the positional deviation amounts of the (g, h) block A and the (g, h) block B using the respective feature amounts, the registration calculation unit 6 Then, one misregistration amount is selected from the calculated misregistration amounts.
If the feature quantity extracted by the feature quantity extraction unit 2 is, for example, two types of corner points and gray values, the (g, h) block A and (g, h) calculated using the corner points (feature quantities) are used. h) One positional deviation from among the positional deviation amount of block B and the positional deviation amounts of (g, h) block A and (g, h) block B calculated using the gray value (feature value). Select the amount.

1つの位置ずれ量の選択は、画像A,Bの特徴に基づいて行うことができる。
例えば、各々の特徴量を用いて算出された相関値を比較し、相関値が高い方の特徴量を用いて算出された位置ずれ量を選択する方法などが考えられる。
具体的には、特徴量抽出部2により抽出された特徴量が、例えば、エッジと濃淡値の2種類であれば、(g,h)ブロックA,Bに存在しているエッジの数が所定の閾値より多い場合、エッジ(特徴量)を用いて算出された位置ずれ量を選択し、(g,h)ブロックA,Bに存在しているエッジの数が所定の閾値より少ない場合、濃淡値(特徴量)を用いて算出された位置ずれ量を選択する。
また、複数の位置ずれ量の中で、最も小さい位置ずれ量を選択するようにしてもよい。
なお、対応するブロック毎に、1つの位置ずれ量を選択する方式の場合、画像A及び画像BがG×Hのブロックに分割されていれば、ブロック数がG×H個ずつあるので、全部でG×H個の位置ずれ量が選択されることになる。
Selection of one displacement amount can be performed based on the characteristics of the images A and B.
For example, a method of comparing the correlation values calculated using the respective feature amounts and selecting a displacement amount calculated using the feature amount having the higher correlation value may be considered.
Specifically, if there are two types of feature values extracted by the feature value extraction unit 2, for example, an edge and a gray value, the number of edges existing in (g, h) blocks A and B is predetermined. If the number of edges is larger than the threshold value, the position shift amount calculated using the edge (feature amount) is selected. If (g, h) the number of edges existing in the blocks A and B is less than the predetermined threshold value, the gray level A position shift amount calculated using a value (feature amount) is selected.
Also, the smallest positional deviation amount may be selected from among a plurality of positional deviation amounts.
In the case of a method of selecting one positional deviation amount for each corresponding block, if the image A and the image B are divided into G × H blocks, the number of blocks is G × H. Thus, G × H position shift amounts are selected.

レジストレーション演算部6は、対応するブロック毎に、1つの位置ずれ量を選択すると、G×H個のブロック単位の位置ずれ量から画像単位の位置ずれ量を算出する。
ブロック単位の位置ずれ量から画像単位の位置ずれ量を算出する方法としては、G×H個の位置ずれ量の平均値や中央値などを、画像単位の位置ずれ量として算出する方法などが考えられる。
When one registration error amount is selected for each corresponding block, the registration calculation unit 6 calculates a registration error amount in image units from the GxH block error amounts.
As a method of calculating the image unit displacement amount from the block unit displacement amount, a method of calculating the average value or median value of the G × H displacement amounts as the image unit displacement amount is considered. It is done.

レジストレーション演算部6は、画像単位の位置ずれ量を算出すると、図1のレジストレーション演算部5と同様に、その位置ずれ量を用いて、アフィン変換の変換係数を算出する。
レジストレーション演算部6は、アフィン変換の変換係数を算出すると、その変換係数を画像Bに乗じることで、画像Bの位置を画像Aの位置に合わせるレジストレーションを実施する。
レジストレーション演算部6は、位置合わせ後の画像Bを示す画像データを出力する。
When the registration calculation unit 6 calculates the positional deviation amount for each image, the registration calculation unit 6 calculates the conversion coefficient of the affine transformation by using the positional deviation amount as in the registration calculation unit 5 of FIG.
When the registration calculation unit 6 calculates the conversion coefficient of the affine transformation, the registration calculation unit 6 multiplies the image B by the conversion coefficient to perform registration that matches the position of the image B with the position of the image A.
The registration calculation unit 6 outputs image data indicating the image B after alignment.

以上で明らかなように、この実施の形態2によれば、位置ずれ量算出部4により各々の特徴量を用いて算出されたブロック間の位置ずれ量の中から、ブロック単位に1つの位置ずれ量を選択し、その選択したブロック単位の位置ずれ量から画像単位の位置ずれ量を算出し、画像単位の位置ずれ量を用いて、画像Aと画像Bのレジストレーションを実施するように構成したので、位置ずれ量がブロック単位に適応的に選択されるようになり、その結果、上記実施の形態1よりも更に、高精度なレジストレーション結果が得られる効果を奏する。   As can be seen from the above, according to the second embodiment, one positional deviation per block is selected from among the positional deviation amounts between blocks calculated by the positional deviation amount calculation unit 4 using the respective feature amounts. An amount of image is selected, a position shift amount for each image is calculated from the position shift amount for the selected block, and registration of images A and B is performed using the position shift amount for each image unit. Therefore, the positional deviation amount is adaptively selected in units of blocks, and as a result, there is an effect that a more accurate registration result can be obtained than in the first embodiment.

なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。   In the present invention, within the scope of the invention, any combination of the embodiments, or any modification of any component in each embodiment, or omission of any component in each embodiment is possible. .

1 画像調整処理部(画像調整処理手段)、2 特徴量抽出部(特徴量抽出手段)、3 ブロック分割部(ブロック分割手段)、4 位置ずれ量算出部(位置ずれ量算出手段)、5,6 レジストレーション演算部(位置合わせ手段)。   DESCRIPTION OF SYMBOLS 1 Image adjustment process part (image adjustment process means) 2 Feature amount extraction part (feature amount extraction means) 3 Block division part (block division means) 4 Position shift amount calculation part (position shift amount calculation means), 5, 6 Registration calculation unit (positioning means).

Claims (8)

第1の画像及び第2の画像から種類が異なる複数の特徴量を抽出する特徴量抽出手段と、上記特徴量抽出手段により抽出された各々の特徴量を用いて、上記第1の画像と上記第2の画像間の位置ずれ量を算出する位置ずれ量算出手段と、上記位置ずれ量算出手段により算出された位置ずれ量を用いて、上記第1の画像と上記第2の画像の位置合わせを行う位置合わせ手段とを備えた画像位置合わせ装置。   Feature amount extraction means for extracting a plurality of feature amounts of different types from the first image and the second image, and using the feature amounts extracted by the feature amount extraction means, the first image and the above Using the positional deviation amount calculation means for calculating the positional deviation amount between the second images and the positional deviation amount calculated by the positional deviation amount calculation means, the first image and the second image are aligned. An image alignment apparatus comprising: alignment means for performing 第1の画像及び第2の画像を複数のブロックに分割するブロック分割手段を備え、
位置ずれ量算出手段は、特徴量抽出手段により抽出された各々の特徴量を用いて、上記ブロック分割手段により分割された第1の画像のブロックと第2の画像のブロックの中で、対応関係があるブロック間の位置ずれ量を算出し、
位置合わせ手段は、上記位置ずれ量算出手段により算出されたブロック毎の位置ずれ量のうち、算出元である特徴量の種類が同じであるブロック単位の位置ずれ量から画像単位の位置ずれ量をそれぞれ算出し、複数の画像単位の位置ずれ量の中の1つの位置ずれ量を用いて、上記第1の画像と上記第2の画像の位置合わせを行うことを特徴とする請求項1記載の画像位置合わせ装置。
Block dividing means for dividing the first image and the second image into a plurality of blocks;
The misregistration amount calculation means uses the respective feature amounts extracted by the feature amount extraction means, and uses a correspondence relationship between the block of the first image and the block of the second image divided by the block division means. Calculates the amount of misalignment between blocks,
The alignment unit calculates the positional deviation amount of each image from the positional deviation amount of the block unit having the same type of feature amount as the calculation source among the positional deviation amounts of each block calculated by the positional deviation amount calculation unit. The position of the first image and that of the second image are respectively calculated using one position shift amount among the plurality of image unit position shift amounts. Image alignment device.
第1の画像及び第2の画像を複数のブロックに分割するブロック分割手段を備え、
位置ずれ量算出手段は、特徴量抽出手段により抽出された各々の特徴量を用いて、上記ブロック分割手段により分割された第1の画像のブロックと第2の画像のブロックの中で、対応関係があるブロック間の位置ずれ量を算出し、
位置合わせ手段は、上記位置ずれ量算出手段により各々の特徴量を用いて算出されたブロック間の位置ずれ量の中から、ブロック単位に1つの位置ずれ量を選択し、その選択したブロック単位の位置ずれ量から画像単位の位置ずれ量を算出し、画像単位の位置ずれ量を用いて、上記第1の画像と上記第2の画像の位置合わせを行うことを特徴とする請求項1記載の画像位置合わせ装置。
Block dividing means for dividing the first image and the second image into a plurality of blocks;
The misregistration amount calculation means uses the respective feature amounts extracted by the feature amount extraction means, and uses a correspondence relationship between the block of the first image and the block of the second image divided by the block division means. Calculates the amount of misalignment between blocks,
The alignment means selects one positional deviation amount for each block from among the positional deviation amounts between the blocks calculated using the respective feature amounts by the positional deviation amount calculation means, and selects the selected block unit. The position shift amount for each image is calculated from the position shift amount, and the first image and the second image are aligned using the position shift amount for each image. Image alignment device.
位置ずれ量算出手段は、第1の画像のブロックに対応する第2の画像のブロックを画素単位に移動しながら、対応関係があるブロック間の相関値を算出し、その相関値が最高になるブロックの移動位置から、対応関係があるブロック間の位置ずれ量を算出することを特徴とする請求項2または請求項3記載の画像位置合わせ装置。   The misregistration amount calculation means calculates a correlation value between blocks having a corresponding relationship while moving the second image block corresponding to the first image block in units of pixels, and the correlation value becomes the highest. 4. The image alignment apparatus according to claim 2, wherein a displacement amount between blocks having a correspondence relationship is calculated from the movement position of the block. 第1の画像及び第2の画像に対する画像調整処理を実施し、調整処理後の第1の画像及び第2の画像を特徴量抽出手段に出力する画像調整処理手段を設けたことを特徴とする請求項1から請求項4のうちのいずれか1項記載の画像位置合わせ装置。   Image adjustment processing means for performing image adjustment processing on the first image and the second image and outputting the adjusted first image and second image to the feature amount extraction means is provided. The image alignment apparatus according to any one of claims 1 to 4. 特徴量抽出手段が、第1の画像及び第2の画像から種類が異なる複数の特徴量を抽出する特徴量抽出処理ステップと、位置ずれ量算出手段が、上記特徴量抽出処理ステップで抽出された各々の特徴量を用いて、上記第1の画像と上記第2の画像間の位置ずれ量を算出する位置ずれ量算出処理ステップと、位置合わせ手段が、上記位置ずれ量算出処理ステップで算出された位置ずれ量を用いて、上記第1の画像と上記第2の画像の位置合わせを行う位置合わせ処理ステップとを備えた画像位置合わせ方法。   The feature amount extraction unit extracts a plurality of feature amounts of different types from the first image and the second image, and the positional deviation amount calculation unit is extracted in the feature amount extraction processing step. A misregistration amount calculation processing step for calculating a misregistration amount between the first image and the second image using each feature amount, and an alignment unit are calculated in the misregistration amount calculation processing step. An image alignment method comprising: an alignment processing step for aligning the first image and the second image using the misregistration amount. ブロック分割手段が、第1の画像及び第2の画像を複数のブロックに分割するブロック分割処理ステップを備え、
位置ずれ量算出処理ステップでは、特徴量抽出処理ステップで抽出された各々の特徴量を用いて、上記ブロック分割処理ステップで分割された第1の画像のブロックと第2の画像のブロックの中で、対応関係があるブロック間の位置ずれ量を算出し、
位置合わせ処理ステップでは、上記位置ずれ量算出処理ステップで算出されたブロック毎の位置ずれ量のうち、算出元である特徴量の種類が同じであるブロック単位の位置ずれ量から画像単位の位置ずれ量をそれぞれ算出し、複数の画像単位の位置ずれ量の中の1つの位置ずれ量を用いて、上記第1の画像と上記第2の画像の位置合わせを行うことを特徴とする請求項6記載の画像位置合わせ方法。
The block dividing means includes a block division processing step for dividing the first image and the second image into a plurality of blocks,
In the misregistration amount calculation processing step, using the feature amounts extracted in the feature amount extraction processing step, the first image block and the second image block divided in the block division processing step are used. , Calculate the amount of misalignment between blocks that have a correspondence,
In the alignment processing step, out of the positional deviation amounts for each block calculated in the positional deviation amount calculation processing step, the positional deviation in image units is calculated from the positional deviation amount in blocks in which the type of the feature quantity as the calculation source is the same. The amount of each is calculated, and the first image and the second image are aligned using one position shift amount among a plurality of image unit position shift amounts. The image alignment method described.
ブロック分割手段が、第1の画像及び第2の画像を複数のブロックに分割するブロック分割処理ステップを備え、
位置ずれ量算出処理ステップでは、特徴量抽出処理ステップで抽出された各々の特徴量を用いて、上記ブロック分割処理ステップで分割された第1の画像のブロックと第2の画像のブロックの中で、対応関係があるブロック間の位置ずれ量を算出し、
位置合わせ処理ステップでは、上記位置ずれ量算出処理ステップで各々の特徴量を用いて算出されたブロック間の位置ずれ量の中から、ブロック単位に1つの位置ずれ量を選択し、その選択したブロック単位の位置ずれ量から画像単位の位置ずれ量を算出し、画像単位の位置ずれ量を用いて、上記第1の画像と上記第2の画像の位置合わせを行うことを特徴とする請求項6記載の画像位置合わせ方法。
The block dividing means includes a block division processing step for dividing the first image and the second image into a plurality of blocks,
In the misregistration amount calculation processing step, using the feature amounts extracted in the feature amount extraction processing step, the first image block and the second image block divided in the block division processing step are used. , Calculate the amount of misalignment between blocks that have a correspondence,
In the alignment processing step, one positional deviation amount is selected for each block from among the positional deviation amounts between blocks calculated using the respective feature amounts in the positional deviation amount calculation processing step, and the selected block 7. The positional deviation amount in units of images is calculated from the positional deviation amount in units, and the first image and the second image are aligned using the positional deviation amount in units of images. The image alignment method described.
JP2012038699A 2012-02-24 2012-02-24 Image registration device and image registration method Active JP5907755B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012038699A JP5907755B2 (en) 2012-02-24 2012-02-24 Image registration device and image registration method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012038699A JP5907755B2 (en) 2012-02-24 2012-02-24 Image registration device and image registration method

Publications (2)

Publication Number Publication Date
JP2013175023A true JP2013175023A (en) 2013-09-05
JP5907755B2 JP5907755B2 (en) 2016-04-26

Family

ID=49267876

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012038699A Active JP5907755B2 (en) 2012-02-24 2012-02-24 Image registration device and image registration method

Country Status (1)

Country Link
JP (1) JP5907755B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017520050A (en) * 2014-06-19 2017-07-20 クアルコム,インコーポレイテッド Local adaptive histogram flattening

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11242737A (en) * 1998-02-26 1999-09-07 Ricoh Co Ltd Method for processing picture and device therefor and information recording medium
JPH11345315A (en) * 1998-06-01 1999-12-14 Nec Corp Picture aligning method and device therefor, and recording medium
JP2007041752A (en) * 2005-08-02 2007-02-15 Casio Comput Co Ltd Image processor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11242737A (en) * 1998-02-26 1999-09-07 Ricoh Co Ltd Method for processing picture and device therefor and information recording medium
JPH11345315A (en) * 1998-06-01 1999-12-14 Nec Corp Picture aligning method and device therefor, and recording medium
JP2007041752A (en) * 2005-08-02 2007-02-15 Casio Comput Co Ltd Image processor

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017520050A (en) * 2014-06-19 2017-07-20 クアルコム,インコーポレイテッド Local adaptive histogram flattening

Also Published As

Publication number Publication date
JP5907755B2 (en) 2016-04-26

Similar Documents

Publication Publication Date Title
JP6115781B2 (en) Image processing apparatus and image processing method
Lin et al. Image enhancement using the averaging histogram equalization (AVHEQ) approach for contrast improvement and brightness preservation
US10726539B2 (en) Image processing apparatus, image processing method and storage medium
JP5082637B2 (en) Image processing program, image processing method, and image processing apparatus
CN105976328B (en) Image noise reduction
TWI538506B (en) Image processing apparatus, information processing method and computer-readble storage medium
KR20150116833A (en) Image processor with edge-preserving noise suppression functionality
CN105976327B (en) Method for transforming a first image, processing module and storage medium
JP2012208553A (en) Image processing device, image processing method, and program
JPWO2008102898A1 (en) Image quality improvement processing apparatus, image quality improvement processing method, and image quality improvement processing program
JP2015062270A (en) Image processing apparatus
JP6388507B2 (en) Image processing device
JP2019106173A (en) Image processing method, image processing apparatus and program
JP5907755B2 (en) Image registration device and image registration method
US8971627B2 (en) Template matching processing device and template matching processing program
US11164286B2 (en) Image processing apparatus, image processing method, and storage medium
CN102158730B (en) Image processing system and method
WO2016051716A1 (en) Image processing method, image processing device, and recording medium for storing image processing program
JP5928465B2 (en) Degradation restoration system, degradation restoration method and program
JP5562812B2 (en) Transmission / reception switching circuit, radio apparatus, and transmission / reception switching method
KR101796551B1 (en) Speedy calculation method and system of depth information strong against variable illumination
Min et al. Out-of-focus image deblurring for mobile display vision inspection
JP2015185978A (en) Digital watermark embedding device and digital watermark embedding program and digital watermark detector and digital watermark detection program
WO2019116975A1 (en) Image processing method, image processing device, and program
Gadermayr et al. Barrel-type distortion compensated fourier feature extraction

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141104

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150714

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160223

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160322

R150 Certificate of patent or registration of utility model

Ref document number: 5907755

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250