JP2013175023A - Image positioning device and image positioning method - Google Patents
Image positioning device and image positioning method Download PDFInfo
- Publication number
- JP2013175023A JP2013175023A JP2012038699A JP2012038699A JP2013175023A JP 2013175023 A JP2013175023 A JP 2013175023A JP 2012038699 A JP2012038699 A JP 2012038699A JP 2012038699 A JP2012038699 A JP 2012038699A JP 2013175023 A JP2013175023 A JP 2013175023A
- Authority
- JP
- Japan
- Prior art keywords
- image
- amount
- block
- positional deviation
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
この発明は、2つの画像の位置合わせを行う画像位置合わせ装置及び画像位置合わせ方法に関するものである。 The present invention relates to an image alignment apparatus and an image alignment method for aligning two images.
2つの画像の位置合わせを行う画像位置合わせ装置では、一般的に、2つの画像の濃淡画像を用いて、ブロックマッチング処理を実施することで、2つの画像間の位置ずれ量を算出し、その位置ずれ量を用いて、レジストレーション(画像の位置合わせ)を行う方法を採用している。
近年では、画像のエッジ情報を用いて、マッチング処理を実施することで、2つの画像間の位置ずれ量を算出する方法も提案されている。
In an image alignment apparatus that aligns two images, in general, a block matching process is performed using a grayscale image of the two images to calculate a positional deviation amount between the two images. A method of performing registration (image alignment) using the amount of displacement is employed.
In recent years, a method has been proposed in which the amount of positional deviation between two images is calculated by performing matching processing using edge information of the images.
以下の特許文献1には、ラプラシアンフィルタを用いて画像のエッジを抽出し、画像のエッジを用いて、テンプレートマッチングを実施して、レジストレーションする方法が記載されている。
また、以下の特許文献2には、画像を小領域に分割して、小領域の分散やエッジ量を求め、その分散やエッジ量を用いて、マッチング処理を実施して、レジストレーションする方法が記載されている。
Japanese Patent Application Laid-Open No. 2004-228561 describes a method of registering by extracting an edge of an image using a Laplacian filter and performing template matching using the edge of the image.
従来の画像位置合わせ装置は以上のように構成されているので、濃淡画像を用いて、ブロックマッチング処理を実施する場合、多くのエッジが存在しているブロックでは、良好なマッチング結果が得られるが、エッジが少ないブロックでは、良好なマッチング結果が得られない。このため、エッジが少ないブロックでは、レジストレーションの精度が劣化してしまう課題があった。 Since the conventional image alignment apparatus is configured as described above, when performing block matching processing using a grayscale image, a good matching result can be obtained in a block having many edges. In a block with few edges, a good matching result cannot be obtained. For this reason, there is a problem that the accuracy of registration deteriorates in a block with few edges.
この発明は上記のような課題を解決するためになされたもので、エッジの有無にかかわらず、高精度なレジストレーション結果を得ることができる画像位置合わせ装置及び画像位置合わせ方法を得ることを目的とする。 The present invention has been made to solve the above-described problems, and an object thereof is to provide an image alignment apparatus and an image alignment method capable of obtaining a highly accurate registration result regardless of the presence or absence of an edge. And
この発明に係る画像位置合わせ装置は、第1の画像及び第2の画像から種類が異なる複数の特徴量を抽出する特徴量抽出手段と、特徴量抽出手段により抽出された各々の特徴量を用いて、第1の画像と第2の画像間の位置ずれ量を算出する位置ずれ量算出手段とを設け、位置合わせ手段が、位置ずれ量算出手段により算出された位置ずれ量を用いて、第1の画像と第2の画像の位置合わせを行うようにしたものである。 The image alignment apparatus according to the present invention uses a feature amount extraction unit that extracts a plurality of different types of feature amounts from the first image and the second image, and uses each feature amount extracted by the feature amount extraction unit. And a misregistration amount calculating means for calculating a misregistration amount between the first image and the second image, and the alignment means uses the misregistration amount calculated by the misregistration amount calculation means to The first image and the second image are aligned.
この発明によれば、第1の画像及び第2の画像から種類が異なる複数の特徴量を抽出する特徴量抽出手段と、特徴量抽出手段により抽出された各々の特徴量を用いて、第1の画像と第2の画像間の位置ずれ量を算出する位置ずれ量算出手段とを設け、位置合わせ手段が、位置ずれ量算出手段により算出された位置ずれ量を用いて、第1の画像と第2の画像の位置合わせを行うように構成したので、エッジの有無にかかわらず、高精度なレジストレーション結果を得ることができる効果がある。 According to the present invention, the feature amount extraction means for extracting a plurality of feature amounts of different types from the first image and the second image, and the feature amounts extracted by the feature amount extraction means, A positional deviation amount calculating means for calculating a positional deviation amount between the first image and the second image, and the alignment means uses the positional deviation amount calculated by the positional deviation amount calculating means to Since the second image is aligned, there is an effect that a highly accurate registration result can be obtained regardless of the presence or absence of an edge.
実施の形態1.
図1はこの発明の実施の形態1による画像位置合わせ装置を示す構成図である。
図1において、画像調整処理部1は画像A(第1の画像)を示す画像データと、画像B(第2の画像)を示す画像データを入力すると、後段の特徴量抽出部2における特徴量抽出処理の容易化を図るための前処理として、画像A及び画像Bに対する画像調整処理(例えば、ヒストグラム補正処理、画像の周波数調整処理など)を実施する。なお、画像調整処理部1は画像調整処理手段を構成している。
FIG. 1 is a block diagram showing an image alignment apparatus according to
In FIG. 1, when an image
特徴量抽出部2は画像調整処理部1による調整処理後の画像A及び画像Bから種類が異なる複数の特徴量(例えば、エッジ、特徴点(例えば、コーナー点、強度の極大点・極小点、曲線の終点、曲率の極大点、孤立点)など)を抽出する処理を実施する。なお、特徴量抽出部2は特徴量抽出手段を構成している。
ブロック分割部3は画像A及び画像Bを複数のブロックに分割する処理を実施する。なお、ブロック分割部3はブロック分割手段を構成している。
The feature
The block dividing
位置ずれ量算出部4は特徴量抽出部2により抽出された各々の特徴量を用いて、ブロック分割部3により分割された画像Aのブロックと画像Bのブロックの中で、対応関係があるブロック間の位置ずれ量を算出する処理を実施する。
即ち、位置ずれ量算出部4は画像Aのブロックに対応する画像Bのブロックを画素単位に移動しながら、対応関係があるブロック間の相関値を算出し、その相関値が最高になるブロックの移動位置から、対応関係があるブロック間の位置ずれ量を算出する。
なお、位置ずれ量算出部4は位置ずれ量算出手段を構成している。
The misregistration
That is, the positional deviation
The misregistration
レジストレーション演算部5は位置ずれ量算出部4により各々の特徴量を用いて算出されたブロック間の位置ずれ量を用いて、画像Aと画像Bのレジストレーションを実施する。
即ち、レジストレーション演算部5は位置ずれ量算出部4により算出されたブロック毎の位置ずれ量のうち、算出元である特徴量の種類が同じであるブロック単位の位置ずれ量から画像単位の位置ずれ量をそれぞれ算出し、複数の画像単位の位置ずれ量の中の1つの位置ずれ量を用いて、画像Aと画像Bのレジストレーションを実施する。
なお、レジストレーション演算部5は位置合わせ手段を構成している。
The registration calculation unit 5 performs registration of the image A and the image B by using the amount of positional deviation between blocks calculated by the positional deviation
In other words, the registration calculation unit 5 calculates the position of the image unit from the positional deviation amount of the block unit of the same type of feature quantity as the calculation source among the positional deviation amounts of each block calculated by the positional deviation
The registration calculation unit 5 constitutes an alignment unit.
図1の例では、画像位置合わせ装置の構成要素である画像調整処理部1、特徴量抽出部2、ブロック分割部3、位置ずれ量算出部4及びレジストレーション演算部5のそれぞれが専用のハードウェア(例えば、CPUを実装している半導体集積回路、あるいは、ワンチップマイコンなど)で構成されているものを想定しているが、画像位置合わせ装置がコンピュータで構成されていてもよい。
画像位置合わせ装置がコンピュータで構成されている場合、画像調整処理部1、特徴量抽出部2、ブロック分割部3、位置ずれ量算出部4及びレジストレーション演算部5の処理内容を記述しているプログラムをコンピュータのメモリに格納し、当該コンピュータのCPUが当該メモリに格納されているプログラムを実行するようにすればよい。
図2はこの発明の実施の形態1による画像位置合わせ装置の処理内容(画像位置合わせ方法)を示すフローチャートである。
In the example of FIG. 1, each of the image
When the image alignment apparatus is configured by a computer, the processing contents of the image
FIG. 2 is a flowchart showing the processing contents (image registration method) of the image registration apparatus according to
次に動作について説明する。
画像調整処理部1は、画像Aを示す画像データと、画像Bを示す画像データとを入力すると、特徴量抽出部2における特徴量抽出処理の容易化を図るための前処理として、画像A及び画像Bに対する画像調整処理を実施する(ステップST1)。
即ち、画像調整処理部1は、画像A及び画像Bを構成している各画素の信号レベルのヒストグラムをとり、例えば、画像のレベル補正、平坦化、コントラスト補正や周波数調整などを行う。
Next, the operation will be described.
When the image
That is, the image
ここで、画像のレベル補正は、画像の信号レベルを調整する処理であり、図3はレベル補正の処理例を示す説明図である。
画像のレベル補正は、例えば、画像A(画像B)を構成している各画素の信号レベルiの中で、最大の信号レベルがimaxであるとき、最大の信号レベルimaxが、入力画像を構成する画素の信号が取り得る最大値Smaxに満たない場合(imax<Smax)、画像A(画像B)を構成している全ての画素の信号レベルiをSmax/imax倍して、画像A(画像B)における信号最大値imaxが、信号が取り得る最大値Smaxと一致するように調整するものである。
なお、入力画像が8bit画像の場合、入力画像を構成する画素の信号が取り得る最大値Smaxは255である。
Here, the image level correction is a process of adjusting the signal level of the image, and FIG. 3 is an explanatory diagram showing an example of the level correction process.
For example, when the maximum signal level is i max among the signal levels i of the pixels constituting the image A (image B), the maximum signal level i max is set to the input image. Is less than the maximum value S max that can be taken by the signal of the pixels constituting the pixel (i max <S max ), the signal levels i of all the pixels constituting the image A (image B) are multiplied by S max / i max Thus, the maximum signal value i max in the image A (image B) is adjusted so as to coincide with the maximum value S max that the signal can take.
When the input image is an 8-bit image, the maximum value S max that can be taken by a pixel signal constituting the input image is 255.
画像の平坦化は、振幅のあるヒストグラムを平坦にする処理であり、図4は平坦化の処理例を示す説明図である。
画像の平坦化を行う場合、一般的には、下記の式(1)が適用される。
式(1)において、iは画像A(画像B)を構成している各画素の信号レベルであり、hist(i)は信号レベルiのヒストグラムを求める関数、Hは画像A(画像B)の縦サイズ、Wは画像A(画像B)の横サイズである。
Image flattening is a process of flattening a histogram having amplitude, and FIG. 4 is an explanatory diagram showing an example of the flattening process.
When flattening an image, the following formula (1) is generally applied.
In Expression (1), i is a signal level of each pixel constituting the image A (image B), hist (i) is a function for obtaining a histogram of the signal level i, and H is an image A (image B). The vertical size W is the horizontal size of the image A (image B).
しかし、単純なヒストグラムの平坦化では、画像のレベル分布に偏りがある場合、コントラストが強い画像に変換されてしまうことがある。
そこで、このような現象を避けるために、重み付けを施したヒストグラムの平坦化を行うようにしてもよい。
下記の式(2)は重み付けを施したヒストグラムの平坦化の式を示している。
式(2)において、LUT(i)はヒストグラムのレベルに応じた重み付け係数であり、総和が1となるように設定されている。
However, simple flattening of the histogram may be converted into an image with high contrast if the level distribution of the image is biased.
Therefore, in order to avoid such a phenomenon, the weighted histogram may be flattened.
Equation (2) below shows an equation for weighted histogram flattening.
In Equation (2), LUT (i) is a weighting coefficient corresponding to the level of the histogram, and is set so that the sum is 1.
画像のコントラスト補正は、ルックアップテーブル(LUT)を用いて、画像の信号レベルを補正する処理であり、図5はコントラスト補正の処理例を示す説明図である。
画像のコントラスト補正では、単純にコントラストを強めたり、コントラストを弱めたりすることもできるが、次のような処理を行うようにしてもよい。
例えば、画像A(画像B)のヒストグラムのピーク値を求め、そのピーク値が所定の値(例えば、入力画像を構成する画素の信号が取り得る最大値の半分の値)より小さい場合と、そのピーク値が所定の値より大きい場合とで、異なるレベル伸張を行うようにしてもよい。
Image contrast correction is a process of correcting the signal level of an image using a look-up table (LUT), and FIG. 5 is an explanatory diagram showing an example of a contrast correction process.
In contrast correction of an image, the contrast can be simply increased or decreased, but the following processing may be performed.
For example, when the peak value of the histogram of the image A (image B) is obtained and the peak value is smaller than a predetermined value (for example, a value that is half of the maximum value that can be taken by the pixel signal constituting the input image) Different level expansion may be performed when the peak value is larger than a predetermined value.
画像の周波数調整は、目的に応じて周波数をカットする処理である。
画像の周波数調整は、画像Aと画像Bの解像度が異なる場合、両方の解像度を合わせるために解像度の高い方の画像に対して、低周波カット処理を行うものである。
周波数調整の処理としては、n×nのローパスフィルタ処理を行うようにしてもよいし、フーリエ変換(FFT)による低周波カット処理を行うようにしてもよい。
The frequency adjustment of the image is a process of cutting the frequency according to the purpose.
In the frequency adjustment of the image, when the resolutions of the image A and the image B are different, a low-frequency cut process is performed on the image having the higher resolution in order to match both the resolutions.
As frequency adjustment processing, n × n low-pass filter processing may be performed, or low-frequency cut processing by Fourier transform (FFT) may be performed.
特徴量抽出部2は、画像調整処理部1が画像A及び画像Bに対する画像調整処理を実施すると、調整処理後の画像A及び画像Bから種類が異なる複数の特徴量を抽出する(ステップST2)。
特徴量の抽出処理としては、例えば、画像のエッジを特徴量として抽出する処理や、画像の特徴点(例えば、コーナー点、強度の極大点・極小点、曲線の終点、曲率の極大点、孤立点など)を特徴量として抽出する処理などが想定される。
When the image
As the feature amount extraction processing, for example, processing for extracting image edges as feature amounts, image feature points (for example, corner points, intensity maximum / minimum points, curve end points, curvature maximum points, isolated points) A process of extracting a point etc.) as a feature amount is assumed.
ここで、画像A(画像B)のエッジを特徴量として抽出する処理について説明する。
一般的なエッジ抽出方法として、n×nのSobelフィルタを用いる方法がある。
n×nのSobelフィルタを用いて、エッジを抽出する際の演算式は、下記の式(3)のように表される。
式(3)において、fx(x,y)は注目画素(x,y)に対する水平方向のフィルタ演算を行う関数を示し、fy(x,y)は注目画素(x,y)に対する垂直方向のフィルタ演算を行う関数を示している。
また、fx(x,y)、fy(x,y)には、画像調整処理部1による調整処理後の信号レベルが代入される。
f’(x,y)は注目画素(x,y)におけるエッジの検出結果を示し、その検出結果が8ビットで表される場合、注目画素(x,y)にエッジがなければ0の値、注目画素(x,y)にエッジがあれば255などの値になる。
Here, processing for extracting the edge of the image A (image B) as a feature amount will be described.
As a general edge extraction method, there is a method using an n × n Sobel filter.
An arithmetic expression for extracting an edge using an n × n Sobel filter is expressed as the following Expression (3).
In Expression (3), fx (x, y) represents a function for performing a horizontal filter operation on the target pixel (x, y), and fy (x, y) represents a vertical direction with respect to the target pixel (x, y). A function for performing a filter operation is shown.
Further, the signal level after the adjustment processing by the image
f ′ (x, y) indicates the detection result of the edge in the target pixel (x, y), and when the detection result is represented by 8 bits, the value of 0 is obtained if the target pixel (x, y) has no edge. If the target pixel (x, y) has an edge, the value becomes 255 or the like.
なお、Sobelは、1次微分によるエッジの検出方法であり、その検出結果はエッジの勾配として出力される。
例えば、3×3のSobelフィルタ場合、水平垂直方向のフィルタ係数は図6のように表される。
Note that Sobel is an edge detection method based on first-order differentiation, and the detection result is output as an edge gradient.
For example, in the case of a 3 × 3 Sobel filter, filter coefficients in the horizontal and vertical directions are expressed as shown in FIG.
ここでは、Sobelフィルタを用いて、エッジを抽出する例を示したが、Sobelフィルタに限るものではなく、例えば、Cannyフィルタを用いて、エッジを抽出するようにしてもよい。
Cannyフィルタを用いる場合、注目画素の8近傍(4方向)に対する勾配が求められ、最も強い勾配を持つ方向にエッジが接続される。このため、抽出されるエッジは、細線化されてノイズが少ないものとなる。
なお、エッジの検出結果は、注目画素がエッジであるか否かを示す2値で表される。
Here, an example in which an edge is extracted using a Sobel filter has been described. However, the present invention is not limited to the Sobel filter, and for example, an edge may be extracted using a Canny filter.
When the Canny filter is used, the gradient with respect to the vicinity of 8 (four directions) of the target pixel is obtained, and the edge is connected in the direction having the strongest gradient. For this reason, the extracted edge is thinned to reduce noise.
Note that the edge detection result is represented by a binary value indicating whether or not the target pixel is an edge.
また、Laplacianフィルタを用いて、エッジを抽出するようにしてもよい。
Laplacianフィルタを用いる場合、x−y両方向の二次微分の和が計算されてエッジが抽出される。
Laplacianフィルタを用いて、エッジを抽出する際の演算式は、下記の式(4)のように表される。
式(4)において、δは微分を示す演算記号である。
Laplacianフィルタは、2次微分フィルタであるため細かくエッジを抽出することができる。
Alternatively, an edge may be extracted using a Laplacian filter.
When a Laplacian filter is used, the sum of secondary differentials in both xy directions is calculated to extract an edge.
An arithmetic expression for extracting an edge using a Laplacian filter is expressed as the following Expression (4).
In Expression (4), δ is an arithmetic symbol indicating differentiation.
Since the Laplacian filter is a second-order differential filter, edges can be extracted finely.
なお、エッジの抽出方法は、フィルタ補正によるものに限るものではなく、例えば、画像に対するFFT処理を実施することで得られるパワー画像の低周波領域に対して、マスクをかけて逆FFT処理を実施することでも、エッジを抽出することができる。 Note that the edge extraction method is not limited to the filter correction method. For example, the inverse FFT processing is performed by applying a mask to the low frequency region of the power image obtained by performing the FFT processing on the image. By doing so, the edge can be extracted.
次に、画像A(画像B)の特徴点を特徴量として抽出する処理について説明する。
特徴点の抽出処理の一般的な抽出方法として、コーナー検出方法がある。
コーナー検出方法では、いわゆるコーナー点だけでなく、強度の極大点・極小点、曲線の終点、曲率の極大点、孤立点などを特徴点として検出することができる。
一般的なコーナー検出方法として、「Moravec」と呼ばれるコーナー検出アルゴリズムがあり、その演算式は、下記の式(5)のように表される。
式(5)において、f(x,y)は注目画素(x,y)の信号レベル(例えば、輝度値)に相当し、画像調整処理部1による調整処理後の信号レベルである。
f(x+i,y+j)は注目画素(x,y)の周辺画素(x+i,y+j)の信号レベルに相当し、画像調整処理部1による調整処理後の信号レベルである。
また、Movacは注目画素(x,y)のコーナー点らしさを評価する値である。
Next, processing for extracting feature points of the image A (image B) as feature amounts will be described.
As a general extraction method of feature point extraction processing, there is a corner detection method.
In the corner detection method, not only so-called corner points but also maximum and minimum points of intensity, end points of curves, maximum points of curvature, isolated points, and the like can be detected as feature points.
As a general corner detection method, there is a corner detection algorithm called “Moravec”, and an arithmetic expression thereof is expressed as the following Expression (5).
In Expression (5), f (x, y) corresponds to the signal level (for example, luminance value) of the target pixel (x, y), and is the signal level after the adjustment processing by the image
f (x + i, y + j) corresponds to the signal level of the peripheral pixel (x + i, y + j) of the target pixel (x, y), and is the signal level after the adjustment processing by the image
Movac is a value for evaluating the likelihood of a corner point of the pixel of interest (x, y).
ここでは、コーナー検出方法が「Moravec」と呼ばれるコーナー検出アルゴリズムである例を示したが、このコーナー検出アルゴリズムでは、Moravec作用素が8方向に限られる欠点がある。
「SUZAN」と呼ばれるコーナー検出アルゴリズムは、「Moravec」の欠点が改良されているコーナー検出アルゴリズムであり、「SUZAN」を用いるようにしてもよい。
SUZANは、輝度値が不連続に変化する凸領域の曲率が大きい頂点を探索する手法である。
下記の式(6)は、「SUZAN」と呼ばれるコーナー検出アルゴリズムの演算式を示している。
Here, an example in which the corner detection method is a corner detection algorithm called “Moravec” has been shown, but this corner detection algorithm has a drawback that Moravec operators are limited to eight directions.
The corner detection algorithm called “SUZAN” is a corner detection algorithm in which the drawbacks of “Moravec” are improved, and “SUZAN” may be used.
SUZAN is a method of searching for a vertex having a large curvature in a convex region where the luminance value changes discontinuously.
Equation (6) below shows an arithmetic expression of a corner detection algorithm called “SUZAN”.
式(6)において、f(x,y)は注目画素(x,y)の信号レベル(例えば、輝度値)に相当し、画像調整処理部1による調整処理後の信号レベルである。
f’(x’,y’)は注目画素(x,y)の周辺画素(x’,y’)の信号レベルに相当する。
また、Mx,yは注目画素(x,y)を中心とするある近傍領域であり、tは予め設定された閾値である
式(6)では、ある近傍領域内の中心画素と輝度値の差が小さい画素の数を数えており、その極小点を特徴点としている。
In Expression (6), f (x, y) corresponds to the signal level (for example, luminance value) of the target pixel (x, y), and is the signal level after the adjustment processing by the image
f ′ (x ′, y ′) corresponds to the signal level of the peripheral pixel (x ′, y ′) of the target pixel (x, y).
M x, y is a certain neighboring area centered on the target pixel (x, y), and t is a preset threshold value. In Expression (6), the central pixel and luminance value in a certain neighboring area The number of pixels with a small difference is counted, and the minimum point is used as a feature point.
「Moravec」や「SUZAN」の他には、「Harris」と呼ばれるコーナー検出アルゴリズムなどがあり、特徴点を抽出する方法であれば、いかなる方法を用いてもよい。
ここでは、特徴量抽出部2が、画像調整処理部1から出力された調整処理後の画像A及び画像Bから種類が異なる複数の特徴量を抽出して、種類が異なる複数の特徴量を位置ずれ量算出部4に出力するものを示しているが、画像調整処理部1から出力された調整処理後の画像A及び画像B自体を特徴量として位置ずれ量算出部4に出力するようにしてもよい。
即ち、画像調整処理部1から出力された調整処理後の画像A及び画像Bは、画像の濃淡を表しているので、その濃淡自体が画像の特徴量であると捉え、調整処理後の画像A及び画像Bから特に特徴量を抽出する処理を行わず、画像A及び画像Bをそのまま位置ずれ量算出部4に出力するようにしてもよい。
In addition to “Moravec” and “SUZAN”, there is a corner detection algorithm called “Harris”, and any method may be used as long as it is a method for extracting feature points.
Here, the feature
That is, since the image A and the image B after the adjustment process output from the image
ブロック分割部3は、特徴量抽出部2により特徴量が抽出された画像A及び画像BをG×Hのブロックに分割する(ステップST3)。
位置ずれ量算出部4は、ブロック分割部3が画像A及び画像BをG×Hのブロックに分割すると、特徴量抽出部2により抽出された各々の特徴量を用いて、ブロック分割部3により分割された画像Aのブロックと画像Bのブロックの中で、対応関係があるブロック間の位置ずれ量を算出する(ステップST4)。
特徴量抽出部2により抽出された特徴量が、例えば、コーナー点とエッジと濃淡値の3種類であれば、コーナー点(特徴量)を用いて、対応関係があるブロック間の位置ずれ量を算出するとともに、エッジ(特徴量)を用いて、対応関係があるブロック間の位置ずれ量を算出する。
また、濃淡値(特徴量)を用いて、対応関係があるブロック間の位置ずれ量を算出する。
The
When the
If the feature amount extracted by the feature
Also, the amount of positional deviation between the blocks having the correspondence relationship is calculated using the gray value (feature value).
以下、位置ずれ量算出部4によるブロック間の位置ずれ量の算出処理を具体的に説明する。
画像A及び画像BがG×Hのブロックに分割された場合、ブロック数はG×H個ずつあり、画像Aのブロックを(g,h)ブロックA、画像Bのブロックを(g,h)ブロックBと表記する。ただし、g=0,1,・・・,G−1、h=0,1,・・・,H−1である。
この場合、画像Aと画像Bにおいて、対応関係があるブロックは、(g,h)ブロックAと(g,h)ブロックBである。
Hereinafter, the calculation process of the positional deviation amount between the blocks by the positional deviation
When the image A and the image B are divided into G × H blocks, the number of blocks is G × H, the block of the image A is (g, h), the block A, and the block of the image B is (g, h). This is expressed as block B. However, g = 0, 1,..., G−1, h = 0, 1,.
In this case, in the images A and B, the blocks having a correspondence relationship are the (g, h) block A and the (g, h) block B.
位置ずれ量算出部4は、画像Aと画像Bにおいて、対応関係があるブロック毎に、ブロック間の位置ずれ量を算出する。
即ち、位置ずれ量算出部4は、最初に、(g,h)ブロックAと(g,h)ブロックBとの相関値を算出する。相関値の算出方法は後述する。
次に、(g,h)ブロックBを構成している各画素を1画素ずつX方向又は水平方向に移動し、(g,h)ブロックAと移動後の(g,h)ブロックBとの相関値を算出する。
位置ずれ量算出部4は、(g,h)ブロックBの画素単位の移動処理と、(g,h)ブロックAと移動後の(g,h)ブロックBとの相関値を算出する処理とを繰り返し実施する。
上記の繰り返し処理は、(g,h)ブロックBの画素単位の移動を、X軸方向に予め設定された画素分だけ移動するとともに、Y軸方向に予め設定された画素分だけ移動して、相関値の算出処理が完了するまで行われる。
ここでは、(g,h)ブロックBを画素単位に移動している例を示しているが、(g,h)ブロックAを画素単位に移動するようにしてもよい。
The misregistration
That is, the positional deviation
Next, each pixel constituting the (g, h) block B is moved one pixel at a time in the X direction or the horizontal direction, and the (g, h) block A and the moved (g, h) block B are moved. A correlation value is calculated.
The misregistration
The above iterative process moves the pixel unit of the (g, h) block B by a preset pixel in the X-axis direction and moves by a preset pixel in the Y-axis direction, This is performed until the correlation value calculation process is completed.
Here, an example is shown in which (g, h) block B is moved in units of pixels, but (g, h) block A may be moved in units of pixels.
位置ずれ量算出部4は、上記の繰り返し処理が完了すると、算出した複数の相関値の中で、最も高い相関値を特定し、その相関値が算出された際の(g,h)ブロックBの移動位置から、(g,h)ブロックAと(g,h)ブロックBの位置ずれ量を算出する。
例えば、最高の相関値が算出された際の(g,h)ブロックBの移動位置が(g,h)ブロックBの元の位置から、X軸方向にx1画素だけ移動され、Y軸方向にy1画素だけ移動されたものであれば、(g,h)ブロックAと(g,h)ブロックBの位置ずれ量は、(x1,y1)のように算出される。
When the above-described repetitive processing is completed, the positional deviation
For example, the movement position of (g, h) block B when the highest correlation value is calculated is moved from the original position of (g, h) block B by x1 pixels in the X axis direction, and in the Y axis direction. If only y1 pixel has been moved, the amount of positional deviation between (g, h) block A and (g, h) block B is calculated as (x1, y1).
ここで、(g,h)ブロックAと(g,h)ブロックBとの相関値は、例えば、下記の式(7)で算出される。
Here, the correlation value between the (g, h) block A and the (g, h) block B is calculated by the following equation (7), for example.
式(7)において、I(j,i)は(g,h)ブロックAを構成している各画素の特徴量、Iバー(電子出願の関係上、式(7)における「I」の上に付記している“−”は、明細書の文章上には表記することができないので、Iバーのように表現している)は(g,h)ブロックAを構成している全画素の特徴量の平均値である。
T(j,i)は(g,h)ブロックBを構成している各画素の特徴量、Tバーは(g,h)ブロックBを構成している全画素の特徴量の平均値である。
また、Nは(g,h)ブロックA,BにおけるX軸方向の画素の数、Mは(g,h)ブロックA,BにおけるY軸方向の画素の数である。
NCCは(g,h)ブロックAと(g,h)ブロックBの正規相互相関値である。
なお、正規相互相関値NCCは、2つの画像の濃淡が異なる場合でも安定して相関値を演算することができるが、2つのブロック間の相関値が求まれば、相関値の算出は、式(7)の演算に限るものではない。
In equation (7), I (j, i) is the (g, h) feature quantity of each pixel constituting block A, I bar (in relation to the electronic application, above “I” in equation (7) Since “-” appended to cannot be described on the text of the specification, it is expressed as I bar) (g, h) of all pixels constituting the block A It is the average value of the feature amount.
T (j, i) is the feature value of each pixel constituting the (g, h) block B, and T bar is the average value of the feature values of all the pixels constituting the (g, h) block B. .
N is the number of pixels in the X-axis direction in the (g, h) blocks A and B, and M is the number of pixels in the Y-axis direction in the (g, h) blocks A and B.
NCC is a normal cross-correlation value of (g, h) block A and (g, h) block B.
Note that the normal cross-correlation value NCC can stably calculate the correlation value even when the two images have different shades. If the correlation value between the two blocks is obtained, the correlation value is calculated by The calculation is not limited to (7).
レジストレーション演算部5は、位置ずれ量算出部4が、各々の特徴量を用いて、(g,h)ブロックAと(g,h)ブロックBの位置ずれ量を算出すると、(g,h)ブロックAと(g,h)ブロックBの位置ずれ量を用いて、画像Aと画像Bのレジストレーションを実施する(ステップST5)。
以下、レジストレーション演算部5による画像Aと画像Bのレジストレーションを具体的に説明する。
When the positional deviation
Hereinafter, the registration of the image A and the image B by the registration calculation unit 5 will be specifically described.
レジストレーション演算部5は、位置ずれ量算出部4が、各々の特徴量を用いて、(g,h)ブロックAと(g,h)ブロックBの位置ずれ量を算出すると、算出元である特徴量の種類が同じであるブロック単位の位置ずれ量から画像単位の位置ずれ量をそれぞれ算出する。
特徴量抽出部2により抽出された特徴量が、例えば、コーナー点と濃淡値の2種類であれば、コーナー点(特徴量)を用いて算出された(g,h)ブロックAと(g,h)ブロックBの位置ずれ量から画像単位の位置ずれ量を算出し、濃淡値(特徴量)を用いて算出された(g,h)ブロックAと(g,h)ブロックBの位置ずれ量から画像単位の位置ずれ量を算出する。
画像A及び画像BがG×Hのブロックに分割された場合、ブロック数がG×H個ずつあるので、特徴量の種類毎に、ブロック単位の位置ずれ量((g,h)ブロックAと(g,h)ブロックBの位置ずれ量)がG×H個算出される。このため、ブロック単位の位置ずれ量から画像単位の位置ずれ量を算出する方法としては、特徴量の種類毎に、G×H個のブロック単位の位置ずれ量の平均値や中央値などを、画像単位の位置ずれ量として算出する方法などが考えられる。
The registration calculation unit 5 is a calculation source when the positional deviation
If the feature quantity extracted by the feature
When the image A and the image B are divided into G × H blocks, the number of blocks is G × H. Therefore, for each type of feature amount, a positional deviation amount ((g, h) block A and (G, h) G × H position deviation amounts of block B) are calculated. For this reason, as a method of calculating the positional deviation amount in image units from the positional deviation amount in block units, the average value or median value of the positional deviation amounts in G × H block units for each type of feature amount, A method of calculating the amount of positional deviation in image units is conceivable.
レジストレーション演算部5は、特徴量の種類毎に、画像単位の位置ずれ量を算出すると、複数の画像単位の位置ずれ量の中から、1つの位置ずれ量を選択する。1つの位置ずれ量の選択は、画像A,Bの特徴に基づいて行うことができる。
例えば、各々の特徴量を用いて算出された相関値を比較し、相関値が高い方の特徴量を用いて算出された位置ずれ量を選択する方法などが考えられる。
具体的には、特徴量抽出部2により抽出された特徴量が、例えば、エッジと濃淡値の2種類であれば、画像A,Bに存在しているエッジの数が所定の閾値より多い場合、エッジ(特徴量)を用いて算出された位置ずれ量を選択し、画像A,Bに存在しているエッジの数が所定の閾値より少ない場合、濃淡値(特徴量)を用いて算出された位置ずれ量を選択する。
なお、画像A,Bに存在しているエッジの数は、例えば、全ブロックにおけるエッジ(特徴量)を示す信号値の総和としてもよい。
When the registration calculation unit 5 calculates the positional deviation amount in units of images for each type of feature amount, the registration calculation unit 5 selects one positional deviation amount from among the positional deviation amounts in units of images. Selection of one displacement amount can be performed based on the characteristics of the images A and B.
For example, a method of comparing the correlation values calculated using the respective feature amounts and selecting a displacement amount calculated using the feature amount having the higher correlation value may be considered.
Specifically, if the feature amount extracted by the feature
Note that the number of edges existing in the images A and B may be, for example, the sum of signal values indicating edges (features) in all blocks.
レジストレーション演算部5は、複数の画像単位の位置ずれ量の中から、1つの位置ずれ量を選択すると、その位置ずれ量を用いて、アフィン変換の変換係数(例えば、画像を回転や平行移動するための例えば3×3のフィルタの係数)を算出する。位置ずれ量からアフィン変換の変換係数を算出する処理自体は公知の技術であるため詳細な説明を省略する。
レジストレーション演算部5は、アフィン変換の変換係数を算出すると、その変換係数を画像Bに乗じることで、画像Bの位置を画像Aの位置に合わせるレジストレーションを実施する。
レジストレーション演算部5は、位置合わせ後の画像Bを示す画像データを出力する。
When the registration calculation unit 5 selects one positional deviation amount from among a plurality of image unit positional deviation amounts, the registration unit 5 uses the positional deviation amount to convert an affine transformation coefficient (for example, rotate or translate an image). For example, a 3 × 3 filter coefficient) is calculated. Since the process itself for calculating the conversion coefficient of the affine transformation from the positional deviation amount is a known technique, detailed description thereof is omitted.
When the registration calculation unit 5 calculates the conversion coefficient of the affine transformation, the registration calculation unit 5 multiplies the image B by the conversion coefficient to perform registration that matches the position of the image B with the position of the image A.
The registration calculation unit 5 outputs image data indicating the image B after alignment.
以上で明らかなように、この実施の形態1によれば、画像A及び画像Bから種類が異なる複数の特徴量を抽出する特徴量抽出部2と、画像A及び画像Bを複数のブロックに分割するブロック分割部3と、特徴量抽出部2により抽出された各々の特徴量を用いて、ブロック分割部3により分割された画像Aのブロックと画像Bのブロックの中で、対応関係があるブロック間の位置ずれ量を算出する位置ずれ量算出部4とを設け、レジストレーション演算部5が、位置ずれ量算出部4により各々の特徴量を用いて算出されたブロック間の位置ずれ量を用いて、画像Aと画像Bの位置合わせを行うように構成したので、エッジの有無にかかわらず、高精度なレジストレーション結果を得ることができる効果を奏する。
即ち、画像A及び画像Bから種類が異なる複数の特徴量を抽出して、各々の特徴量を用いて位置ずれ量を算出し、複数の位置ずれ量の中から、適応的に1つの位置ずれ量を選択するようにしているので、画像の特徴に見合う高精度なレジストレーションを実施することができる。
As is apparent from the above, according to the first embodiment, the feature
That is, a plurality of different types of feature amounts are extracted from the images A and B, and a positional shift amount is calculated using each feature amount, and one positional shift is adaptively selected from the plurality of positional shift amounts. Since the amount is selected, it is possible to perform highly accurate registration that matches the characteristics of the image.
また、この実施の形態1によれば、画像A及び画像Bに対する画像調整処理を実施し、調整処理後の画像A及び画像Bを特徴量抽出部2に出力する画像調整処理部1を備えたので、特徴量抽出部2における特徴量の抽出が容易になり、高精度に特徴量を抽出することができる効果を奏する
Further, according to the first embodiment, the image
実施の形態2.
上記実施の形態1では、レジストレーション演算部5が、算出元である特徴量の種類が同じであるブロック単位の位置ずれ量から画像単位の位置ずれ量をそれぞれ算出して、複数の画像単位の位置ずれ量の中から、1つの位置ずれ量を選択し、1つの位置ずれ量を用いて、画像Aと画像Bの位置合わせを行うものを示したが、各々の特徴量を用いて算出されたブロック間の位置ずれ量の中から、ブロック単位に1つの位置ずれ量を選択して、その選択したブロック単位の位置ずれ量から画像単位の位置ずれ量を算出し、画像単位の位置ずれ量を用いて、画像Aと画像Bの位置合わせを行うようにしてもよい。
In the first embodiment, the registration calculation unit 5 calculates the image unit misregistration amount from the block unit misregistration amount that has the same type of feature quantity as the calculation source, and obtains a plurality of image unit misregistration values. Although one misregistration amount is selected from the misregistration amounts and the position of image A and image B is aligned using one misregistration amount, it is calculated using each feature amount. One positional deviation amount is selected for each block from among the positional deviation amounts between the blocks, and the positional deviation amount for each image is calculated from the selected positional deviation amount for each block. May be used to align the images A and B.
図7はこの発明の実施の形態2による画像位置合わせ装置を示す構成図であり、図において、図1と同一符号は同一または相当部分を示すので説明を省略する。
レジストレーション演算部6は図1のレジストレーション演算部5と同様に、位置ずれ量算出部4により各々の特徴量を用いて算出されたブロック間の位置ずれ量を用いて、画像Aと画像Bのレジストレーションを実施する。
ただし、レジストレーション演算部6は図1のレジストレーション演算部5と異なり、位置ずれ量算出部4により各々の特徴量を用いて算出されたブロック間の位置ずれ量の中から、ブロック単位に1つの位置ずれ量を選択し、その選択したブロック単位の位置ずれ量から画像単位の位置ずれ量を算出し、画像単位の位置ずれ量を用いて、画像Aと画像Bのレジストレーションを実施する。
なお、レジストレーション演算部6は位置合わせ手段を構成している。
FIG. 7 is a block diagram showing an image alignment apparatus according to
Similar to the registration calculation unit 5 in FIG. 1, the
However, the
The
図7の例では、画像位置合わせ装置の構成要素である画像調整処理部1、特徴量抽出部2、ブロック分割部3、位置ずれ量算出部4及びレジストレーション演算部6のそれぞれが専用のハードウェア(例えば、CPUを実装している半導体集積回路、あるいは、ワンチップマイコンなど)で構成されているものを想定しているが、画像位置合わせ装置がコンピュータで構成されていてもよい。
画像位置合わせ装置がコンピュータで構成されている場合、画像調整処理部1、特徴量抽出部2、ブロック分割部3、位置ずれ量算出部4及びレジストレーション演算部6の処理内容を記述しているプログラムをコンピュータのメモリに格納し、当該コンピュータのCPUが当該メモリに格納されているプログラムを実行するようにすればよい。
In the example of FIG. 7, each of the image
When the image alignment apparatus is configured by a computer, the processing contents of the image
次に動作について説明する。
上記実施の形態1と比べて、レジストレーション演算部6がレジストレーション演算部5の代わりに搭載されている点以外は同じであるため、ここでは、レジストレーション演算部6以外の処理内容は割愛する。
Next, the operation will be described.
Compared to the first embodiment, since the
レジストレーション演算部6は、位置ずれ量算出部4が、各々の特徴量を用いて、(g,h)ブロックAと(g,h)ブロックBの位置ずれ量を算出すると、(g,h)ブロックAと(g,h)ブロックBの位置ずれ量を用いて、画像Aと画像Bのレジストレーションを実施する。
以下、レジストレーション演算部6による画像Aと画像Bのレジストレーションを具体的に説明する。
When the positional deviation
Hereinafter, the registration of the image A and the image B by the
レジストレーション演算部6は、位置ずれ量算出部4が、各々の特徴量を用いて、(g,h)ブロックAと(g,h)ブロックBの位置ずれ量を算出すると、対応するブロック毎に、算出された複数の位置ずれ量の中から、1つの位置ずれ量を選択する。
特徴量抽出部2により抽出された特徴量が、例えば、コーナー点と濃淡値の2種類であれば、コーナー点(特徴量)を用いて算出された(g,h)ブロックAと(g,h)ブロックBの位置ずれ量と、濃淡値(特徴量)を用いて算出された(g,h)ブロックAと(g,h)ブロックBの位置ずれ量との中から、1つの位置ずれ量を選択する。
When the positional deviation
If the feature quantity extracted by the feature
1つの位置ずれ量の選択は、画像A,Bの特徴に基づいて行うことができる。
例えば、各々の特徴量を用いて算出された相関値を比較し、相関値が高い方の特徴量を用いて算出された位置ずれ量を選択する方法などが考えられる。
具体的には、特徴量抽出部2により抽出された特徴量が、例えば、エッジと濃淡値の2種類であれば、(g,h)ブロックA,Bに存在しているエッジの数が所定の閾値より多い場合、エッジ(特徴量)を用いて算出された位置ずれ量を選択し、(g,h)ブロックA,Bに存在しているエッジの数が所定の閾値より少ない場合、濃淡値(特徴量)を用いて算出された位置ずれ量を選択する。
また、複数の位置ずれ量の中で、最も小さい位置ずれ量を選択するようにしてもよい。
なお、対応するブロック毎に、1つの位置ずれ量を選択する方式の場合、画像A及び画像BがG×Hのブロックに分割されていれば、ブロック数がG×H個ずつあるので、全部でG×H個の位置ずれ量が選択されることになる。
Selection of one displacement amount can be performed based on the characteristics of the images A and B.
For example, a method of comparing the correlation values calculated using the respective feature amounts and selecting a displacement amount calculated using the feature amount having the higher correlation value may be considered.
Specifically, if there are two types of feature values extracted by the feature
Also, the smallest positional deviation amount may be selected from among a plurality of positional deviation amounts.
In the case of a method of selecting one positional deviation amount for each corresponding block, if the image A and the image B are divided into G × H blocks, the number of blocks is G × H. Thus, G × H position shift amounts are selected.
レジストレーション演算部6は、対応するブロック毎に、1つの位置ずれ量を選択すると、G×H個のブロック単位の位置ずれ量から画像単位の位置ずれ量を算出する。
ブロック単位の位置ずれ量から画像単位の位置ずれ量を算出する方法としては、G×H個の位置ずれ量の平均値や中央値などを、画像単位の位置ずれ量として算出する方法などが考えられる。
When one registration error amount is selected for each corresponding block, the
As a method of calculating the image unit displacement amount from the block unit displacement amount, a method of calculating the average value or median value of the G × H displacement amounts as the image unit displacement amount is considered. It is done.
レジストレーション演算部6は、画像単位の位置ずれ量を算出すると、図1のレジストレーション演算部5と同様に、その位置ずれ量を用いて、アフィン変換の変換係数を算出する。
レジストレーション演算部6は、アフィン変換の変換係数を算出すると、その変換係数を画像Bに乗じることで、画像Bの位置を画像Aの位置に合わせるレジストレーションを実施する。
レジストレーション演算部6は、位置合わせ後の画像Bを示す画像データを出力する。
When the
When the
The
以上で明らかなように、この実施の形態2によれば、位置ずれ量算出部4により各々の特徴量を用いて算出されたブロック間の位置ずれ量の中から、ブロック単位に1つの位置ずれ量を選択し、その選択したブロック単位の位置ずれ量から画像単位の位置ずれ量を算出し、画像単位の位置ずれ量を用いて、画像Aと画像Bのレジストレーションを実施するように構成したので、位置ずれ量がブロック単位に適応的に選択されるようになり、その結果、上記実施の形態1よりも更に、高精度なレジストレーション結果が得られる効果を奏する。
As can be seen from the above, according to the second embodiment, one positional deviation per block is selected from among the positional deviation amounts between blocks calculated by the positional deviation
なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。 In the present invention, within the scope of the invention, any combination of the embodiments, or any modification of any component in each embodiment, or omission of any component in each embodiment is possible. .
1 画像調整処理部(画像調整処理手段)、2 特徴量抽出部(特徴量抽出手段)、3 ブロック分割部(ブロック分割手段)、4 位置ずれ量算出部(位置ずれ量算出手段)、5,6 レジストレーション演算部(位置合わせ手段)。
DESCRIPTION OF
Claims (8)
位置ずれ量算出手段は、特徴量抽出手段により抽出された各々の特徴量を用いて、上記ブロック分割手段により分割された第1の画像のブロックと第2の画像のブロックの中で、対応関係があるブロック間の位置ずれ量を算出し、
位置合わせ手段は、上記位置ずれ量算出手段により算出されたブロック毎の位置ずれ量のうち、算出元である特徴量の種類が同じであるブロック単位の位置ずれ量から画像単位の位置ずれ量をそれぞれ算出し、複数の画像単位の位置ずれ量の中の1つの位置ずれ量を用いて、上記第1の画像と上記第2の画像の位置合わせを行うことを特徴とする請求項1記載の画像位置合わせ装置。 Block dividing means for dividing the first image and the second image into a plurality of blocks;
The misregistration amount calculation means uses the respective feature amounts extracted by the feature amount extraction means, and uses a correspondence relationship between the block of the first image and the block of the second image divided by the block division means. Calculates the amount of misalignment between blocks,
The alignment unit calculates the positional deviation amount of each image from the positional deviation amount of the block unit having the same type of feature amount as the calculation source among the positional deviation amounts of each block calculated by the positional deviation amount calculation unit. The position of the first image and that of the second image are respectively calculated using one position shift amount among the plurality of image unit position shift amounts. Image alignment device.
位置ずれ量算出手段は、特徴量抽出手段により抽出された各々の特徴量を用いて、上記ブロック分割手段により分割された第1の画像のブロックと第2の画像のブロックの中で、対応関係があるブロック間の位置ずれ量を算出し、
位置合わせ手段は、上記位置ずれ量算出手段により各々の特徴量を用いて算出されたブロック間の位置ずれ量の中から、ブロック単位に1つの位置ずれ量を選択し、その選択したブロック単位の位置ずれ量から画像単位の位置ずれ量を算出し、画像単位の位置ずれ量を用いて、上記第1の画像と上記第2の画像の位置合わせを行うことを特徴とする請求項1記載の画像位置合わせ装置。 Block dividing means for dividing the first image and the second image into a plurality of blocks;
The misregistration amount calculation means uses the respective feature amounts extracted by the feature amount extraction means, and uses a correspondence relationship between the block of the first image and the block of the second image divided by the block division means. Calculates the amount of misalignment between blocks,
The alignment means selects one positional deviation amount for each block from among the positional deviation amounts between the blocks calculated using the respective feature amounts by the positional deviation amount calculation means, and selects the selected block unit. The position shift amount for each image is calculated from the position shift amount, and the first image and the second image are aligned using the position shift amount for each image. Image alignment device.
位置ずれ量算出処理ステップでは、特徴量抽出処理ステップで抽出された各々の特徴量を用いて、上記ブロック分割処理ステップで分割された第1の画像のブロックと第2の画像のブロックの中で、対応関係があるブロック間の位置ずれ量を算出し、
位置合わせ処理ステップでは、上記位置ずれ量算出処理ステップで算出されたブロック毎の位置ずれ量のうち、算出元である特徴量の種類が同じであるブロック単位の位置ずれ量から画像単位の位置ずれ量をそれぞれ算出し、複数の画像単位の位置ずれ量の中の1つの位置ずれ量を用いて、上記第1の画像と上記第2の画像の位置合わせを行うことを特徴とする請求項6記載の画像位置合わせ方法。 The block dividing means includes a block division processing step for dividing the first image and the second image into a plurality of blocks,
In the misregistration amount calculation processing step, using the feature amounts extracted in the feature amount extraction processing step, the first image block and the second image block divided in the block division processing step are used. , Calculate the amount of misalignment between blocks that have a correspondence,
In the alignment processing step, out of the positional deviation amounts for each block calculated in the positional deviation amount calculation processing step, the positional deviation in image units is calculated from the positional deviation amount in blocks in which the type of the feature quantity as the calculation source is the same. The amount of each is calculated, and the first image and the second image are aligned using one position shift amount among a plurality of image unit position shift amounts. The image alignment method described.
位置ずれ量算出処理ステップでは、特徴量抽出処理ステップで抽出された各々の特徴量を用いて、上記ブロック分割処理ステップで分割された第1の画像のブロックと第2の画像のブロックの中で、対応関係があるブロック間の位置ずれ量を算出し、
位置合わせ処理ステップでは、上記位置ずれ量算出処理ステップで各々の特徴量を用いて算出されたブロック間の位置ずれ量の中から、ブロック単位に1つの位置ずれ量を選択し、その選択したブロック単位の位置ずれ量から画像単位の位置ずれ量を算出し、画像単位の位置ずれ量を用いて、上記第1の画像と上記第2の画像の位置合わせを行うことを特徴とする請求項6記載の画像位置合わせ方法。 The block dividing means includes a block division processing step for dividing the first image and the second image into a plurality of blocks,
In the misregistration amount calculation processing step, using the feature amounts extracted in the feature amount extraction processing step, the first image block and the second image block divided in the block division processing step are used. , Calculate the amount of misalignment between blocks that have a correspondence,
In the alignment processing step, one positional deviation amount is selected for each block from among the positional deviation amounts between blocks calculated using the respective feature amounts in the positional deviation amount calculation processing step, and the selected block 7. The positional deviation amount in units of images is calculated from the positional deviation amount in units, and the first image and the second image are aligned using the positional deviation amount in units of images. The image alignment method described.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012038699A JP5907755B2 (en) | 2012-02-24 | 2012-02-24 | Image registration device and image registration method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012038699A JP5907755B2 (en) | 2012-02-24 | 2012-02-24 | Image registration device and image registration method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013175023A true JP2013175023A (en) | 2013-09-05 |
JP5907755B2 JP5907755B2 (en) | 2016-04-26 |
Family
ID=49267876
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012038699A Active JP5907755B2 (en) | 2012-02-24 | 2012-02-24 | Image registration device and image registration method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5907755B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017520050A (en) * | 2014-06-19 | 2017-07-20 | クアルコム,インコーポレイテッド | Local adaptive histogram flattening |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11242737A (en) * | 1998-02-26 | 1999-09-07 | Ricoh Co Ltd | Method for processing picture and device therefor and information recording medium |
JPH11345315A (en) * | 1998-06-01 | 1999-12-14 | Nec Corp | Picture aligning method and device therefor, and recording medium |
JP2007041752A (en) * | 2005-08-02 | 2007-02-15 | Casio Comput Co Ltd | Image processor |
-
2012
- 2012-02-24 JP JP2012038699A patent/JP5907755B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11242737A (en) * | 1998-02-26 | 1999-09-07 | Ricoh Co Ltd | Method for processing picture and device therefor and information recording medium |
JPH11345315A (en) * | 1998-06-01 | 1999-12-14 | Nec Corp | Picture aligning method and device therefor, and recording medium |
JP2007041752A (en) * | 2005-08-02 | 2007-02-15 | Casio Comput Co Ltd | Image processor |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017520050A (en) * | 2014-06-19 | 2017-07-20 | クアルコム,インコーポレイテッド | Local adaptive histogram flattening |
Also Published As
Publication number | Publication date |
---|---|
JP5907755B2 (en) | 2016-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6115781B2 (en) | Image processing apparatus and image processing method | |
Lin et al. | Image enhancement using the averaging histogram equalization (AVHEQ) approach for contrast improvement and brightness preservation | |
US10726539B2 (en) | Image processing apparatus, image processing method and storage medium | |
JP5082637B2 (en) | Image processing program, image processing method, and image processing apparatus | |
CN105976328B (en) | Image noise reduction | |
TWI538506B (en) | Image processing apparatus, information processing method and computer-readble storage medium | |
KR20150116833A (en) | Image processor with edge-preserving noise suppression functionality | |
CN105976327B (en) | Method for transforming a first image, processing module and storage medium | |
JP2012208553A (en) | Image processing device, image processing method, and program | |
JPWO2008102898A1 (en) | Image quality improvement processing apparatus, image quality improvement processing method, and image quality improvement processing program | |
JP2015062270A (en) | Image processing apparatus | |
JP6388507B2 (en) | Image processing device | |
JP2019106173A (en) | Image processing method, image processing apparatus and program | |
JP5907755B2 (en) | Image registration device and image registration method | |
US8971627B2 (en) | Template matching processing device and template matching processing program | |
US11164286B2 (en) | Image processing apparatus, image processing method, and storage medium | |
CN102158730B (en) | Image processing system and method | |
WO2016051716A1 (en) | Image processing method, image processing device, and recording medium for storing image processing program | |
JP5928465B2 (en) | Degradation restoration system, degradation restoration method and program | |
JP5562812B2 (en) | Transmission / reception switching circuit, radio apparatus, and transmission / reception switching method | |
KR101796551B1 (en) | Speedy calculation method and system of depth information strong against variable illumination | |
Min et al. | Out-of-focus image deblurring for mobile display vision inspection | |
JP2015185978A (en) | Digital watermark embedding device and digital watermark embedding program and digital watermark detector and digital watermark detection program | |
WO2019116975A1 (en) | Image processing method, image processing device, and program | |
Gadermayr et al. | Barrel-type distortion compensated fourier feature extraction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141104 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150708 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150714 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150910 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160223 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160322 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5907755 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |