JP2010170482A - Program and apparatus for processing image, and imaging apparatus - Google Patents

Program and apparatus for processing image, and imaging apparatus Download PDF

Info

Publication number
JP2010170482A
JP2010170482A JP2009014493A JP2009014493A JP2010170482A JP 2010170482 A JP2010170482 A JP 2010170482A JP 2009014493 A JP2009014493 A JP 2009014493A JP 2009014493 A JP2009014493 A JP 2009014493A JP 2010170482 A JP2010170482 A JP 2010170482A
Authority
JP
Japan
Prior art keywords
parameters
images
image processing
image
alignment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009014493A
Other languages
Japanese (ja)
Other versions
JP5347530B2 (en
Inventor
Shigeru Tsuchiida
茂 土井田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009014493A priority Critical patent/JP5347530B2/en
Publication of JP2010170482A publication Critical patent/JP2010170482A/en
Application granted granted Critical
Publication of JP5347530B2 publication Critical patent/JP5347530B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To perform highly precise image registration while reducing the possibility of falling into a local solution in registration of a plurality of digital images. <P>SOLUTION: An image processing program for registering two images by computer includes: an obtaining step for obtaining two images; a calculation step for calculating an evaluation value about registration by using a plurality of parameters on the basis of the two images; a setting step for setting respective weighting of the plurality of parameters; and a detection step for comparing a plurality of evaluation values calculated at the calculation step by using different parameters set at the setting step to detect a relative position of the two images. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、2つの画像の重ね合わせをコンピュータで実現するための画像処理プログラム、2つの画像の重ね合わせを行う画像処理装置、およびその画像処理装置を備えた撮像装置に関する。   The present invention relates to an image processing program for realizing superposition of two images by a computer, an image processing apparatus for superimposing two images, and an imaging apparatus including the image processing apparatus.

従来より、高解像度化などを目的として、複数のディジタル画像の重ね合わせが行われている。このような重ね合わせに際しては、複数の画像を正確に位置合わせすることが重要である。そこで、位置合わせに関する技術について、画像処理への適用内容に応じて、高速な手法や高精度な手法など、様々なものが考えられている。例えば、非特許文献1では、高精度な手法の一例として、幾何変換のパラメータを非線形最小二乗法により算出する技術が開示されている。 Conventionally, a plurality of digital images have been superimposed for the purpose of increasing the resolution. In such superposition, it is important to accurately align a plurality of images. Therefore, various techniques related to alignment, such as a high-speed technique and a high-precision technique, are considered depending on the application contents to image processing. For example, Non-Patent Document 1 discloses a technique for calculating a geometric transformation parameter by a nonlinear least square method as an example of a highly accurate technique.

上述した技術は、高精度な位置合わせが可能であるため、非常に有効である。しかし、非線形最小二乗法を利用した解の算出過程において、局所解に陥る可能性がある。このような問題を解決するためには、パラメータの初期値や収束条件を適切に調整することが必要である。   The technique described above is very effective because highly accurate alignment is possible. However, there is a possibility of falling into a local solution in the solution calculation process using the nonlinear least square method. In order to solve such a problem, it is necessary to appropriately adjust initial values of parameters and convergence conditions.

本発明は、上記問題に鑑みてなされたものであり、複数のディジタル画像の位置合わせにおいて、局所解に陥る可能性を低減しつつ、高精度な位置合わせを実現することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to realize highly accurate alignment while reducing the possibility of falling into a local solution in alignment of a plurality of digital images.

本発明の画像処理プログラムは、2つの画像の位置合わせをコンピュータで実現するための画像処理プログラムであって、前記2つの画像を取得する取得ステップと、複数のパラメータを用いて、前記位置合わせに関する評価値を、前記2つの画像に基づいて算出する算出ステップと、前記複数のパラメータのそれぞれの重みを設定する設定ステップと、前記設定ステップにおいて設定された異なる前記パラメータを用いて前記算出ステップにおいて算出された複数の前記評価値を比較して、前記2つの画像の相対的な位置を検出する検出ステップとを備える。 An image processing program of the present invention is an image processing program for realizing alignment of two images by a computer, and relates to the alignment using an acquisition step of acquiring the two images and a plurality of parameters. A calculation step that calculates an evaluation value based on the two images, a setting step that sets each weight of the plurality of parameters, and a calculation that uses the different parameters set in the setting step. And detecting a relative position of the two images by comparing the plurality of evaluation values.

なお、前記複数のパラメータは、前記位置合わせに関して異なる特性を有するパラメータを含んでも良い。   The plurality of parameters may include parameters having different characteristics with respect to the alignment.

また、前記複数のパラメータは、前記位置合わせにおける並進方向の変化に関するパラメータと、前記位置合わせにおける回転方向の変化に関するパラメータと、前記位置合わせにおける拡大縮小に関するパラメータとのうち少なくとも2つのパラメータを含んでも良い。   The plurality of parameters may include at least two parameters of a parameter relating to a change in translation direction in the alignment, a parameter relating to a change in a rotation direction in the alignment, and a parameter relating to enlargement / reduction in the alignment. good.

また、前記複数のパラメータは、前記2つの画像を幾何変換するためのパラメータであり、前記算出ステップでは、前記複数のパラメータを用いて前記2つの画像の少なくとも一方を幾何変換した後に、前記評価値を算出しても良い。   The plurality of parameters are parameters for geometrically transforming the two images, and in the calculating step, the evaluation value is obtained after geometrically transforming at least one of the two images using the plurality of parameters. May be calculated.

また、前記設定ステップでは、前記2つの画像が生成された際の撮影条件と、前記2つの画像に含まれる主要被写体に関する情報との少なくとも一方に基づいて、前記重みを設定しても良い。
また、前記2つの画像から、特定の領域の画像を抽出する抽出ステップを備え、前記算出ステップでは、前記複数のパラメータを用いて、前記評価値を、前記抽出ステップにおいて抽出した画像に基づいて算出しても良い。
なお、上記発明に関する構成を、2つの画像の位置合わせを行う画像処理装置に変換して表現したものも本発明の具体的態様として有効である。また、その画像処理装置を備えた撮像装置も本発明の具体的態様として有効である。
In the setting step, the weight may be set based on at least one of a photographing condition when the two images are generated and information on a main subject included in the two images.
In addition, an extraction step of extracting an image of a specific region from the two images is provided, and in the calculation step, the evaluation value is calculated based on the image extracted in the extraction step using the plurality of parameters. You may do it.
In addition, what converted and represented the structure regarding the said invention to the image processing apparatus which aligns two images is also effective as a specific aspect of this invention. An imaging device provided with the image processing device is also effective as a specific aspect of the present invention.

本発明によれば、複数のディジタル画像の位置合わせにおいて、局所解に陥る可能性を低減しつつ、高精度な位置合わせを実現することができる。   According to the present invention, it is possible to achieve highly accurate alignment while reducing the possibility of falling into a local solution in alignment of a plurality of digital images.

本発明の一の実施形態に係る画像処理方法をコンピュータ10へ適用した場合の概念図である。1 is a conceptual diagram when an image processing method according to an embodiment of the present invention is applied to a computer 10; FIG. 本発明の一の実施形態におけるCPU1の動作を示す流れ図である。It is a flowchart which shows operation | movement of CPU1 in one Embodiment of this invention.

図1は、本発明の一の実施形態に係る画像処理方法をコンピュータ10へ適用した場合の概念図である。   FIG. 1 is a conceptual diagram when an image processing method according to an embodiment of the present invention is applied to a computer 10.

図1に示すコンピュータ10は、CPU1、記憶部2、入出力インタフェース(入出力I/F)3およびバス4から構成され、CPU1、記憶部2および入出力I/F3は、バス4を介して情報伝達可能に接続される。また、コンピュータ10には、入出力I/F3を介して、画像処理の途中経過や処理結果を表示する出力装置20、ユーザからの入力を受け付ける入力装置30がそれぞれ接続される。出力装置20には、一般的な液晶モニタやプリンタ等を用いることができ、入力装置30には、キーボードやマウス等をそれぞれ適宜選択して使用できる。   A computer 10 shown in FIG. 1 includes a CPU 1, a storage unit 2, an input / output interface (input / output I / F) 3 and a bus 4, and the CPU 1, storage unit 2 and input / output I / F 3 are connected via the bus 4. Connected so that information can be transmitted. The computer 10 is connected to an output device 20 that displays the progress of image processing and processing results, and an input device 30 that receives input from the user via the input / output I / F 3. As the output device 20, a general liquid crystal monitor, a printer, or the like can be used. As the input device 30, a keyboard, a mouse, or the like can be appropriately selected and used.

CPU1は、入力装置30で受け付けたユーザからの指示に基づいて、記憶部2に記憶されている画像処理プログラムを読み込み、記憶部2に記憶されている画像に対する画像処理を行う。CPU1は、その画像処理の結果を、必要に応じて出力装置20に表示する。CPU1には、一般的な中央演算装置を用いることができる。   The CPU 1 reads an image processing program stored in the storage unit 2 based on an instruction from the user received by the input device 30, and performs image processing on the image stored in the storage unit 2. The CPU 1 displays the result of the image processing on the output device 20 as necessary. A general central processing unit can be used for the CPU 1.

記憶部2に記憶される画像データやプログラム等は、バス4を介して、CPU1から適宜参照することができる。記憶部2には、一般的なハードディスク装置、光磁気ディスク装置等の記憶装置を選択して用いることができる。なお、図1の記憶部2は、コンピュータ10に組み込まれているが、外付けの記憶装置でも良い。この場合、記憶部2は、入出力I/F3を介してコンピュータ10に接続される。   Image data, programs, and the like stored in the storage unit 2 can be referred to as appropriate from the CPU 1 via the bus 4. A storage device such as a general hard disk device or a magneto-optical disk device can be selected and used for the storage unit 2. 1 is incorporated in the computer 10, it may be an external storage device. In this case, the storage unit 2 is connected to the computer 10 via the input / output I / F 3.

上記構成のコンピュータ10において、複数の画像の位置合わせを行う際のCPU1の動作について、図2の流れ図を参照して説明する。以下では、上述した非特許文献1に開示されているLevenberg-Marquardt法における非線形最小二乗法を用いた位置合わせを例に挙げて説明する。また、記憶部2には、位置合わせの対象となる複数の画像の画像データが予め記憶されているものとする。   The operation of the CPU 1 when aligning a plurality of images in the computer 10 having the above configuration will be described with reference to the flowchart of FIG. In the following, description will be made by taking as an example the alignment using the nonlinear least square method in the Levenberg-Marquardt method disclosed in Non-Patent Document 1 described above. In addition, it is assumed that the storage unit 2 stores in advance image data of a plurality of images to be aligned.

ステップS1において、CPU1は、入力装置30を介したユーザ指示にしたがって、第1の画像を取得する。第1の画像は、位置合わせの対象となる画像のうち、一方の画像である。   In step S <b> 1, the CPU 1 acquires a first image according to a user instruction via the input device 30. The first image is one of the images to be aligned.

ステップS2において、CPU1は、入力装置30を介したユーザ指示にしたがって、第2の画像を取得する。第2の画像は、位置合わせの対象となる画像のうち、他方の画像である。なお、第1の画像と第2の画像とは、時系列上で隣接する2画像である。位置合わせの対象が3つ以上の画像である場合には、それらの画像のうち、時系列上で隣接する2つの画像をそれぞれ第1の画像および第2の画像とする。   In step S <b> 2, the CPU 1 acquires a second image according to a user instruction via the input device 30. The second image is the other image among the images to be aligned. The first image and the second image are two images that are adjacent in time series. In the case where there are three or more images to be aligned, two of the images that are adjacent in time series are defined as a first image and a second image, respectively.

ステップS3において、CPU1は、ステップS1で取得した第1の画像から、特定領域の画像を抽出する。特定領域とは、第1の画像の全画素、もしくは、一部の領域の画素からなる領域である。特定領域は、入力装置30を介したユーザ指示により指定されても良いし、CPU1により自動で指定されても良い。例えば、CPU1は、主要被写体抽出の結果に応じて特定領域を指定しても良いし、隣接画素との差分値が所定の閾値以上の画素からなる領域を特定領域としても良い。   In step S3, the CPU 1 extracts an image of a specific area from the first image acquired in step S1. The specific area is an area composed of all the pixels of the first image or a part of the pixels. The specific area may be specified by a user instruction via the input device 30 or may be automatically specified by the CPU 1. For example, the CPU 1 may designate a specific area according to the result of main subject extraction, or may designate an area composed of pixels having a difference value with an adjacent pixel equal to or greater than a predetermined threshold.

ステップS4において、CPU1は、幾何変換式を指定する。ここでは以下の式1に示す幾何変換式を指定する場合を例に挙げて説明する。   In step S4, the CPU 1 designates a geometric transformation formula. Here, the case where the geometric transformation formula shown in the following formula 1 is specified will be described as an example.

Figure 2010170482
Figure 2010170482

式1は、pからpの6つのパラメータで示されるアフィン変換式である。なお、CPU1は、式1以外の幾何変換式を指定しても良い。例えば、8つのパラメータで示される幾何変換式を指定しても良い。 Expression 1 is an affine transformation expression represented by six parameters from p 0 to p 5 . Note that the CPU 1 may specify a geometric transformation expression other than Expression 1. For example, a geometric conversion formula indicated by eight parameters may be specified.

ステップS5において、CPU1は、ステップS4で指定した幾何変換式におけるパラメータを決定する。初回には、CPU1は、パラメータを初期値とする。例えば、CPU1は、パラメータpからpを全てゼロとする。なお、この初期値は一例である。一般に、非線形最小二乗法で得られる解は初期パラメータの影響を受ける。そのため、位置合わせの対象が3つ以上の画像である場合には、前の画像での位置合わせの結果を加味して初期値を決定することにより、より好適な初期値を決定し、効率の良い位置合わせを実現することができる。 In step S5, the CPU 1 determines parameters in the geometric transformation formula designated in step S4. At the first time, the CPU 1 sets the parameters as initial values. For example, the CPU 1 sets all the parameters p 0 to p 5 to zero. This initial value is an example. In general, the solution obtained by the nonlinear least square method is affected by the initial parameters. Therefore, when the alignment target is three or more images, a more suitable initial value is determined by determining the initial value in consideration of the alignment result in the previous image, and the efficiency is improved. Good alignment can be achieved.

2回目以降のパラメータの決定(更新)については、後述する。   The determination (update) of the parameters after the second time will be described later.

ステップS6において、CPU1は、ステップS3で抽出した特定領域の画像を、ステップS4で指定した幾何変換式に基づいて、幾何変換する。このとき、CPU1は、ステップS5で決定したパラメータにしたがって、幾何変換を行う。   In step S6, the CPU 1 geometrically transforms the image of the specific area extracted in step S3 based on the geometric transformation formula designated in step S4. At this time, the CPU 1 performs geometric transformation according to the parameters determined in step S5.

ステップS7において、CPU1は、ステップS6で幾何変換を行った第1の画像とステップS2で取得した第2の画像とに基づいて、評価値ΔEを算出する。評価値ΔEは、位置合わせの状態を示す評価値であり、以下の式2により求められる。   In step S7, the CPU 1 calculates an evaluation value ΔE based on the first image subjected to geometric transformation in step S6 and the second image acquired in step S2. The evaluation value ΔE is an evaluation value indicating the alignment state, and is obtained by the following equation 2.

Figure 2010170482
Figure 2010170482

式2において、A(f(x,y;p))は、ステップS6で幾何変換を行った第1の画像を示し、B(x,y)は、ステップS2で取得した第2の画像を示す。また、nは、ステップS3で抽出した特定領域に含まれる画素数を示す。   In Equation 2, A (f (x, y; p)) indicates the first image subjected to the geometric transformation in step S6, and B (x, y) indicates the second image acquired in step S2. Show. N represents the number of pixels included in the specific area extracted in step S3.

このようにして算出される評価値ΔEは、その値が小さいほど位置合わせの合致度が高くなる。したがって、位置合わせの処理は、この評価値ΔEが最小となるパラメータを求める処理と置き換えることができる。   As the evaluation value ΔE calculated in this way is smaller, the matching degree of alignment is higher. Therefore, the alignment process can be replaced with a process for obtaining a parameter that minimizes the evaluation value ΔE.

ステップS8において、CPU1は、ステップS5で決定したパラメータに基づいて、ヤコビアン行列を算出する。ヤコビアン行列は、以下の式3により求められる。   In step S8, the CPU 1 calculates a Jacobian matrix based on the parameters determined in step S5. The Jacobian matrix is obtained by the following Equation 3.

Figure 2010170482
Figure 2010170482

ステップS9において、CPU1は、ステップS2で取得した第2の画像の微分画像を作成する。CPU1は、x方向およびy方向のそれぞれについて、隣接画像との差分を求めることにより微分画像を作成する。微分画像∇Bは、以下の式4により求められる。   In step S9, the CPU 1 creates a differential image of the second image acquired in step S2. CPU1 produces a differential image by calculating | requiring the difference with an adjacent image about each of x direction and y direction. The differential image ∇B is obtained by the following equation 4.

Figure 2010170482
Figure 2010170482

ステップS10において、CPU1は、ステップS8で算出したヤコビアン行列と、ステップS9で作成した微分画像とに基づいて、ヘッシアン行列を算出する。ヘッシアン行列は、以下の式5により求められる。   In step S10, the CPU 1 calculates a Hessian matrix based on the Jacobian matrix calculated in step S8 and the differential image created in step S9. The Hessian matrix is obtained by the following Equation 5.

Figure 2010170482
Figure 2010170482

ステップS11において、CPU1は、ステップS7で算出した評価値ΔEの値が、前回算出した評価値ΔEの値よりも減少しているか否かを判定する。CPU1は、ステップS7で算出した評価値ΔEの値が、前回算出した評価値ΔEの値よりも減少していると判定すると、位置合わせが収束方向に進んでいると判断してステップS12に進む。一方、ステップS7で算出した評価値ΔEの値が、前回算出した評価値ΔEの値よりも減少していないと判定すると、位置合わせが収束方向に進んでいないと判断して、CPU1は、後述するステップS13に進む。   In step S11, the CPU 1 determines whether or not the evaluation value ΔE calculated in step S7 is smaller than the previously calculated evaluation value ΔE. If the CPU 1 determines that the value of the evaluation value ΔE calculated in step S7 is smaller than the value of the evaluation value ΔE calculated last time, the CPU 1 determines that the alignment is proceeding in the convergence direction and proceeds to step S12. . On the other hand, if it is determined that the evaluation value ΔE calculated in step S7 is not smaller than the previously calculated evaluation value ΔE, it is determined that the alignment has not progressed in the convergence direction, and the CPU 1 will be described later. The process proceeds to step S13.

ステップS12において、CPU1は、位置合わせが収束方向に進んでいることを前提としたパラメータ修正値Δpを算出する。パラメータ修正値Δpは、以下の式6および式7により求められる。   In step S12, the CPU 1 calculates a parameter correction value Δp based on the assumption that the alignment is proceeding in the convergence direction. The parameter correction value Δp is obtained by the following equations 6 and 7.

Figure 2010170482
Figure 2010170482

Figure 2010170482
Figure 2010170482

なお、式6中のσの初期値は、非特許文献1に開示されているLevenberg-Marquardt法によれば、0.01程度である。CPU1は、式6にしたがってHLMを算出する際に、式6中のσを1/10倍する。なお、式6中のσは、評価値ΔEの収束度合いに応じて、式6中の行列の対角行列を調整するための係数である。この対角行列が小さくなると、Levenberg-Marquardt法は、一般的なGauss-Newton法となる。一方、対角行列が大きくなると、最急降下の方向に解に近づく。 Note that the initial value of σ in Equation 6 is approximately 0.01 according to the Levenberg-Marquardt method disclosed in Non-Patent Document 1. When the CPU 1 calculates HLM according to Equation 6, σ in Equation 6 is multiplied by 1/10. Note that σ in Expression 6 is a coefficient for adjusting the diagonal matrix of the matrix in Expression 6 according to the degree of convergence of the evaluation value ΔE. When this diagonal matrix becomes small, the Levenberg-Marquardt method becomes a general Gauss-Newton method. On the other hand, as the diagonal matrix increases, the solution approaches in the direction of steepest descent.

また、評価値ΔEの収束度合いに応じて、式6中のσの変化量を変更させても良い。例えば、評価値ΔEが過去最小値となった場合には、上述した1/10倍に代えて1/5倍としたり、評価値ΔEが前回算出した評価値ΔEと比べて小さくなった場合には、上述した1/10倍に代えて1/2倍としたりすることで、収束精度をさらに高めることができる。   Further, the amount of change of σ in Equation 6 may be changed according to the degree of convergence of the evaluation value ΔE. For example, when the evaluation value ΔE becomes the past minimum value, the evaluation value ΔE is changed to 1/5 times instead of the above-mentioned 1/10 times, or the evaluation value ΔE is smaller than the evaluation value ΔE calculated last time. In this case, the convergence accuracy can be further improved by setting the value to 1/2 times instead of 1/10 times described above.

ステップS13において、CPU1は、位置合わせが収束方向に進んでいないことを前提としたパラメータ修正値Δpを算出する。パラメータ修正値Δpの算出は、上述したステップS12と同様に行う。ただし、CPU1は、式6にしたがってHLMを算出する際に、Levenberg-Marquardt法によれば、式6中のσを10倍する。CPU1は、パラメータ修正値Δpを算出すると、上述したステップS5に戻る。 In step S <b> 13, the CPU 1 calculates a parameter correction value Δp based on the assumption that the alignment has not progressed in the convergence direction. The parameter correction value Δp is calculated in the same manner as in step S12 described above. However, when calculating HLM according to Equation 6, the CPU 1 multiplies σ in Equation 6 by 10 according to the Levenberg-Marquardt method. After calculating the parameter correction value Δp, the CPU 1 returns to step S5 described above.

なお、ステップS12と同様に、評価値ΔEの収束度合いに応じて、式6中のσの変化量を、例えば、「2倍」や「5倍」のように変更させることにより、収束精度をさらに高めることができる。   As in step S12, the accuracy of convergence is increased by changing the amount of change in σ in Equation 6 to, for example, “2 times” or “5 times” according to the degree of convergence of the evaluation value ΔE. It can be further increased.

ステップS14において、CPU1は、ステップS12で算出したパラメータ修正値Δpの値が、所定の閾値εよりも小さいか否かを判定する。CPU1は、ステップS12で算出したパラメータ修正値Δpの値が、所定の閾値εよりも小さいと判定すると、位置合わせが収束したと判断する。そして、CPU1は、ステップS11で算出した評価値ΔEに相当するパラメータを記憶し、一連の処理を終了する。
一方、ステップS12で算出したパラメータ修正値Δpの値が、所定の閾値εよりも大きいと判定すると、位置合わせが収束していないと判断して、CPU1は、上述したステップS5に戻る。
In step S14, the CPU 1 determines whether or not the parameter correction value Δp calculated in step S12 is smaller than a predetermined threshold ε. If the CPU 1 determines that the parameter correction value Δp calculated in step S12 is smaller than the predetermined threshold value ε, the CPU 1 determines that the alignment has converged. Then, the CPU 1 stores a parameter corresponding to the evaluation value ΔE calculated in step S11 and ends a series of processes.
On the other hand, if it is determined that the parameter correction value Δp calculated in step S12 is greater than the predetermined threshold value ε, the CPU 1 determines that the alignment has not converged and returns to step S5 described above.

次に、ステップS5における2回目以降のパラメータの決定(更新)について説明する。基本的には、ステップS5における2回目以降のパラメータの決定を行う際に、CPU1は、前回決定したパラメータと、ステップS12またはステップS13で算出したパラメータ修正値Δpとにしたがって、新たなパラメータを決定する。   Next, the determination (update) of parameters for the second and subsequent times in step S5 will be described. Basically, when determining parameters for the second and subsequent times in step S5, the CPU 1 determines a new parameter according to the previously determined parameter and the parameter correction value Δp calculated in step S12 or step S13. To do.

なお、2回目以降のパラメータの決定において、パラメータ(パラメータpからp)を適切に変更することにより、解に正確かつ早く行き着くことができる。そこで、本実施形態では、パラメータの特性を考慮して、各パラメータの重みを調整することにより、好適な位置合わせを実現する。 In the second and subsequent parameter determinations, it is possible to arrive at the solution accurately and quickly by appropriately changing the parameters (parameters p 0 to p 5 ). Therefore, in the present embodiment, suitable positioning is realized by adjusting the weight of each parameter in consideration of the characteristic of the parameter.

本実施形態では、6つのパラメータ(パラメータpからp、式1参照)を用いているため、式3に示したヤコビアン行列は、以下の式8のようになる。 In the present embodiment, since six parameters (parameters p 0 to p 5 , see Equation 1) are used, the Jacobian matrix shown in Equation 3 is expressed by Equation 8 below.

Figure 2010170482
Figure 2010170482

そのため、式6で説明したσの影響を受けるパラメータを、画素位置を表すx,yに依存する項と依存しない項とに分けることができる。式6は、2つの画像の位置合わせを目的とした幾何変換式である。したがって、パラメータpからpは、x方向およびy方向への並進の項と、それ以外の回転を含む項とに分けることができる。より具体的には、式6において、パラメータpからpは、回転方向の変化に関わる項であり、パラメータpは、x方向の並進に関わる項であり、パラメータpは、y方向の並進に関わる項である。すなわち、それぞれの項の変動が、幾何変換後の画像に与える影響は異なる。 Therefore, the parameter affected by σ described in Expression 6 can be divided into a term depending on x and y representing a pixel position and a term independent of the term. Equation 6 is a geometric transformation equation for the purpose of aligning two images. Therefore, the parameters p 0 to p 5 can be divided into terms for translation in the x and y directions and terms that include other rotations. More specifically, in Expression 6, parameters p 0 to p 3 are terms related to the change in the rotation direction, parameter p 4 is a term related to translation in the x direction, and parameter p 5 is a value in the y direction. This is a term related to the translation of. That is, the influence of the variation of each term on the image after geometric transformation is different.

例えば、x方向の並進に関わる項であるパラメータp=1の場合、幾何変換後の画像はx方向に1画素ずれるだけである。しかし、回転方向の変化に関わる項であるパラメータp=1の場合、幾何変換後の画像は90度回転する。
よって、σの値を一律に変化させるよりも、6つのパラメータ(パラメータpからp)ごとにσを変化させる方が、解が収束しやすくなることが予想される。すなわち、各パラメータの特性と、位置合わせの対象となる画像の特徴とを鑑みて、幾何変換後の画像への影響が大きいと推測できるパラメータの重み(≒σ)を大きくして重視し、幾何変換後の画像への影響が小さいと推測できるパラメータの重み(≒σ)を小さくすることにより、解に正確かつ早く行き着くように制御することができる。
For example, when the parameter p 4 = 1, which is a term related to translation in the x direction, the image after geometric transformation is shifted by one pixel in the x direction. However, when the parameter p 0 = 1, which is a term related to the change in the rotation direction, the image after geometric transformation is rotated 90 degrees.
Therefore, it is expected that the solution is more easily converged by changing σ for each of the six parameters (parameters p 0 to p 5 ) than changing the value of σ uniformly. In other words, in consideration of the characteristics of each parameter and the characteristics of the image to be aligned, the parameter weight (≈σ) that can be estimated to have a large effect on the image after geometric transformation is emphasized by increasing the weight. By reducing the weight of the parameter (≈σ) that can be estimated to have a small effect on the image after conversion, it is possible to control the solution to arrive at the solution accurately and quickly.

例えば、手持ち(三脚なし)の電子カメラで生成した連写画像を例に挙げて説明する。通常、手持ちの連写撮影では、x方向およびy方向への手ぶれは発生しやすいが、回転方向の手ぶれは発生しにくい。そこで、位置合わせの対象が手持ちの電子カメラで生成した連写画像である場合には、回転方向の変化に関わる項であるパラメータpからpの重み(≒σ)を小さくあるいは、0とし、x方向およびy方向の並進に関わる項であるパラメータpおよびpの重み(≒σ)を大きくして重視する。 For example, a continuous shooting image generated by a hand-held (no tripod) electronic camera will be described as an example. Normally, hand-held continuous shooting tends to cause camera shake in the x and y directions, but it is difficult for camera shake in the rotating direction to occur. Therefore, when the object of alignment is a continuous shot image generated by a hand-held electronic camera, the weights (≈σ) of parameters p 0 to p 3 that are terms related to the change in the rotation direction are made small or 0. The weights (≈σ) of the parameters p 4 and p 5 , which are terms related to translation in the x and y directions, are emphasized.

このような各パラメータの重みの決定は、入力装置30を介したユーザ指示により行われても良いし、CPU1により自動で行われても良い。例えば、CPU1は、ステップS1およびステップS2で取得した第1の画像および第2の画像が生成された際の撮影条件に基づいて、各パラメータの重みを決定しても良い。また、例えば、CPU1は、ステップS1およびステップS2で取得した第1の画像および第2の画像を解析し、各画像に含まれる主要被写体に関する情報に基づいて、各パラメータの重みを決定しても良い。主要被写体に関する情報は、例えば、公知の被写体認識やシーン解析などにより得ることができる。何れの手法においても、各パラメータの特性に鑑み、そのパラメータの影響が大きいものに関しては重みを多くし、影響が小さいものに関しては重みを小さくすれば良い。   Such determination of the weight of each parameter may be performed by a user instruction via the input device 30 or may be automatically performed by the CPU 1. For example, the CPU 1 may determine the weight of each parameter based on the shooting conditions when the first image and the second image acquired in step S1 and step S2 are generated. Further, for example, the CPU 1 analyzes the first image and the second image acquired in step S1 and step S2, and determines the weight of each parameter based on the information about the main subject included in each image. good. Information about the main subject can be obtained by, for example, known subject recognition or scene analysis. In any method, in view of the characteristics of each parameter, the weight is increased for those having a large influence of the parameter, and the weight is decreased for those having a small influence.

以上説明したように、本実施形態によれば、複数のパラメータを用いて、位置合わせに関する評価値を、2つの画像に基づいて算出するとともに、複数のパラメータのそれぞれの重みを設定する。そして、設定された異なるパラメータを用いて算出された複数の評価値を比較して、2つの画像の相対的な位置を検出する。したがって、影響の少ないパラメータや、局所解に陥りやすそうなパラメータを予め除外することができる。そのため、複数のディジタル画像の位置合わせにおいて、局所解に陥る可能性を低減しつつ、高精度な位置合わせを実現することができる。
また、本実施形態によれば、複数のパラメータは、位置合わせに関して異なる特性を有するパラメータを含み、位置合わせにおける並進方向の変化に関するパラメータと、位置合わせにおける回転方向の変化に関するパラメータとを含む。したがって、これらのパラメータのうち、影響の少ないパラメータを適宜調整することにより、局所解に陥る可能性を低減しつつ、高精度な位置合わせを実現することができる。
As described above, according to the present embodiment, an evaluation value related to alignment is calculated based on two images using a plurality of parameters, and weights of the plurality of parameters are set. Then, a plurality of evaluation values calculated using different set parameters are compared to detect the relative positions of the two images. Accordingly, it is possible to exclude in advance parameters that have little influence or parameters that are likely to fall into a local solution. Therefore, in the alignment of a plurality of digital images, it is possible to realize highly accurate alignment while reducing the possibility of falling into a local solution.
Further, according to the present embodiment, the plurality of parameters include parameters having different characteristics with respect to alignment, and include parameters relating to changes in translation direction in alignment and parameters relating to changes in rotation direction in alignment. Therefore, by adjusting the parameters having less influence among these parameters, it is possible to achieve highly accurate alignment while reducing the possibility of falling into a local solution.

また、本実施形態によれば、2つの画像が生成された際の撮影条件と、2つの画像に含まれる主要被写体に関する情報との少なくとも一方に基づいて、重みを設定する。したがって、位置合わせの対象となる画像に応じて、パラメータを最適化することにより、局所解に陥る可能性を低減しつつ、高精度な位置合わせを実現することができる。   Further, according to the present embodiment, the weight is set based on at least one of the shooting conditions when the two images are generated and the information regarding the main subject included in the two images. Therefore, by optimizing parameters according to the image to be aligned, highly accurate alignment can be realized while reducing the possibility of falling into a local solution.

また、本実施形態によれば、2つの画像から、特定の領域の画像を抽出し、評価値を算出する際には、複数のパラメータを用いて、抽出した画像に基づいて評価値を算出する。したがって、処理の負荷を軽減するとともに、処理に要する時間を短縮することができる。   Further, according to the present embodiment, when an image of a specific area is extracted from two images and an evaluation value is calculated, the evaluation value is calculated based on the extracted image using a plurality of parameters. . Therefore, the processing load can be reduced and the time required for the processing can be shortened.

なお、本実施形態で説明した位置合わせの手法(非特許文献1に開示されているLevenberg-Marquardt法)は一例であり、本発明はこの例に限定されない。例えば、本実施形態で説明した6つのパラメータ(パラメータpからp)に代えて、並進方向の変化に関するパラメータと、回転方向の変化に関するパラメータと、拡大縮小に関するパラメータとを含む8つのパラメータを用いて、位置合わせのための評価値を算出する手法にも本発明を同様に適用することができる。また、位置合わせに関して異なる特性を有するパラメータを含む複数のパラメータを用いて、位置合わせのための評価値を算出する他の手法にも本発明を同様に適用することができる。
また、本実施形態では、位置合わせの対象となる画像は、RAW画像、RGB画像、YCbCr画像、JPEG画像など、どのような画像であっても良い。例えば、RGB画像においては、G成分が最も画像の構造を良く表していると考え、G成分のみを対象として上述した処理を行っても良い。また、例えば、YCbCr画像においては、Y成分が最も画像の構造を良く表していると考え、Y成分のみを対象として上述した処理を行っても良い。また、複数成分に対して独立に上述した処理を施し、その結果を総合して全体的な位置合わせの処理を行う構成としても良い。
また、本実施形態では、2つの画像の位置合わせを行うコンピュータ10を例に挙げて説明したが、本発明はこの例に限定されない。図2に示した流れ図の処理の一部または全部を実行するための画像処理プログラムも本発明の具体的態様として有効である。この画像処理プログラムは、媒体に記録されたものであっても良いし、インターネット上のサーバに記録され、インターネットを介してダウンロード可能なものであっても良い。
Note that the alignment method described in the present embodiment (Levenberg-Marquardt method disclosed in Non-Patent Document 1) is an example, and the present invention is not limited to this example. For example, instead of the six parameters (parameters p 0 to p 5 ) described in this embodiment, eight parameters including a parameter relating to a change in translation direction, a parameter relating to a change in rotation direction, and a parameter relating to enlargement / reduction are set. The present invention can be similarly applied to a method of calculating an evaluation value for alignment using the same. Further, the present invention can be similarly applied to other methods for calculating an evaluation value for alignment using a plurality of parameters including parameters having different characteristics regarding alignment.
In the present embodiment, the image to be aligned may be any image such as a RAW image, RGB image, YCbCr image, or JPEG image. For example, in the RGB image, the G component may represent the image structure best, and the above-described processing may be performed only on the G component. Also, for example, in a YCbCr image, the above-described processing may be performed only on the Y component, assuming that the Y component best represents the image structure. Moreover, it is good also as a structure which performs the process mentioned above independently with respect to several components, and integrates the result and performs the process of whole position alignment.
In this embodiment, the computer 10 that performs alignment of two images has been described as an example. However, the present invention is not limited to this example. An image processing program for executing part or all of the processing of the flowchart shown in FIG. 2 is also effective as a specific aspect of the present invention. This image processing program may be recorded on a medium, or may be recorded on a server on the Internet and downloaded via the Internet.

また、本実施形態で説明した処理を行う撮像装置も本発明の具体的態様として有効である。このような撮像装置においては、撮像により生成した複数の画像の位置合わせにおいて、本実施形態で説明した処理を行うことにより、同様の効果を得ることができる。なお、撮像装置に適用する際には、位置合わせの対象となる画像は、連写画像でも良いし、動画像(構図確認用のいわゆるスルー画像を含む)の一部の画像でも良い。   An imaging device that performs the processing described in this embodiment is also effective as a specific aspect of the present invention. In such an imaging apparatus, the same effect can be obtained by performing the processing described in the present embodiment in the alignment of a plurality of images generated by imaging. Note that when applied to the imaging apparatus, the image to be aligned may be a continuous shot image or a partial image of a moving image (including a so-called through image for composition confirmation).

1…CPU,2…記憶部,10…コンピュータ,20…出力装置,30…入力装置 DESCRIPTION OF SYMBOLS 1 ... CPU, 2 ... Memory | storage part, 10 ... Computer, 20 ... Output device, 30 ... Input device

“Lucas-Kanade 20 Years On: A Unifying Framework: Part 1” Simon Baker and Ian Matthews“Lucas-Kanade 20 Years On: A Unifying Framework: Part 1” Simon Baker and Ian Matthews

Claims (13)

2つの画像の位置合わせをコンピュータで実現するための画像処理プログラムであって、
前記2つの画像を取得する取得ステップと、
複数のパラメータを用いて、前記位置合わせに関する評価値を、前記2つの画像に基づいて算出する算出ステップと、
前記複数のパラメータのそれぞれの重みを設定する設定ステップと、
前記設定ステップにおいて設定された異なる前記パラメータを用いて前記算出ステップにおいて算出された複数の前記評価値を比較して、前記2つの画像の相対的な位置を検出する検出ステップと
を備えることを特徴とする画像処理プログラム。
An image processing program for realizing alignment of two images by a computer,
An acquisition step of acquiring the two images;
A calculation step of calculating an evaluation value related to the alignment based on the two images using a plurality of parameters;
A setting step for setting the weight of each of the plurality of parameters;
A detection step of detecting a relative position of the two images by comparing the plurality of evaluation values calculated in the calculation step using the different parameters set in the setting step. An image processing program.
請求項1に記載の画像処理プログラムにおいて、
前記複数のパラメータは、前記位置合わせに関して異なる特性を有するパラメータを含む
ことを特徴とする画像処理プログラム。
In the image processing program according to claim 1,
The image processing program characterized in that the plurality of parameters include parameters having different characteristics with respect to the alignment.
請求項2に記載の画像処理プログラムにおいて、
前記複数のパラメータは、前記位置合わせにおける並進方向の変化に関するパラメータと、前記位置合わせにおける回転方向の変化に関するパラメータと、前記位置合わせにおける拡大縮小に関するパラメータとのうち少なくとも2つのパラメータを含む
ことを特徴とする画像処理プログラム。
The image processing program according to claim 2,
The plurality of parameters include at least two parameters of a parameter relating to a change in a translation direction in the alignment, a parameter relating to a change in a rotation direction in the alignment, and a parameter relating to enlargement / reduction in the alignment. An image processing program.
請求項1に記載の画像処理プログラムにおいて、
前記複数のパラメータは、前記2つの画像を幾何変換するためのパラメータであり、
前記算出ステップでは、前記複数のパラメータを用いて前記2つの画像の少なくとも一方を幾何変換した後に、前記評価値を算出する
ことを特徴とする画像処理プログラム。
In the image processing program according to claim 1,
The plurality of parameters are parameters for geometrically transforming the two images,
In the calculation step, the evaluation value is calculated after geometrically transforming at least one of the two images using the plurality of parameters.
請求項1に記載の画像処理プログラムにおいて、
前記設定ステップでは、前記2つの画像が生成された際の撮影条件と、前記2つの画像に含まれる主要被写体に関する情報との少なくとも一方に基づいて、前記重みを設定する
ことを特徴とする画像処理プログラム。
In the image processing program according to claim 1,
In the setting step, the weight is set based on at least one of a photographing condition when the two images are generated and information on a main subject included in the two images. program.
請求項1に記載の画像処理プログラムにおいて、
前記2つの画像から、特定の領域の画像を抽出する抽出ステップを備え、
前記算出ステップでは、前記複数のパラメータを用いて、前記評価値を、前記抽出ステップにおいて抽出した画像に基づいて算出する
ことを特徴とする画像処理プログラム。
In the image processing program according to claim 1,
An extraction step of extracting an image of a specific region from the two images,
In the calculation step, the evaluation value is calculated based on the image extracted in the extraction step using the plurality of parameters.
2つの画像の位置合わせを行う画像処理装置であって、
前記2つの画像を取得する取得部と、
複数のパラメータを用いて、前記位置合わせに関する評価値を、前記2つの画像に基づいて算出する算出部と、
前記複数のパラメータのそれぞれの重みを設定する設定部と、
前記設定部により設定された異なる前記パラメータを用いて前記算出部により算出された複数の前記評価値を比較して、前記2つの画像の相対的な位置を検出する検出部と
を備えることを特徴とする画像処理装置。
An image processing apparatus for aligning two images,
An acquisition unit for acquiring the two images;
A calculation unit that calculates an evaluation value related to the alignment based on the two images using a plurality of parameters;
A setting unit for setting the weight of each of the plurality of parameters;
A detection unit that detects a relative position of the two images by comparing the plurality of evaluation values calculated by the calculation unit using the different parameters set by the setting unit. An image processing apparatus.
請求項7に記載の画像処理装置において、
前記複数のパラメータは、前記位置合わせに関して異なる特性を有するパラメータを含む
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 7.
The plurality of parameters include parameters having different characteristics with respect to the alignment.
請求項8に記載の画像処理装置において、
前記複数のパラメータは、前記位置合わせにおける並進方向の変化に関するパラメータと、前記位置合わせにおける回転方向の変化に関するパラメータと、前記位置合わせにおける拡大縮小に関するパラメータとのうち少なくとも2つのパラメータを含む
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 8.
The plurality of parameters include at least two parameters of a parameter relating to a change in a translation direction in the alignment, a parameter relating to a change in a rotation direction in the alignment, and a parameter relating to enlargement / reduction in the alignment. An image processing apparatus.
請求項7に記載の画像処理装置において、
前記複数のパラメータは、前記2つの画像を幾何変換するためのパラメータであり、
前記算出部は、前記複数のパラメータを用いて前記2つの画像の少なくとも一方を幾何変換した後に、前記評価値を算出する
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 7.
The plurality of parameters are parameters for geometrically transforming the two images,
The image processing apparatus, wherein the calculation unit calculates the evaluation value after geometrically converting at least one of the two images using the plurality of parameters.
請求項7に記載の画像処理装置において、
前記設定部は、前記2つの画像が生成された際の撮影条件と、前記2つの画像に含まれる主要被写体に関する情報との少なくとも一方に基づいて、前記重みを設定する
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 7.
The setting unit sets the weight based on at least one of a photographing condition when the two images are generated and information on a main subject included in the two images. apparatus.
請求項7に記載の画像処理装置において、
前記2つの画像から、特定の領域の画像を抽出する抽出部を備え、
前記算出部は、前記複数のパラメータを用いて、前記評価値を、前記抽出部により抽出した画像に基づいて算出する
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 7.
An extraction unit that extracts an image of a specific region from the two images;
The calculation unit calculates the evaluation value based on the image extracted by the extraction unit using the plurality of parameters.
請求項7から請求項12のいずれか1項に記載の画像処理装置と、
被写体像を撮像して画像を生成する撮像部とを備え、
前記取得部は、前記撮像部により生成された画像を前記2つの画像として取得する
ことを特徴とする撮像装置。
The image processing apparatus according to any one of claims 7 to 12,
An imaging unit that captures a subject image and generates an image,
The said acquisition part acquires the image produced | generated by the said imaging part as said two images. The imaging device characterized by the above-mentioned.
JP2009014493A 2009-01-26 2009-01-26 Image processing program, image processing apparatus, and imaging apparatus Active JP5347530B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009014493A JP5347530B2 (en) 2009-01-26 2009-01-26 Image processing program, image processing apparatus, and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009014493A JP5347530B2 (en) 2009-01-26 2009-01-26 Image processing program, image processing apparatus, and imaging apparatus

Publications (2)

Publication Number Publication Date
JP2010170482A true JP2010170482A (en) 2010-08-05
JP5347530B2 JP5347530B2 (en) 2013-11-20

Family

ID=42702562

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009014493A Active JP5347530B2 (en) 2009-01-26 2009-01-26 Image processing program, image processing apparatus, and imaging apparatus

Country Status (1)

Country Link
JP (1) JP5347530B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012123652A (en) * 2010-12-09 2012-06-28 Nikon Corp Image processing device, imaging device and program
JP2013120091A (en) * 2011-12-06 2013-06-17 Canon Inc Position/posture measuring apparatus, and processing method and program for the same

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005038396A (en) * 2003-06-23 2005-02-10 Sony Corp Image processing method and device and program
JP2005309558A (en) * 2004-04-19 2005-11-04 Sony Corp Image processing method and apparatus, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005038396A (en) * 2003-06-23 2005-02-10 Sony Corp Image processing method and device and program
JP2005309558A (en) * 2004-04-19 2005-11-04 Sony Corp Image processing method and apparatus, and program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG199700189009; 小松隆、外1名: '大域的動き領域分割法とその順次走査変換への応用' 電子情報通信学会論文誌D-II情報・システムII-情報処理 J80-D-2(2), 19970225, 第479〜486頁, 一般社団法人電子情報通信学会 *
JPN6012066837; 小松隆、外1名: '大域的動き領域分割法とその順次走査変換への応用' 電子情報通信学会論文誌D-II情報・システムII-情報処理 J80-D-2(2), 19970225, 第479〜486頁, 一般社団法人電子情報通信学会 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012123652A (en) * 2010-12-09 2012-06-28 Nikon Corp Image processing device, imaging device and program
JP2013120091A (en) * 2011-12-06 2013-06-17 Canon Inc Position/posture measuring apparatus, and processing method and program for the same

Also Published As

Publication number Publication date
JP5347530B2 (en) 2013-11-20

Similar Documents

Publication Publication Date Title
JPWO2014069632A1 (en) Image processing apparatus, image processing method, image processing program, and recording medium
JP5911296B2 (en) Image processing apparatus, imaging apparatus, microscope system, image processing method, and image processing program
JP5538573B2 (en) Composition-based exposure measurement method and apparatus for automatic image correction
JP6594170B2 (en) Image processing apparatus, image processing method, image projection system, and program
JP6656035B2 (en) Image processing apparatus, imaging apparatus, and control method for image processing apparatus
JP5433886B2 (en) Image comparison apparatus and image comparison program
US9384552B2 (en) Image registration methods for still image stabilization
CN110278408A (en) Image processing apparatus, image processing method and storage medium
JP5251410B2 (en) Camera work calculation program, imaging apparatus, and camera work calculation method
JP2008217526A (en) Image processor, image processing program, and image processing method
JP2016123044A (en) Subject tracking device, and control method and program therefor
JP2021165944A (en) Learning method, program, and image processing apparatus
JP5970012B2 (en) Image processing apparatus and control method thereof
JP5347530B2 (en) Image processing program, image processing apparatus, and imaging apparatus
JP6371515B2 (en) X-ray image processing apparatus, X-ray image processing method, and program
JP5099120B2 (en) Template matching device, camera equipped with template matching device, computer matching program for computer
JP6178646B2 (en) Imaging apparatus and image shake correction processing method
JP5527035B2 (en) Image processing program, image processing apparatus, and imaging apparatus
JP2009198452A (en) Device for measuring deformation with use of plural images
JP5635389B2 (en) Image processing apparatus, image processing program, and X-ray diagnostic imaging apparatus
JP5294967B2 (en) Image processing apparatus and image processing method
JP4534992B2 (en) Pixel position acquisition method
JP2015233202A (en) Image processing apparatus, image processing method, and program
JP2010177832A (en) Image processing apparatus and image processing method
JP6826277B2 (en) Image processing system, image processing method, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120907

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130723

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130805

R150 Certificate of patent or registration of utility model

Ref document number: 5347530

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250