JP6323009B2 - Image processing apparatus and image processing program - Google Patents

Image processing apparatus and image processing program Download PDF

Info

Publication number
JP6323009B2
JP6323009B2 JP2014001381A JP2014001381A JP6323009B2 JP 6323009 B2 JP6323009 B2 JP 6323009B2 JP 2014001381 A JP2014001381 A JP 2014001381A JP 2014001381 A JP2014001381 A JP 2014001381A JP 6323009 B2 JP6323009 B2 JP 6323009B2
Authority
JP
Japan
Prior art keywords
image
reference point
correction coefficient
points
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014001381A
Other languages
Japanese (ja)
Other versions
JP2015130082A (en
Inventor
佳 孫
佳 孫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2014001381A priority Critical patent/JP6323009B2/en
Publication of JP2015130082A publication Critical patent/JP2015130082A/en
Application granted granted Critical
Publication of JP6323009B2 publication Critical patent/JP6323009B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置及び画像処理プログラムに関する。   The present invention relates to an image processing apparatus and an image processing program.

特許文献1には、特定マークを用いることなく、少ない計算量で、画像の位置ずれ、回転、変倍を補正することを課題とし、パターン抽出部で入力画像より所定の大きさ範囲のパターンを抽出し、同一パターン抽出部で、参照画像のパターンと同一のパターンを見つけ、対応点検出部で、入力画像と参照画像の対応した同一パターンの重心を検出し、画像補正部は対応パターンの重心位置間のずれを算出して補正式を決定し、この補正式にしたがって入力画像の補正画像を生成し、文字画像切り出し部で参照画像の文字画像存在領域の座標に基づき補正画像より文字画像を切り出し、これを文字認識部で文字認識することが開示されている。   In Patent Document 1, it is an object to correct misalignment, rotation, and scaling of an image with a small amount of calculation without using a specific mark, and a pattern extraction unit generates a pattern in a predetermined size range from an input image. The same pattern extraction unit finds the same pattern as the pattern of the reference image, the corresponding point detection unit detects the centroid of the same pattern corresponding to the input image and the reference image, and the image correction unit detects the centroid of the corresponding pattern A correction formula is determined by calculating a shift between positions, a corrected image of the input image is generated according to the correction formula, and the character image is extracted from the corrected image based on the coordinates of the character image existing area of the reference image by the character image cutout unit. It is disclosed to cut out and recognize a character by a character recognition unit.

特許文献2には、放射線画像の位置合わせ方法において、位置合わせのためにマーカー等を被写体とともに記録することなく、迅速で精度の高い位置合わせをすることを課題とし、X線画像aにテンプレート領域を、X線画像bに基準領域を設定し、ここで、相関法を用いてテンプレート領域を基準領域に合わせるテンプレートマッチングを行い、このとき共通する直交座標を、シートに設定し、次いで、アフィン変換の係数を求め、テンプレート領域について回転・拡大の補正するアフィン変換を行い、変換後のテンプレート領域について再度テンプレートマッチングを行い、アフィン変換の係数を求めて、回転・拡大又は縮小及び平行移動を補正するアフィン変換を行うことが開示されている。   Japanese Patent Laid-Open No. 2004-260260 has an object to perform quick and highly accurate alignment without recording a marker or the like together with a subject for alignment in a radiographic image alignment method. A reference region is set in the X-ray image b, and template matching is performed by matching the template region with the reference region using a correlation method. At this time, the common orthogonal coordinates are set in the sheet, and then the affine transformation is performed. The affine transformation that corrects the rotation / enlargement of the template area is performed, the template matching is performed again on the template area after the conversion, the affine transformation coefficient is obtained, and the rotation / enlargement / reduction and translation are corrected. An affine transformation is disclosed.

特開平09−245173号公報JP 09-245173 A 特開平06−165036号公報Japanese Patent Laid-Open No. 06-165036

本発明は、第1の画像と第2の画像との位置合わせのための補正係数を決定する場合にあって、本構成を有していない場合に比較して、精度のよい補正係数を決定するようにした画像処理装置及び画像処理プログラムを提供することを目的としている。   The present invention determines a correction coefficient for alignment between the first image and the second image, and determines a correction coefficient with higher accuracy than when the present configuration is not provided. An object of the present invention is to provide an image processing apparatus and an image processing program.

かかる目的を達成するための本発明の要旨とするところは、次の各項の発明に存する。
請求項1の発明は、第1の画像における複数の基準点を抽出する第1の抽出手段と、第2の画像における複数の基準点を抽出する第2の抽出手段と、前記第1の抽出手段によって抽出された基準点に対応する候補となる、前記第2の抽出手段によって抽出された基準点を検出する検出手段と、前記検出された基準点の数に基づいて、前記第1の抽出手段によって抽出された基準点に対応する前記第2の画像における基準点があるか否かを判断し、基準点があると判断した場合は、前記検出手段によって検出された候補となっている基準点のうちから、前記第1の抽出手段によって抽出された基準点に対応する前記第2の画像における基準点を対応付ける対応付け手段と、前記対応付けられた前記第1の画像における基準点と前記第2の画像における基準点に基づいて、前記第1の画像と前記第2の画像との位置合わせのための補正係数を決定する補正係数決定手段を具備し、前記補正係数決定手段は、前記第2の抽出手段によって抽出された基準点に対応する前記第1の画像における基準点が複数ある場合は、前記第1の画像における複数の基準点のうち、1つの基準点を前記第2の画像における基準点に対応する基準点として選択し、補正係数を決定し、前記基準点の選択は、前記基準点の周囲の対応付けを参照し、前記第2の画像における基準点の位置関係と同じ位置関係を有している対応付けとなるように、基準点を選択することを特徴とする画像処理装置である。
請求項2の発明は、第1の画像における複数の基準点を抽出する第1の抽出手段と、第2の画像における複数の基準点を抽出する第2の抽出手段と、前記第1の抽出手段によって抽出された基準点に対応する候補となる、前記第2の抽出手段によって抽出された基準点を検出する検出手段と、前記検出された基準点の数に基づいて、前記第1の抽出手段によって抽出された基準点に対応する前記第2の画像における基準点があるか否かを判断し、基準点があると判断した場合は、前記検出手段によって検出された候補となっている基準点のうちから、前記第1の抽出手段によって抽出された基準点に対応する前記第2の画像における基準点を対応付ける対応付け手段と、前記対応付けられた前記第1の画像における基準点と前記第2の画像における基準点に基づいて、前記第1の画像と前記第2の画像との位置合わせのための補正係数を決定する補正係数決定手段を具備し、前記対応付け手段は、前記補正係数に基づいた前記第1の画像と前記第2の画像との位置合わせを行い、前回対応付けなかった前記第1の抽出手段によって抽出された基準点に対応する前記第2の画像における基準点を対応付け、前記補正係数決定手段は、前記対応付け手段による1回目に対応付けられた前記第1の画像における基準点と前記第2の画像における基準点の組と、前記対応付け手段による2回目に対応付けられた前記第1の画像における基準点と前記第2の画像における基準点の組とを用いて、2回目の補正係数を決定することを特徴とする画像処理装置である。
The gist of the present invention for achieving the object lies in the inventions of the following items.
The first aspect of the present invention is a first extraction means for extracting a plurality of reference points in a first image, a second extraction means for extracting a plurality of reference points in a second image, and the first extraction. Detection means for detecting a reference point extracted by the second extraction means, which is a candidate corresponding to the reference point extracted by the means, and the first extraction based on the number of the detected reference points It is determined whether or not there is a reference point in the second image corresponding to the reference point extracted by the means, and if it is determined that there is a reference point, the reference that is a candidate detected by the detection means Among the points, associating means for associating the reference point in the second image corresponding to the reference point extracted by the first extracting means; the reference point in the associated first image; and In the second image Correction coefficient determining means for determining a correction coefficient for alignment between the first image and the second image based on a reference point at which the second extraction is performed. When there are a plurality of reference points in the first image corresponding to the reference points extracted by the means, one reference point in the second image is selected as a reference point in the second image. Is selected as a reference point corresponding to the reference point, a correction coefficient is determined, and the reference point is selected by referring to the association around the reference point and having the same positional relationship as the reference point in the second image. The image processing apparatus is characterized in that a reference point is selected so as to have the correspondence that it has.
According to a second aspect of the present invention, there is provided a first extraction unit that extracts a plurality of reference points in a first image, a second extraction unit that extracts a plurality of reference points in a second image, and the first extraction. Detection means for detecting a reference point extracted by the second extraction means, which is a candidate corresponding to the reference point extracted by the means, and the first extraction based on the number of the detected reference points It is determined whether or not there is a reference point in the second image corresponding to the reference point extracted by the means, and if it is determined that there is a reference point, the reference that is a candidate detected by the detection means Among the points, associating means for associating the reference point in the second image corresponding to the reference point extracted by the first extracting means; the reference point in the associated first image; and In the second image Correction coefficient determining means for determining a correction coefficient for alignment between the first image and the second image based on a reference point in which the matching means is based on the correction coefficient Performing alignment between the first image and the second image, and associating a reference point in the second image corresponding to the reference point extracted by the first extraction means that was not previously associated; The correction coefficient determining means associates a set of the reference point in the first image and the reference point in the second image associated with the first time by the associating means, and the second association by the associating means. The second correction coefficient is determined using a reference point in the first image and a set of reference points in the second image.

請求項の発明は、前記対応付け手段は、前記検出手段によって検出された基準点の数が予め定められた値よりも多い又は以上である場合は、前記第1の抽出手段によって抽出された基準点に対応する前記第2の画像における基準点を対応付けず、それ以外の場合は、前記検出手段によって検出された候補となっている基準点のうちから、前記第1の抽出手段によって抽出された基準点に対応する前記第2の画像における基準点を対応付けることを特徴とする請求項1又は2に記載の画像処理装置である。 According to a third aspect of the present invention, the association means is extracted by the first extraction means when the number of reference points detected by the detection means is greater than or greater than a predetermined value. The reference point in the second image corresponding to the reference point is not associated, otherwise it is extracted by the first extraction means from the reference points that are candidates detected by the detection means. the image processing apparatus according to claim 1 or 2, characterized in that associating the reference point in the second image corresponding to the reference points.

請求項の発明は、前記対応付け手段は、前記補正係数に基づいた前記第1の画像と前記第2の画像との位置合わせを行い、前回対応付けなかった前記第1の抽出手段によって抽出された基準点に対応する前記第2の画像における基準点を対応付け、前記補正係数決定手段は、2回目の補正係数を決定することを特徴とする請求項1に記載の画像処理装置である。 According to a fourth aspect of the present invention, the association unit performs alignment between the first image and the second image based on the correction coefficient, and is extracted by the first extraction unit that has not been associated previously. associating a reference point in the second image corresponding to the reference points, the correction factor determining means is an image processing apparatus according to claim 1, wherein the determining a second correction coefficient .

請求項の発明は、前記補正係数決定手段は、前記第2の抽出手段によって抽出された基準点に対応する前記第1の画像における基準点が複数ある場合は、(1)該対応付けを用いないで、補正係数を決定すること、(2)前記第1の画像における複数の基準点のうち、1つの基準点を前記第2の画像における基準点に対応する基準点として選択し、補正係数を決定すること、のいずれか一方の処理を行うことを特徴とする請求項2に記載の画像処理装置である。 According to a fifth aspect of the present invention, when there are a plurality of reference points in the first image corresponding to the reference points extracted by the second extracting means, the correction coefficient determining means (1) Determining a correction coefficient without using (2) selecting one reference point as a reference point corresponding to the reference point in the second image from among a plurality of reference points in the first image, and correcting The image processing apparatus according to claim 2, wherein one of the processes of determining a coefficient is performed.

請求項6の発明は、コンピュータを、第1の画像における複数の基準点を抽出する第1の抽出手段と、第2の画像における複数の基準点を抽出する第2の抽出手段と、前記第1の抽出手段によって抽出された基準点に対応する候補となる、前記第2の抽出手段によって抽出された基準点を検出する検出手段と、前記検出された基準点の数に基づいて、前記第1の抽出手段によって抽出された基準点に対応する前記第2の画像における基準点があるか否かを判断し、基準点があると判断した場合は、前記検出手段によって検出された候補となっている基準点のうちから、前記第1の抽出手段によって抽出された基準点に対応する前記第2の画像における基準点を対応付ける対応付け手段と、前記対応付けられた前記第1の画像における基準点と前記第2の画像における基準点に基づいて、前記第1の画像と前記第2の画像との位置合わせのための補正係数を決定する補正係数決定手段として機能させ、前記補正係数決定手段は、前記第2の抽出手段によって抽出された基準点に対応する前記第1の画像における基準点が複数ある場合は、前記第1の画像における複数の基準点のうち、1つの基準点を前記第2の画像における基準点に対応する基準点として選択し、補正係数を決定し、前記基準点の選択は、前記基準点の周囲の対応付けを参照し、前記第2の画像における基準点の位置関係と同じ位置関係を有している対応付けとなるように、基準点を選択することを特徴とする画像処理プログラムである。
請求項7の発明は、コンピュータを、第1の画像における複数の基準点を抽出する第1の抽出手段と、第2の画像における複数の基準点を抽出する第2の抽出手段と、前記第1の抽出手段によって抽出された基準点に対応する候補となる、前記第2の抽出手段によって抽出された基準点を検出する検出手段と、前記検出された基準点の数に基づいて、前記第1の抽出手段によって抽出された基準点に対応する前記第2の画像における基準点があるか否かを判断し、基準点があると判断した場合は、前記検出手段によって検出された候補となっている基準点のうちから、前記第1の抽出手段によって抽出された基準点に対応する前記第2の画像における基準点を対応付ける対応付け手段と、前記対応付けられた前記第1の画像における基準点と前記第2の画像における基準点に基づいて、前記第1の画像と前記第2の画像との位置合わせのための補正係数を決定する補正係数決定手段として機能させ、前記対応付け手段は、前記補正係数に基づいた前記第1の画像と前記第2の画像との位置合わせを行い、前回対応付けなかった前記第1の抽出手段によって抽出された基準点に対応する前記第2の画像における基準点を対応付け、前記補正係数決定手段は、前記対応付け手段による1回目に対応付けられた前記第1の画像における基準点と前記第2の画像における基準点の組と、前記対応付け手段による2回目に対応付けられた前記第1の画像における基準点と前記第2の画像における基準点の組とを用いて、2回目の補正係数を決定することを特徴とする画像処理プログラムである。
According to a sixth aspect of the present invention, there is provided a computer comprising: a first extracting unit that extracts a plurality of reference points in a first image; a second extracting unit that extracts a plurality of reference points in a second image; Based on the number of the detected reference points, detection means for detecting the reference points extracted by the second extracting means, which are candidates corresponding to the reference points extracted by one extracting means, It is determined whether or not there is a reference point in the second image corresponding to the reference point extracted by one extraction unit, and if it is determined that there is a reference point, the candidate is detected by the detection unit. An association means for associating a reference point in the second image corresponding to the reference point extracted by the first extraction means, and a reference in the associated first image Point and Based on a reference point in the second image, it functions as a correction coefficient determination means for determining a correction coefficient for alignment between the first image and the second image, and the correction coefficient determination means includes: When there are a plurality of reference points in the first image corresponding to the reference points extracted by the second extracting means, one reference point is selected from the plurality of reference points in the first image. Selecting a reference point corresponding to the reference point in the image of the image, determining a correction coefficient, selecting the reference point with reference to the association around the reference point, and the positional relationship of the reference point in the second image The image processing program is characterized in that the reference point is selected so that the correspondence has the same positional relationship.
According to a seventh aspect of the present invention, there is provided a computer comprising: a first extracting unit that extracts a plurality of reference points in a first image; a second extracting unit that extracts a plurality of reference points in a second image; Based on the number of the detected reference points, detection means for detecting the reference points extracted by the second extracting means, which are candidates corresponding to the reference points extracted by one extracting means, It is determined whether or not there is a reference point in the second image corresponding to the reference point extracted by one extraction unit, and if it is determined that there is a reference point, the candidate is detected by the detection unit. An association means for associating a reference point in the second image corresponding to the reference point extracted by the first extraction means, and a reference in the associated first image Point and Based on a reference point in the second image, it functions as a correction coefficient determination means for determining a correction coefficient for alignment between the first image and the second image, and the association means A reference in the second image corresponding to the reference point extracted by the first extraction means that has not been previously matched is performed by aligning the first image and the second image based on a correction coefficient. Corresponding points, the correction coefficient determining means is a combination of a reference point in the first image and a reference point in the second image associated with the first time by the associating means, and the associating means. An image processing program for determining a correction coefficient for the second time using a reference point in the first image and a set of reference points in the second image associated with the second time.

請求項1の画像処理装置によれば、第1の画像と第2の画像との位置合わせのための補正係数を決定する場合にあって、本構成を有していない場合に比較して、精度のよい補正係数を決定することができる。
請求項2の画像処理装置によれば、第1の画像と第2の画像との位置合わせのための補正係数を決定する場合にあって、本構成を有していない場合に比較して、精度のよい補正係数を決定することができる。
According to the image processing device of claim 1, when determining a correction coefficient for alignment between the first image and the second image, compared to a case where the present configuration is not provided, A highly accurate correction coefficient can be determined.
According to the image processing device of claim 2, when determining a correction coefficient for alignment between the first image and the second image, compared to a case where the present configuration is not provided, A highly accurate correction coefficient can be determined.

請求項の画像処理装置によれば、第1の画像の基準点に対応する候補となる、第2の画像の基準点が、予め定められた値よりも多い又は以上である場合は、対応する基準点は無しとすることができる。 According to the image processing device of claim 3 , if the reference point of the second image, which is a candidate corresponding to the reference point of the first image, is greater than or greater than a predetermined value, There may be no reference point to perform.

請求項の画像処理装置によれば、対応する基準点が無いと判断された場合にあって、位置合わせを行った後に対応付けを行うことができる。 According to the image processing apparatus of the fourth aspect , when it is determined that there is no corresponding reference point, it is possible to perform the association after performing the alignment.

請求項の画像処理装置によれば、第2の画像の基準点に対応する第1の画像の基準点が複数ある場合であっても、第1の画像と第2の画像との位置合わせのための補正係数を決定することができる。 According to the image processing device of claim 5 , even when there are a plurality of reference points of the first image corresponding to the reference points of the second image, the first image and the second image are aligned. The correction factor for can be determined.

請求項の画像処理プログラムによれば、第1の画像と第2の画像との位置合わせのための補正係数を決定する場合にあって、本構成を有していない場合に比較して、精度のよい補正係数を決定することができる。
請求項7の画像処理プログラムによれば、第1の画像と第2の画像との位置合わせのための補正係数を決定する場合にあって、本構成を有していない場合に比較して、精度のよい補正係数を決定することができる。
According to the image processing program of claim 6 , when determining the correction coefficient for the alignment of the first image and the second image, compared to the case where the present configuration is not provided, A highly accurate correction coefficient can be determined.
According to the image processing program of claim 7, when determining the correction coefficient for alignment between the first image and the second image, compared to the case where the present configuration is not provided, A highly accurate correction coefficient can be determined.

本実施の形態の構成例についての概念的なモジュール構成図である。It is a conceptual module block diagram about the structural example of this Embodiment. 本実施の形態による処理例を示すフローチャートである。It is a flowchart which shows the process example by this Embodiment. 本実施の形態による処理対象の画像の例を示す説明図である。It is explanatory drawing which shows the example of the image of the process target by this Embodiment. 本実施の形態による処理例を示す説明図である。It is explanatory drawing which shows the process example by this Embodiment. 本実施の形態による処理例を示す説明図である。It is explanatory drawing which shows the process example by this Embodiment. 本実施の形態による処理例を示す説明図である。It is explanatory drawing which shows the process example by this Embodiment. 本実施の形態による処理例を示す説明図である。It is explanatory drawing which shows the process example by this Embodiment. 本実施の形態による処理例を示す説明図である。It is explanatory drawing which shows the process example by this Embodiment. 本実施の形態を実現するコンピュータのハードウェア構成例を示すブロック図である。It is a block diagram which shows the hardware structural example of the computer which implement | achieves this Embodiment.

以下、図面に基づき本発明を実現するにあたっての好適な一実施の形態の例を説明する。
図1は、本実施の形態の構成例についての概念的なモジュール構成図を示している。
なお、モジュールとは、一般的に論理的に分離可能なソフトウェア(コンピュータ・プログラム)、ハードウェア等の部品を指す。したがって、本実施の形態におけるモジュールはコンピュータ・プログラムにおけるモジュールのことだけでなく、ハードウェア構成におけるモジュールも指す。それゆえ、本実施の形態は、それらのモジュールとして機能させるためのコンピュータ・プログラム(コンピュータにそれぞれの手順を実行させるためのプログラム、コンピュータをそれぞれの手段として機能させるためのプログラム、コンピュータにそれぞれの機能を実現させるためのプログラム)、システム及び方法の説明をも兼ねている。ただし、説明の都合上、「記憶する」、「記憶させる」、これらと同等の文言を用いるが、これらの文言は、実施の形態がコンピュータ・プログラムの場合は、記憶装置に記憶させる、又は記憶装置に記憶させるように制御するの意である。また、モジュールは機能に一対一に対応していてもよいが、実装においては、1モジュールを1プログラムで構成してもよいし、複数モジュールを1プログラムで構成してもよく、逆に1モジュールを複数プログラムで構成してもよい。また、複数モジュールは1コンピュータによって実行されてもよいし、分散又は並列環境におけるコンピュータによって1モジュールが複数コンピュータで実行されてもよい。なお、1つのモジュールに他のモジュールが含まれていてもよい。また、以下、「接続」とは物理的な接続の他、論理的な接続(データの授受、指示、データ間の参照関係等)の場合にも用いる。「予め定められた」とは、対象としている処理の前に定まっていることをいい、本実施の形態による処理が始まる前はもちろんのこと、本実施の形態による処理が始まった後であっても、対象としている処理の前であれば、そのときの状況・状態に応じて、又はそれまでの状況・状態に応じて定まることの意を含めて用いる。「予め定められた値」が複数ある場合は、それぞれ異なった値であってもよいし、2以上の値(もちろんのことながら、全ての値も含む)が同じであってもよい。また、「Aである場合、Bをする」という意味を有する記載は、「Aであるか否かを判断し、Aであると判断した場合はBをする」の意味で用いる。ただし、Aであるか否かの判断が不要である場合を除く。
また、システム又は装置とは、複数のコンピュータ、ハードウェア、装置等がネットワーク(一対一対応の通信接続を含む)等の通信手段で接続されて構成されるほか、1つのコンピュータ、ハードウェア、装置等によって実現される場合も含まれる。「装置」と「システム」とは、互いに同義の用語として用いる。もちろんのことながら、「システム」には、人為的な取り決めである社会的な「仕組み」(社会システム)にすぎないものは含まない。
また、各モジュールによる処理毎に又はモジュール内で複数の処理を行う場合はその処理毎に、対象となる情報を記憶装置から読み込み、その処理を行った後に、処理結果を記憶装置に書き出すものである。したがって、処理前の記憶装置からの読み込み、処理後の記憶装置への書き出しについては、説明を省略する場合がある。なお、ここでの記憶装置としては、ハードディスク、RAM(Random Access Memory)、外部記憶媒体、通信回線を介した記憶装置、CPU(Central Processing Unit)内のレジスタ等を含んでいてもよい。
Hereinafter, an example of a preferred embodiment for realizing the present invention will be described with reference to the drawings.
FIG. 1 shows a conceptual module configuration diagram of a configuration example of the present embodiment.
The module generally refers to components such as software (computer program) and hardware that can be logically separated. Therefore, the module in the present embodiment indicates not only a module in a computer program but also a module in a hardware configuration. Therefore, the present embodiment is a computer program for causing these modules to function (a program for causing a computer to execute each procedure, a program for causing a computer to function as each means, and a function for each computer. This also serves as an explanation of the program and system and method for realizing the above. However, for the sake of explanation, the words “store”, “store”, and equivalents thereof are used. However, when the embodiment is a computer program, these words are stored in a storage device or stored in memory. It is the control to be stored in the device. Modules may correspond to functions one-to-one, but in mounting, one module may be configured by one program, or a plurality of modules may be configured by one program, and conversely, one module May be composed of a plurality of programs. The plurality of modules may be executed by one computer, or one module may be executed by a plurality of computers in a distributed or parallel environment. Note that one module may include other modules. Hereinafter, “connection” is used not only for physical connection but also for logical connection (data exchange, instruction, reference relationship between data, etc.). “Predetermined” means that the process is determined before the target process, and not only before the process according to this embodiment starts but also after the process according to this embodiment starts. In addition, if it is before the target processing, it is used in accordance with the situation / state at that time or with the intention to be decided according to the situation / state up to that point. When there are a plurality of “predetermined values”, they may be different values, or two or more values (of course, including all values) may be the same. In addition, the description having the meaning of “do B when it is A” is used in the meaning of “determine whether or not it is A and do B when it is judged as A”. However, the case where it is not necessary to determine whether or not A is excluded.
In addition, the system or device is configured by connecting a plurality of computers, hardware, devices, and the like by communication means such as a network (including one-to-one correspondence communication connection), etc., and one computer, hardware, device. The case where it implement | achieves by etc. is also included. “Apparatus” and “system” are used as synonymous terms. Of course, the “system” does not include a social “mechanism” (social system) that is an artificial arrangement.
In addition, when performing a plurality of processes in each module or in each module, the target information is read from the storage device for each process, and the processing result is written to the storage device after performing the processing. is there. Therefore, description of reading from the storage device before processing and writing to the storage device after processing may be omitted. Here, the storage device may include a hard disk, a RAM (Random Access Memory), an external storage medium, a storage device via a communication line, a register in a CPU (Central Processing Unit), and the like.

本実施の形態である画像処理装置100は、第1の画像と第2の画像との位置合わせのための補正係数を決定するものであって、図1の例に示すように、基準抽出モジュール110A、基準抽出モジュール110B、基準候補抽出モジュール120、基準対応付けモジュール130、補正係数算出モジュール140を有している。
第1の画像と第2の画像との位置合わせとは、第1の画像又は第2の画像のいずれか一方の画像Aに対してアフィン変換に代表される幾何学変換を行い、他方の画像Bとの一致する重なりが最大(異なる部分が最小)となるようにするものである。そして、その後の処理として例えば、そのアフィン変換後の画像Aと画像Bとの比較を行い、画像Aと画像Bとの差分を抽出すること等に用いるものである。例えば、画像Bが原本であり、画像Aが原本に追記、削除、改変等の変更を行った画像である場合に、その変更部分を抽出することが行える。
アフィン変換とは、数式(1)に示す式である。(x,y)は画像の座標であり、(x’,y’)はアフィン変換後の画像の座標である。すなわち、画像内の(x,y)の画素を他方の画像の(x’,y’)の位置へ移動することによって、アフィン変換を行う。

Figure 0006323009
この式の中で、a、b、c、d、t、tを、位置合わせのための補正係数という。a、b、c、dは拡大縮小、回転を示す補正係数であり、t、tは移動を示す補正係数である。 The image processing apparatus 100 according to the present embodiment determines a correction coefficient for alignment between the first image and the second image. As shown in the example of FIG. 1, the reference extraction module 110A, a reference extraction module 110B, a reference candidate extraction module 120, a reference association module 130, and a correction coefficient calculation module 140.
The alignment between the first image and the second image is performed by performing geometric transformation represented by affine transformation on the image A of either the first image or the second image, and the other image. The coincidence overlap with B is maximized (different portions are minimized). Then, as a subsequent process, for example, the comparison between the image A and the image B after the affine transformation is performed, and the difference between the image A and the image B is extracted. For example, when the image B is an original and the image A is an image in which changes such as addition, deletion, and modification have been made to the original, the changed portion can be extracted.
The affine transformation is an expression shown in Expression (1). (X, y) is the coordinates of the image, and (x ′, y ′) is the coordinates of the image after affine transformation. That is, the affine transformation is performed by moving the (x, y) pixel in the image to the (x ′, y ′) position in the other image.
Figure 0006323009
In this formula, a, b, c, d , t x, the t y, that the correction factor for alignment. a, b, c, and d are correction coefficients indicating enlargement / reduction and rotation, and t x and ty are correction coefficients indicating movement.

基準抽出モジュール110Aは、基準候補抽出モジュール120と接続されている。基準抽出モジュール110Aは、参照画像105Aにおける複数の基準点を抽出する。
基準抽出モジュール110Bは、基準候補抽出モジュール120と接続されている。基準抽出モジュール110Bは、処理画像105Bにおける複数の基準点を抽出する。
なお、基準抽出モジュール110A、基準抽出モジュール110Bは、参照画像105A、処理画像105Bに対してそれぞれ処理を行う2つのモジュールとして用意してもよいし、実体として1つの基準抽出モジュール110で2つの画像を処理するモジュールである場合も含まれている。その場合は、参照画像105A、処理画像105Bを時系列に処理するが、いずれを先に処理してもよい。
参照画像105A、処理画像105Bは、互いに独立した画像(何ら関係のない画像)であってよいが、一般的には、いずれか一方が原本の画像であり、他方がその原本に対して変更を行った画像である。なお、ここでの原本とは、他方との相対的な意味での原本であり、変更が行われる前の画像の意である。画像は、2値画像、グレー画像、カラー画像のいずれであってもよい。また、スキャナ等によって読み取られた画像、文書作成装置等で作成された文書を画像に変換したもの等であってもよい。
The reference extraction module 110A is connected to the reference candidate extraction module 120. The reference extraction module 110A extracts a plurality of reference points in the reference image 105A.
The reference extraction module 110B is connected to the reference candidate extraction module 120. The reference extraction module 110B extracts a plurality of reference points in the processed image 105B.
Note that the standard extraction module 110A and the standard extraction module 110B may be prepared as two modules that perform processing on the reference image 105A and the processed image 105B, respectively. It is also included in the case of a module that processes In that case, the reference image 105A and the processed image 105B are processed in time series, but either may be processed first.
The reference image 105A and the processed image 105B may be images that are independent of each other (an image that has nothing to do with each other), but in general, one of the images is an original image and the other is a change to the original image. It is the image which went. The original here is an original in a relative sense with the other, and means an image before the change is made. The image may be a binary image, a gray image, or a color image. Further, an image read by a scanner or the like, a document created by a document creation device or the like converted into an image, or the like may be used.

基準点とは、位置合わせのために用いられる点である。基準点として、例えば、次に示すものがある。
(1)ラベリング処理を施して、そのラベリング処理によって抽出された各ラベルの重心。
(2)特徴点。具体的には、例えば、表を形成する特徴である、十字点、T字点、L字点(これらの90度単位で回転したものを含む)等の特徴点(パターン)を基準点として抽出する。
なお、参照画像105A、処理画像105Bから抽出する基準点は、それぞれ複数ある。そもそも1個のみでは、基準対応付けモジュール130による対応付け処理が不要である。
The reference point is a point used for alignment. Examples of reference points include the following.
(1) The center of gravity of each label extracted by the labeling process after the labeling process.
(2) Feature points. Specifically, for example, feature points (patterns) such as cross points, T-shaped points, and L-shaped points (including those rotated in units of 90 degrees) that are features forming a table are extracted as reference points. To do.
There are a plurality of reference points extracted from the reference image 105A and the processed image 105B. In the first place, the association processing by the reference association module 130 is not necessary with only one.

基準候補抽出モジュール120は、基準抽出モジュール110A、基準抽出モジュール110B、基準対応付けモジュール130と接続されている。基準候補抽出モジュール120は、基準抽出モジュール110Aによって抽出された基準点に対応する候補となる、基準抽出モジュール110Bによって抽出された基準点を検出する。なお、基準抽出モジュール110Aによって抽出された基準点を「参照画像105Aの基準点」ともいい、基準抽出モジュール110Bによって抽出された基準点を「処理画像105Bの基準点」ともいう。
基準候補抽出モジュール120は、処理画像105Bの該当する基準点を、参照画像105Aに射影し、参照画像105Aの基準点から予め定められた距離内にある基準点を候補として抽出する。抽出する候補の数は、複数の場合がある。もちろんのことながら、参照画像105Aの該当する基準点を、処理画像105Bに射影してもよい。また、射影としては、例えば、予め定められた方向、距離での移動(移動距離が0である場合、すなわち参照画像105Aと処理画像105Bをそのまま重ね合わせることも含む)後に重ね合わせることがある。
位置合わせのための基準点としての候補を抽出するには、例えば、次に示す方法がある。
(1)パタンマッチング
(2)特徴量比較
特徴量としては、例えば、基準点の座標位置、ラベルの大きさ、基準点の黒画素数、基準点の細線化後の黒画素数、隣の基準点までの距離、二つ隣の基準点までの距離、点のタイプ(前述の十字点、T字点、L字点を区別するための種類等)等がある。特徴空間における2つの特徴量の距離(参照画像105Aの基準点の特徴量と処理画像105Bの基準点の特徴量との間の距離)が予め定められた距離以下である場合に、処理画像105Bのその基準点を候補として抽出する。
The reference candidate extraction module 120 is connected to the reference extraction module 110A, the reference extraction module 110B, and the reference association module 130. The reference candidate extraction module 120 detects a reference point extracted by the reference extraction module 110B, which is a candidate corresponding to the reference point extracted by the reference extraction module 110A. Note that the reference point extracted by the reference extraction module 110A is also referred to as “reference point of the reference image 105A”, and the reference point extracted by the reference extraction module 110B is also referred to as “reference point of the processed image 105B”.
The reference candidate extraction module 120 projects the corresponding reference point of the processed image 105B onto the reference image 105A, and extracts a reference point within a predetermined distance from the reference point of the reference image 105A as a candidate. There may be a plurality of candidates to be extracted. Of course, the corresponding reference point of the reference image 105A may be projected onto the processed image 105B. Further, as projection, for example, there is a case where the image is superimposed after movement in a predetermined direction and distance (including a case where the movement distance is 0, ie, the reference image 105A and the processed image 105B are directly superimposed).
In order to extract candidates as reference points for alignment, for example, the following method is available.
(1) Pattern matching (2) Feature quantity comparison As the feature quantity, for example, the coordinate position of the reference point, the size of the label, the number of black pixels at the reference point, the number of black pixels after thinning the reference point, the adjacent reference There are a distance to a point, a distance to two adjacent reference points, a point type (a type for distinguishing the above-described cross point, T-shaped point, L-shaped point, and the like). When the distance between two feature amounts in the feature space (the distance between the feature amount of the reference point of the reference image 105A and the feature amount of the reference point of the processed image 105B) is equal to or less than a predetermined distance, the processed image 105B Are extracted as candidates.

基準対応付けモジュール130は、基準候補抽出モジュール120、補正係数算出モジュール140と接続されている。基準対応付けモジュール130は、基準候補抽出モジュール120によって検出された基準点の数に基づいて、基準抽出モジュール110Aによって抽出された基準点に対応する処理画像105Bにおける基準点があるか否かを判断し、基準点があると判断した場合は、基準候補抽出モジュール120によって検出された候補となっている基準点のうちから、基準抽出モジュール110Aによって抽出された基準点に対応する処理画像105Bにおける基準点を選択することによって対応付けを行う。   The reference association module 130 is connected to the reference candidate extraction module 120 and the correction coefficient calculation module 140. Based on the number of reference points detected by the reference candidate extraction module 120, the reference association module 130 determines whether or not there is a reference point in the processed image 105B corresponding to the reference point extracted by the reference extraction module 110A. If it is determined that there is a reference point, the reference in the processed image 105B corresponding to the reference point extracted by the reference extraction module 110A from the reference points that are candidates detected by the reference candidate extraction module 120. Association is performed by selecting a point.

具体的には、基準対応付けモジュール130は、基準候補抽出モジュール120によって検出された基準点の数が予め定められた値よりも多い又は以上である場合は、基準抽出モジュール110Aによって抽出された基準点に対応する処理画像105Bにおける基準点を対応付けず(結果的に対応する基準点は無しとする)、それ以外の場合は、基準候補抽出モジュール120によって検出された候補となっている基準点のうちから、基準抽出モジュール110Aによって抽出された基準点に対応する処理画像105Bにおける基準点を選択することによって対応付けを行う。
参照画像105Aの1つの基準点に対して、対応の候補となる処理画像105Bの基準点が複数ある場合、その候補の数が予め定められた値以上であるならば、参照画像105Aのその基準点には、対応する基準点が無いとする。処理画像105Bの複数の基準点のいずれを対応していると判断するかが困難であり、補正係数算出モジュール140による補正係数の算出には適さないからである。
そして、候補の数が予め定められた値未満であるならば、次に示す方法で候補から対応する基準点を抽出する。
(1)2つの基準点の座標の距離が最も近い。
(2)2つの基準点の特徴から求めた類似度(特徴空間における2つの基準点間の距離の逆数)が最も高い。
Specifically, if the number of reference points detected by the reference candidate extraction module 120 is greater than or equal to a predetermined value, the reference association module 130 extracts the reference extracted by the reference extraction module 110A. Reference points in the processed image 105B corresponding to the points are not associated (resulting in no corresponding reference points), otherwise reference points that are candidates detected by the reference candidate extraction module 120 The association is performed by selecting a reference point in the processed image 105B corresponding to the reference point extracted by the reference extraction module 110A.
In the case where there are a plurality of reference points of the processed image 105B that are candidates for a single reference point of the reference image 105A, if the number of candidates is greater than or equal to a predetermined value, the reference of the reference image 105A A point has no corresponding reference point. This is because it is difficult to determine which of the plurality of reference points of the processed image 105B corresponds, and is not suitable for the calculation of the correction coefficient by the correction coefficient calculation module 140.
If the number of candidates is less than a predetermined value, a corresponding reference point is extracted from the candidates by the following method.
(1) The distance between the coordinates of the two reference points is closest.
(2) The similarity obtained from the features of the two reference points (the reciprocal of the distance between the two reference points in the feature space) is the highest.

補正係数算出モジュール140は、基準対応付けモジュール130と接続されている。補正係数算出モジュール140は、基準対応付けモジュール130によって対応付けられた参照画像105Aにおける基準点と処理画像105Bにおける基準点に基づいて、参照画像105Aと処理画像105Bとの位置合わせのための補正係数を決定する。補正係数の決定は、既存の技術を用いればよい。
また、補正係数算出モジュール140は、基準抽出モジュール110Bによって抽出された基準点に対応する参照画像105Aにおける基準点が複数ある場合は、(1)その対応付けを用いないで、補正係数を決定すること、(2)参照画像105Aにおける複数の基準点のうち、1つの基準点を処理画像105Bにおける基準点に対応する基準点として選択し、補正係数を決定すること、のいずれか一方の処理を行うようにしてもよい。この処理については、図8の例を用いて後述する。
The correction coefficient calculation module 140 is connected to the reference association module 130. The correction coefficient calculation module 140 is a correction coefficient for aligning the reference image 105A and the processed image 105B based on the reference point in the reference image 105A and the reference point in the processed image 105B that are associated by the reference association module 130. To decide. An existing technique may be used to determine the correction coefficient.
In addition, when there are a plurality of reference points in the reference image 105A corresponding to the reference point extracted by the reference extraction module 110B, the correction coefficient calculation module 140 determines (1) a correction coefficient without using the association. (2) One of the plurality of reference points in the reference image 105A is selected as a reference point corresponding to the reference point in the processed image 105B, and a correction coefficient is determined. You may make it perform. This process will be described later using the example of FIG.

また、基準対応付けモジュール130、補正係数算出モジュール140の処理を繰り返してもよい。2回目の処理として、以下のように行う。
基準対応付けモジュール130は、補正係数算出モジュール140によって決定された補正係数に基づいた参照画像105Aと処理画像105Bとの位置合わせを行い、前回対応付けなかった(前回対応する基準点が無いと判断された)基準抽出モジュール110Aによって抽出された基準点に対応する処理画像105Bにおける基準点を選択することによって対応付けを行うようにしてもよい。
補正係数算出モジュール140は、2回目の補正係数を決定する。具体的には、基準対応付けモジュール130による1回目の対応付けによる基準点の組と、2回目の対応付けによる基準点の組を用いて、補正係数を決定する。
2回目の処理については、図7の例を用いて後述する。
Further, the processes of the reference association module 130 and the correction coefficient calculation module 140 may be repeated. The second processing is performed as follows.
The reference association module 130 aligns the reference image 105A and the processed image 105B based on the correction coefficient determined by the correction coefficient calculation module 140, and did not associate the previous time (determines that there is no reference point corresponding to the previous time). Correlation may be performed by selecting a reference point in the processed image 105B corresponding to the reference point extracted by the reference extraction module 110A.
The correction coefficient calculation module 140 determines a correction coefficient for the second time. Specifically, the correction coefficient is determined using the reference point set by the first association by the reference association module 130 and the reference point set by the second association.
The second process will be described later using the example of FIG.

図2は、本実施の形態による処理例を示すフローチャートである。
ステップS202では、基準抽出モジュール110Aが、参照画像105Aを受け付ける。参照画像105Aとして、図3(b)の例に示すものがある。例えば、修正前の画像(原画像)である。
ステップS204では、基準抽出モジュール110Aが、参照画像105Aから位置合わせ用の基準点を抽出する。ここでは、十字点、T字点、L字点を基準点として抽出する。
ステップS206では、基準抽出モジュール110Bが、処理画像105Bを受け付ける。処理画像105Bとして、図3(a)の例に示すものがある。例えば、修正後の画像(原画像に変更を加えたもの)である。
ステップS208では、基準抽出モジュール110Bが、処理画像105Bから位置合わせ用の基準点を抽出する。ここでは、十字点、T字点、L字点を基準点として抽出する。
なお、ステップS202、S204の組とステップS206、S208の組は、いずれを先に行ってもよいし、並列的に処理を行ってもよい。
図4は、本実施の形態による処理例を示す説明図である。図4(a)の例は、参照画像105Aと処理画像105Bを重ね合わせたものである。図4(b)の例は、ステップS204、ステップS208の処理結果(基準点の抽出結果)を、図4(a)の例に反映したものである。なお、図4の例では、□印は、参照画像105Aの基準点を表している。〇印は、処理画像105Bの基準点を表している。
FIG. 2 is a flowchart showing an example of processing according to this embodiment.
In step S202, the standard extraction module 110A receives the reference image 105A. An example of the reference image 105A is shown in the example of FIG. For example, it is an image (original image) before correction.
In step S204, the reference extraction module 110A extracts a reference point for alignment from the reference image 105A. Here, a cross point, a T-shaped point, and an L-shaped point are extracted as reference points.
In step S206, the reference extraction module 110B receives the processed image 105B. An example of the processed image 105B is shown in the example of FIG. For example, it is a corrected image (an original image with a change).
In step S208, the reference extraction module 110B extracts a reference point for alignment from the processed image 105B. Here, a cross point, a T-shaped point, and an L-shaped point are extracted as reference points.
Note that either the set of steps S202 and S204 and the set of steps S206 and S208 may be performed first or may be performed in parallel.
FIG. 4 is an explanatory diagram showing a processing example according to the present embodiment. In the example of FIG. 4A, the reference image 105A and the processed image 105B are superimposed. In the example of FIG. 4B, the processing results (reference point extraction results) of step S204 and step S208 are reflected in the example of FIG. In the example of FIG. 4, the □ marks indicate the reference points of the reference image 105A. A circle represents a reference point of the processed image 105B.

ステップS210では、基準候補抽出モジュール120が、参照画像105Aの基準点から対象とする基準点を選択する。
ステップS212では、基準候補抽出モジュール120が、処理画像105B内の基準点から、参照画像105A内の対象とした基準点と対応する基準対応候補点を抽出する。
ステップS214では、基準候補抽出モジュール120が、抽出した基準対応候補点の数は、予め定められた値以下であるか否かを判断し、予め定められた値以下である場合はステップS216へ進み、それ以外の場合はステップS218へ進む。
ステップS216では、基準対応付けモジュール130が、基準対応候補点内から1つの対応基準点を選択することによって、対応付けを行う。
ステップS218では、基準対応付けモジュール130が、参照画像105Aの対象としている基準点には、対応基準点は「無し」とする。
ステップS220では、基準候補抽出モジュール120が、参照画像105A内の基準点で対応付け処理が終了していないものが残っているか否かを判断し、残っている場合はステップS210へ戻り、それ以外の場合はステップS222へ進む。
ステップS222では、補正係数算出モジュール140が、補正係数を算出する。
In step S210, the reference candidate extraction module 120 selects a target reference point from the reference points of the reference image 105A.
In step S212, the standard candidate extraction module 120 extracts a standard correspondence candidate point corresponding to the target standard point in the reference image 105A from the standard point in the processed image 105B.
In step S214, the reference candidate extraction module 120 determines whether or not the number of extracted reference correspondence candidate points is equal to or less than a predetermined value. If it is equal to or less than a predetermined value, the process proceeds to step S216. In other cases, the process proceeds to step S218.
In step S216, the reference association module 130 performs association by selecting one corresponding reference point from among the reference correspondence candidate points.
In step S218, the reference association module 130 sets the corresponding reference point to “none” for the reference point that is the target of the reference image 105A.
In step S220, the criterion candidate extraction module 120 determines whether or not there remains a reference point in the reference image 105A for which the association processing has not been completed. If it remains, the process returns to step S210, otherwise In this case, the process proceeds to step S222.
In step S222, the correction coefficient calculation module 140 calculates a correction coefficient.

図5は、本実施の形態による処理例を示す説明図である。
図5(a)に示す例は、参照画像105Aに処理画像105Bを重ね合わせたものである。参照画像105A内の基準点502を対象とする基準点とする。
図5(b)に示す例は、基準点502を処理画像105Bに射影したものである。予め定められた方向、距離での移動を行い、基準点502を射影基準点504へ射影する。
図5(c)に示す例は、射影基準点504の特徴量が類似している処理画像105B内の基準点(基準対応候補点512、基準対応候補点514、基準対応候補点516)を候補として抽出したものである。ここでは、射影基準点504から予め定められた距離以内にあって、点のタイプ(T字点)が同じものである基準点を抽出したものである。
図5(d)に示す例は、候補の数が予め定められた値(ここでは3つ)以下のため、候補の中から、射影基準点504と候補まで距離が一番近い基準対応候補点512を選択し、基準点502と基準対応候補点512とを対応付ける。
FIG. 5 is an explanatory diagram showing a processing example according to the present embodiment.
In the example shown in FIG. 5A, the processed image 105B is superimposed on the reference image 105A. The reference point 502 in the reference image 105A is set as a reference point.
In the example shown in FIG. 5B, the reference point 502 is projected onto the processed image 105B. Moving in a predetermined direction and distance, the reference point 502 is projected onto the projection reference point 504.
In the example shown in FIG. 5C, the reference points (reference correspondence candidate point 512, reference correspondence candidate point 514, reference correspondence candidate point 516) in the processed image 105B having similar feature quantities of the projection reference point 504 are candidates. As extracted. Here, a reference point that is within a predetermined distance from the projection reference point 504 and has the same point type (T-point) is extracted.
In the example shown in FIG. 5D, since the number of candidates is equal to or less than a predetermined value (three in this case), the reference corresponding candidate point having the closest distance from the candidate to the projection reference point 504. 512 is selected, and the reference point 502 and the reference correspondence candidate point 512 are associated with each other.

図6は、本実施の形態による処理例を示す説明図である。これは、図5の例とは異なり、候補の数が、予め定められた値より多い場合の例を示している。
図6(a)に示す例は、参照画像105Aに処理画像105Bを重ね合わせたものである。参照画像105A内の基準点602を対象とする基準点とする。
図6(b)に示す例は、基準点602を処理画像105Bに射影したものである。予め定められた方向、距離での移動を行い、基準点602を射影基準点604へ射影する。
図6(c)に示す例は、射影基準点604の特徴量が類似している処理画像105B内の基準点(基準対応候補点612、基準対応候補点614、基準対応候補点616、基準対応候補点618)を候補として抽出したものである。ここでは、射影基準点604から予め定められた距離以内にあって、点のタイプ(十字点)が同じものである基準点を抽出したものである。
図6(d)に示す例は、候補の数が予め定められた値(ここでは3つ)より多いため、射影基準点604(基準点602)に対応する基準点は無いとしたものである。
FIG. 6 is an explanatory diagram showing a processing example according to the present embodiment. This shows an example in which the number of candidates is greater than a predetermined value, unlike the example of FIG.
In the example shown in FIG. 6A, the reference image 105A is overlaid with the processed image 105B. The reference point 602 in the reference image 105A is set as a reference point.
In the example shown in FIG. 6B, the reference point 602 is projected onto the processed image 105B. Movement is performed in a predetermined direction and distance, and the reference point 602 is projected onto the projection reference point 604.
The example shown in FIG. 6C is a reference point (reference correspondence candidate point 612, reference correspondence candidate point 614, reference correspondence candidate point 616, reference correspondence in the processed image 105B in which the feature amount of the projection reference point 604 is similar. Candidate points 618) are extracted as candidates. Here, a reference point that is within a predetermined distance from the projection reference point 604 and has the same point type (cross point) is extracted.
In the example shown in FIG. 6D, there are no reference points corresponding to the projection reference point 604 (reference point 602) because the number of candidates is larger than a predetermined value (here, three). .

図7は、本実施の形態による処理例を示す説明図である。
図7(a)に示す例は、参照画像105Aに処理画像105Bを重ね合わせたものである。参照画像105A内の基準点702を対象とする基準点とする。
図7(b)に示す例は、基準点702を処理画像105Bに射影したものである。予め定められた方向、距離での移動を行い、基準点702を射影基準点704へ射影する。
図7(c)に示す例は、射影基準点704の特徴量が類似している処理画像105B内の基準点(基準対応候補点712、基準対応候補点714、基準対応候補点716)を候補として抽出したものである。ここでは、射影基準点704から予め定められた距離以内にあって、点のタイプ(T字点)が同じものである基準点を抽出したものである。
図7(d)に示す例は、候補の数が予め定められた値(ここでは3つ)以下のため、候補の中から、射影基準点704と候補まで距離が一番近い基準対応候補点712を選択し、基準点702と基準対応候補点712とを対応付ける。
図7(e)に示す例は、図7(a)から(d)までの処理を繰り返すことによって、対応付けが行われたものである。ここでは、T字点、L字点の基準点(表の外周にある基準点)については候補の数が予め定められた値以下であるので、対応付けが行われ、十字点の基準点については候補の数が予め定められた値より多いので、対応付けが行われなかったことを示している。つまり、1回目の処理によって対応付けられた基準点同士を示している。
FIG. 7 is an explanatory diagram illustrating a processing example according to the present exemplary embodiment.
In the example shown in FIG. 7A, the processed image 105B is superimposed on the reference image 105A. A reference point 702 in the reference image 105A is set as a reference point.
In the example shown in FIG. 7B, the reference point 702 is projected onto the processed image 105B. Moving in a predetermined direction and distance, the reference point 702 is projected onto the projection reference point 704.
In the example shown in FIG. 7C, reference points (reference correspondence candidate point 712, reference correspondence candidate point 714, reference correspondence candidate point 716) in the processed image 105B having similar feature quantities of the projection reference point 704 are candidates. As extracted. Here, a reference point that is within a predetermined distance from the projection reference point 704 and has the same point type (T-point) is extracted.
In the example shown in FIG. 7D, since the number of candidates is equal to or less than a predetermined value (three in this case), the reference corresponding candidate point having the closest distance from the candidate to the projection reference point 704. 712 is selected, and the reference point 702 and the reference corresponding candidate point 712 are associated with each other.
In the example illustrated in FIG. 7E, the association is performed by repeating the processes from FIGS. 7A to 7D. Here, since the number of candidates is less than or equal to a predetermined value for the reference points for T-shaped points and L-shaped points (reference points on the outer periphery of the table), the association is performed and the reference points for the cross points are determined. Indicates that the number of candidates is larger than a predetermined value, so that the association is not performed. That is, the reference points associated by the first process are shown.

そして、対応付けが行われた基準点の組を用いて、補正係数算出モジュール140が、図7(f)に示す式(1)の補正係数を算出する。図7(g)以降の処理は、2回目の処理である。
図7(g)に示す例は、1回目の処理で、対応付けが行われなかった基準点を対象とする基準点とする。この例では、十字点の基準点である基準点722とする。
図7(h)に示す例は、図7(f)に示す式(1)を用いて、参照画像105Aと処理画像105Bとの位置合わせ(射影)を行ったものである。基準点722は射影基準点724の位置へ移動する。
図7(i)に示す例は、射影基準点724に対応する候補である基準対応候補点732、基準対応候補点734、基準対応候補点736、基準対応候補点738を抽出する。なお、1回目の処理で基準候補抽出モジュール120が抽出したものをそのまま利用してもよい。そして、射影基準点724と距離が一番近い基準対応候補点734を対応すべき基準点として選択することによって、基準点722(射影基準点724)と基準対応候補点734とを対応付ける。ここでの2回目の対応付けは、候補の数と予め定められた値との比較を行わずに、対応付けを行っている。既に補正係数の算出がされた後の位置合わせであるので、候補の数が多くとも、ノイズとなる対応付けは少なくなっているからである。
この後、1回目の対応付け結果、2回目の対応付け結果を用いて、補正係数算出モジュール140が補正係数を算出する。1回目の対応付け結果を用いた補正係数の算出よりも、多くの対応付け結果を用いて補正係数を算出することになる。
And the correction coefficient calculation module 140 calculates the correction coefficient of Formula (1) shown in FIG.7 (f) using the group of the reference points with which matching was performed. The processing after FIG. 7G is the second processing.
In the example shown in FIG. 7G, a reference point that is a reference point that has not been associated in the first process is set as a target point. In this example, a reference point 722 that is a reference point of the cross point is used.
In the example shown in FIG. 7H, the reference image 105A and the processed image 105B are aligned (projected) using Expression (1) shown in FIG. 7F. The reference point 722 moves to the position of the projection reference point 724.
In the example illustrated in FIG. 7I, a reference correspondence candidate point 732, a reference correspondence candidate point 734, a reference correspondence candidate point 736, and a reference correspondence candidate point 738, which are candidates corresponding to the projection reference point 724, are extracted. Note that what is extracted by the reference candidate extraction module 120 in the first process may be used as it is. The reference point 722 (projection reference point 724) and the reference correspondence candidate point 734 are associated with each other by selecting the reference correspondence candidate point 734 that is closest to the projection reference point 724 as the reference point to be associated. Here, the second association is performed without comparing the number of candidates with a predetermined value. This is because the alignment is performed after the correction coefficient has already been calculated. Therefore, even if the number of candidates is large, the number of associations causing noise is small.
Thereafter, using the first association result and the second association result, the correction coefficient calculation module 140 calculates a correction coefficient. The correction coefficient is calculated using more correlation results than the correction coefficient is calculated using the first correlation result.

図8は、本実施の形態による処理例を示す説明図である。これは、補正係数算出モジュール140が行う処理であって、基準対応付けモジュール130による対応付けの結果、参照画像105A内の複数の基準点が、処理画像105B内の1つの基準点と対応している場合の処理を説明する。
図8(a)の例を用いて、「基準抽出モジュール110Bによって抽出された基準点に対応する参照画像105Aにおける基準点が複数ある場合」について説明する。図8(a)の例は、対応付けされた基準点同士を示している。ここで、基準点802と対応基準点812は対応付けられており、基準点804も対応基準点812と対応付けられている。このように、参照画像105Aの複数の基準点が処理画像105Bの1つの基準点と対応付けられているということは、いずれかの対応付けが誤っていることを示している。したがって、補正係数を算出するのに好ましくない対応付けである。この好ましくない対応付けを排除するために、2つの解決方法を提示する。
FIG. 8 is an explanatory diagram showing a processing example according to the present embodiment. This is a process performed by the correction coefficient calculation module 140. As a result of the association by the reference association module 130, a plurality of reference points in the reference image 105A correspond to one reference point in the processed image 105B. The processing when there are
With reference to the example of FIG. 8A, a case where “a plurality of reference points in the reference image 105A corresponding to the reference points extracted by the reference extraction module 110B are present” will be described. The example of FIG. 8A shows the associated reference points. Here, the reference point 802 and the corresponding reference point 812 are associated with each other, and the reference point 804 is also associated with the corresponding reference point 812. Thus, the fact that a plurality of reference points in the reference image 105A are associated with one reference point in the processed image 105B indicates that any of the associations is incorrect. Therefore, the association is not preferable for calculating the correction coefficient. In order to eliminate this unfavorable association, two solutions are presented.

1つ目の解決法について説明する。すなわち図8(b)の例を用いて、「(1)その対応付けを用いないで、補正係数を決定すること」について説明する。図8(b)の例は、間違った対応付けがある基準点同士を使用しないことを示したもので、この例では、基準点802と対応基準点812との対応付け、基準点804と対応基準点812との対応付けを、補正係数算出モジュール140は用いずに、補正係数の算出を行う。したがって、残った対応付け結果を用いて、補正係数の算出を行う。
2つ目の解決法について説明する。すなわち図8(c)の例を用いて、「(2)参照画像105Aにおける複数の基準点のうち、1つの基準点を処理画像105Bにおける基準点に対応する基準点として選択し、補正係数を決定すること」について説明する。一方の対応付けは用いるが、他方の対応付けを排除するものである。すなわち基準点同士を一対一の対応とする。
参照画像105Aにおける複数の基準点のうち、どれを選択するかについては、次のようにしてもよい。
(1)対象となっている対応付けの周囲の一対一の対応をしている基準点同士に基づいて、対応すべき参照画像105Aの基準点を選択する。例えば、参照画像105Aの基準点と対応する処理画像105Bの基準点との位置関係が同じになるように、対応すべき参照画像105Aの基準点を選択する。より具体的には、基準点802と対応基準点812との対応付け、基準点804と対応基準点812との対応付けの周囲の対応付けを参照すると、参照画像105Aの基準点が左上にあり、処理画像105Bの基準点は右下にあるという位置関係を有しているので、同じ位置関係を有している基準点802と対応基準点812の対応付けを選択し、その対応付けと他の対応付けを用いて(基準点804の対応付けは排除して)、補正係数算出モジュール140が補正係数の算出を行う。
(2)参照画像105Aの基準点のうち、対応する処理画像105Bの基準点との座標距離が最も近いものを選択する。
(3)参照画像105Aの基準点のうち、対応する処理画像105Bの基準点と類似度が最も高いものを選択する。
The first solution will be described. That is, "(1) determining a correction coefficient without using the association" will be described with reference to the example of FIG. The example of FIG. 8B shows that the reference points having the wrong association are not used. In this example, the association between the reference point 802 and the corresponding reference point 812 and the correspondence with the reference point 804 are performed. The correction coefficient calculation module 140 calculates the correction coefficient without using the association with the reference point 812. Therefore, the correction coefficient is calculated using the remaining association result.
The second solution will be described. That is, using the example of FIG. 8C, “(2) Of the plurality of reference points in the reference image 105A, one reference point is selected as the reference point corresponding to the reference point in the processed image 105B, and the correction coefficient is selected. “Determining” will be described. One association is used, but the other association is excluded. That is, the reference points have a one-to-one correspondence.
Which of the plurality of reference points in the reference image 105A is selected may be as follows.
(1) The reference point of the reference image 105A to be selected is selected based on the reference points having a one-to-one correspondence around the target association. For example, the reference point of the reference image 105A to be matched is selected so that the positional relationship between the reference point of the reference image 105A and the reference point of the corresponding processed image 105B is the same. More specifically, referring to the association between the reference point 802 and the corresponding reference point 812 and the association around the association between the reference point 804 and the corresponding reference point 812, the reference point of the reference image 105A is on the upper left. Since the reference point of the processed image 105B has a positional relationship that it is in the lower right, the association between the reference point 802 and the corresponding reference point 812 having the same positional relationship is selected, The correction coefficient calculation module 140 calculates the correction coefficient by using the correlation (excluding the correlation of the reference point 804).
(2) Of the reference points of the reference image 105A, select the one with the closest coordinate distance from the reference point of the corresponding processed image 105B.
(3) Among the reference points of the reference image 105A, the one having the highest similarity with the reference point of the corresponding processed image 105B is selected.

図9を参照して、本実施の形態の画像処理装置のハードウェア構成例について説明する。図9に示す構成は、例えばパーソナルコンピュータ(PC)などによって構成されるものであり、スキャナ等のデータ読み取り部917と、プリンタなどのデータ出力部918を備えたハードウェア構成例を示している。   A hardware configuration example of the image processing apparatus according to the present embodiment will be described with reference to FIG. The configuration illustrated in FIG. 9 is configured by, for example, a personal computer (PC), and illustrates a hardware configuration example including a data reading unit 917 such as a scanner and a data output unit 918 such as a printer.

CPU(Central Processing Unit)901は、前述の実施の形態において説明した各種のモジュール、すなわち、基準抽出モジュール110A、基準抽出モジュール110B、基準候補抽出モジュール120、基準対応付けモジュール130、補正係数算出モジュール140等の各モジュールの実行シーケンスを記述したコンピュータ・プログラムにしたがった処理を実行する制御部である。   A CPU (Central Processing Unit) 901 includes various modules described in the above-described embodiments, that is, the reference extraction module 110A, the reference extraction module 110B, the reference candidate extraction module 120, the reference association module 130, and the correction coefficient calculation module 140. The control unit executes processing according to a computer program describing an execution sequence of each module.

ROM(Read Only Memory)902は、CPU901が使用するプログラムや演算パラメータ等を格納する。RAM(Random Access Memory)903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を格納する。これらはCPUバスなどから構成されるホストバス904により相互に接続されている。   A ROM (Read Only Memory) 902 stores programs used by the CPU 901, operation parameters, and the like. A RAM (Random Access Memory) 903 stores programs used in the execution of the CPU 901, parameters that change as appropriate during the execution, and the like. These are connected to each other by a host bus 904 including a CPU bus.

ホストバス904は、ブリッジ905を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス906に接続されている。   The host bus 904 is connected to an external bus 906 such as a PCI (Peripheral Component Interconnect / Interface) bus via a bridge 905.

キーボード908、マウス等のポインティングデバイス909は、操作者により操作される入力デバイスである。ディスプレイ910は、液晶表示装置又はCRT(Cathode Ray Tube)などがあり、各種情報をテキストやイメージ情報として表示する。   A keyboard 908 and a pointing device 909 such as a mouse are input devices operated by an operator. The display 910 includes a liquid crystal display device or a CRT (Cathode Ray Tube), and displays various types of information as text or image information.

HDD(Hard Disk Drive)911は、ハードディスクを内蔵し、ハードディスクを駆動し、CPU901によって実行するプログラムや情報を記録又は再生させる。ハードディスクには、参照画像105A、処理画像105B、補正係数、基準点情報などが格納される。さらに、その他の各種のデータ処理プログラム等、各種コンピュータ・プログラムが格納される。   An HDD (Hard Disk Drive) 911 includes a hard disk, drives the hard disk, and records or reproduces a program executed by the CPU 901 and information. The hard disk stores a reference image 105A, a processed image 105B, a correction coefficient, reference point information, and the like. Further, various computer programs such as various other data processing programs are stored.

ドライブ912は、装着されている磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体913に記録されているデータ又はプログラムを読み出して、そのデータ又はプログラムを、インタフェース907、外部バス906、ブリッジ905、及びホストバス904を介して接続されているRAM903に供給する。リムーバブル記録媒体913も、ハードディスクと同様のデータ記録領域として利用可能である。   The drive 912 reads out data or a program recorded in a removable recording medium 913 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and the data or program is read out from the interface 907 and the external bus 906. , To the RAM 903 connected via the bridge 905 and the host bus 904. The removable recording medium 913 can also be used as a data recording area similar to a hard disk.

接続ポート914は、外部接続機器915を接続するポートであり、USB、IEEE1394等の接続部を持つ。接続ポート914は、インタフェース907、及び外部バス906、ブリッジ905、ホストバス904等を介してCPU901等に接続されている。通信部916は、通信回線に接続され、外部とのデータ通信処理を実行する。データ読み取り部917は、例えばスキャナであり、ドキュメントの読み取り処理を実行する。データ出力部918は、例えばプリンタであり、ドキュメントデータの出力処理を実行する。   The connection port 914 is a port for connecting the external connection device 915 and has a connection unit such as USB or IEEE1394. The connection port 914 is connected to the CPU 901 and the like via the interface 907, the external bus 906, the bridge 905, the host bus 904, and the like. The communication unit 916 is connected to a communication line and executes data communication processing with the outside. The data reading unit 917 is a scanner, for example, and executes document reading processing. The data output unit 918 is, for example, a printer, and executes document data output processing.

なお、図9に示す画像処理装置のハードウェア構成は、1つの構成例を示すものであり、本実施の形態は、図9に示す構成に限らず、本実施の形態において説明したモジュールを実行可能な構成であればよい。例えば、一部のモジュールを専用のハードウェア(例えば特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)等)で構成してもよく、一部のモジュールは外部のシステム内にあり通信回線で接続しているような形態でもよく、さらに図9に示すシステムが複数互いに通信回線によって接続されていて互いに協調動作するようにしてもよい。また、複写機、ファックス、スキャナ、プリンタ、複合機(スキャナ、プリンタ、複写機、ファックス等のいずれか2つ以上の機能を有している画像処理装置)などに組み込まれていてもよい。   Note that the hardware configuration of the image processing apparatus shown in FIG. 9 shows one configuration example, and the present embodiment is not limited to the configuration shown in FIG. 9, and the modules described in the present embodiment are executed. Any configuration is possible. For example, some modules may be configured with dedicated hardware (for example, Application Specific Integrated Circuit (ASIC), etc.), and some modules are in an external system and connected via a communication line In addition, a plurality of systems shown in FIG. 9 may be connected to each other via communication lines so as to cooperate with each other. Further, it may be incorporated in a copying machine, a fax machine, a scanner, a printer, a multifunction machine (an image processing apparatus having any two or more functions of a scanner, a printer, a copying machine, a fax machine, etc.).

また、前述の実施の形態の説明において、予め定められた値との比較において、「以上」、「以下」、「より大きい」、「より小さい(未満)」としたものは、その組み合わせに矛盾が生じない限り、それぞれ「より大きい」、「より小さい(未満)」、「以上」、「以下」としてもよい。
なお、各モジュールの処理内容として背景技術で説明した技術を採用してもよい。
Further, in the description of the above-described embodiment, “more than”, “less than”, “greater than”, and “less than (less than)” in a comparison with a predetermined value contradicts the combination. As long as the above does not occur, “larger”, “smaller (less than)”, “more than”, and “less than” may be used.
Note that the technology described in the background art may be adopted as the processing content of each module.

なお、説明したプログラムについては、記録媒体に格納して提供してもよく、また、そのプログラムを通信手段によって提供してもよい。その場合、例えば、前記説明したプログラムについて、「プログラムを記録したコンピュータ読み取り可能な記録媒体」の発明として捉えてもよい。
「プログラムを記録したコンピュータ読み取り可能な記録媒体」とは、プログラムのインストール、実行、プログラムの流通などのために用いられる、プログラムが記録されたコンピュータで読み取り可能な記録媒体をいう。
なお、記録媒体としては、例えば、デジタル・バーサタイル・ディスク(DVD)であって、DVDフォーラムで策定された規格である「DVD−R、DVD−RW、DVD−RAM等」、DVD+RWで策定された規格である「DVD+R、DVD+RW等」、コンパクトディスク(CD)であって、読出し専用メモリ(CD−ROM)、CDレコーダブル(CD−R)、CDリライタブル(CD−RW)等、ブルーレイ・ディスク(Blu−ray(登録商標) Disc)、光磁気ディスク(MO)、フレキシブルディスク(FD)、磁気テープ、ハードディスク、読出し専用メモリ(ROM)、電気的消去及び書換可能な読出し専用メモリ(EEPROM(登録商標))、フラッシュ・メモリ、ランダム・アクセス・メモリ(RAM)、SD(Secure Digital)メモリーカード等が含まれる。
そして、前記のプログラム又はその一部は、前記記録媒体に記録して保存や流通等させてもよい。また、通信によって、例えば、ローカル・エリア・ネットワーク(LAN)、メトロポリタン・エリア・ネットワーク(MAN)、ワイド・エリア・ネットワーク(WAN)、インターネット、イントラネット、エクストラネット等に用いられる有線ネットワーク、あるいは無線通信ネットワーク、さらにこれらの組み合わせ等の伝送媒体を用いて伝送させてもよく、また、搬送波に乗せて搬送させてもよい。
さらに、前記のプログラムは、他のプログラムの一部分であってもよく、あるいは別個のプログラムと共に記録媒体に記録されていてもよい。また、複数の記録媒体に分割して
記録されていてもよい。また、圧縮や暗号化など、復元可能であればどのような態様で記録されていてもよい。
The program described above may be provided by being stored in a recording medium, or the program may be provided by communication means. In that case, for example, the above-described program may be regarded as an invention of a “computer-readable recording medium recording the program”.
The “computer-readable recording medium on which a program is recorded” refers to a computer-readable recording medium on which a program is recorded, which is used for program installation, execution, program distribution, and the like.
The recording medium is, for example, a digital versatile disc (DVD), which is a standard established by the DVD Forum, such as “DVD-R, DVD-RW, DVD-RAM,” and DVD + RW. Standard “DVD + R, DVD + RW, etc.”, compact disc (CD), read-only memory (CD-ROM), CD recordable (CD-R), CD rewritable (CD-RW), Blu-ray disc ( Blu-ray (registered trademark) Disc), magneto-optical disk (MO), flexible disk (FD), magnetic tape, hard disk, read-only memory (ROM), electrically erasable and rewritable read-only memory (EEPROM (registered trademark)) )), Flash memory, Random access memory (RAM) SD (Secure Digital) memory card and the like.
The program or a part of the program may be recorded on the recording medium for storage or distribution. Also, by communication, for example, a local area network (LAN), a metropolitan area network (MAN), a wide area network (WAN), a wired network used for the Internet, an intranet, an extranet, etc., or wireless communication It may be transmitted using a transmission medium such as a network or a combination of these, or may be carried on a carrier wave.
Furthermore, the program may be a part of another program, or may be recorded on a recording medium together with a separate program. Moreover, it may be divided and recorded on a plurality of recording media. Further, it may be recorded in any manner as long as it can be restored, such as compression or encryption.

100…画像処理装置
105A…参照画像
105B…処理画像
110…基準抽出モジュール
110A…基準抽出モジュール
110B…基準抽出モジュール
120…基準候補抽出モジュール
130…基準対応付けモジュール
140…補正係数算出モジュール
DESCRIPTION OF SYMBOLS 100 ... Image processing apparatus 105A ... Reference image 105B ... Processed image 110 ... Reference extraction module 110A ... Reference extraction module 110B ... Reference extraction module 120 ... Reference candidate extraction module 130 ... Reference association module 140 ... Correction coefficient calculation module

Claims (7)

第1の画像における複数の基準点を抽出する第1の抽出手段と、
第2の画像における複数の基準点を抽出する第2の抽出手段と、
前記第1の抽出手段によって抽出された基準点に対応する候補となる、前記第2の抽出手段によって抽出された基準点を検出する検出手段と、
前記検出された基準点の数に基づいて、前記第1の抽出手段によって抽出された基準点に対応する前記第2の画像における基準点があるか否かを判断し、基準点があると判断した場合は、前記検出手段によって検出された候補となっている基準点のうちから、前記第1の抽出手段によって抽出された基準点に対応する前記第2の画像における基準点を対応付ける対応付け手段と、
前記対応付けられた前記第1の画像における基準点と前記第2の画像における基準点に基づいて、前記第1の画像と前記第2の画像との位置合わせのための補正係数を決定する補正係数決定手段
を具備し、
前記補正係数決定手段は、前記第2の抽出手段によって抽出された基準点に対応する前記第1の画像における基準点が複数ある場合は、前記第1の画像における複数の基準点のうち、1つの基準点を前記第2の画像における基準点に対応する基準点として選択し、補正係数を決定し、
前記基準点の選択は、前記基準点の周囲の対応付けを参照し、前記第2の画像における基準点の位置関係と同じ位置関係を有している対応付けとなるように、基準点を選択する
ことを特徴とする画像処理装置。
First extraction means for extracting a plurality of reference points in the first image;
Second extraction means for extracting a plurality of reference points in the second image;
Detection means for detecting a reference point extracted by the second extraction means, which is a candidate corresponding to the reference point extracted by the first extraction means;
Based on the number of detected reference points, it is determined whether there is a reference point in the second image corresponding to the reference point extracted by the first extraction means, and it is determined that there is a reference point. In this case, the association means for associating the reference point in the second image corresponding to the reference point extracted by the first extraction means from among the reference points that are candidates detected by the detection means. When,
Correction for determining a correction coefficient for alignment between the first image and the second image based on the reference point in the associated first image and the reference point in the second image Coefficient determination means
When there are a plurality of reference points in the first image corresponding to the reference point extracted by the second extracting unit, the correction coefficient determining unit determines that 1 out of the plurality of reference points in the first image. Selecting one reference point as the reference point corresponding to the reference point in the second image, determining a correction factor,
The reference point is selected by referring to the association around the reference point and selecting the reference point so that the association has the same positional relationship as the positional relationship of the reference point in the second image. An image processing apparatus.
第1の画像における複数の基準点を抽出する第1の抽出手段と、
第2の画像における複数の基準点を抽出する第2の抽出手段と、
前記第1の抽出手段によって抽出された基準点に対応する候補となる、前記第2の抽出手段によって抽出された基準点を検出する検出手段と、
前記検出された基準点の数に基づいて、前記第1の抽出手段によって抽出された基準点に対応する前記第2の画像における基準点があるか否かを判断し、基準点があると判断した場合は、前記検出手段によって検出された候補となっている基準点のうちから、前記第1の抽出手段によって抽出された基準点に対応する前記第2の画像における基準点を対応付ける対応付け手段と、
前記対応付けられた前記第1の画像における基準点と前記第2の画像における基準点に基づいて、前記第1の画像と前記第2の画像との位置合わせのための補正係数を決定する補正係数決定手段
を具備し、
前記対応付け手段は、前記補正係数に基づいた前記第1の画像と前記第2の画像との位置合わせを行い、前回対応付けなかった前記第1の抽出手段によって抽出された基準点に対応する前記第2の画像における基準点を対応付け、
前記補正係数決定手段は、前記対応付け手段による1回目に対応付けられた前記第1の画像における基準点と前記第2の画像における基準点の組と、前記対応付け手段による2回目に対応付けられた前記第1の画像における基準点と前記第2の画像における基準点の組とを用いて、2回目の補正係数を決定する
ことを特徴とする画像処理装置。
First extraction means for extracting a plurality of reference points in the first image;
Second extraction means for extracting a plurality of reference points in the second image;
Detection means for detecting a reference point extracted by the second extraction means, which is a candidate corresponding to the reference point extracted by the first extraction means;
Based on the number of detected reference points, it is determined whether there is a reference point in the second image corresponding to the reference point extracted by the first extraction means, and it is determined that there is a reference point. In this case, the association means for associating the reference point in the second image corresponding to the reference point extracted by the first extraction means from among the reference points that are candidates detected by the detection means. When,
Correction for determining a correction coefficient for alignment between the first image and the second image based on the reference point in the associated first image and the reference point in the second image Coefficient determination means
The association means aligns the first image and the second image based on the correction coefficient, and corresponds to the reference point extracted by the first extraction means that was not previously associated. Associating a reference point in the second image;
The correction coefficient determining means associates a set of the reference point in the first image and the reference point in the second image associated with the first time by the associating means, and the second association by the associating means. A correction coefficient for the second time is determined using a set of reference points in the first image and a set of reference points in the second image.
前記対応付け手段は、前記検出手段によって検出された基準点の数が予め定められた値よりも多い又は以上である場合は、前記第1の抽出手段によって抽出された基準点に対応する前記第2の画像における基準点を対応付けず、それ以外の場合は、前記検出手段によって検出された候補となっている基準点のうちから、前記第1の抽出手段によって抽出された基準点に対応する前記第2の画像における基準点を対応付ける
ことを特徴とする請求項1又は2に記載の画像処理装置。
The association means, when the number of reference points detected by the detection means is greater than or greater than a predetermined value, the first corresponding to the reference points extracted by the first extraction means. The reference points in the second image are not associated with each other, and in other cases, the reference points extracted by the first extraction unit are selected from the reference points that are candidates detected by the detection unit. The image processing apparatus according to claim 1, wherein a reference point in the second image is associated.
前記対応付け手段は、前記補正係数に基づいた前記第1の画像と前記第2の画像との位置合わせを行い、前回対応付けなかった前記第1の抽出手段によって抽出された基準点に対応する前記第2の画像における基準点を対応付け、
前記補正係数決定手段は、2回目の補正係数を決定する
ことを特徴とする請求項1に記載の画像処理装置。
The association means aligns the first image and the second image based on the correction coefficient, and corresponds to the reference point extracted by the first extraction means that was not previously associated. Associating a reference point in the second image;
The image processing apparatus according to claim 1, wherein the correction coefficient determination unit determines a second correction coefficient.
前記補正係数決定手段は、前記第2の抽出手段によって抽出された基準点に対応する前記第1の画像における基準点が複数ある場合は、(1)該対応付けを用いないで、補正係数を決定すること、(2)前記第1の画像における複数の基準点のうち、1つの基準点を前記第2の画像における基準点に対応する基準点として選択し、補正係数を決定すること、のいずれか一方の処理を行う
ことを特徴とする請求項2に記載の画像処理装置。
When there are a plurality of reference points in the first image corresponding to the reference point extracted by the second extraction unit, the correction coefficient determination unit determines (1) the correction coefficient without using the association. (2) selecting one reference point as a reference point corresponding to the reference point in the second image among a plurality of reference points in the first image, and determining a correction coefficient; The image processing apparatus according to claim 2, wherein one of the processes is performed.
コンピュータを、
第1の画像における複数の基準点を抽出する第1の抽出手段と、
第2の画像における複数の基準点を抽出する第2の抽出手段と、
前記第1の抽出手段によって抽出された基準点に対応する候補となる、前記第2の抽出手段によって抽出された基準点を検出する検出手段と、
前記検出された基準点の数に基づいて、前記第1の抽出手段によって抽出された基準点に対応する前記第2の画像における基準点があるか否かを判断し、基準点があると判断した場合は、前記検出手段によって検出された候補となっている基準点のうちから、前記第1の抽出手段によって抽出された基準点に対応する前記第2の画像における基準点を対応付ける対応付け手段と、
前記対応付けられた前記第1の画像における基準点と前記第2の画像における基準点に基づいて、前記第1の画像と前記第2の画像との位置合わせのための補正係数を決定する補正係数決定手段
として機能させ、
前記補正係数決定手段は、前記第2の抽出手段によって抽出された基準点に対応する前記第1の画像における基準点が複数ある場合は、前記第1の画像における複数の基準点のうち、1つの基準点を前記第2の画像における基準点に対応する基準点として選択し、補正係数を決定し、
前記基準点の選択は、前記基準点の周囲の対応付けを参照し、前記第2の画像における基準点の位置関係と同じ位置関係を有している対応付けとなるように、基準点を選択する
ことを特徴とする画像処理プログラム。
Computer
First extraction means for extracting a plurality of reference points in the first image;
Second extraction means for extracting a plurality of reference points in the second image;
Detection means for detecting a reference point extracted by the second extraction means, which is a candidate corresponding to the reference point extracted by the first extraction means;
Based on the number of detected reference points, it is determined whether there is a reference point in the second image corresponding to the reference point extracted by the first extraction means, and it is determined that there is a reference point. In this case, the association means for associating the reference point in the second image corresponding to the reference point extracted by the first extraction means from among the reference points that are candidates detected by the detection means. When,
Correction for determining a correction coefficient for alignment between the first image and the second image based on the reference point in the associated first image and the reference point in the second image Function as a coefficient determination means,
When there are a plurality of reference points in the first image corresponding to the reference point extracted by the second extracting unit, the correction coefficient determining unit determines that 1 out of the plurality of reference points in the first image. Selecting one reference point as the reference point corresponding to the reference point in the second image, determining a correction factor,
The reference point is selected by referring to the association around the reference point and selecting the reference point so that the association has the same positional relationship as the positional relationship of the reference point in the second image. An image processing program characterized by:
コンピュータを、
第1の画像における複数の基準点を抽出する第1の抽出手段と、
第2の画像における複数の基準点を抽出する第2の抽出手段と、
前記第1の抽出手段によって抽出された基準点に対応する候補となる、前記第2の抽出手段によって抽出された基準点を検出する検出手段と、
前記検出された基準点の数に基づいて、前記第1の抽出手段によって抽出された基準点に対応する前記第2の画像における基準点があるか否かを判断し、基準点があると判断した場合は、前記検出手段によって検出された候補となっている基準点のうちから、前記第1の抽出手段によって抽出された基準点に対応する前記第2の画像における基準点を対応付ける対応付け手段と、
前記対応付けられた前記第1の画像における基準点と前記第2の画像における基準点に基づいて、前記第1の画像と前記第2の画像との位置合わせのための補正係数を決定する補正係数決定手段
として機能させ、
前記対応付け手段は、前記補正係数に基づいた前記第1の画像と前記第2の画像との位置合わせを行い、前回対応付けなかった前記第1の抽出手段によって抽出された基準点に対応する前記第2の画像における基準点を対応付け、
前記補正係数決定手段は、前記対応付け手段による1回目に対応付けられた前記第1の画像における基準点と前記第2の画像における基準点の組と、前記対応付け手段による2回目に対応付けられた前記第1の画像における基準点と前記第2の画像における基準点の組とを用いて、2回目の補正係数を決定する
ことを特徴とする画像処理プログラム。
Computer
First extraction means for extracting a plurality of reference points in the first image;
Second extraction means for extracting a plurality of reference points in the second image;
Detection means for detecting a reference point extracted by the second extraction means, which is a candidate corresponding to the reference point extracted by the first extraction means;
Based on the number of detected reference points, it is determined whether there is a reference point in the second image corresponding to the reference point extracted by the first extraction means, and it is determined that there is a reference point. In this case, the association means for associating the reference point in the second image corresponding to the reference point extracted by the first extraction means from among the reference points that are candidates detected by the detection means. When,
Correction for determining a correction coefficient for alignment between the first image and the second image based on the reference point in the associated first image and the reference point in the second image Function as a coefficient determination means,
The association means aligns the first image and the second image based on the correction coefficient, and corresponds to the reference point extracted by the first extraction means that was not previously associated. Associating a reference point in the second image;
The correction coefficient determining means associates a set of the reference point in the first image and the reference point in the second image associated with the first time by the associating means, and the second association by the associating means. A second correction coefficient is determined using a set of reference points in the first image and a set of reference points in the second image.
JP2014001381A 2014-01-08 2014-01-08 Image processing apparatus and image processing program Active JP6323009B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014001381A JP6323009B2 (en) 2014-01-08 2014-01-08 Image processing apparatus and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014001381A JP6323009B2 (en) 2014-01-08 2014-01-08 Image processing apparatus and image processing program

Publications (2)

Publication Number Publication Date
JP2015130082A JP2015130082A (en) 2015-07-16
JP6323009B2 true JP6323009B2 (en) 2018-05-16

Family

ID=53760753

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014001381A Active JP6323009B2 (en) 2014-01-08 2014-01-08 Image processing apparatus and image processing program

Country Status (1)

Country Link
JP (1) JP6323009B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7076173B2 (en) * 2019-01-28 2022-05-27 東芝三菱電機産業システム株式会社 Document management device and document management system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006235785A (en) * 2005-02-23 2006-09-07 Fuji Xerox Co Ltd Image processor, image processing method and computer program
JP5791241B2 (en) * 2010-07-16 2015-10-07 キヤノン株式会社 Image processing method, image processing apparatus, and program
WO2013088872A1 (en) * 2011-12-16 2013-06-20 コニカミノルタ株式会社 Corresponding point search method, corresponding point search device, and corresponding point search program

Also Published As

Publication number Publication date
JP2015130082A (en) 2015-07-16

Similar Documents

Publication Publication Date Title
JP6119952B2 (en) Image processing apparatus and image processing program
JP6187323B2 (en) Image processing apparatus and image processing program
US10643097B2 (en) Image processing apparatuses and non-transitory computer readable medium
JP5958101B2 (en) Image processing method and image processing apparatus
JP6413542B2 (en) Image processing apparatus and image processing program
JP2017174030A (en) Image processing apparatus and image processing program
JP6221220B2 (en) Image processing apparatus and image processing program
JP6323009B2 (en) Image processing apparatus and image processing program
JP2018045359A (en) Image processing device and image processing program
JP5481965B2 (en) Information processing apparatus and information processing program
JP4840388B2 (en) Image processing apparatus and image processing program
US9325872B2 (en) Image processing apparatus
JP6241311B2 (en) Image processing apparatus and image processing program
JP6682827B2 (en) Information processing apparatus and information processing program
US9258446B2 (en) Image processing apparatus
JP2010211699A (en) Image processor and image processing program
JP6003375B2 (en) Image processing apparatus and image processing program
JP2013201489A (en) Image processing device and image processing program
JP6252091B2 (en) Image processing apparatus and image processing program
JP2010049531A (en) Image processing apparatus and image processing program
JP2011065311A (en) Image processor and image processing program
JP2010039810A (en) Image processor and image processing program
JP6244805B2 (en) Image processing apparatus and image processing program
JP6003677B2 (en) Image processing apparatus and image processing program
JP2016091114A (en) Document read program, document read method, and information processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161019

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180313

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180326

R150 Certificate of patent or registration of utility model

Ref document number: 6323009

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350