JP2009044612A - Image processing apparatus, and program - Google Patents
Image processing apparatus, and program Download PDFInfo
- Publication number
- JP2009044612A JP2009044612A JP2007209287A JP2007209287A JP2009044612A JP 2009044612 A JP2009044612 A JP 2009044612A JP 2007209287 A JP2007209287 A JP 2007209287A JP 2007209287 A JP2007209287 A JP 2007209287A JP 2009044612 A JP2009044612 A JP 2009044612A
- Authority
- JP
- Japan
- Prior art keywords
- image
- original image
- image data
- region
- original
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000009466 transformation Effects 0.000 claims abstract description 83
- 238000003860 storage Methods 0.000 claims description 41
- 238000000605 extraction Methods 0.000 claims description 34
- 238000005304 joining Methods 0.000 claims description 27
- 239000000284 extract Substances 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 3
- 238000000034 method Methods 0.000 description 103
- 230000008569 process Effects 0.000 description 65
- 239000000203 mixture Substances 0.000 description 16
- 238000006243 chemical reaction Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 12
- 238000007781 pre-processing Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000010276 construction Methods 0.000 description 3
- 238000012952 Resampling Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、複数の画像データブロックを接合して原画像データを生成する画像処理装置及びプログラムに関する。 The present invention relates to an image processing apparatus and a program for generating original image data by joining a plurality of image data blocks.
大型の原稿をデジタルデータ化するために、移動式のスキャナを用いて、原稿を複数回に分けて読み込み、読み込んだときに生成される各画像データブロックを後工程で接合することによって原稿の原画像データを生成することが行われている。この後工程においては、オペレータが汎用の画像編集ソフトウェアを操作して、各画像データブロックを接合することも可能であるが、作業が繁雑で時間がかかるばかりか、十分な画像品質を得ることができないことがある。そこで、画像データブロック同士の接合を精度よく、且つ、自動的に行う技術が知られている。例えば、位置情報を示す印が形成された透過版上に原稿を配置し、透過版に記された印を元に、各画像データブロックの配置位置を割り出し、割り出した配置位置に基づいて読み込んだ画像データブロック同士の接合を自動的に行う画像読取装置が知られている(特許文献1参照)。特許文献1に開示された画像読取装置では、新たな原稿をスキャンするたびに透過版を設置する必要があり、スキャンする原稿が大型の場合、透過板も大型となり、透過板を設置する手間が繁雑である。さらに、透過板を分解して持ち運ぶことが困難である。そこで、接合する画像データブロックに対してパターンマッチングを行ってマッチングポイントを抽出し、抽出したマッチングポイントを用いて画像データブロック同士を接合する画像処理装置が知られている(例えば、特許文献2参照)。
In order to convert a large original into digital data, a moving scanner is used to read the original in a plurality of times, and each image data block generated when the original is read is joined in a later process to generate the original of the original. Image data is generated. In this post-process, the operator can operate the general-purpose image editing software to join the image data blocks. However, the work is complicated and time-consuming, and sufficient image quality can be obtained. There are things that cannot be done. Thus, a technique for automatically and accurately joining image data blocks is known. For example, a manuscript is placed on a transparent plate on which a mark indicating position information is formed, and the arrangement position of each image data block is determined based on the mark written on the transparent plate, and read based on the calculated arrangement position. An image reading apparatus that automatically joins image data blocks is known (see Patent Document 1). In the image reading apparatus disclosed in
特許文献2に開示された画像処理装置においては、透過版を設置することなく画像データブロック同士を接合することができる。しかしながら、スキャナを移動させつつ、複数回に分割して原稿を読み込むときに、原稿に対するスキャナの姿勢が僅かに変化することある。このような変化は、パターンマッチングにおいて、マッチングポイントを抽出するときの外乱となるため、画像データブロック同士を正確に接合することが難しい。
In the image processing apparatus disclosed in
そこで、本発明は、原画像データを形成する複数の画像データブロックを正確に接合することができる画像処理装置及びプログラムを提供することを目的とする。 SUMMARY An advantage of some aspects of the invention is that it provides an image processing apparatus and a program capable of accurately joining a plurality of image data blocks forming original image data.
本発明の画像処理装置は、一方向に関して互いに一部が重なり合うように配置されることによって1つの原画像データを形成する複数の画像データブロックを記憶する画像記憶手段と、前記画像記憶手段が記憶している互いに重なり合う2つの前記画像データブロック毎に、一方の前記画像データブロックである元画像と、他方の前記画像データブロックである参照画像との位置合わせを行う概略位置合わせ手段と、前記元画像及び前記参照画像のそれぞれにおいて互いに重なる領域を抽出する領域抽出手段と、前記元画像及び前記参照画像の各領域について1又は複数の特徴点を抽出する特徴点抽出手段と、前記特徴点抽出手段が特徴点を抽出した各領域について、当該領域の各特徴点に対応する、当該領域に重なり合う他の前記領域における対応点を、当該特徴点の座標位置を基準とした正規化相関を行うことによって抽出する対応点抽出手段と、各領域における複数の前記特徴点及びこれに対応する複数の前記対応点の一致度が最も高くなるように、前記元画像を移動させる幾何変換式を算出するとともに、算出した幾何変換式に基づいて前記元画像を移動させることによって、前記元画像と前記参照画像との位置合わせを行う詳細位置合わせ手段と、前記詳細位置合わせ手段によって位置合わせされた前記元画像と前記参照画像とを接合する接合手段とを備えている。 The image processing apparatus according to the present invention includes an image storage unit that stores a plurality of image data blocks that form one original image data by being arranged so as to partially overlap each other in one direction, and the image storage unit stores For each of the two image data blocks overlapping each other, a rough alignment means for aligning an original image that is one of the image data blocks and a reference image that is the other image data block; Region extracting means for extracting regions overlapping each other in the image and the reference image, feature point extracting means for extracting one or a plurality of feature points for each region of the original image and the reference image, and the feature point extracting means For each area from which feature points have been extracted, corresponding to each feature point of the area, Corresponding point extracting means for extracting the corresponding points by performing a normalized correlation with reference to the coordinate position of the feature point, and a plurality of the feature points in each region and a plurality of corresponding points corresponding thereto Calculating a geometric transformation formula for moving the original image so that the degree is the highest, and moving the original image based on the calculated geometric transformation formula, thereby aligning the original image with the reference image Detailed positioning means for performing the above and joining means for joining the original image and the reference image aligned by the detailed positioning means.
本発明のプログラムは、一方向に関して互いに一部が重なり合うように配置されることによって1つの原画像データを形成する複数の画像データブロックを記憶する画像記憶手段、前記画像記憶手段が記憶している互いに重なり合う2つの前記画像データブロック毎に、一方の前記画像データブロックである元画像と、他方の前記画像データブロックである参照画像との位置合わせを行う概略位置合わせ手段、前記元画像及び前記参照画像のそれぞれにおいて互いに重なる領域を抽出する領域抽出手段、前記元画像及び前記参照画像の各領域について1又は複数の特徴点を抽出する特徴点抽出手段、前記特徴点抽出手段が特徴点を抽出した各領域について、当該領域の各特徴点に対応する、当該領域に重なり合う他の前記領域における対応点を、当該特徴点の座標位置を基準とした正規化相関を行うことによって抽出する対応点抽出手段、各領域における複数の前記特徴点及びこれに対応する複数の前記対応点の一致度が最も高くなるように、前記元画像を移動させる幾何変換式を算出するとともに、算出した幾何変換式に基づいて前記元画像を移動させることによって、前記元画像と前記参照画像との位置合わせを行う詳細位置合わせ手段、及び、前記詳細位置合わせ手段によって位置合わせされた前記元画像と前記参照画像とを接合する接合手段としてコンピュータを機能させる。 The program of the present invention stores image storage means for storing a plurality of image data blocks forming one original image data by being arranged so as to partially overlap each other in one direction, and the image storage means stores the image storage means. For each of the two image data blocks that overlap each other, a rough alignment means for aligning an original image that is one of the image data blocks and a reference image that is the other image data block, the original image and the reference Area extraction means for extracting overlapping areas in each of the images, feature point extraction means for extracting one or a plurality of feature points for each area of the original image and the reference image, and feature point extraction means for extracting feature points For each region, corresponding points in the other region corresponding to each feature point of the region and overlapping the region Corresponding point extracting means for extracting by performing normalized correlation with reference to the coordinate position of the feature point, the plurality of feature points in each region, and the matching degree of the corresponding points corresponding thereto are the highest. As described above, a detailed alignment for calculating the geometric transformation equation for moving the original image and performing alignment between the original image and the reference image by moving the original image based on the calculated geometric transformation equation And a computer functioning as a joining unit that joins the original image and the reference image aligned by the detailed positioning unit.
これら本発明によると、元画像の領域及び参照画像の領域のそれぞれについて、特徴点とこれに対応する対応点とを抽出し、抽出した複数の特徴点及びこれに対応する複数の対応点の一致度が最も高くなるように、幾何変換式を算出するため、ロバストな幾何変換式を得ることが可能となり、複数の画像データブロックを正確に接合することができる。 According to the present invention, for each of the original image area and the reference image area, feature points and corresponding points corresponding thereto are extracted, and the extracted feature points and corresponding points corresponding thereto are matched. Since the geometric transformation formula is calculated so that the degree becomes the highest, a robust geometric transformation formula can be obtained, and a plurality of image data blocks can be accurately joined.
本発明においては、前記概略位置合わせ手段が、前記元画像の前記一方向に関する一方端部近傍と、前記参照画像の前記一方向に関する他方端部近傍との間で位相相関を得ることができるように、前記元画像を移動させる幾何変換式を算出するとともに、算出した幾何変換式に基づいて前記元画像を移動させることによって、前記元画像と前記参照画像との位置合わせを行うことが好ましい。これによると、概略位置合わせにおいて、位相相関法を用いて、幾何変換式を算出するため、正規化相関の一致度のみで幾何変換式を算出する場合と比較して素早く幾何変換式を算出することができる。 In the present invention, the approximate alignment means can obtain a phase correlation between the vicinity of one end of the original image in the one direction and the vicinity of the other end of the reference image in the one direction. In addition, it is preferable to perform alignment of the original image and the reference image by calculating a geometric transformation formula for moving the original image and moving the original image based on the calculated geometric transformation formula. According to this, since the geometric transformation formula is calculated by using the phase correlation method in the rough alignment, the geometric transformation formula is calculated more quickly than when the geometric transformation formula is calculated only by the degree of coincidence of the normalized correlation. be able to.
このとき、前記概略位置合わせ手段が、前記元画像の前記一方端部近傍と、前記参照画像の前記他方端部近傍との間で位相相関を得ることができなかったときに、前記元画像及び前記参照画像全体の間で位相相関を得ることができるように、前記元画像を移動させる幾何変換式を算出することがより好ましい。これによると、画像データブロックの大半が重なり合う場合であっても幾何変換式を素早く算出することができる。 At this time, when the approximate alignment means cannot obtain a phase correlation between the vicinity of the one end of the original image and the vicinity of the other end of the reference image, the original image and More preferably, a geometric transformation equation for moving the original image is calculated so that a phase correlation can be obtained between the entire reference images. According to this, even when the majority of the image data blocks overlap, the geometric transformation formula can be calculated quickly.
また、本発明においては、前記画像記憶手段が記憶している各画像データブロックを複数の解像度で低解像度化した前記画像データブロックを生成して前記画像記憶手段に記憶させる多重解像度化手段をさらに備えており、前記領域抽出手段は、前記画像記憶手段が記憶している最も低い解像度から解像度が高くなる順に、前記詳細位置合わせ手段が位置合わせした前記元画像及び前記参照画像に関する各領域を抽出し、前記接合手段が、前記画像記憶手段が記憶している最も高い解像度に関して前記詳細位置合わせ手段が位置合わせした前記元画像と前記参照画像とを接合することが好ましい。これによると、最も低い解像度から解像度が高くなる順に、幾何変換式が修正されるため、ロバストな幾何変換式を算出することができる。 According to the present invention, there is further provided a multiresolution means for generating the image data block obtained by reducing the resolution of each image data block stored in the image storage means at a plurality of resolutions and storing the generated image data block in the image storage means. The region extracting unit extracts each region relating to the original image and the reference image aligned by the detailed alignment unit in the order of increasing resolution from the lowest resolution stored in the image storage unit; Preferably, the joining unit joins the original image and the reference image, which are aligned by the detailed positioning unit with respect to the highest resolution stored in the image storage unit. According to this, since the geometric transformation formula is corrected in the order from the lowest resolution to the highest resolution, a robust geometric transformation formula can be calculated.
さらに、本発明においては、前記画像記憶手段に記憶された各画像データブロックを所定のサイズを有する処理画像に分割する分割手段をさらに備えており、前記接合手段が、前記分割手段によって分割された前記処理画像単位で前記元画像と前記参照画像とを接合することが好ましい。これによると、メモリに展開できないような高解像度の画像データブロックに対応することができる。 Furthermore, the present invention further includes a dividing unit that divides each image data block stored in the image storage unit into processed images having a predetermined size, and the joining unit is divided by the dividing unit. It is preferable that the original image and the reference image are joined in units of the processed image. According to this, it is possible to deal with a high-resolution image data block that cannot be developed in a memory.
以下、本発明の好適な実施の形態について、図面を参照しつつ説明する。 Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.
図1は、本発明に係る好適な実施形態の画像処理装置である制御装置の機能ブロック図である。図1に示すように、制御装置1は、スキャナ2が大型の原稿を分割して読み込むことによって生成した複数の画像データブロックを接合して原画像データとなる接合画像データを生成するものであり、PC(パーソナルコンピュータ)上で起動する制御プログラムによって実現される。なお、PCは、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard disk drive)などを含んでおり、CPUが制御プログラムを実行することによって、制御装置1の後述する各機能部を実現する。また、制御装置1は、スキャナ2と通信可能に接続されている。さらに、制御装置1は、画像データブロックや接合画像データの内容を確認するためのディスプレイ20と、図示しないマウスやキーボードなどの入力デバイスが接続されている。
FIG. 1 is a functional block diagram of a control apparatus which is an image processing apparatus according to a preferred embodiment of the present invention. As shown in FIG. 1, the
制御装置1は、画像記憶部(画像記憶手段)11と、前処理部12と、概略位置合わせ部(概略位置合わせ手段)13と、重なり領域抽出部(領域抽出手段)14と、特徴点抽出部(特徴点抽出手段)15と、対応点抽出部(対応点抽出手段)16と、詳細位置合わせ部(詳細位置合わせ手段)17と、グローバル幾何変換式生成部18と、接合部(接合手段)19とを有している。画像記憶部11は、スキャナ2が読み込んだ原稿に関する複数の入力画像に係る画像データブロックを記憶するものである。図2を参照しつつ、スキャナ2の原稿の読み込み方法について説明する。図2は、スキャナ2が原稿を読み込むときの動作を示した図である。スキャナ2は、一方向に移動可能となっている。図2に示すように、スキャナ2は、原稿の長手方向に関する複数位置のそれぞれにおいて、原稿の一部を読み込んで画像データブロックを生成し、生成した画像データブロックを制御装置1に送信する。このように、スキャナ2は、原稿を複数に分割して読み込むことによって複数の入力画像に係る画像データブロックを生成する。このとき、複数の画像データブロックは、移動方向(一方向)に関して互いに一部(本実施形態においては、5〜10cm)が重なり合うように生成される。したがって、この複数の画像データブロックが示す入力画像が、移動方向に関して互いに一部が重なり合うように配置されることによって原画像データが示す原稿の画像を形成することになる。なお、本実施形態においては、画像データブロックの解像度は600dpiとなっている。
The
前処理部12は、原画像データを生成するにあたって、画像記憶部11が記憶している各画像データブロックの前処理を行うものであり、多重解像度化部(多重解像度化手段)12aと分割部(分割手段)12bとを有している。多重解像度化部12aは、画像記憶部11が記憶している各画像データブロックを複数の解像度で低解像度化するものである。具体的には、多重解像度化部12aは、画像データブロックが、後述する分割画像データブロックのサイズ以下になるまで、画像データブロックを累積的に1/(1/2乗)を乗ずる。例えば、本実施形態においては、画像データブロックの解像度が600dpiとなっているので、600dpi→424dpi→300dpi→212dpi→・・・の低解像度化された画像データブロックが順に生成される。
The
分割部12bは、多重解像度化部12aによって低解像度化された画像データブロックを所定サイズの分割画像データブロック(処理画像)によりタイル状に分割して画像記憶部11に記憶させるものである。分割画像データブロックは、256×256ドットで構成される。また、分割画像データブロックにおける、低解像度化された画像データブロックのサイズを超える領域については、全てのドットの値が0となっている。さらに、分割画像データブロックはJPEGフォーマットで出力され、セキュリティ機能向上のため、共通鍵暗号方式により暗号化されている。なお、分割画像データブロックは、ビットマップなど他のファーマットで出力されてもよいし、他の暗号方式により暗号化されてもよいし、暗号化されなくてもよい。
The dividing
概略位置合わせ部13は、画像記憶部11に記憶されている複数の画像データブロックのうち、原画像データにおいて互いに重なり合う2つの画像データブロックの一方が示す画像を元画像とし、他方の画像データブロックが示す画像を参照画像としたとき、元画像と参照画像とが位置合わせされるように、参照画像に対して元画像を移動させる概算幾何変換式を生成するものである。
The
また、概略位置合わせ部13は、位相相関幾何変換式生成部13aを有している。位相相関幾何変換式生成部13aは、まず、元画像における参照画像側のエッジ部(一方向に関する一方端部近傍)と参照画像における元画像側のエッジ部(一方向に関する他方端部近傍)とを、粗い解像度(本実施形態においては、20dpi)でリサンプリングする。ここで、リサンプリングとは、画像記憶部11に記憶されている画像データブロックのうち、この粗い解像度に最も近い解像度を有する低解像度化された画像データブロックから解像度変換を行い、解像度変換を行った画像データブロックから所望の領域を取得することをいう。そして、位相相関(Phase Correlation)法を用いて、元画像のエッジ部と参照画像のエッジ部との間で位相相関を得ることができるような、元画像のエッジ部に係る参照画像のエッジ部に対する平行移動量を算出し、算出した平行移動量から概算幾何変換式を生成する。その後、生成した概略幾何変換式に基づいて元画像のエッジ部を平行移動させたときの、元画像及び参照画像のエッジ部の一致度を示す正規化相関値を算出する。ここで、正規化相関値が所定値(例えば、0.8〜1)以上になっていない場合は、当該元画像と参照画像とが、エッジ部より深く重なり合っていると判断して、元画像全体と参照画像全体とを、粗い解像度でリサンプリングし、再度、位相相関法を用いて、元画像に係る参照画像に対する平行移動量を算出し、算出した平行移動量から概算幾何変換式を生成する。
The
重なり領域抽出部14は、画像記憶部11から元画像及び参照画像を示す画像データブロックを取得し、取得した画像データブロックにおける、概略位置合わせ部13によって生成された概算幾何変換式又は詳細位置合わせ部17によって生成された詳細幾何変換式(後述)である幾何変換式Tを用いて元画像と参照画像とを重ね合わせたときに、元画像及び参照画像において互いに重なり合う重なり領域を抽出するものである。この重なり領域は矩形状となっている。
The overlapping
特徴点抽出部15は、Moravecのインタレスト・オペレータを用いて、重なり領域抽出部14によって抽出された元画像及び参照画像の各重なり領域における特徴点を抽出するものである。本実施形態において、特徴点とは、周辺に配置された他のドットに対する輝度の変化が大きいドットである。具体的には、特徴点抽出部15は、元画像及び参照画像をグレースケールに変換する。そして、グレースケールに変換した画像に対してMoravecのインタレスト・オペレータを適用し、インタレスト値の平均値及び標準偏差を求める。そして、各インタレスト値が平均値よりも標準偏差の3倍以上大きく、且つ、一定範囲内に他の特徴点が存在しない場合に、当該インタレスト値に係るドットを特徴点として抽出する。なお、他の手法により特徴点を抽出してもよい。
The feature
対応点抽出部16は、特徴点抽出部15が特徴点を抽出した各重なり領域について、当該重なり領域の各特徴点に対応する、当該重なり領域に重なり合う他の重なり領域における対応点を抽出するものである。具体的には、まず、元画像の重なり領域における各特徴点を中心とした±3ピクセル(7×7ピクセル)の周辺領域である特徴領域を抽出する。また、各特徴点に幾何変換式Tを適用することによって、参照画像の重なり領域上の点であるサーチ基準点を算出し、参照画像の重なり領域における各サーチ基準点を中心とした±10ピクセル(21×21ピクセル)の周辺領域であるサーチ領域を抽出する。そして、正規化相関法を用いて、サーチ領域における特徴領域との一致度が高い領域をサーチする。サーチの結果、発見された領域の中心点を特徴点に対応する対応点として抽出する。次に、参照画像の重なり領域における各特徴点についても同様の処理を行って、各特徴点に対応する元画像の重なり領域上の対応点を抽出する。なお、参照画像の重なり領域に係る各特徴点には、幾何変換式Tの逆変換を適用することによって、元照画像の重なり領域上の点であるサーチ基準点を算出する。そして、抽出された特徴点と、当該特徴点に対応する対応点との組は、特徴点リストとして記憶される。
The corresponding
詳細位置合わせ部17は、各重なり領域における特徴点抽出部15が抽出した複数の特徴点及びこれに対応する複数の対応点の一致度が最も高くなるように、参照画像に対して元画像を移動させる詳細幾何変換式を生成するものである。ここでは、対応点抽出部16が生成した特徴点リストに対して、RANSAC(Random Sample Consensus)法、最小メディアン法、最小二乗法を混合させた方法を用いて、詳細幾何変換式をロバスト推定により生成する。なお、当てはめる幾何変換にはヘルマート変換を用いる。具体的には、特徴点リストから特徴点及びこれに対応する対応点の組をランダムに2組選択し、これらについて連立方程式を解いてヘルマート変換式を生成する。そして、このヘルマート変換式について、特徴点及びこれに対応する対応点の組の二乗誤差を求める。さらに、この二乗誤差に関するメディアン(中央値)を求め、このメディアンよりも二乗誤差が大きい特徴点及びこれに対応する対応点の組を除外して、最小二乗法により再度ヘルマート変換式を生成する。以上の処理を所定回数(本実施形態においては100回)繰り返し、メディアンが最小、言い換えれば、複数の特徴点及びこれに対応する複数の対応点の一致度が最も高くなるヘルマート変換式を詳細幾何変換式とする。
The
グローバル幾何変換式生成部18は、原画像データが生成されるように、画像記憶部11に記憶されている各画像データブロックを移動させるグローバル幾何変換式を生成するものである。例えば、画像記憶部11に記憶されている画像データブロックが示す入力画像a〜入力画像dが、スキャナ2の移動方向に関して順に配列するものであり、詳細位置合わせ部17が生成した複数の詳細幾何変換式(元画像を移動させる幾何変換式)が、入力画像a〜入力画像dに対応してTa〜Tdであるとき、入力画像bに係るグローバル幾何変換式Tgbは、Tgb=Ta・Tbとなり、入力画像cに係るグローバル幾何変換式Tgcは、Tgb=Ta・Tb・Tcとなり、入力画像dに係るグローバル幾何変換式Tgdは、Tgd=Ta・Tb・Tc・Tdとなる。なお、入力画像aは元画像とならないためTa=Tga=恒等変換式となる。
The global geometric transformation
接合部19は、グローバル幾何変換式生成部18によって生成された各画像データブロックに関するグローバル幾何変換式によって、各画像データブロックを接合して原画像データとなる接合画像データを生成するものである。また、接合部19は、各画像データブロックを接合するときに、多重解像度スプライン合成を行うことによって、接合部の平滑化を行う。多重解像度スプライン合成については後述する。
The joining
次に、図3を参照しつつ制御装置1の動作、特に、スキャナ2によって読み込まれた画像データブロックを接合して原画像データを生成する画像処理について説明する。図3は、制御装置1の動作を示すフローチャートである。図3に示すように、原画像データを生成する画像処理が開始されると、ステップS101(以下、S101と称する。他のステップも同様)に移行し、前処理部12が、画像記憶部11が記憶している各画像データブロックの前処理である多重解像度画像生成処理を行う。そしてS102に移行し、画像記憶部11に記憶されている複数の画像データブロックの位置合わせ処理である、画像位置合わせ処理を行う。さらに、S103に移行し、画像位置合わせ処理によって位置合わせされた画像データブロックのうち、隣接する関係にある画像データブロック同士の画像接合処理を行って原画像データを生成し、図3のフローチャートを終了する。以下、多重解像度画像生成処理、画像位置合わせ処理、及び、画像接合処理の詳細な内容について順に説明する。
Next, the operation of the
図4を参照しつつ、多重解像度画像生成処理について説明する。図4は、多重解像度画像生成処理の動作を示すフローチャートである。図4に示すように、多重解像度画像生成処理が開始されると、S201に移行し、生成すべき解像度を示すスケールを1.0に初期化する。その後、S202に移行し、画像記憶部11が記憶している各画像データブロックをRAM上の作業エリアに順に読み出す。そして、S203に移行し、多重解像度化部12aが、読み出した各画像データブロックを、スケールの値に基づいてスケーリングする。後述するように、スケールの値は、スケーリングを行う毎に、初期値1.0から1/(1/2乗)を乗じて小さくなっていく。すなわち、スケーリングにより低解像度化することになる。S204に移行し、分割部12bが、多重解像度化部12aによって低解像度化された画像データブロックを、所定サイズの分割画像データブロックによりタイル状に分割して画像記憶部11に記憶させる。上述したように、分割画像データブロックは、256×256ドットで構成されるものである。そして、分割画像データブロックにおける、画像データブロックのサイズを超える領域については、全てのドットの値が0となっている。また、分割画像データブロックは共通鍵暗号方式により暗号化されたJPEGフォーマットで出力される。
The multi-resolution image generation process will be described with reference to FIG. FIG. 4 is a flowchart showing the operation of multi-resolution image generation processing. As shown in FIG. 4, when the multi-resolution image generation process is started, the process proceeds to S201, and a scale indicating the resolution to be generated is initialized to 1.0. Thereafter, the process proceeds to S202, and each image data block stored in the
そして、S205に移行し、分割部12bが、分割した分割画像データブロックの数が1以下であるか否かを判断する。分割した分割画像データブロックの数が1以下でない場合は(S205:NO)、S206に移行し、スケールに1/(1/2乗)を乗じて、再びS202に移行し、上述した処理を繰り返す。これにより、600dpi→424dpi→300dpi→212dpi→・・・の画像データブロックが順に生成され、各画像データブロックに係る分割画像データブロックが生成される。一方、分割した分割画像データブロックの数が1以下である場合は(S205:YES)、図4のフローチャートを終了する。
Then, the process proceeds to S205, where the
図5を参照しつつ、画像位置合わせ処理について説明する。図5は、画像位置合わせ処理の動作を示すフローチャートである。図5に示すように、画像位置合わせ処理が開始されると、S301に移行し、概略位置合わせ部13が、画像記憶部11に記憶されている複数の画像データブロックのうち、原画像データを形成するにあたって、互いに重なり合う2つの画像データブロック同士を、元画像及び参照画像として選択する。そして、S302に移行し、概略位置合わせ部13が、選択された元画像及び参照画像に関する概略位置合わせ処理を行う。その後、S303に移行し、概略位置合わせ処理による位置合わせの結果に基づいて、当該元画像及び参照画像に関する詳細位置合わせ処理を行う。そして、S304に移行し、互いに重なり合う2つの画像データブロックの他の組み合わせがあるか否かを判断する。他の組み合わせがある場合は(S304:YES)、再びS301に移行し、他の組み合わせを選択して上述した処理を繰り返す。
The image alignment process will be described with reference to FIG. FIG. 5 is a flowchart showing the operation of the image alignment process. As shown in FIG. 5, when the image alignment process is started, the process proceeds to S <b> 301, and the
一方、他の組み合わせがない場合は(S304:NO)、S305に移行して、接合部19が、詳細位置合わせ処理による位置合わせの結果に基づいて、隣接する各画像データブロック同士を接合して原画像データを生成する画像接合処理を行う。そして、図5のフローチャートを終了する。以下、概略位置合わせ処理、詳細位置合わせ処理、及び、画像接合処理の詳細な内容について順に説明する。
On the other hand, if there is no other combination (S304: NO), the process proceeds to S305, where the joining
まず、図6を参照しつつ、概略位置合わせ処理について詳細に説明する。図6は、概略位置合わせ処理の動作を示すフローチャートである。図6に示すように、概略位置合わせ処理が開始されると、S401に移行し、概略位置合わせ部13の位相相関幾何変換式生成部13aが、先に選択された元画像における参照画像側のエッジ部と参照画像の元画像側のエッジ部とを、20dpiでリサンプリングする。上述したように、このとき、位相相関幾何変換式生成部13aは、画像記憶部11に記憶されている画像データブロックのうち、20dpiに最も近い解像度を有する画像データブロックから解像度変換を行い、解像度変換を行った画像データブロックから所望の領域を取得することによってリサンプリングを行う。そして、S402に移行し、位相相関幾何変換式生成部13aが、位相相関法を用いて、元画像のエッジ部に係る参照画像のエッジ部に対する平行移動量を算出し、算出した平行移動量から概算幾何変換式を生成する。その後、S403に移行し、生成した幾何変換式に基づいて元画像のエッジ部を平行移動させて、元画像及び参照画像のエッジ部の正規化相関値を算出する。そして、S404に移行し、算出した正規化相関値が所定値(例えば、0.8〜1)以上か否かを判断する。正規化相関値が所定値以上と判断する場合は(S404:YES)、図6のフローチャートを終了する。
First, the schematic positioning process will be described in detail with reference to FIG. FIG. 6 is a flowchart showing the operation of the rough alignment process. As shown in FIG. 6, when the rough alignment process is started, the process proceeds to S401, where the phase correlation geometric transformation expression generation unit 13a of the
一方、正規化相関値が所定値以上でないと判断する場合は(S404:NO)、元画像と参照画像とが、エッジ部より深く重なり合っていると判断して、S405に移行し、元画像全体と参照画像全体とを、20dpi以下の解像度でリサンプリングする。そして、S406に移行し、再度、位相相関法を用いて、元画像に係る参照画像に対する平行移動量を算出し、算出した平行移動量から概算幾何変換式を生成する。 On the other hand, when it is determined that the normalized correlation value is not equal to or greater than the predetermined value (S404: NO), it is determined that the original image and the reference image overlap deeper than the edge portion, and the process proceeds to S405, where the entire original image is processed. And the entire reference image are resampled at a resolution of 20 dpi or less. Then, the process proceeds to S406, and again using the phase correlation method, the amount of translation with respect to the reference image related to the original image is calculated, and an approximate geometric conversion formula is generated from the calculated amount of translation.
次に、図7を参照しつつ、詳細位置合わせ処理について詳細に説明する。図7は、詳細位置合わせ処理の動作を示すフローチャートである。図7に示すように、詳細位置合わせ処理が開始されると、S501に移行し、処理対象となる画像データブロックの解像度を示す解像度Rの値を、前処理部12の多重解像度化部12aによって生成された画像データブロックのうち、最も低い解像度に初期化するとともに、幾何変換式Tを概略位置合わせ処理において生成された概算幾何変換式に初期化する。
Next, the detailed alignment process will be described in detail with reference to FIG. FIG. 7 is a flowchart showing the operation of the detailed alignment process. As shown in FIG. 7, when the detailed alignment process is started, the process proceeds to S501, and the value of the resolution R indicating the resolution of the image data block to be processed is obtained by the multi-resolution converting unit 12a of the
S502に移行し、重なり領域抽出部14が、画像記憶部11から元画像及び参照画像を示す解像度Rの画像データブロックを取得し、取得した画像データブロックに係る元画像と参照画像とを幾何変換式Tを用いて重ね合わせたときに、元画像及び参照画像において互いに重なり合う重なり領域を抽出する。そして、S503に移行し、特徴点抽出部15が、Moravecのインタレスト・オペレータを用いて、元画像の重なり領域における特徴点を抽出する。さらに、S504に移行し、対応点抽出部16が、幾何変換式Tを用いて、元画像の重なり領域における各特徴点に対応する、参照画像の重なり領域における対応点を抽出する。また、S505に移行し、特徴点抽出部15が、Moravecのインタレスト・オペレータを用いて、参照画像の重なり領域における特徴点を抽出する。さらに、S506に移行し、対応点抽出部16が、幾何変換式Tの逆変換を用いて、参照画像の重なり領域における各特徴点に対応する、元画像の重なり領域における対応点を抽出する。上述したように、このとき、抽出された特徴点と、当該特徴点に対応する対応点との組が、特徴点リストとして記憶される。
In step S502, the overlapping
その後、S507に移行し、詳細位置合わせ部17が、対応点抽出部16が生成した特徴点リストに対して、RANSAC法、最小メディアン法、最小二乗法を混合させた方法を用いて、詳細幾何変換式Tをロバスト推定により生成する。言い換えれば、元画像及び参照画像の各重なり領域における複数の特徴点及びこれに対応する複数の対応点の一致度が最も高くなるように、参照画像に対して元画像を移動させる詳細幾何変換式を生成する。そして、生成した詳細幾何変換式を次の幾何変換式Tとする。
Thereafter, the process proceeds to S507, where the
そして、S508に移行し、解像度Rの値が、予め決定された最大処理解像度となっているか否かを判断する。解像度Rの値が、最大処理解像度となっている場合は(S508:YES)、現在の幾何変換式Tを詳細幾何変換式として、図7のフローチャートを終了する。一方、解像度Rの値が、最大処理解像度となっていない場合は(S508:NO)、解像度Rの値に次に大きい解像度を登録して、S502に移行し、上述した処理を繰り返す。このように、詳細位置合わせ処理においては、解像度Rを段階的に大きくしつつ、重なり領域抽出部14が、詳細幾何変換式によって移動された元画像及び参照画像に関する重なり領域を抽出し、当該重なり領域の特徴点及び当該特徴点に対応する対応点とから幾何変換式Tを修正していく。
Then, the process proceeds to S508, where it is determined whether or not the value of the resolution R is a predetermined maximum processing resolution. When the value of the resolution R is the maximum processing resolution (S508: YES), the current geometric transformation formula T is set as the detailed geometric transformation formula, and the flowchart of FIG. On the other hand, when the value of resolution R is not the maximum processing resolution (S508: NO), the next largest resolution is registered as the value of resolution R, the process proceeds to S502, and the above-described processing is repeated. As described above, in the detailed alignment process, while the resolution R is increased stepwise, the overlapping
さらに、図8〜図12を参照しつつ画像接合処理について詳細に説明する。図8は、画像接合処理の動作を示すフローチャートである。図9は、入力画像ピラミッドの構築手順を示したブロック図である。図10は、ブレンド画像ピラミッドの構築手順を示したブロック図である。図11は、出力画像ピラミッドの構築手順を示したブロック図である。図12は、原画像データの生成手順を示したブロック図である。なお、図9〜図12においては、画像記憶部11にM個の入力画像に係る画像データブロックIi(i=0〜M)が記憶されているものとする。図8に示すように、画像接合処理が開始されると、S601に移行し、画像記憶部11にM個の入力画像に係る画像データブロックIiを順に読み出し、各画像データブロックに対して当該画像データブロックIiに係るグローバル幾何変換式Tを適用する。
Further, the image joining process will be described in detail with reference to FIGS. FIG. 8 is a flowchart showing the operation of the image joining process. FIG. 9 is a block diagram showing the procedure for constructing the input image pyramid. FIG. 10 is a block diagram showing the procedure for constructing the blend image pyramid. FIG. 11 is a block diagram showing the procedure for constructing the output image pyramid. FIG. 12 is a block diagram showing a procedure for generating original image data. 9 to 12, it is assumed that image data blocks I i (i = 0 to M) related to M input images are stored in the
以下、多重解像度スプライン合成による画像データブロックIi同士の接合部の平滑化を行う。まず、S602に移行して、各画像データブロックIiについて、Burt&Adelsonによる入力画像ピラミッドを構築する。入力画像ピラミッドは、画像データブロックIiを解像度の異なるN+1個のレベル(0〜N)で表現するものである。なお、レベル0からレベルNの順に解像度が小さくなるものとする。具体的には、図9に示すように、詳細幾何変換Tを適用した画像データブロックIiを、入力画像ピラミッドのレベル0のガウシアン画像IGi,0としてコピーする。次に、反復的にREDUCE操作(低解像度化)を実行することによって、入力画像ピラミッドの各レベル0〜Nのガウシアン画像IGi,1〜IGi,Nを作成する。次に、1つ上のレベルのガウシアン画像IGi,1〜IGi,NにEXPAND操作(高解像度化)を施したものと、当該レベルのガウシアン画像IGi,0〜IGi,N−1との差を取ることによって、各レベルのラプラシアン画像IGi,0〜IGi,N−1を作成する。ただし、最上位のレベルNについては、ガウシアン画像IGi,Nをそのままラプラシアン画像ILi,Nとして用いる。 Thereafter, the joint portion between the image data blocks I i is smoothed by multi-resolution spline synthesis. First, the process proceeds to S602, and an input image pyramid by Burt & Adelson is constructed for each image data block I i . The input image pyramid represents the image data block I i with N + 1 levels (0 to N) having different resolutions. It is assumed that the resolution decreases in order from level 0 to level N. Specifically, as shown in FIG. 9, the image data blocks I i according to the detailed geometric transformation T, copied as Gaussian image IG i, 0 level 0 of the input image pyramid. Next, the REDUCE operation (reduction in resolution) is repeatedly executed to create Gaussian images IG i, 1 to IG i, N of each level 0 to N of the input image pyramid. Next, an EXPAND operation (higher resolution) is applied to the Gaussian image IG i, 1 to IG i, N of one level above, and a Gaussian image IG i, 0 to IG i, N-1 of that level. Are taken to create Laplacian images IG i, 0 to IG i, N-1 at each level. However, for the highest level N, the Gaussian image IG i, N is used as the Laplacian image IL i, N as it is.
なお、入力画像ピラミッドの構築にあたって、各画像データブロックに対して各種の演算を行う必要があるが、本実施形態においては、画像データブロックが大容量であるため、画像データブロックの全体をRAMの作業エリアに展開することが出来ない。そのため、分割部12bにおいて生成された分割画像データブロックをメモリキャッシュで管理するようにした。具体的には、処理に必要な分割画像データブロックのみ演算を実行するようにし、演算が完了した分割画像データブロックをLRU(Last Recently Used)法で管理されるメモリキャッシュに格納して、その分割画像データブロックが後で再び必要となった場合、当該分割画像データブロックをメモリキャッシュ内で検索し、見つかった場合はメモリキャッシュから当該分割画像データブロックを取り出して再利用するようにした。
In constructing the input image pyramid, it is necessary to perform various operations on each image data block. In this embodiment, since the image data block has a large capacity, the entire image data block is stored in the RAM. Unable to expand into the work area. Therefore, the divided image data block generated in the
そして、S603に移行し、各画像データブロックIiについて、ブレンドマスクBiを作成する。まず、次式の重み付け関数を設定する。
wi=w(ξ,η)=−max(abs(ξ),abs(η))
wi:i番目の入力画像に関する重み付けの値。
ξ、η:i番目の入力画像の正規化座標。
max:最大値関数。
abs:絶対値関数。
なお、正規化座標ξ、ηは次式を用いる。
ξ=2(x/W−1)
η=2(y/H−1)
x、y:i番目の入力画像のグローバル幾何変換式適用後の座標。
W、H:入力画像の幅および高さ。
そして、上記のwiを各入力画像(1≦i≦M)の画素毎に計算する。そして、当該画素のブレンドマスクBi(1≦i≦M)を次のように生成する。wi≧wjが全ての1≦j≦Mに対して成り立つ場合は、ブレンドマスクBiの画素値を1とし、wi<wjを満たす1≦j≦Mが存在する場合は、ブレンドマスクBiの画素値を0とする。ただし、このままでは Burt & Adelson のブレンドマスクの規準(つなぎ目では50%の値を持つ必要がある)を満たさないため、1画素分の膨張処理を行い、つなぎ目では隣接する二画像のブレンドマスクBiの画素値がともに1とする。wiは入力画像の中心に近いほど大きな値を取るため、入力画像の近傍領域を抽出するための比較関数として用いることが出来、ブレンドマスク作成の用途に適している。
In step S603, a blend mask B i is created for each image data block I i . First, the following weighting function is set.
w i = w (ξ, η) = − max (abs (ξ), abs (η))
w i : Weighting value for the i-th input image.
ξ, η: Normalized coordinates of the i-th input image.
max: Maximum value function.
abs: Absolute value function.
The normalized coordinates ξ and η use the following equations.
ξ = 2 (x / W−1)
η = 2 (y / H-1)
x, y: coordinates after applying the global geometric transformation formula of the i-th input image.
W, H: width and height of the input image.
The above w i is calculated for each pixel of each input image (1 ≦ i ≦ M). Then, to produce a blend of the pixel mask B i a (1 ≦ i ≦ M) as follows. If w i ≧ w j holds for all 1 ≦ j ≦ M, the pixel value of the blend mask B i is set to 1, and if 1 ≦ j ≦ M satisfying w i <w j exists, blending The pixel value of the mask B i is set to 0. However, since this does not satisfy the Burt & Adelson blend mask standard (it is necessary to have a value of 50% at the joint), expansion processing for one pixel is performed, and at the joint, the blend mask B i of two adjacent images is used. Both pixel values are set to 1. Since w i takes a larger value as it is closer to the center of the input image, it can be used as a comparison function for extracting a neighboring region of the input image, and is suitable for blend mask creation.
さらに、S604に移行し、各画像データブロックIiについて、ブレンドマスクBiを用いて、ブレンド画像ピラミッドを構築する。具体的には、図10に示すように、詳細幾何変換Tを適用したブレンドマスクBiを、ブレンド画像ピラミッドのレベル0のガウシアン画像BGi,0としてコピーする。次に、反復的にREDUCE操作を実行することによって、ブレンド画像ピラミッドの各レベル0〜Nのガウシアン画像BGi,0〜BGi,Nを作成する。 In step S604, a blend image pyramid is constructed for each image data block I i using the blend mask B i . Specifically, as shown in FIG. 10, the blend mask B i to which the detailed geometric transformation T is applied is copied as a Gaussian image BG i, 0 of level 0 of the blend image pyramid. Then, by performing an iterative manner REDUCE operation, creating Gaussian image BG i for each level 0~N blend image pyramid, 0 ~BG i, the N.
そして、S605に移行し、出力画像ピラミッドを構築する。具体的には、図11に示すように、画像データブロックI1〜IMに関して、ブレンド画像ピラミッドのガウシアン画像BGi,0〜BGi,Nの画素値を比として、入力画像ピラミッドのラプラシアン画像LGi,0〜LGi,Nの画素値に掛け合わせ、掛け合わせた結果を、足し合わせてラプラシアン画像OLiを作成する。これを全てのレベル0〜Nについて行うことによって、出力画像ピラミッドのラプラシアン画像OL0〜OLNを構築する。なお、図11は、画像データブロックI1(i=1)に関する処理についてのみ示している。 Then, the process proceeds to S605, and an output image pyramid is constructed. Specifically, as shown in FIG. 11, for image data blocks I 1 to I M , the Laplacian image of the input image pyramid with the pixel values of the Gaussian images BG i, 0 to BG i, N of the blend image pyramid as a ratio. The pixel values of LG i, 0 to LG i, N are multiplied and the result of multiplication is added to create a Laplacian image OL i . By performing this operation for all levels 0 to N , Laplacian images OL 0 to OL N of the output image pyramid are constructed. Note that FIG. 11 shows the processing relating to the image data block I 1 (i = 1) only.
その後、S606に移行し、出力画像ピラミッドを展開することによって、接合画像データOを出力する。具体的には、図12に示すように、出力画像ピラミッドの各レベル0〜Nについて、1つ上のレベルのガウシアン画像OG1〜OGNにEXPAND操作を施したものと、当該レベルのラプラシアン画像OL0〜OLN−1の和を取ることによって、各レベル0〜Nのガウシアン画像OG0〜OGNを作成する。ただし、最上位のレベルNについては、ラプラシアン画像OLNをそのままガウシアン画像OGNとする。最後に、出力画像ピラミッドのレベル0のガウシアン画像OG0を接合画像データOとして出力する。この接合画像データOが原画像データとなる。そして、図8のフローチャートを終了する。 Thereafter, the process proceeds to S606, where the joint image data O is output by developing the output image pyramid. Specifically, as shown in FIG. 12, for each level 0 to N of the output image pyramid, the EXPAND operation is performed on the Gaussian images OG 1 to OG N one level higher, and the Laplacian image of the level By taking the sum of OL 0 to OL N−1 , Gaussian images OG 0 to OG N of levels 0 to N are created. However, for the highest level N, the Laplacian image OL N is directly used as the Gaussian image OG N. Finally, the output image pyramid level 0 Gaussian image OG 0 is output as the joined image data O. This joint image data O becomes original image data. Then, the flowchart of FIG. 8 ends.
なお、上述した多重スプライン合成における各画像ピラミッドの演算においては、画素値を表すデータ型として単精度浮動小数点を用いる。これは、ラプラシアン画像の画素値は一般に正負の両方の符号を持ち、また、REDUCE操作およびEXPAND操作の結果を十分な精度で表現するためには、一般に実数値が必要になるためである。 In the calculation of each image pyramid in the above-described multiple spline synthesis, a single precision floating point is used as a data type representing a pixel value. This is because the pixel value of a Laplacian image generally has both positive and negative signs, and in order to express the results of the REDUCE operation and EXPAND operation with sufficient accuracy, a real value is generally required.
以上、説明した本実施形態によると、元画像の領域及び参照画像の領域のそれぞれについて、特徴点とこれに対応する対応点とを抽出し、抽出した複数の特徴点及びこれに対応する複数の対応点の一致度が最も高くなるように、詳細幾何変換式を算出するため、ロバストな詳細幾何変換式を得ることが可能となり、各画像データブロックを正確に接合することができる。これにより、原画像データの精度が向上する。 As described above, according to the present embodiment described above, feature points and corresponding points corresponding thereto are extracted for each of the original image region and the reference image region, and a plurality of extracted feature points and a plurality of corresponding points are extracted. Since the detailed geometric conversion formula is calculated so that the matching degree of the corresponding points is the highest, it is possible to obtain a robust detailed geometric conversion formula, and the image data blocks can be accurately joined. This improves the accuracy of the original image data.
概略位置合わせ部13が、位相相関法を用いて、元画像のエッジ部に係る参照画像のエッジ部に対する平行移動量を算出し、算出した平行移動量から概算幾何変換式を生成するため、概略位置合わせ処理において、正規化相関によるマッチングのみで概算幾何変換式を生成する場合と比較して素早く概算幾何変換式を生成することができる。
Since the
このとき、概略位置合わせ部13が、生成した概略幾何変換式に基づいて元画像のエッジを平行移動させたときの、元画像及び参照画像のエッジ部の正規化相関値が所定値以上になっていない場合は、再度、位相相関法を用いて、元画像全体に係る参照画像全体に対する平行移動量を算出し、算出した平行移動量から概算幾何変換式を生成する。このため、元画像と参照画像とが深く重なり合っている場合であっても素早く概算幾何変換式を生成することができる。
At this time, when the
また、多重解像度化部12aが、各画像データブロックを複数の解像度で低解像度化した画像データブロックを生成する。そして、詳細位置合わせ処理においては、解像度を段階的に大きくしつつ、重なり領域抽出部14が、詳細幾何変換式によって移動された元画像及び参照画像に関する重なり領域を抽出し、当該重なり領域の特徴点及び当該特徴点に対応する対応点とから幾何変換式Tを修正するため、さらにロバストな詳細幾何変換式を生成することができる。
In addition, the multi-resolution converting unit 12a generates an image data block obtained by reducing the resolution of each image data block at a plurality of resolutions. In the detailed alignment process, the overlapping
以上、本発明の好適な実施形態について説明したが、本発明は上述の実施形態に限られるものではなく、特許請求の範囲に記載した限りにおいて様々な変更が可能なものである。例えば、上述した実施形態においては、概略位置合わせ部13が、位相相関法を用いて、元画像のエッジ部に係る参照画像のエッジ部に対する平行移動量を算出し、算出した平行移動量から概算幾何変換式を生成する構成であるが、位相相関法を用いることなく正規化相関法により、元画像のエッジ部に係る参照画像のエッジ部に対する平行移動量を算出する構成であってもよい。
The preferred embodiments of the present invention have been described above. However, the present invention is not limited to the above-described embodiments, and various modifications can be made as long as they are described in the claims. For example, in the above-described embodiment, the
また、上述した実施形態においては、概略位置合わせ部13が、生成した概略幾何変換式に基づいて元画像のエッジを平行移動させたときの、元画像及び参照画像のエッジ部の正規化相関値が所定値以上になっていない場合は、再度、位相相関法を用いて、元画像全体に係る参照画像全体に対する平行移動量を算出し、算出した平行移動量から概算幾何変換式を生成する構成であるが、元画像及び参照画像のエッジ部の正規化相関値が所定値以上になっていない場合は、正規化相関法を用いて、元画像全体に係る参照画像全体に対する平行移動量を算出する構成であってもよい。
In the above-described embodiment, the normalized correlation value of the edge portions of the original image and the reference image when the
さらに、上述した実施形態においては、解像度を段階的に大きくしつつ、重なり領域抽出部14が、詳細幾何変換式によって移動された元画像及び参照画像に関する重なり領域を抽出し、当該重なり領域の特徴点及び当該特徴点に対応する対応点とから幾何変換式Tを修正していく構成となっているが、解像度を段階的に大きくすることなく比較的解像度の高い元画像及び参照画像を用いて、1度だけ詳細幾何変換式を生成する構成であってもよい。
Further, in the above-described embodiment, the overlapping
1 制御装置(画像処理装置)
2 スキャナ
11 画像記憶部(画像記憶手段)
12 前処理部
12a 多重解像度化部(多重解像度化手段)
12b 分割部(分割手段)
13 概略位置合わせ部(概略位置合わせ手段)
13a 位相相関幾何変換式生成部
14 領域抽出部(領域抽出手段)
15 特徴点抽出部(特徴点抽出手段)
16 対応点抽出部(対応点抽出手段)
17 詳細位置合わせ部(詳細位置合わせ手段)
18 グローバル幾何変換式生成部
19 接合部(接合手段)
20 ディスプレイ
1 Control device (image processing device)
2
12 Pre-processing unit 12a Multi-resolution unit (multi-resolution unit)
12b Dividing part (dividing means)
13 Approximate alignment part (Approximate alignment means)
13a Phase correlation geometric transformation
15 Feature point extraction unit (feature point extraction means)
16 Corresponding point extraction unit (corresponding point extraction means)
17 Detailed alignment part (Detailed alignment means)
18 Global geometric
20 display
Claims (6)
前記画像記憶手段が記憶している互いに重なり合う2つの前記画像データブロック毎に、一方の前記画像データブロックである元画像と、他方の前記画像データブロックである参照画像との位置合わせを行う概略位置合わせ手段と、
前記元画像及び前記参照画像のそれぞれにおいて互いに重なる領域を抽出する領域抽出手段と、
前記元画像及び前記参照画像の各領域について1又は複数の特徴点を抽出する特徴点抽出手段と、
前記特徴点抽出手段が特徴点を抽出した各領域について、当該領域の各特徴点に対応する、当該領域に重なり合う他の前記領域における対応点を、当該特徴点の座標位置を基準とした正規化相関を行うことによって抽出する対応点抽出手段と、
各領域における複数の前記特徴点及びこれに対応する複数の前記対応点の一致度が最も高くなるように、前記元画像を移動させる幾何変換式を算出するとともに、算出した幾何変換式に基づいて前記元画像を移動させることによって、前記元画像と前記参照画像との位置合わせを行う詳細位置合わせ手段と、
前記詳細位置合わせ手段によって位置合わせされた前記元画像と前記参照画像とを接合する接合手段とを備えていることを特徴とする画像処理装置。 Image storage means for storing a plurality of image data blocks forming one original image data by being arranged so as to partially overlap each other in one direction;
For each of the two overlapping image data blocks stored in the image storage means, a rough position for aligning the original image that is one of the image data blocks and the reference image that is the other image data block Matching means;
Area extracting means for extracting areas overlapping each other in each of the original image and the reference image;
Feature point extraction means for extracting one or more feature points for each region of the original image and the reference image;
For each region from which the feature point extraction unit has extracted feature points, normalization is performed on the basis of the coordinate position of the feature point corresponding to the feature point of the region and the corresponding point in the other region that overlaps the region. Corresponding point extraction means for extracting by performing correlation;
A geometric transformation equation for moving the original image is calculated so that the degree of coincidence between the plurality of feature points in each region and the plurality of corresponding points corresponding thereto is the highest, and based on the calculated geometric transformation equation Detailed alignment means for aligning the original image and the reference image by moving the original image;
An image processing apparatus comprising: a joining unit that joins the original image and the reference image aligned by the detailed alignment unit.
前記領域抽出手段は、前記画像記憶手段が記憶している最も低い解像度から解像度が高くなる順に、前記詳細位置合わせ手段が位置合わせした前記元画像及び前記参照画像に関する各領域を抽出し、
前記接合手段が、前記画像記憶手段が記憶している最も高い解像度に関して前記詳細位置合わせ手段が位置合わせした前記元画像と前記参照画像とを接合することを特徴とする請求項1〜3のいずれかに記載の画像処理装置。 The image storage means further comprises a multi-resolution means for generating the image data block obtained by reducing the resolution of each image data block at a plurality of resolutions and storing the image data block in the image storage means,
The region extracting unit extracts each region related to the original image and the reference image aligned by the detailed alignment unit in the order of increasing resolution from the lowest resolution stored in the image storage unit,
The said joining means joins the said original image and the said reference image which the said detailed position alignment means aligned regarding the highest resolution which the said image memory | storage means has memorize | stored. An image processing apparatus according to claim 1.
前記接合手段が、前記分割手段によって分割された前記処理画像単位で前記元画像と前記参照画像とを接合することを特徴とする請求項1〜4のいずれかに記載の画像処理装置。 Further comprising a dividing means for dividing each image data block stored in the image storage means into processed images having a predetermined size;
The image processing apparatus according to claim 1, wherein the joining unit joins the original image and the reference image in units of the processed image divided by the dividing unit.
前記画像記憶手段が記憶している互いに重なり合う2つの前記画像データブロック毎に、一方の前記画像データブロックである元画像と、他方の前記画像データブロックである参照画像との位置合わせを行う概略位置合わせ手段、
前記元画像及び前記参照画像のそれぞれにおいて互いに重なる領域を抽出する領域抽出手段、
前記元画像及び前記参照画像の各領域について1又は複数の特徴点を抽出する特徴点抽出手段、
前記特徴点抽出手段が特徴点を抽出した各領域について、当該領域の各特徴点に対応する、当該領域に重なり合う他の前記領域における対応点を、当該特徴点の座標位置を基準とした正規化相関を行うことによって抽出する対応点抽出手段、
各領域における複数の前記特徴点及びこれに対応する複数の前記対応点の一致度が最も高くなるように、前記元画像を移動させる幾何変換式を算出するとともに、算出した幾何変換式に基づいて前記元画像を移動させることによって、前記元画像と前記参照画像との位置合わせを行う詳細位置合わせ手段、及び、
前記詳細位置合わせ手段によって位置合わせされた前記元画像と前記参照画像とを接合する接合手段としてコンピュータを機能させることを特徴とするプログラム。 Image storage means for storing a plurality of image data blocks forming one original image data by being arranged so as to partially overlap each other in one direction;
For each of the two overlapping image data blocks stored in the image storage means, a rough position for aligning the original image that is one of the image data blocks and the reference image that is the other image data block Matching means,
Area extracting means for extracting areas overlapping each other in each of the original image and the reference image;
Feature point extraction means for extracting one or more feature points for each region of the original image and the reference image;
For each region from which the feature point extraction unit has extracted feature points, normalization is performed on the basis of the coordinate position of the feature point corresponding to the feature point of the region and the corresponding point in the other region that overlaps the region. Corresponding point extraction means for extracting by performing correlation,
A geometric transformation equation for moving the original image is calculated so that the degree of coincidence between the plurality of feature points in each region and the plurality of corresponding points corresponding thereto is the highest, and based on the calculated geometric transformation equation Detailed alignment means for aligning the original image and the reference image by moving the original image; and
A program that causes a computer to function as a joining unit that joins the original image and the reference image registered by the detailed positioning unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007209287A JP2009044612A (en) | 2007-08-10 | 2007-08-10 | Image processing apparatus, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007209287A JP2009044612A (en) | 2007-08-10 | 2007-08-10 | Image processing apparatus, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009044612A true JP2009044612A (en) | 2009-02-26 |
Family
ID=40444827
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007209287A Pending JP2009044612A (en) | 2007-08-10 | 2007-08-10 | Image processing apparatus, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009044612A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015219791A (en) * | 2014-05-19 | 2015-12-07 | ブラザー工業株式会社 | Image processor and computer program |
US9609212B2 (en) | 2013-08-28 | 2017-03-28 | Ricoh Company, Ltd. | Image processing apparatus, image processing method, and image system |
US11928775B2 (en) | 2020-11-26 | 2024-03-12 | Ricoh Company, Ltd. | Apparatus, system, method, and non-transitory medium which map two images onto a three-dimensional object to generate a virtual image |
-
2007
- 2007-08-10 JP JP2007209287A patent/JP2009044612A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9609212B2 (en) | 2013-08-28 | 2017-03-28 | Ricoh Company, Ltd. | Image processing apparatus, image processing method, and image system |
US10063774B2 (en) | 2013-08-28 | 2018-08-28 | Ricoh Company, Ltd. | Image processing apparatus, image processing method, and imaging system |
US10412302B2 (en) | 2013-08-28 | 2019-09-10 | Ricoh Company, Ltd. | Image processing apparatus, image processing method, and imaging system |
US10834316B2 (en) | 2013-08-28 | 2020-11-10 | Ricoh Company, Ltd. | Image processing apparatus, image processing method, and imaging system |
JP2015219791A (en) * | 2014-05-19 | 2015-12-07 | ブラザー工業株式会社 | Image processor and computer program |
US11928775B2 (en) | 2020-11-26 | 2024-03-12 | Ricoh Company, Ltd. | Apparatus, system, method, and non-transitory medium which map two images onto a three-dimensional object to generate a virtual image |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4047352B2 (en) | Image distortion correction program, image distortion correction apparatus, and image distortion correction method | |
EP1193647B1 (en) | Apparatus and method for correcting distortion of input image | |
KR101737338B1 (en) | System and method for clean document reconstruction from annotated document images | |
JP2000182038A (en) | Method for generating perspective sizing data from distorted information, device to be used for this and computer program product | |
JP2006127241A (en) | Method for accelerating super-resolution processing | |
JP2009104402A (en) | Image forming system, image forming method, host device, image forming device, and memory medium | |
Collins et al. | Locally affine and planar deformable surface reconstruction from video | |
JP2009044612A (en) | Image processing apparatus, and program | |
JP5563231B2 (en) | Striped image examination apparatus, striped image examination method, and program | |
JP4053021B2 (en) | Image enlargement apparatus and program | |
JP5315075B2 (en) | Image processing apparatus, image processing apparatus control method, and program | |
JP4346742B2 (en) | Image composition method, image composition apparatus, and storage medium | |
JP4143655B2 (en) | Image processing apparatus, image processing method, program, storage medium, and system | |
JP2010146208A (en) | Information processing apparatus and program | |
JP5703898B2 (en) | Form management system, form image management method, and program | |
JP6440305B2 (en) | Super-resolution apparatus and program | |
JP4134992B2 (en) | Watermark information detection apparatus, watermark information embedding apparatus, watermark information detection method, and watermark information embedding method | |
JP2006237858A (en) | Image processing apparatus, image processing method, program for allowing computer to execute the method, and recording medium | |
JP6833753B2 (en) | Structure inspection system, structure inspection equipment and structure inspection method | |
CN108073924B (en) | Image processing method and device | |
JP3527588B2 (en) | Template matching method | |
JP6157234B2 (en) | Image processing apparatus, image processing method, and program | |
JP4872715B2 (en) | Image processing apparatus and program | |
WO2023199417A1 (en) | Deformation composition data generation apparatus and deformation composition data generation method | |
Seo et al. | Face image metamorphosis with an improved multilevel b-spline approximation |