JP2009044612A - Image processing apparatus, and program - Google Patents

Image processing apparatus, and program Download PDF

Info

Publication number
JP2009044612A
JP2009044612A JP2007209287A JP2007209287A JP2009044612A JP 2009044612 A JP2009044612 A JP 2009044612A JP 2007209287 A JP2007209287 A JP 2007209287A JP 2007209287 A JP2007209287 A JP 2007209287A JP 2009044612 A JP2009044612 A JP 2009044612A
Authority
JP
Japan
Prior art keywords
image
original image
image data
region
original
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007209287A
Other languages
Japanese (ja)
Inventor
Eiichi Takamori
英一 高森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
S TEN NINE KYOTO KK
Original Assignee
S TEN NINE KYOTO KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by S TEN NINE KYOTO KK filed Critical S TEN NINE KYOTO KK
Priority to JP2007209287A priority Critical patent/JP2009044612A/en
Publication of JP2009044612A publication Critical patent/JP2009044612A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To accurately join a plurality of image data blocks forming original image data. <P>SOLUTION: An overlap area generated when an original image concerned with an acquired image data block and a reference image are overlapped to each other by using a geometric transformation formula T is extracted (S502). Feature points in the overlap area between the original image and the reference image are extracted (S503, S505). Correspondence points corresponding to respective feature points on the overlap area between the original image and the reference image are extracted (S504, S506) by using the geometric transformation formula T. The geometric transformation formula T is generated so that a degree of coincidence between the plurality of feature points and the plurality of correspondence points corresponding to the feature points becomes highest (S507). The geometric transformation formula T is repeatedly corrected while gradually increasing resolution R until the resolution R becomes maximum processing resolution (S508, S509). <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、複数の画像データブロックを接合して原画像データを生成する画像処理装置及びプログラムに関する。   The present invention relates to an image processing apparatus and a program for generating original image data by joining a plurality of image data blocks.

大型の原稿をデジタルデータ化するために、移動式のスキャナを用いて、原稿を複数回に分けて読み込み、読み込んだときに生成される各画像データブロックを後工程で接合することによって原稿の原画像データを生成することが行われている。この後工程においては、オペレータが汎用の画像編集ソフトウェアを操作して、各画像データブロックを接合することも可能であるが、作業が繁雑で時間がかかるばかりか、十分な画像品質を得ることができないことがある。そこで、画像データブロック同士の接合を精度よく、且つ、自動的に行う技術が知られている。例えば、位置情報を示す印が形成された透過版上に原稿を配置し、透過版に記された印を元に、各画像データブロックの配置位置を割り出し、割り出した配置位置に基づいて読み込んだ画像データブロック同士の接合を自動的に行う画像読取装置が知られている(特許文献1参照)。特許文献1に開示された画像読取装置では、新たな原稿をスキャンするたびに透過版を設置する必要があり、スキャンする原稿が大型の場合、透過板も大型となり、透過板を設置する手間が繁雑である。さらに、透過板を分解して持ち運ぶことが困難である。そこで、接合する画像データブロックに対してパターンマッチングを行ってマッチングポイントを抽出し、抽出したマッチングポイントを用いて画像データブロック同士を接合する画像処理装置が知られている(例えば、特許文献2参照)。   In order to convert a large original into digital data, a moving scanner is used to read the original in a plurality of times, and each image data block generated when the original is read is joined in a later process to generate the original of the original. Image data is generated. In this post-process, the operator can operate the general-purpose image editing software to join the image data blocks. However, the work is complicated and time-consuming, and sufficient image quality can be obtained. There are things that cannot be done. Thus, a technique for automatically and accurately joining image data blocks is known. For example, a manuscript is placed on a transparent plate on which a mark indicating position information is formed, and the arrangement position of each image data block is determined based on the mark written on the transparent plate, and read based on the calculated arrangement position. An image reading apparatus that automatically joins image data blocks is known (see Patent Document 1). In the image reading apparatus disclosed in Patent Document 1, it is necessary to install a transmission plate every time a new document is scanned. When a document to be scanned is large, the transmission plate is also large, and it is troublesome to install the transmission plate. It is complicated. Furthermore, it is difficult to disassemble and carry the transmission plate. Therefore, an image processing apparatus is known that performs pattern matching on image data blocks to be joined to extract matching points, and joins the image data blocks using the extracted matching points (see, for example, Patent Document 2). ).

特開平5−252349号公報(図4)JP-A-5-252349 (FIG. 4) 特開2003−189111号公報(図1)Japanese Patent Laying-Open No. 2003-189111 (FIG. 1)

特許文献2に開示された画像処理装置においては、透過版を設置することなく画像データブロック同士を接合することができる。しかしながら、スキャナを移動させつつ、複数回に分割して原稿を読み込むときに、原稿に対するスキャナの姿勢が僅かに変化することある。このような変化は、パターンマッチングにおいて、マッチングポイントを抽出するときの外乱となるため、画像データブロック同士を正確に接合することが難しい。   In the image processing apparatus disclosed in Patent Document 2, it is possible to join image data blocks without installing a transparent plate. However, when the original is read in a plurality of times while moving the scanner, the posture of the scanner with respect to the original may slightly change. Since such a change becomes a disturbance when extracting matching points in pattern matching, it is difficult to accurately join image data blocks.

そこで、本発明は、原画像データを形成する複数の画像データブロックを正確に接合することができる画像処理装置及びプログラムを提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides an image processing apparatus and a program capable of accurately joining a plurality of image data blocks forming original image data.

本発明の画像処理装置は、一方向に関して互いに一部が重なり合うように配置されることによって1つの原画像データを形成する複数の画像データブロックを記憶する画像記憶手段と、前記画像記憶手段が記憶している互いに重なり合う2つの前記画像データブロック毎に、一方の前記画像データブロックである元画像と、他方の前記画像データブロックである参照画像との位置合わせを行う概略位置合わせ手段と、前記元画像及び前記参照画像のそれぞれにおいて互いに重なる領域を抽出する領域抽出手段と、前記元画像及び前記参照画像の各領域について1又は複数の特徴点を抽出する特徴点抽出手段と、前記特徴点抽出手段が特徴点を抽出した各領域について、当該領域の各特徴点に対応する、当該領域に重なり合う他の前記領域における対応点を、当該特徴点の座標位置を基準とした正規化相関を行うことによって抽出する対応点抽出手段と、各領域における複数の前記特徴点及びこれに対応する複数の前記対応点の一致度が最も高くなるように、前記元画像を移動させる幾何変換式を算出するとともに、算出した幾何変換式に基づいて前記元画像を移動させることによって、前記元画像と前記参照画像との位置合わせを行う詳細位置合わせ手段と、前記詳細位置合わせ手段によって位置合わせされた前記元画像と前記参照画像とを接合する接合手段とを備えている。   The image processing apparatus according to the present invention includes an image storage unit that stores a plurality of image data blocks that form one original image data by being arranged so as to partially overlap each other in one direction, and the image storage unit stores For each of the two image data blocks overlapping each other, a rough alignment means for aligning an original image that is one of the image data blocks and a reference image that is the other image data block; Region extracting means for extracting regions overlapping each other in the image and the reference image, feature point extracting means for extracting one or a plurality of feature points for each region of the original image and the reference image, and the feature point extracting means For each area from which feature points have been extracted, corresponding to each feature point of the area, Corresponding point extracting means for extracting the corresponding points by performing a normalized correlation with reference to the coordinate position of the feature point, and a plurality of the feature points in each region and a plurality of corresponding points corresponding thereto Calculating a geometric transformation formula for moving the original image so that the degree is the highest, and moving the original image based on the calculated geometric transformation formula, thereby aligning the original image with the reference image Detailed positioning means for performing the above and joining means for joining the original image and the reference image aligned by the detailed positioning means.

本発明のプログラムは、一方向に関して互いに一部が重なり合うように配置されることによって1つの原画像データを形成する複数の画像データブロックを記憶する画像記憶手段、前記画像記憶手段が記憶している互いに重なり合う2つの前記画像データブロック毎に、一方の前記画像データブロックである元画像と、他方の前記画像データブロックである参照画像との位置合わせを行う概略位置合わせ手段、前記元画像及び前記参照画像のそれぞれにおいて互いに重なる領域を抽出する領域抽出手段、前記元画像及び前記参照画像の各領域について1又は複数の特徴点を抽出する特徴点抽出手段、前記特徴点抽出手段が特徴点を抽出した各領域について、当該領域の各特徴点に対応する、当該領域に重なり合う他の前記領域における対応点を、当該特徴点の座標位置を基準とした正規化相関を行うことによって抽出する対応点抽出手段、各領域における複数の前記特徴点及びこれに対応する複数の前記対応点の一致度が最も高くなるように、前記元画像を移動させる幾何変換式を算出するとともに、算出した幾何変換式に基づいて前記元画像を移動させることによって、前記元画像と前記参照画像との位置合わせを行う詳細位置合わせ手段、及び、前記詳細位置合わせ手段によって位置合わせされた前記元画像と前記参照画像とを接合する接合手段としてコンピュータを機能させる。   The program of the present invention stores image storage means for storing a plurality of image data blocks forming one original image data by being arranged so as to partially overlap each other in one direction, and the image storage means stores the image storage means. For each of the two image data blocks that overlap each other, a rough alignment means for aligning an original image that is one of the image data blocks and a reference image that is the other image data block, the original image and the reference Area extraction means for extracting overlapping areas in each of the images, feature point extraction means for extracting one or a plurality of feature points for each area of the original image and the reference image, and feature point extraction means for extracting feature points For each region, corresponding points in the other region corresponding to each feature point of the region and overlapping the region Corresponding point extracting means for extracting by performing normalized correlation with reference to the coordinate position of the feature point, the plurality of feature points in each region, and the matching degree of the corresponding points corresponding thereto are the highest. As described above, a detailed alignment for calculating the geometric transformation equation for moving the original image and performing alignment between the original image and the reference image by moving the original image based on the calculated geometric transformation equation And a computer functioning as a joining unit that joins the original image and the reference image aligned by the detailed positioning unit.

これら本発明によると、元画像の領域及び参照画像の領域のそれぞれについて、特徴点とこれに対応する対応点とを抽出し、抽出した複数の特徴点及びこれに対応する複数の対応点の一致度が最も高くなるように、幾何変換式を算出するため、ロバストな幾何変換式を得ることが可能となり、複数の画像データブロックを正確に接合することができる。   According to the present invention, for each of the original image area and the reference image area, feature points and corresponding points corresponding thereto are extracted, and the extracted feature points and corresponding points corresponding thereto are matched. Since the geometric transformation formula is calculated so that the degree becomes the highest, a robust geometric transformation formula can be obtained, and a plurality of image data blocks can be accurately joined.

本発明においては、前記概略位置合わせ手段が、前記元画像の前記一方向に関する一方端部近傍と、前記参照画像の前記一方向に関する他方端部近傍との間で位相相関を得ることができるように、前記元画像を移動させる幾何変換式を算出するとともに、算出した幾何変換式に基づいて前記元画像を移動させることによって、前記元画像と前記参照画像との位置合わせを行うことが好ましい。これによると、概略位置合わせにおいて、位相相関法を用いて、幾何変換式を算出するため、正規化相関の一致度のみで幾何変換式を算出する場合と比較して素早く幾何変換式を算出することができる。   In the present invention, the approximate alignment means can obtain a phase correlation between the vicinity of one end of the original image in the one direction and the vicinity of the other end of the reference image in the one direction. In addition, it is preferable to perform alignment of the original image and the reference image by calculating a geometric transformation formula for moving the original image and moving the original image based on the calculated geometric transformation formula. According to this, since the geometric transformation formula is calculated by using the phase correlation method in the rough alignment, the geometric transformation formula is calculated more quickly than when the geometric transformation formula is calculated only by the degree of coincidence of the normalized correlation. be able to.

このとき、前記概略位置合わせ手段が、前記元画像の前記一方端部近傍と、前記参照画像の前記他方端部近傍との間で位相相関を得ることができなかったときに、前記元画像及び前記参照画像全体の間で位相相関を得ることができるように、前記元画像を移動させる幾何変換式を算出することがより好ましい。これによると、画像データブロックの大半が重なり合う場合であっても幾何変換式を素早く算出することができる。   At this time, when the approximate alignment means cannot obtain a phase correlation between the vicinity of the one end of the original image and the vicinity of the other end of the reference image, the original image and More preferably, a geometric transformation equation for moving the original image is calculated so that a phase correlation can be obtained between the entire reference images. According to this, even when the majority of the image data blocks overlap, the geometric transformation formula can be calculated quickly.

また、本発明においては、前記画像記憶手段が記憶している各画像データブロックを複数の解像度で低解像度化した前記画像データブロックを生成して前記画像記憶手段に記憶させる多重解像度化手段をさらに備えており、前記領域抽出手段は、前記画像記憶手段が記憶している最も低い解像度から解像度が高くなる順に、前記詳細位置合わせ手段が位置合わせした前記元画像及び前記参照画像に関する各領域を抽出し、前記接合手段が、前記画像記憶手段が記憶している最も高い解像度に関して前記詳細位置合わせ手段が位置合わせした前記元画像と前記参照画像とを接合することが好ましい。これによると、最も低い解像度から解像度が高くなる順に、幾何変換式が修正されるため、ロバストな幾何変換式を算出することができる。   According to the present invention, there is further provided a multiresolution means for generating the image data block obtained by reducing the resolution of each image data block stored in the image storage means at a plurality of resolutions and storing the generated image data block in the image storage means. The region extracting unit extracts each region relating to the original image and the reference image aligned by the detailed alignment unit in the order of increasing resolution from the lowest resolution stored in the image storage unit; Preferably, the joining unit joins the original image and the reference image, which are aligned by the detailed positioning unit with respect to the highest resolution stored in the image storage unit. According to this, since the geometric transformation formula is corrected in the order from the lowest resolution to the highest resolution, a robust geometric transformation formula can be calculated.

さらに、本発明においては、前記画像記憶手段に記憶された各画像データブロックを所定のサイズを有する処理画像に分割する分割手段をさらに備えており、前記接合手段が、前記分割手段によって分割された前記処理画像単位で前記元画像と前記参照画像とを接合することが好ましい。これによると、メモリに展開できないような高解像度の画像データブロックに対応することができる。   Furthermore, the present invention further includes a dividing unit that divides each image data block stored in the image storage unit into processed images having a predetermined size, and the joining unit is divided by the dividing unit. It is preferable that the original image and the reference image are joined in units of the processed image. According to this, it is possible to deal with a high-resolution image data block that cannot be developed in a memory.

以下、本発明の好適な実施の形態について、図面を参照しつつ説明する。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.

図1は、本発明に係る好適な実施形態の画像処理装置である制御装置の機能ブロック図である。図1に示すように、制御装置1は、スキャナ2が大型の原稿を分割して読み込むことによって生成した複数の画像データブロックを接合して原画像データとなる接合画像データを生成するものであり、PC(パーソナルコンピュータ)上で起動する制御プログラムによって実現される。なお、PCは、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard disk drive)などを含んでおり、CPUが制御プログラムを実行することによって、制御装置1の後述する各機能部を実現する。また、制御装置1は、スキャナ2と通信可能に接続されている。さらに、制御装置1は、画像データブロックや接合画像データの内容を確認するためのディスプレイ20と、図示しないマウスやキーボードなどの入力デバイスが接続されている。   FIG. 1 is a functional block diagram of a control apparatus which is an image processing apparatus according to a preferred embodiment of the present invention. As shown in FIG. 1, the control device 1 joins a plurality of image data blocks generated when the scanner 2 divides and reads a large document and generates joined image data as original image data. This is realized by a control program activated on a PC (personal computer). The PC includes a central processing unit (CPU), a read only memory (ROM), a random access memory (RAM), a hard disk drive (HDD), and the like, and the control device is executed by the CPU executing a control program. 1 will be described later. The control device 1 is connected to the scanner 2 so as to be communicable. Further, the control device 1 is connected to a display 20 for confirming the contents of the image data block and the joined image data, and an input device such as a mouse and a keyboard (not shown).

制御装置1は、画像記憶部(画像記憶手段)11と、前処理部12と、概略位置合わせ部(概略位置合わせ手段)13と、重なり領域抽出部(領域抽出手段)14と、特徴点抽出部(特徴点抽出手段)15と、対応点抽出部(対応点抽出手段)16と、詳細位置合わせ部(詳細位置合わせ手段)17と、グローバル幾何変換式生成部18と、接合部(接合手段)19とを有している。画像記憶部11は、スキャナ2が読み込んだ原稿に関する複数の入力画像に係る画像データブロックを記憶するものである。図2を参照しつつ、スキャナ2の原稿の読み込み方法について説明する。図2は、スキャナ2が原稿を読み込むときの動作を示した図である。スキャナ2は、一方向に移動可能となっている。図2に示すように、スキャナ2は、原稿の長手方向に関する複数位置のそれぞれにおいて、原稿の一部を読み込んで画像データブロックを生成し、生成した画像データブロックを制御装置1に送信する。このように、スキャナ2は、原稿を複数に分割して読み込むことによって複数の入力画像に係る画像データブロックを生成する。このとき、複数の画像データブロックは、移動方向(一方向)に関して互いに一部(本実施形態においては、5〜10cm)が重なり合うように生成される。したがって、この複数の画像データブロックが示す入力画像が、移動方向に関して互いに一部が重なり合うように配置されることによって原画像データが示す原稿の画像を形成することになる。なお、本実施形態においては、画像データブロックの解像度は600dpiとなっている。   The control device 1 includes an image storage unit (image storage unit) 11, a pre-processing unit 12, a schematic registration unit (general registration unit) 13, an overlapping region extraction unit (region extraction unit) 14, and feature point extraction. Part (feature point extracting means) 15, corresponding point extracting part (corresponding point extracting means) 16, detailed positioning part (detailed positioning means) 17, global geometric transformation expression generating part 18, and joining part (joining means) 19). The image storage unit 11 stores image data blocks related to a plurality of input images related to the original read by the scanner 2. A document reading method of the scanner 2 will be described with reference to FIG. FIG. 2 is a diagram showing an operation when the scanner 2 reads a document. The scanner 2 can move in one direction. As shown in FIG. 2, the scanner 2 reads a part of the document at each of a plurality of positions in the longitudinal direction of the document, generates an image data block, and transmits the generated image data block to the control device 1. In this way, the scanner 2 generates image data blocks related to a plurality of input images by reading a document divided into a plurality of parts. At this time, the plurality of image data blocks are generated such that a part (5 to 10 cm in the present embodiment) overlaps with each other in the moving direction (one direction). Accordingly, the input images indicated by the plurality of image data blocks are arranged so as to partially overlap each other with respect to the moving direction, thereby forming the original image indicated by the original image data. In the present embodiment, the resolution of the image data block is 600 dpi.

前処理部12は、原画像データを生成するにあたって、画像記憶部11が記憶している各画像データブロックの前処理を行うものであり、多重解像度化部(多重解像度化手段)12aと分割部(分割手段)12bとを有している。多重解像度化部12aは、画像記憶部11が記憶している各画像データブロックを複数の解像度で低解像度化するものである。具体的には、多重解像度化部12aは、画像データブロックが、後述する分割画像データブロックのサイズ以下になるまで、画像データブロックを累積的に1/(1/2乗)を乗ずる。例えば、本実施形態においては、画像データブロックの解像度が600dpiとなっているので、600dpi→424dpi→300dpi→212dpi→・・・の低解像度化された画像データブロックが順に生成される。   The pre-processing unit 12 performs pre-processing of each image data block stored in the image storage unit 11 when generating the original image data, and includes a multi-resolution unit (multi-resolution unit) 12a and a dividing unit. (Dividing means) 12b. The multi-resolution conversion unit 12a reduces the resolution of each image data block stored in the image storage unit 11 at a plurality of resolutions. Specifically, the multi-resolution converting unit 12a cumulatively multiplies the image data block by 1 / (1/2 power) until the image data block is equal to or smaller than the size of the divided image data block described later. For example, in the present embodiment, since the resolution of the image data block is 600 dpi, the image data blocks with reduced resolution of 600 dpi → 424 dpi → 300 dpi → 212 dpi →.

分割部12bは、多重解像度化部12aによって低解像度化された画像データブロックを所定サイズの分割画像データブロック(処理画像)によりタイル状に分割して画像記憶部11に記憶させるものである。分割画像データブロックは、256×256ドットで構成される。また、分割画像データブロックにおける、低解像度化された画像データブロックのサイズを超える領域については、全てのドットの値が0となっている。さらに、分割画像データブロックはJPEGフォーマットで出力され、セキュリティ機能向上のため、共通鍵暗号方式により暗号化されている。なお、分割画像データブロックは、ビットマップなど他のファーマットで出力されてもよいし、他の暗号方式により暗号化されてもよいし、暗号化されなくてもよい。   The dividing unit 12b is configured to divide the image data block whose resolution has been reduced by the multi-resolution converting unit 12a into tiles using divided image data blocks (processed images) of a predetermined size and store them in the image storage unit 11. The divided image data block is composed of 256 × 256 dots. In the divided image data block, the value of all dots is 0 for the area exceeding the size of the image data block whose resolution has been reduced. Further, the divided image data block is output in the JPEG format and is encrypted by a common key encryption method in order to improve the security function. The divided image data block may be output in another format such as a bitmap, may be encrypted by another encryption method, or may not be encrypted.

概略位置合わせ部13は、画像記憶部11に記憶されている複数の画像データブロックのうち、原画像データにおいて互いに重なり合う2つの画像データブロックの一方が示す画像を元画像とし、他方の画像データブロックが示す画像を参照画像としたとき、元画像と参照画像とが位置合わせされるように、参照画像に対して元画像を移動させる概算幾何変換式を生成するものである。   The rough alignment unit 13 uses, as an original image, an image indicated by one of two image data blocks that overlap each other in the original image data among the plurality of image data blocks stored in the image storage unit 11, and the other image data block When the image indicated by is used as a reference image, an approximate geometric transformation formula for moving the original image with respect to the reference image is generated so that the original image and the reference image are aligned.

また、概略位置合わせ部13は、位相相関幾何変換式生成部13aを有している。位相相関幾何変換式生成部13aは、まず、元画像における参照画像側のエッジ部(一方向に関する一方端部近傍)と参照画像における元画像側のエッジ部(一方向に関する他方端部近傍)とを、粗い解像度(本実施形態においては、20dpi)でリサンプリングする。ここで、リサンプリングとは、画像記憶部11に記憶されている画像データブロックのうち、この粗い解像度に最も近い解像度を有する低解像度化された画像データブロックから解像度変換を行い、解像度変換を行った画像データブロックから所望の領域を取得することをいう。そして、位相相関(Phase Correlation)法を用いて、元画像のエッジ部と参照画像のエッジ部との間で位相相関を得ることができるような、元画像のエッジ部に係る参照画像のエッジ部に対する平行移動量を算出し、算出した平行移動量から概算幾何変換式を生成する。その後、生成した概略幾何変換式に基づいて元画像のエッジ部を平行移動させたときの、元画像及び参照画像のエッジ部の一致度を示す正規化相関値を算出する。ここで、正規化相関値が所定値(例えば、0.8〜1)以上になっていない場合は、当該元画像と参照画像とが、エッジ部より深く重なり合っていると判断して、元画像全体と参照画像全体とを、粗い解像度でリサンプリングし、再度、位相相関法を用いて、元画像に係る参照画像に対する平行移動量を算出し、算出した平行移動量から概算幾何変換式を生成する。   The approximate alignment unit 13 includes a phase correlation geometric transformation expression generation unit 13a. The phase correlation geometric transformation expression generation unit 13a first includes an edge portion on the reference image side in the original image (near one end portion in one direction) and an edge portion on the original image side in the reference image (near the other end portion in one direction). Are resampled at a coarse resolution (20 dpi in this embodiment). Here, resampling is a resolution conversion from a reduced-resolution image data block having a resolution closest to the coarse resolution among the image data blocks stored in the image storage unit 11, and performs the resolution conversion. Acquisition of a desired area from the obtained image data block. Then, by using the phase correlation method, the edge portion of the reference image related to the edge portion of the original image that can obtain the phase correlation between the edge portion of the original image and the edge portion of the reference image Is calculated, and a rough geometric transformation formula is generated from the calculated parallel movement amount. Thereafter, a normalized correlation value indicating the degree of coincidence between the edge portion of the original image and the reference image when the edge portion of the original image is translated based on the generated approximate geometric transformation formula is calculated. Here, when the normalized correlation value is not equal to or greater than a predetermined value (for example, 0.8 to 1), it is determined that the original image and the reference image overlap deeper than the edge portion, and the original image Resample the entire image and the entire reference image with coarse resolution, and again calculate the amount of translation relative to the reference image related to the original image using the phase correlation method, and generate an approximate geometric transformation formula from the calculated amount of translation To do.

重なり領域抽出部14は、画像記憶部11から元画像及び参照画像を示す画像データブロックを取得し、取得した画像データブロックにおける、概略位置合わせ部13によって生成された概算幾何変換式又は詳細位置合わせ部17によって生成された詳細幾何変換式(後述)である幾何変換式Tを用いて元画像と参照画像とを重ね合わせたときに、元画像及び参照画像において互いに重なり合う重なり領域を抽出するものである。この重なり領域は矩形状となっている。   The overlapping area extraction unit 14 acquires an image data block indicating the original image and the reference image from the image storage unit 11, and the approximate geometric conversion formula or detailed registration generated by the approximate registration unit 13 in the acquired image data block When the original image and the reference image are overlapped using the geometric conversion expression T, which is a detailed geometric conversion expression (described later) generated by the unit 17, an overlapping area that overlaps the original image and the reference image is extracted. is there. This overlapping area is rectangular.

特徴点抽出部15は、Moravecのインタレスト・オペレータを用いて、重なり領域抽出部14によって抽出された元画像及び参照画像の各重なり領域における特徴点を抽出するものである。本実施形態において、特徴点とは、周辺に配置された他のドットに対する輝度の変化が大きいドットである。具体的には、特徴点抽出部15は、元画像及び参照画像をグレースケールに変換する。そして、グレースケールに変換した画像に対してMoravecのインタレスト・オペレータを適用し、インタレスト値の平均値及び標準偏差を求める。そして、各インタレスト値が平均値よりも標準偏差の3倍以上大きく、且つ、一定範囲内に他の特徴点が存在しない場合に、当該インタレスト値に係るドットを特徴点として抽出する。なお、他の手法により特徴点を抽出してもよい。   The feature point extraction unit 15 uses a Moravec interest operator to extract feature points in each overlap region of the original image and the reference image extracted by the overlap region extraction unit 14. In the present embodiment, the feature points are dots that have a large change in luminance with respect to other dots arranged in the vicinity. Specifically, the feature point extraction unit 15 converts the original image and the reference image to gray scale. Then, Moravec's interest operator is applied to the image converted to grayscale, and the average value and standard deviation of the interest values are obtained. Then, when each interest value is three times or more the standard deviation larger than the average value and there is no other feature point within a certain range, a dot related to the interest value is extracted as a feature point. Note that feature points may be extracted by other methods.

対応点抽出部16は、特徴点抽出部15が特徴点を抽出した各重なり領域について、当該重なり領域の各特徴点に対応する、当該重なり領域に重なり合う他の重なり領域における対応点を抽出するものである。具体的には、まず、元画像の重なり領域における各特徴点を中心とした±3ピクセル(7×7ピクセル)の周辺領域である特徴領域を抽出する。また、各特徴点に幾何変換式Tを適用することによって、参照画像の重なり領域上の点であるサーチ基準点を算出し、参照画像の重なり領域における各サーチ基準点を中心とした±10ピクセル(21×21ピクセル)の周辺領域であるサーチ領域を抽出する。そして、正規化相関法を用いて、サーチ領域における特徴領域との一致度が高い領域をサーチする。サーチの結果、発見された領域の中心点を特徴点に対応する対応点として抽出する。次に、参照画像の重なり領域における各特徴点についても同様の処理を行って、各特徴点に対応する元画像の重なり領域上の対応点を抽出する。なお、参照画像の重なり領域に係る各特徴点には、幾何変換式Tの逆変換を適用することによって、元照画像の重なり領域上の点であるサーチ基準点を算出する。そして、抽出された特徴点と、当該特徴点に対応する対応点との組は、特徴点リストとして記憶される。   The corresponding point extraction unit 16 extracts, for each overlapping region from which the feature point extracting unit 15 has extracted the feature points, corresponding points in other overlapping regions that overlap the overlapping region corresponding to the feature points of the overlapping region. It is. Specifically, first, a feature region that is a peripheral region of ± 3 pixels (7 × 7 pixels) around each feature point in the overlapping region of the original image is extracted. Further, by applying the geometric transformation equation T to each feature point, a search reference point that is a point on the overlapping region of the reference image is calculated, and ± 10 pixels centering on each search reference point in the overlapping region of the reference image A search area that is a peripheral area of (21 × 21 pixels) is extracted. Then, using the normalized correlation method, an area having a high degree of coincidence with the feature area in the search area is searched. As a result of the search, the center point of the discovered area is extracted as a corresponding point corresponding to the feature point. Next, similar processing is performed for each feature point in the overlapping region of the reference image, and corresponding points on the overlapping region of the original image corresponding to each feature point are extracted. Note that a search reference point, which is a point on the overlapping area of the source image, is calculated by applying inverse transformation of the geometric transformation equation T to each feature point related to the overlapping area of the reference image. A set of extracted feature points and corresponding points corresponding to the feature points is stored as a feature point list.

詳細位置合わせ部17は、各重なり領域における特徴点抽出部15が抽出した複数の特徴点及びこれに対応する複数の対応点の一致度が最も高くなるように、参照画像に対して元画像を移動させる詳細幾何変換式を生成するものである。ここでは、対応点抽出部16が生成した特徴点リストに対して、RANSAC(Random Sample Consensus)法、最小メディアン法、最小二乗法を混合させた方法を用いて、詳細幾何変換式をロバスト推定により生成する。なお、当てはめる幾何変換にはヘルマート変換を用いる。具体的には、特徴点リストから特徴点及びこれに対応する対応点の組をランダムに2組選択し、これらについて連立方程式を解いてヘルマート変換式を生成する。そして、このヘルマート変換式について、特徴点及びこれに対応する対応点の組の二乗誤差を求める。さらに、この二乗誤差に関するメディアン(中央値)を求め、このメディアンよりも二乗誤差が大きい特徴点及びこれに対応する対応点の組を除外して、最小二乗法により再度ヘルマート変換式を生成する。以上の処理を所定回数(本実施形態においては100回)繰り返し、メディアンが最小、言い換えれば、複数の特徴点及びこれに対応する複数の対応点の一致度が最も高くなるヘルマート変換式を詳細幾何変換式とする。   The detailed alignment unit 17 selects the original image with respect to the reference image so that the degree of coincidence of the plurality of feature points extracted by the feature point extraction unit 15 in each overlapping region and the corresponding points corresponding thereto is the highest. A detailed geometric conversion formula to be moved is generated. Here, the detailed geometric transformation equation is robustly estimated by using a method in which the RANSAC (Random Sample Consensus) method, the least median method, and the least square method are mixed with the feature point list generated by the corresponding point extraction unit 16. Generate. Note that Helmat transform is used for geometric transformation to be applied. Specifically, two sets of feature points and corresponding points corresponding to the feature points are selected at random from the feature point list, and simultaneous equations are solved for these sets to generate a Helmat transform equation. Then, a square error of a set of feature points and corresponding points corresponding thereto is obtained for this Helmart transform equation. Further, a median (median value) relating to the square error is obtained, a set of feature points having a square error larger than that of the median and corresponding points corresponding thereto is excluded, and the Helmart transform formula is generated again by the least square method. The above process is repeated a predetermined number of times (100 times in the present embodiment), and the median is minimized. A conversion formula.

グローバル幾何変換式生成部18は、原画像データが生成されるように、画像記憶部11に記憶されている各画像データブロックを移動させるグローバル幾何変換式を生成するものである。例えば、画像記憶部11に記憶されている画像データブロックが示す入力画像a〜入力画像dが、スキャナ2の移動方向に関して順に配列するものであり、詳細位置合わせ部17が生成した複数の詳細幾何変換式(元画像を移動させる幾何変換式)が、入力画像a〜入力画像dに対応してTa〜Tdであるとき、入力画像bに係るグローバル幾何変換式Tgbは、Tgb=Ta・Tbとなり、入力画像cに係るグローバル幾何変換式Tgcは、Tgb=Ta・Tb・Tcとなり、入力画像dに係るグローバル幾何変換式Tgdは、Tgd=Ta・Tb・Tc・Tdとなる。なお、入力画像aは元画像とならないためTa=Tga=恒等変換式となる。   The global geometric transformation expression generation unit 18 generates a global geometric transformation expression for moving each image data block stored in the image storage unit 11 so that original image data is generated. For example, the input image a to the input image d indicated by the image data block stored in the image storage unit 11 are arranged in order with respect to the moving direction of the scanner 2, and a plurality of detailed geometries generated by the detailed alignment unit 17. When the transformation formula (geometric transformation formula for moving the original image) is Ta to Td corresponding to the input image a to the input image d, the global geometric transformation formula Tgb related to the input image b is Tgb = Ta · Tb. The global geometric transformation equation Tgc related to the input image c is Tgb = Ta · Tb · Tc, and the global geometric transformation equation Tgd related to the input image d is Tgd = Ta · Tb · Tc · Td. Since the input image a is not an original image, Ta = Tga = identity conversion formula.

接合部19は、グローバル幾何変換式生成部18によって生成された各画像データブロックに関するグローバル幾何変換式によって、各画像データブロックを接合して原画像データとなる接合画像データを生成するものである。また、接合部19は、各画像データブロックを接合するときに、多重解像度スプライン合成を行うことによって、接合部の平滑化を行う。多重解像度スプライン合成については後述する。   The joining unit 19 joins each image data block and generates joined image data as original image data by a global geometric transformation formula for each image data block generated by the global geometric transformation formula generation unit 18. In addition, the joining unit 19 smoothes the joining part by performing multi-resolution spline composition when joining the image data blocks. The multi-resolution spline composition will be described later.

次に、図3を参照しつつ制御装置1の動作、特に、スキャナ2によって読み込まれた画像データブロックを接合して原画像データを生成する画像処理について説明する。図3は、制御装置1の動作を示すフローチャートである。図3に示すように、原画像データを生成する画像処理が開始されると、ステップS101(以下、S101と称する。他のステップも同様)に移行し、前処理部12が、画像記憶部11が記憶している各画像データブロックの前処理である多重解像度画像生成処理を行う。そしてS102に移行し、画像記憶部11に記憶されている複数の画像データブロックの位置合わせ処理である、画像位置合わせ処理を行う。さらに、S103に移行し、画像位置合わせ処理によって位置合わせされた画像データブロックのうち、隣接する関係にある画像データブロック同士の画像接合処理を行って原画像データを生成し、図3のフローチャートを終了する。以下、多重解像度画像生成処理、画像位置合わせ処理、及び、画像接合処理の詳細な内容について順に説明する。   Next, the operation of the control device 1, particularly the image processing for generating the original image data by joining the image data blocks read by the scanner 2 will be described with reference to FIG. 3. FIG. 3 is a flowchart showing the operation of the control device 1. As shown in FIG. 3, when image processing for generating original image data is started, the process proceeds to step S <b> 101 (hereinafter referred to as S <b> 101. The same applies to other steps), and the preprocessing unit 12 is moved to the image storage unit 11. Performs a multi-resolution image generation process which is a pre-process of each image data block stored in the memory. Then, the process proceeds to S <b> 102, and an image alignment process that is an alignment process of a plurality of image data blocks stored in the image storage unit 11 is performed. Further, the process proceeds to S103, and among the image data blocks that have been aligned by the image alignment process, image data blocks that are adjacent to each other are subjected to image joining processing to generate original image data, and the flowchart of FIG. finish. Hereinafter, detailed contents of the multi-resolution image generation process, the image registration process, and the image joining process will be described in order.

図4を参照しつつ、多重解像度画像生成処理について説明する。図4は、多重解像度画像生成処理の動作を示すフローチャートである。図4に示すように、多重解像度画像生成処理が開始されると、S201に移行し、生成すべき解像度を示すスケールを1.0に初期化する。その後、S202に移行し、画像記憶部11が記憶している各画像データブロックをRAM上の作業エリアに順に読み出す。そして、S203に移行し、多重解像度化部12aが、読み出した各画像データブロックを、スケールの値に基づいてスケーリングする。後述するように、スケールの値は、スケーリングを行う毎に、初期値1.0から1/(1/2乗)を乗じて小さくなっていく。すなわち、スケーリングにより低解像度化することになる。S204に移行し、分割部12bが、多重解像度化部12aによって低解像度化された画像データブロックを、所定サイズの分割画像データブロックによりタイル状に分割して画像記憶部11に記憶させる。上述したように、分割画像データブロックは、256×256ドットで構成されるものである。そして、分割画像データブロックにおける、画像データブロックのサイズを超える領域については、全てのドットの値が0となっている。また、分割画像データブロックは共通鍵暗号方式により暗号化されたJPEGフォーマットで出力される。   The multi-resolution image generation process will be described with reference to FIG. FIG. 4 is a flowchart showing the operation of multi-resolution image generation processing. As shown in FIG. 4, when the multi-resolution image generation process is started, the process proceeds to S201, and a scale indicating the resolution to be generated is initialized to 1.0. Thereafter, the process proceeds to S202, and each image data block stored in the image storage unit 11 is sequentially read into the work area on the RAM. Then, the process proceeds to S203, and the multi-resolution converting unit 12a scales each read image data block based on the scale value. As will be described later, each time scaling is performed, the scale value is multiplied by 1 / (1/2) from the initial value 1.0. That is, the resolution is reduced by scaling. In step S204, the dividing unit 12b divides the image data block whose resolution has been reduced by the multi-resolution converting unit 12a into tiles using divided image data blocks of a predetermined size and stores them in the image storage unit 11. As described above, the divided image data block is composed of 256 × 256 dots. And in the area | region exceeding the size of an image data block in a divided image data block, the value of all the dots is 0. The divided image data block is output in the JPEG format encrypted by the common key encryption method.

そして、S205に移行し、分割部12bが、分割した分割画像データブロックの数が1以下であるか否かを判断する。分割した分割画像データブロックの数が1以下でない場合は(S205:NO)、S206に移行し、スケールに1/(1/2乗)を乗じて、再びS202に移行し、上述した処理を繰り返す。これにより、600dpi→424dpi→300dpi→212dpi→・・・の画像データブロックが順に生成され、各画像データブロックに係る分割画像データブロックが生成される。一方、分割した分割画像データブロックの数が1以下である場合は(S205:YES)、図4のフローチャートを終了する。   Then, the process proceeds to S205, where the dividing unit 12b determines whether the number of divided divided image data blocks is 1 or less. If the number of divided divided image data blocks is not 1 or less (S205: NO), the process proceeds to S206, the scale is multiplied by 1 / (1/2 power), the process proceeds to S202 again, and the above-described processing is repeated. . As a result, image data blocks of 600 dpi → 424 dpi → 300 dpi → 212 dpi →... Are generated in order, and divided image data blocks related to the respective image data blocks are generated. On the other hand, when the number of divided divided image data blocks is 1 or less (S205: YES), the flowchart of FIG. 4 ends.

図5を参照しつつ、画像位置合わせ処理について説明する。図5は、画像位置合わせ処理の動作を示すフローチャートである。図5に示すように、画像位置合わせ処理が開始されると、S301に移行し、概略位置合わせ部13が、画像記憶部11に記憶されている複数の画像データブロックのうち、原画像データを形成するにあたって、互いに重なり合う2つの画像データブロック同士を、元画像及び参照画像として選択する。そして、S302に移行し、概略位置合わせ部13が、選択された元画像及び参照画像に関する概略位置合わせ処理を行う。その後、S303に移行し、概略位置合わせ処理による位置合わせの結果に基づいて、当該元画像及び参照画像に関する詳細位置合わせ処理を行う。そして、S304に移行し、互いに重なり合う2つの画像データブロックの他の組み合わせがあるか否かを判断する。他の組み合わせがある場合は(S304:YES)、再びS301に移行し、他の組み合わせを選択して上述した処理を繰り返す。   The image alignment process will be described with reference to FIG. FIG. 5 is a flowchart showing the operation of the image alignment process. As shown in FIG. 5, when the image alignment process is started, the process proceeds to S <b> 301, and the approximate alignment unit 13 converts the original image data among the plurality of image data blocks stored in the image storage unit 11. In forming, two image data blocks that overlap each other are selected as an original image and a reference image. Then, the process proceeds to S <b> 302, and the approximate alignment unit 13 performs approximate alignment processing on the selected original image and reference image. Thereafter, the process proceeds to S303, and based on the result of the alignment by the approximate alignment process, the detailed alignment process for the original image and the reference image is performed. In step S304, it is determined whether there is another combination of two image data blocks that overlap each other. If there is another combination (S304: YES), the process proceeds to S301 again, selects another combination, and repeats the above-described processing.

一方、他の組み合わせがない場合は(S304:NO)、S305に移行して、接合部19が、詳細位置合わせ処理による位置合わせの結果に基づいて、隣接する各画像データブロック同士を接合して原画像データを生成する画像接合処理を行う。そして、図5のフローチャートを終了する。以下、概略位置合わせ処理、詳細位置合わせ処理、及び、画像接合処理の詳細な内容について順に説明する。   On the other hand, if there is no other combination (S304: NO), the process proceeds to S305, where the joining unit 19 joins adjacent image data blocks based on the result of the alignment by the detailed alignment process. Image joining processing for generating original image data is performed. Then, the flowchart of FIG. 5 ends. Hereinafter, the detailed contents of the approximate alignment process, the detailed alignment process, and the image joining process will be described in order.

まず、図6を参照しつつ、概略位置合わせ処理について詳細に説明する。図6は、概略位置合わせ処理の動作を示すフローチャートである。図6に示すように、概略位置合わせ処理が開始されると、S401に移行し、概略位置合わせ部13の位相相関幾何変換式生成部13aが、先に選択された元画像における参照画像側のエッジ部と参照画像の元画像側のエッジ部とを、20dpiでリサンプリングする。上述したように、このとき、位相相関幾何変換式生成部13aは、画像記憶部11に記憶されている画像データブロックのうち、20dpiに最も近い解像度を有する画像データブロックから解像度変換を行い、解像度変換を行った画像データブロックから所望の領域を取得することによってリサンプリングを行う。そして、S402に移行し、位相相関幾何変換式生成部13aが、位相相関法を用いて、元画像のエッジ部に係る参照画像のエッジ部に対する平行移動量を算出し、算出した平行移動量から概算幾何変換式を生成する。その後、S403に移行し、生成した幾何変換式に基づいて元画像のエッジ部を平行移動させて、元画像及び参照画像のエッジ部の正規化相関値を算出する。そして、S404に移行し、算出した正規化相関値が所定値(例えば、0.8〜1)以上か否かを判断する。正規化相関値が所定値以上と判断する場合は(S404:YES)、図6のフローチャートを終了する。   First, the schematic positioning process will be described in detail with reference to FIG. FIG. 6 is a flowchart showing the operation of the rough alignment process. As shown in FIG. 6, when the rough alignment process is started, the process proceeds to S401, where the phase correlation geometric transformation expression generation unit 13a of the rough alignment unit 13 performs the reference image side of the previously selected original image. The edge portion and the edge portion on the original image side of the reference image are resampled at 20 dpi. As described above, at this time, the phase correlation geometric transformation expression generation unit 13a performs resolution conversion from the image data block having the resolution closest to 20 dpi among the image data blocks stored in the image storage unit 11, and the resolution Resampling is performed by obtaining a desired region from the converted image data block. Then, the process proceeds to S402, where the phase correlation geometric transformation expression generation unit 13a calculates the parallel movement amount with respect to the edge portion of the reference image related to the edge portion of the original image using the phase correlation method, Generate approximate geometric transformation. Thereafter, the process proceeds to S403, where the edge portion of the original image is translated based on the generated geometric transformation formula, and the normalized correlation value of the edge portion of the original image and the reference image is calculated. Then, the process proceeds to S404, and it is determined whether or not the calculated normalized correlation value is a predetermined value (for example, 0.8 to 1) or more. If it is determined that the normalized correlation value is equal to or greater than the predetermined value (S404: YES), the flowchart of FIG. 6 is terminated.

一方、正規化相関値が所定値以上でないと判断する場合は(S404:NO)、元画像と参照画像とが、エッジ部より深く重なり合っていると判断して、S405に移行し、元画像全体と参照画像全体とを、20dpi以下の解像度でリサンプリングする。そして、S406に移行し、再度、位相相関法を用いて、元画像に係る参照画像に対する平行移動量を算出し、算出した平行移動量から概算幾何変換式を生成する。   On the other hand, when it is determined that the normalized correlation value is not equal to or greater than the predetermined value (S404: NO), it is determined that the original image and the reference image overlap deeper than the edge portion, and the process proceeds to S405, where the entire original image is processed. And the entire reference image are resampled at a resolution of 20 dpi or less. Then, the process proceeds to S406, and again using the phase correlation method, the amount of translation with respect to the reference image related to the original image is calculated, and an approximate geometric conversion formula is generated from the calculated amount of translation.

次に、図7を参照しつつ、詳細位置合わせ処理について詳細に説明する。図7は、詳細位置合わせ処理の動作を示すフローチャートである。図7に示すように、詳細位置合わせ処理が開始されると、S501に移行し、処理対象となる画像データブロックの解像度を示す解像度Rの値を、前処理部12の多重解像度化部12aによって生成された画像データブロックのうち、最も低い解像度に初期化するとともに、幾何変換式Tを概略位置合わせ処理において生成された概算幾何変換式に初期化する。   Next, the detailed alignment process will be described in detail with reference to FIG. FIG. 7 is a flowchart showing the operation of the detailed alignment process. As shown in FIG. 7, when the detailed alignment process is started, the process proceeds to S501, and the value of the resolution R indicating the resolution of the image data block to be processed is obtained by the multi-resolution converting unit 12a of the preprocessing unit 12. The generated image data block is initialized to the lowest resolution, and the geometric transformation formula T is initialized to the approximate geometric transformation formula generated in the rough alignment process.

S502に移行し、重なり領域抽出部14が、画像記憶部11から元画像及び参照画像を示す解像度Rの画像データブロックを取得し、取得した画像データブロックに係る元画像と参照画像とを幾何変換式Tを用いて重ね合わせたときに、元画像及び参照画像において互いに重なり合う重なり領域を抽出する。そして、S503に移行し、特徴点抽出部15が、Moravecのインタレスト・オペレータを用いて、元画像の重なり領域における特徴点を抽出する。さらに、S504に移行し、対応点抽出部16が、幾何変換式Tを用いて、元画像の重なり領域における各特徴点に対応する、参照画像の重なり領域における対応点を抽出する。また、S505に移行し、特徴点抽出部15が、Moravecのインタレスト・オペレータを用いて、参照画像の重なり領域における特徴点を抽出する。さらに、S506に移行し、対応点抽出部16が、幾何変換式Tの逆変換を用いて、参照画像の重なり領域における各特徴点に対応する、元画像の重なり領域における対応点を抽出する。上述したように、このとき、抽出された特徴点と、当該特徴点に対応する対応点との組が、特徴点リストとして記憶される。   In step S502, the overlapping area extraction unit 14 acquires an image data block having a resolution R indicating the original image and the reference image from the image storage unit 11, and geometrically converts the original image and the reference image related to the acquired image data block. When overlapping is performed using Expression T, overlapping regions that overlap each other in the original image and the reference image are extracted. In step S503, the feature point extraction unit 15 extracts a feature point in the overlapping region of the original image using a Moravec interest operator. In step S504, the corresponding point extraction unit 16 extracts a corresponding point in the overlapping area of the reference image corresponding to each feature point in the overlapping area of the original image using the geometric transformation formula T. In step S505, the feature point extraction unit 15 extracts a feature point in the overlapping region of the reference image using a Moravec interest operator. In step S506, the corresponding point extraction unit 16 extracts the corresponding points in the overlapping area of the original image corresponding to the feature points in the overlapping area of the reference image by using the inverse transformation of the geometric transformation formula T. As described above, at this time, a set of extracted feature points and corresponding points corresponding to the feature points is stored as a feature point list.

その後、S507に移行し、詳細位置合わせ部17が、対応点抽出部16が生成した特徴点リストに対して、RANSAC法、最小メディアン法、最小二乗法を混合させた方法を用いて、詳細幾何変換式Tをロバスト推定により生成する。言い換えれば、元画像及び参照画像の各重なり領域における複数の特徴点及びこれに対応する複数の対応点の一致度が最も高くなるように、参照画像に対して元画像を移動させる詳細幾何変換式を生成する。そして、生成した詳細幾何変換式を次の幾何変換式Tとする。   Thereafter, the process proceeds to S507, where the detailed alignment unit 17 uses a method in which the RANSAC method, the least median method, and the least square method are mixed with the feature point list generated by the corresponding point extraction unit 16, and the detailed geometry is used. A conversion equation T is generated by robust estimation. In other words, the detailed geometric transformation formula for moving the original image with respect to the reference image so that the degree of coincidence of the plurality of feature points in each overlapping region of the original image and the reference image and the corresponding points corresponding thereto is the highest. Is generated. Then, the generated detailed geometric transformation formula is defined as the following geometric transformation formula T.

そして、S508に移行し、解像度Rの値が、予め決定された最大処理解像度となっているか否かを判断する。解像度Rの値が、最大処理解像度となっている場合は(S508:YES)、現在の幾何変換式Tを詳細幾何変換式として、図7のフローチャートを終了する。一方、解像度Rの値が、最大処理解像度となっていない場合は(S508:NO)、解像度Rの値に次に大きい解像度を登録して、S502に移行し、上述した処理を繰り返す。このように、詳細位置合わせ処理においては、解像度Rを段階的に大きくしつつ、重なり領域抽出部14が、詳細幾何変換式によって移動された元画像及び参照画像に関する重なり領域を抽出し、当該重なり領域の特徴点及び当該特徴点に対応する対応点とから幾何変換式Tを修正していく。   Then, the process proceeds to S508, where it is determined whether or not the value of the resolution R is a predetermined maximum processing resolution. When the value of the resolution R is the maximum processing resolution (S508: YES), the current geometric transformation formula T is set as the detailed geometric transformation formula, and the flowchart of FIG. On the other hand, when the value of resolution R is not the maximum processing resolution (S508: NO), the next largest resolution is registered as the value of resolution R, the process proceeds to S502, and the above-described processing is repeated. As described above, in the detailed alignment process, while the resolution R is increased stepwise, the overlapping region extraction unit 14 extracts the overlapping region related to the original image and the reference image moved by the detailed geometric transformation formula, and the overlapping region is extracted. The geometric transformation formula T is corrected from the feature points of the region and the corresponding points corresponding to the feature points.

さらに、図8〜図12を参照しつつ画像接合処理について詳細に説明する。図8は、画像接合処理の動作を示すフローチャートである。図9は、入力画像ピラミッドの構築手順を示したブロック図である。図10は、ブレンド画像ピラミッドの構築手順を示したブロック図である。図11は、出力画像ピラミッドの構築手順を示したブロック図である。図12は、原画像データの生成手順を示したブロック図である。なお、図9〜図12においては、画像記憶部11にM個の入力画像に係る画像データブロックI(i=0〜M)が記憶されているものとする。図8に示すように、画像接合処理が開始されると、S601に移行し、画像記憶部11にM個の入力画像に係る画像データブロックIを順に読み出し、各画像データブロックに対して当該画像データブロックIに係るグローバル幾何変換式Tを適用する。 Further, the image joining process will be described in detail with reference to FIGS. FIG. 8 is a flowchart showing the operation of the image joining process. FIG. 9 is a block diagram showing the procedure for constructing the input image pyramid. FIG. 10 is a block diagram showing the procedure for constructing the blend image pyramid. FIG. 11 is a block diagram showing the procedure for constructing the output image pyramid. FIG. 12 is a block diagram showing a procedure for generating original image data. 9 to 12, it is assumed that image data blocks I i (i = 0 to M) related to M input images are stored in the image storage unit 11. As shown in FIG. 8, when the image joining process is started, the process proceeds to S <b> 601, and image data blocks I i related to M input images are sequentially read out to the image storage unit 11. The global geometric transformation formula T relating to the image data block I i is applied.

以下、多重解像度スプライン合成による画像データブロックI同士の接合部の平滑化を行う。まず、S602に移行して、各画像データブロックIについて、Burt&Adelsonによる入力画像ピラミッドを構築する。入力画像ピラミッドは、画像データブロックIを解像度の異なるN+1個のレベル(0〜N)で表現するものである。なお、レベル0からレベルNの順に解像度が小さくなるものとする。具体的には、図9に示すように、詳細幾何変換Tを適用した画像データブロックIを、入力画像ピラミッドのレベル0のガウシアン画像IGi,0としてコピーする。次に、反復的にREDUCE操作(低解像度化)を実行することによって、入力画像ピラミッドの各レベル0〜Nのガウシアン画像IGi,1〜IGi,Nを作成する。次に、1つ上のレベルのガウシアン画像IGi,1〜IGi,NにEXPAND操作(高解像度化)を施したものと、当該レベルのガウシアン画像IGi,0〜IGi,N−1との差を取ることによって、各レベルのラプラシアン画像IGi,0〜IGi,N−1を作成する。ただし、最上位のレベルNについては、ガウシアン画像IGi,Nをそのままラプラシアン画像ILi,Nとして用いる。 Thereafter, the joint portion between the image data blocks I i is smoothed by multi-resolution spline synthesis. First, the process proceeds to S602, and an input image pyramid by Burt & Adelson is constructed for each image data block I i . The input image pyramid represents the image data block I i with N + 1 levels (0 to N) having different resolutions. It is assumed that the resolution decreases in order from level 0 to level N. Specifically, as shown in FIG. 9, the image data blocks I i according to the detailed geometric transformation T, copied as Gaussian image IG i, 0 level 0 of the input image pyramid. Next, the REDUCE operation (reduction in resolution) is repeatedly executed to create Gaussian images IG i, 1 to IG i, N of each level 0 to N of the input image pyramid. Next, an EXPAND operation (higher resolution) is applied to the Gaussian image IG i, 1 to IG i, N of one level above, and a Gaussian image IG i, 0 to IG i, N-1 of that level. Are taken to create Laplacian images IG i, 0 to IG i, N-1 at each level. However, for the highest level N, the Gaussian image IG i, N is used as the Laplacian image IL i, N as it is.

なお、入力画像ピラミッドの構築にあたって、各画像データブロックに対して各種の演算を行う必要があるが、本実施形態においては、画像データブロックが大容量であるため、画像データブロックの全体をRAMの作業エリアに展開することが出来ない。そのため、分割部12bにおいて生成された分割画像データブロックをメモリキャッシュで管理するようにした。具体的には、処理に必要な分割画像データブロックのみ演算を実行するようにし、演算が完了した分割画像データブロックをLRU(Last Recently Used)法で管理されるメモリキャッシュに格納して、その分割画像データブロックが後で再び必要となった場合、当該分割画像データブロックをメモリキャッシュ内で検索し、見つかった場合はメモリキャッシュから当該分割画像データブロックを取り出して再利用するようにした。   In constructing the input image pyramid, it is necessary to perform various operations on each image data block. In this embodiment, since the image data block has a large capacity, the entire image data block is stored in the RAM. Unable to expand into the work area. Therefore, the divided image data block generated in the dividing unit 12b is managed by the memory cache. Specifically, only the divided image data blocks necessary for the processing are executed, and the divided image data blocks that have been calculated are stored in a memory cache managed by the LRU (Last Recently Used) method, and the divided image data blocks are stored. When the image data block is needed again later, the divided image data block is searched in the memory cache, and when found, the divided image data block is taken out from the memory cache and reused.

そして、S603に移行し、各画像データブロックIについて、ブレンドマスクBを作成する。まず、次式の重み付け関数を設定する。
=w(ξ,η)=−max(abs(ξ),abs(η))
:i番目の入力画像に関する重み付けの値。
ξ、η:i番目の入力画像の正規化座標。
max:最大値関数。
abs:絶対値関数。
なお、正規化座標ξ、ηは次式を用いる。
ξ=2(x/W−1)
η=2(y/H−1)
x、y:i番目の入力画像のグローバル幾何変換式適用後の座標。
W、H:入力画像の幅および高さ。
そして、上記のwを各入力画像(1≦i≦M)の画素毎に計算する。そして、当該画素のブレンドマスクB(1≦i≦M)を次のように生成する。w≧wが全ての1≦j≦Mに対して成り立つ場合は、ブレンドマスクBの画素値を1とし、w<wを満たす1≦j≦Mが存在する場合は、ブレンドマスクBの画素値を0とする。ただし、このままでは Burt & Adelson のブレンドマスクの規準(つなぎ目では50%の値を持つ必要がある)を満たさないため、1画素分の膨張処理を行い、つなぎ目では隣接する二画像のブレンドマスクBの画素値がともに1とする。wは入力画像の中心に近いほど大きな値を取るため、入力画像の近傍領域を抽出するための比較関数として用いることが出来、ブレンドマスク作成の用途に適している。
In step S603, a blend mask B i is created for each image data block I i . First, the following weighting function is set.
w i = w (ξ, η) = − max (abs (ξ), abs (η))
w i : Weighting value for the i-th input image.
ξ, η: Normalized coordinates of the i-th input image.
max: Maximum value function.
abs: Absolute value function.
The normalized coordinates ξ and η use the following equations.
ξ = 2 (x / W−1)
η = 2 (y / H-1)
x, y: coordinates after applying the global geometric transformation formula of the i-th input image.
W, H: width and height of the input image.
The above w i is calculated for each pixel of each input image (1 ≦ i ≦ M). Then, to produce a blend of the pixel mask B i a (1 ≦ i ≦ M) as follows. If w i ≧ w j holds for all 1 ≦ j ≦ M, the pixel value of the blend mask B i is set to 1, and if 1 ≦ j ≦ M satisfying w i <w j exists, blending The pixel value of the mask B i is set to 0. However, since this does not satisfy the Burt & Adelson blend mask standard (it is necessary to have a value of 50% at the joint), expansion processing for one pixel is performed, and at the joint, the blend mask B i of two adjacent images is used. Both pixel values are set to 1. Since w i takes a larger value as it is closer to the center of the input image, it can be used as a comparison function for extracting a neighboring region of the input image, and is suitable for blend mask creation.

さらに、S604に移行し、各画像データブロックIについて、ブレンドマスクBを用いて、ブレンド画像ピラミッドを構築する。具体的には、図10に示すように、詳細幾何変換Tを適用したブレンドマスクBを、ブレンド画像ピラミッドのレベル0のガウシアン画像BGi,0としてコピーする。次に、反復的にREDUCE操作を実行することによって、ブレンド画像ピラミッドの各レベル0〜Nのガウシアン画像BGi,0〜BGi,Nを作成する。 In step S604, a blend image pyramid is constructed for each image data block I i using the blend mask B i . Specifically, as shown in FIG. 10, the blend mask B i to which the detailed geometric transformation T is applied is copied as a Gaussian image BG i, 0 of level 0 of the blend image pyramid. Then, by performing an iterative manner REDUCE operation, creating Gaussian image BG i for each level 0~N blend image pyramid, 0 ~BG i, the N.

そして、S605に移行し、出力画像ピラミッドを構築する。具体的には、図11に示すように、画像データブロックI〜Iに関して、ブレンド画像ピラミッドのガウシアン画像BGi,0〜BGi,Nの画素値を比として、入力画像ピラミッドのラプラシアン画像LGi,0〜LGi,Nの画素値に掛け合わせ、掛け合わせた結果を、足し合わせてラプラシアン画像OLを作成する。これを全てのレベル0〜Nについて行うことによって、出力画像ピラミッドのラプラシアン画像OL〜OLを構築する。なお、図11は、画像データブロックI(i=1)に関する処理についてのみ示している。 Then, the process proceeds to S605, and an output image pyramid is constructed. Specifically, as shown in FIG. 11, for image data blocks I 1 to I M , the Laplacian image of the input image pyramid with the pixel values of the Gaussian images BG i, 0 to BG i, N of the blend image pyramid as a ratio. The pixel values of LG i, 0 to LG i, N are multiplied and the result of multiplication is added to create a Laplacian image OL i . By performing this operation for all levels 0 to N , Laplacian images OL 0 to OL N of the output image pyramid are constructed. Note that FIG. 11 shows the processing relating to the image data block I 1 (i = 1) only.

その後、S606に移行し、出力画像ピラミッドを展開することによって、接合画像データOを出力する。具体的には、図12に示すように、出力画像ピラミッドの各レベル0〜Nについて、1つ上のレベルのガウシアン画像OG〜OGにEXPAND操作を施したものと、当該レベルのラプラシアン画像OL〜OLN−1の和を取ることによって、各レベル0〜Nのガウシアン画像OG〜OGを作成する。ただし、最上位のレベルNについては、ラプラシアン画像OLをそのままガウシアン画像OGとする。最後に、出力画像ピラミッドのレベル0のガウシアン画像OGを接合画像データOとして出力する。この接合画像データOが原画像データとなる。そして、図8のフローチャートを終了する。 Thereafter, the process proceeds to S606, where the joint image data O is output by developing the output image pyramid. Specifically, as shown in FIG. 12, for each level 0 to N of the output image pyramid, the EXPAND operation is performed on the Gaussian images OG 1 to OG N one level higher, and the Laplacian image of the level By taking the sum of OL 0 to OL N−1 , Gaussian images OG 0 to OG N of levels 0 to N are created. However, for the highest level N, the Laplacian image OL N is directly used as the Gaussian image OG N. Finally, the output image pyramid level 0 Gaussian image OG 0 is output as the joined image data O. This joint image data O becomes original image data. Then, the flowchart of FIG. 8 ends.

なお、上述した多重スプライン合成における各画像ピラミッドの演算においては、画素値を表すデータ型として単精度浮動小数点を用いる。これは、ラプラシアン画像の画素値は一般に正負の両方の符号を持ち、また、REDUCE操作およびEXPAND操作の結果を十分な精度で表現するためには、一般に実数値が必要になるためである。   In the calculation of each image pyramid in the above-described multiple spline synthesis, a single precision floating point is used as a data type representing a pixel value. This is because the pixel value of a Laplacian image generally has both positive and negative signs, and in order to express the results of the REDUCE operation and EXPAND operation with sufficient accuracy, a real value is generally required.

以上、説明した本実施形態によると、元画像の領域及び参照画像の領域のそれぞれについて、特徴点とこれに対応する対応点とを抽出し、抽出した複数の特徴点及びこれに対応する複数の対応点の一致度が最も高くなるように、詳細幾何変換式を算出するため、ロバストな詳細幾何変換式を得ることが可能となり、各画像データブロックを正確に接合することができる。これにより、原画像データの精度が向上する。   As described above, according to the present embodiment described above, feature points and corresponding points corresponding thereto are extracted for each of the original image region and the reference image region, and a plurality of extracted feature points and a plurality of corresponding points are extracted. Since the detailed geometric conversion formula is calculated so that the matching degree of the corresponding points is the highest, it is possible to obtain a robust detailed geometric conversion formula, and the image data blocks can be accurately joined. This improves the accuracy of the original image data.

概略位置合わせ部13が、位相相関法を用いて、元画像のエッジ部に係る参照画像のエッジ部に対する平行移動量を算出し、算出した平行移動量から概算幾何変換式を生成するため、概略位置合わせ処理において、正規化相関によるマッチングのみで概算幾何変換式を生成する場合と比較して素早く概算幾何変換式を生成することができる。   Since the rough alignment unit 13 calculates a parallel movement amount with respect to the edge portion of the reference image related to the edge portion of the original image using the phase correlation method, and generates an approximate geometric transformation expression from the calculated parallel movement amount, In the alignment process, the approximate geometric transformation expression can be quickly generated as compared with the case where the approximate geometric transformation expression is generated only by the matching by the normalized correlation.

このとき、概略位置合わせ部13が、生成した概略幾何変換式に基づいて元画像のエッジを平行移動させたときの、元画像及び参照画像のエッジ部の正規化相関値が所定値以上になっていない場合は、再度、位相相関法を用いて、元画像全体に係る参照画像全体に対する平行移動量を算出し、算出した平行移動量から概算幾何変換式を生成する。このため、元画像と参照画像とが深く重なり合っている場合であっても素早く概算幾何変換式を生成することができる。   At this time, when the approximate alignment unit 13 translates the edges of the original image based on the generated approximate geometric transformation formula, the normalized correlation values of the edge portions of the original image and the reference image become a predetermined value or more. If not, the phase correlation method is used again to calculate the amount of translation of the entire original image relative to the entire reference image, and an approximate geometric transformation equation is generated from the calculated amount of translation. For this reason, even when the original image and the reference image are deeply overlapped, an approximate geometric conversion formula can be quickly generated.

また、多重解像度化部12aが、各画像データブロックを複数の解像度で低解像度化した画像データブロックを生成する。そして、詳細位置合わせ処理においては、解像度を段階的に大きくしつつ、重なり領域抽出部14が、詳細幾何変換式によって移動された元画像及び参照画像に関する重なり領域を抽出し、当該重なり領域の特徴点及び当該特徴点に対応する対応点とから幾何変換式Tを修正するため、さらにロバストな詳細幾何変換式を生成することができる。   In addition, the multi-resolution converting unit 12a generates an image data block obtained by reducing the resolution of each image data block at a plurality of resolutions. In the detailed alignment process, the overlapping area extraction unit 14 extracts the overlapping area related to the original image and the reference image moved by the detailed geometric transformation formula while increasing the resolution step by step, and features of the overlapping area Since the geometric transformation equation T is corrected from the points and the corresponding points corresponding to the feature points, a more robust detailed geometric transformation equation can be generated.

以上、本発明の好適な実施形態について説明したが、本発明は上述の実施形態に限られるものではなく、特許請求の範囲に記載した限りにおいて様々な変更が可能なものである。例えば、上述した実施形態においては、概略位置合わせ部13が、位相相関法を用いて、元画像のエッジ部に係る参照画像のエッジ部に対する平行移動量を算出し、算出した平行移動量から概算幾何変換式を生成する構成であるが、位相相関法を用いることなく正規化相関法により、元画像のエッジ部に係る参照画像のエッジ部に対する平行移動量を算出する構成であってもよい。   The preferred embodiments of the present invention have been described above. However, the present invention is not limited to the above-described embodiments, and various modifications can be made as long as they are described in the claims. For example, in the above-described embodiment, the approximate alignment unit 13 calculates a translation amount with respect to the edge portion of the reference image related to the edge portion of the original image using the phase correlation method, and approximates from the calculated translation amount. Although it is the structure which produces | generates a geometric transformation type | formula, the structure which calculates the parallel displacement amount with respect to the edge part of the reference image which concerns on the edge part of an original image by the normalization correlation method without using a phase correlation method may be sufficient.

また、上述した実施形態においては、概略位置合わせ部13が、生成した概略幾何変換式に基づいて元画像のエッジを平行移動させたときの、元画像及び参照画像のエッジ部の正規化相関値が所定値以上になっていない場合は、再度、位相相関法を用いて、元画像全体に係る参照画像全体に対する平行移動量を算出し、算出した平行移動量から概算幾何変換式を生成する構成であるが、元画像及び参照画像のエッジ部の正規化相関値が所定値以上になっていない場合は、正規化相関法を用いて、元画像全体に係る参照画像全体に対する平行移動量を算出する構成であってもよい。   In the above-described embodiment, the normalized correlation value of the edge portions of the original image and the reference image when the approximate alignment unit 13 translates the edges of the original image based on the generated approximate geometric transformation formula. In the case where is not equal to or greater than the predetermined value, again using the phase correlation method, the parallel movement amount relative to the entire reference image is calculated, and an approximate geometric transformation formula is generated from the calculated parallel movement amount However, when the normalized correlation value of the edge portion of the original image and the reference image is not equal to or greater than the predetermined value, the amount of translation of the entire original image with respect to the entire reference image is calculated using the normalized correlation method. It may be configured to.

さらに、上述した実施形態においては、解像度を段階的に大きくしつつ、重なり領域抽出部14が、詳細幾何変換式によって移動された元画像及び参照画像に関する重なり領域を抽出し、当該重なり領域の特徴点及び当該特徴点に対応する対応点とから幾何変換式Tを修正していく構成となっているが、解像度を段階的に大きくすることなく比較的解像度の高い元画像及び参照画像を用いて、1度だけ詳細幾何変換式を生成する構成であってもよい。   Further, in the above-described embodiment, the overlapping area extraction unit 14 extracts the overlapping area related to the original image and the reference image moved by the detailed geometric transformation formula while increasing the resolution stepwise, and the characteristics of the overlapping area The geometric transformation equation T is corrected from the point and the corresponding point corresponding to the feature point, but the original image and the reference image with relatively high resolution are used without increasing the resolution stepwise. The detailed geometric transformation formula may be generated only once.

本発明の好適な実施形態に係る制御装置の機能ブロック図である。It is a functional block diagram of a control device concerning a suitable embodiment of the present invention. 図1に示すスキャナが原稿を読み込むときの動作を示した図である。FIG. 2 is a diagram illustrating an operation when the scanner illustrated in FIG. 1 reads a document. 図1に示す制御装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the control apparatus shown in FIG. 図3に示す多重解像度画像生成処理の動作を示すフローチャートである。4 is a flowchart showing an operation of multi-resolution image generation processing shown in FIG. 3. 図3に示す画像位置合わせ処理の動作を示すフローチャートである。FIG. 4 is a flowchart showing an operation of image alignment processing shown in FIG. 3. FIG. 図5に示す概略位置合わせ処理の動作を示すフローチャートである。FIG. 6 is a flowchart showing an operation of a schematic alignment process shown in FIG. 5. 図5に示す詳細位置合わせ処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the detailed alignment process shown in FIG. 図3に示す画像接合処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the image joining process shown in FIG. 図8に示す入力画像ピラミッドの構築手順を示したブロック図である。It is the block diagram which showed the construction procedure of the input image pyramid shown in FIG. 図8に示すブレンド画像ピラミッドの構築手順を示したブロック図である。It is the block diagram which showed the construction procedure of the blend image pyramid shown in FIG. 図8に示す出力画像ピラミッドの構築手順を示したブロック図である。It is the block diagram which showed the construction procedure of the output image pyramid shown in FIG. 図8に示す原画像データの生成手順を示したブロック図である。It is the block diagram which showed the production | generation procedure of the original image data shown in FIG.

符号の説明Explanation of symbols

1 制御装置(画像処理装置)
2 スキャナ
11 画像記憶部(画像記憶手段)
12 前処理部
12a 多重解像度化部(多重解像度化手段)
12b 分割部(分割手段)
13 概略位置合わせ部(概略位置合わせ手段)
13a 位相相関幾何変換式生成部
14 領域抽出部(領域抽出手段)
15 特徴点抽出部(特徴点抽出手段)
16 対応点抽出部(対応点抽出手段)
17 詳細位置合わせ部(詳細位置合わせ手段)
18 グローバル幾何変換式生成部
19 接合部(接合手段)
20 ディスプレイ
1 Control device (image processing device)
2 Scanner 11 Image storage unit (image storage means)
12 Pre-processing unit 12a Multi-resolution unit (multi-resolution unit)
12b Dividing part (dividing means)
13 Approximate alignment part (Approximate alignment means)
13a Phase correlation geometric transformation expression generation unit 14 Region extraction unit (region extraction means)
15 Feature point extraction unit (feature point extraction means)
16 Corresponding point extraction unit (corresponding point extraction means)
17 Detailed alignment part (Detailed alignment means)
18 Global geometric transformation expression generator 19 Joint (joining means)
20 display

Claims (6)

一方向に関して互いに一部が重なり合うように配置されることによって1つの原画像データを形成する複数の画像データブロックを記憶する画像記憶手段と、
前記画像記憶手段が記憶している互いに重なり合う2つの前記画像データブロック毎に、一方の前記画像データブロックである元画像と、他方の前記画像データブロックである参照画像との位置合わせを行う概略位置合わせ手段と、
前記元画像及び前記参照画像のそれぞれにおいて互いに重なる領域を抽出する領域抽出手段と、
前記元画像及び前記参照画像の各領域について1又は複数の特徴点を抽出する特徴点抽出手段と、
前記特徴点抽出手段が特徴点を抽出した各領域について、当該領域の各特徴点に対応する、当該領域に重なり合う他の前記領域における対応点を、当該特徴点の座標位置を基準とした正規化相関を行うことによって抽出する対応点抽出手段と、
各領域における複数の前記特徴点及びこれに対応する複数の前記対応点の一致度が最も高くなるように、前記元画像を移動させる幾何変換式を算出するとともに、算出した幾何変換式に基づいて前記元画像を移動させることによって、前記元画像と前記参照画像との位置合わせを行う詳細位置合わせ手段と、
前記詳細位置合わせ手段によって位置合わせされた前記元画像と前記参照画像とを接合する接合手段とを備えていることを特徴とする画像処理装置。
Image storage means for storing a plurality of image data blocks forming one original image data by being arranged so as to partially overlap each other in one direction;
For each of the two overlapping image data blocks stored in the image storage means, a rough position for aligning the original image that is one of the image data blocks and the reference image that is the other image data block Matching means;
Area extracting means for extracting areas overlapping each other in each of the original image and the reference image;
Feature point extraction means for extracting one or more feature points for each region of the original image and the reference image;
For each region from which the feature point extraction unit has extracted feature points, normalization is performed on the basis of the coordinate position of the feature point corresponding to the feature point of the region and the corresponding point in the other region that overlaps the region. Corresponding point extraction means for extracting by performing correlation;
A geometric transformation equation for moving the original image is calculated so that the degree of coincidence between the plurality of feature points in each region and the plurality of corresponding points corresponding thereto is the highest, and based on the calculated geometric transformation equation Detailed alignment means for aligning the original image and the reference image by moving the original image;
An image processing apparatus comprising: a joining unit that joins the original image and the reference image aligned by the detailed alignment unit.
前記概略位置合わせ手段が、前記元画像の前記一方向に関する一方端部近傍と、前記参照画像の前記一方向に関する他方端部近傍との間で位相相関を得ることができるように、前記元画像を移動させる幾何変換式を算出するとともに、算出した幾何変換式に基づいて前記元画像を移動させることによって、前記元画像と前記参照画像との位置合わせを行うことを特徴とする請求項1に記載の画像処理装置。   The original image so that the rough alignment means can obtain a phase correlation between the vicinity of one end of the original image in the one direction and the vicinity of the other end of the reference image in the one direction. The position of the original image and the reference image is adjusted by moving the original image based on the calculated geometric transformation formula. The image processing apparatus described. 前記概略位置合わせ手段が、前記元画像の前記一方端部近傍と、前記参照画像の前記他方端部近傍との間で位相相関を得ることができなかったときに、前記元画像及び前記参照画像全体の間で位相相関を得ることができるように、前記元画像を移動させる幾何変換式を算出することを特徴とする請求項2に記載の画像処理装置。   When the rough alignment means cannot obtain a phase correlation between the vicinity of the one end of the original image and the vicinity of the other end of the reference image, the original image and the reference image The image processing apparatus according to claim 2, wherein a geometric transformation expression for moving the original image is calculated so that a phase correlation can be obtained between the entirety. 前記画像記憶手段が記憶している各画像データブロックを複数の解像度で低解像度化した前記画像データブロックを生成して前記画像記憶手段に記憶させる多重解像度化手段をさらに備えており、
前記領域抽出手段は、前記画像記憶手段が記憶している最も低い解像度から解像度が高くなる順に、前記詳細位置合わせ手段が位置合わせした前記元画像及び前記参照画像に関する各領域を抽出し、
前記接合手段が、前記画像記憶手段が記憶している最も高い解像度に関して前記詳細位置合わせ手段が位置合わせした前記元画像と前記参照画像とを接合することを特徴とする請求項1〜3のいずれかに記載の画像処理装置。
The image storage means further comprises a multi-resolution means for generating the image data block obtained by reducing the resolution of each image data block at a plurality of resolutions and storing the image data block in the image storage means,
The region extracting unit extracts each region related to the original image and the reference image aligned by the detailed alignment unit in the order of increasing resolution from the lowest resolution stored in the image storage unit,
The said joining means joins the said original image and the said reference image which the said detailed position alignment means aligned regarding the highest resolution which the said image memory | storage means has memorize | stored. An image processing apparatus according to claim 1.
前記画像記憶手段に記憶された各画像データブロックを所定のサイズを有する処理画像に分割する分割手段をさらに備えており、
前記接合手段が、前記分割手段によって分割された前記処理画像単位で前記元画像と前記参照画像とを接合することを特徴とする請求項1〜4のいずれかに記載の画像処理装置。
Further comprising a dividing means for dividing each image data block stored in the image storage means into processed images having a predetermined size;
The image processing apparatus according to claim 1, wherein the joining unit joins the original image and the reference image in units of the processed image divided by the dividing unit.
一方向に関して互いに一部が重なり合うように配置されることによって1つの原画像データを形成する複数の画像データブロックを記憶する画像記憶手段、
前記画像記憶手段が記憶している互いに重なり合う2つの前記画像データブロック毎に、一方の前記画像データブロックである元画像と、他方の前記画像データブロックである参照画像との位置合わせを行う概略位置合わせ手段、
前記元画像及び前記参照画像のそれぞれにおいて互いに重なる領域を抽出する領域抽出手段、
前記元画像及び前記参照画像の各領域について1又は複数の特徴点を抽出する特徴点抽出手段、
前記特徴点抽出手段が特徴点を抽出した各領域について、当該領域の各特徴点に対応する、当該領域に重なり合う他の前記領域における対応点を、当該特徴点の座標位置を基準とした正規化相関を行うことによって抽出する対応点抽出手段、
各領域における複数の前記特徴点及びこれに対応する複数の前記対応点の一致度が最も高くなるように、前記元画像を移動させる幾何変換式を算出するとともに、算出した幾何変換式に基づいて前記元画像を移動させることによって、前記元画像と前記参照画像との位置合わせを行う詳細位置合わせ手段、及び、
前記詳細位置合わせ手段によって位置合わせされた前記元画像と前記参照画像とを接合する接合手段としてコンピュータを機能させることを特徴とするプログラム。
Image storage means for storing a plurality of image data blocks forming one original image data by being arranged so as to partially overlap each other in one direction;
For each of the two overlapping image data blocks stored in the image storage means, a rough position for aligning the original image that is one of the image data blocks and the reference image that is the other image data block Matching means,
Area extracting means for extracting areas overlapping each other in each of the original image and the reference image;
Feature point extraction means for extracting one or more feature points for each region of the original image and the reference image;
For each region from which the feature point extraction unit has extracted feature points, normalization is performed on the basis of the coordinate position of the feature point corresponding to the feature point of the region and the corresponding point in the other region that overlaps the region. Corresponding point extraction means for extracting by performing correlation,
A geometric transformation equation for moving the original image is calculated so that the degree of coincidence between the plurality of feature points in each region and the plurality of corresponding points corresponding thereto is the highest, and based on the calculated geometric transformation equation Detailed alignment means for aligning the original image and the reference image by moving the original image; and
A program that causes a computer to function as a joining unit that joins the original image and the reference image registered by the detailed positioning unit.
JP2007209287A 2007-08-10 2007-08-10 Image processing apparatus, and program Pending JP2009044612A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007209287A JP2009044612A (en) 2007-08-10 2007-08-10 Image processing apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007209287A JP2009044612A (en) 2007-08-10 2007-08-10 Image processing apparatus, and program

Publications (1)

Publication Number Publication Date
JP2009044612A true JP2009044612A (en) 2009-02-26

Family

ID=40444827

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007209287A Pending JP2009044612A (en) 2007-08-10 2007-08-10 Image processing apparatus, and program

Country Status (1)

Country Link
JP (1) JP2009044612A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015219791A (en) * 2014-05-19 2015-12-07 ブラザー工業株式会社 Image processor and computer program
US9609212B2 (en) 2013-08-28 2017-03-28 Ricoh Company, Ltd. Image processing apparatus, image processing method, and image system
US11928775B2 (en) 2020-11-26 2024-03-12 Ricoh Company, Ltd. Apparatus, system, method, and non-transitory medium which map two images onto a three-dimensional object to generate a virtual image

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9609212B2 (en) 2013-08-28 2017-03-28 Ricoh Company, Ltd. Image processing apparatus, image processing method, and image system
US10063774B2 (en) 2013-08-28 2018-08-28 Ricoh Company, Ltd. Image processing apparatus, image processing method, and imaging system
US10412302B2 (en) 2013-08-28 2019-09-10 Ricoh Company, Ltd. Image processing apparatus, image processing method, and imaging system
US10834316B2 (en) 2013-08-28 2020-11-10 Ricoh Company, Ltd. Image processing apparatus, image processing method, and imaging system
JP2015219791A (en) * 2014-05-19 2015-12-07 ブラザー工業株式会社 Image processor and computer program
US11928775B2 (en) 2020-11-26 2024-03-12 Ricoh Company, Ltd. Apparatus, system, method, and non-transitory medium which map two images onto a three-dimensional object to generate a virtual image

Similar Documents

Publication Publication Date Title
JP4047352B2 (en) Image distortion correction program, image distortion correction apparatus, and image distortion correction method
EP1193647B1 (en) Apparatus and method for correcting distortion of input image
KR101737338B1 (en) System and method for clean document reconstruction from annotated document images
JP2000182038A (en) Method for generating perspective sizing data from distorted information, device to be used for this and computer program product
JP2006127241A (en) Method for accelerating super-resolution processing
JP2009104402A (en) Image forming system, image forming method, host device, image forming device, and memory medium
Collins et al. Locally affine and planar deformable surface reconstruction from video
JP2009044612A (en) Image processing apparatus, and program
JP5563231B2 (en) Striped image examination apparatus, striped image examination method, and program
JP4053021B2 (en) Image enlargement apparatus and program
JP5315075B2 (en) Image processing apparatus, image processing apparatus control method, and program
JP4346742B2 (en) Image composition method, image composition apparatus, and storage medium
JP4143655B2 (en) Image processing apparatus, image processing method, program, storage medium, and system
JP2010146208A (en) Information processing apparatus and program
JP5703898B2 (en) Form management system, form image management method, and program
JP6440305B2 (en) Super-resolution apparatus and program
JP4134992B2 (en) Watermark information detection apparatus, watermark information embedding apparatus, watermark information detection method, and watermark information embedding method
JP2006237858A (en) Image processing apparatus, image processing method, program for allowing computer to execute the method, and recording medium
JP6833753B2 (en) Structure inspection system, structure inspection equipment and structure inspection method
CN108073924B (en) Image processing method and device
JP3527588B2 (en) Template matching method
JP6157234B2 (en) Image processing apparatus, image processing method, and program
JP4872715B2 (en) Image processing apparatus and program
WO2023199417A1 (en) Deformation composition data generation apparatus and deformation composition data generation method
Seo et al. Face image metamorphosis with an improved multilevel b-spline approximation