JP4378408B2 - Image processing apparatus, image reading apparatus, and image forming apparatus - Google Patents

Image processing apparatus, image reading apparatus, and image forming apparatus Download PDF

Info

Publication number
JP4378408B2
JP4378408B2 JP2007314986A JP2007314986A JP4378408B2 JP 4378408 B2 JP4378408 B2 JP 4378408B2 JP 2007314986 A JP2007314986 A JP 2007314986A JP 2007314986 A JP2007314986 A JP 2007314986A JP 4378408 B2 JP4378408 B2 JP 4378408B2
Authority
JP
Japan
Prior art keywords
image
feature
feature points
processing apparatus
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007314986A
Other languages
Japanese (ja)
Other versions
JP2008178084A (en
Inventor
将哲 豊田
雅和 大平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2007314986A priority Critical patent/JP4378408B2/en
Priority to US11/958,188 priority patent/US20080181534A1/en
Priority to CN2007103057726A priority patent/CN101237514B/en
Publication of JP2008178084A publication Critical patent/JP2008178084A/en
Application granted granted Critical
Publication of JP4378408B2 publication Critical patent/JP4378408B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、2つの画像を合成する画像処理装置、画像読取装置、及び画像形成装置に関する。 The present invention, images processor you combining two images, the image reading apparatus, and an image forming apparatus.

従来より、複写機等の画像形成装置において、複数の入力画像を部分的に重複させて繋ぎ合わせることにより1つの画像を作成し、作成した画像について画像形成を行う場合がある。このため、原稿の画像を記録媒体上に複写する複写機に適用される画像処理装置として、画像読取部で読み取り可能な最大サイズであるスキャナサイズよりも大きな原稿の画像を複写する場合に、原稿の画像を部分的に重複して分割した複数の部分画像のそれぞれについて複数回の読取処理を行った後、読み取った複数の部分画像を繋ぎ合わせて元の原稿の画像に復元し、復元した原稿の画像を記録媒体のサイズに合わせて出力するようにしたものがある(例えば、特許文献1を参照)。   Conventionally, in an image forming apparatus such as a copying machine, a plurality of input images are partially overlapped and connected to create one image, and image formation may be performed on the created image. Therefore, as an image processing apparatus applied to a copying machine that copies an image of a document onto a recording medium, when copying an image of a document that is larger than the scanner size, which is the maximum size that can be read by the image reading unit, After performing multiple reading processes for each of a plurality of partial images obtained by partially overlapping and dividing the original image, the read partial images are joined together to restore the original document image, and the restored document Are output in accordance with the size of the recording medium (for example, see Patent Document 1).

特許文献1に開示されている画像処理装置では、複数の入力画像のそれぞれについて2値化処理と、2値化画像におけるエッジ部の抽出処理とを行い、2値化処理及びエッジ抽出処理後の各入力画像についてパターンマッチング法による比較を行い、エッジ部の特徴が一致する部分が重複するように2つの入力画像を繋ぎ合わせるようにしている。
特開平4−314263号公報
In the image processing apparatus disclosed in Patent Literature 1, binarization processing and edge portion extraction processing are performed for each of a plurality of input images, and binarization processing and edge extraction processing are performed. Each input image is compared by the pattern matching method, and the two input images are connected so that the portions where the features of the edge portion match are overlapped.
JP-A-4-314263

しかしながら、特許文献1に開示された構成では、2値化処理及びエッジ抽出処理後の画像を各入力画像の特徴データとしてパターンマッチング法による比較を行うようにしているが、これは、複数回分けて読み取られた原稿が回転していないことを暗に限定しているため、実際の2つの画像をパターンマッチングする場合には、その一致ポイントを正確に検出することはできないという問題点を有していた。   However, in the configuration disclosed in Patent Document 1, the image after the binarization process and the edge extraction process is compared using the pattern matching method as the feature data of each input image. In this case, it is implied that the original read is not rotated. Therefore, when pattern matching is performed on two actual images, the matching point cannot be detected accurately. It was.

本発明は斯かる事情に鑑みてなされたものであり、2つの画像の夫々から画素を連結した連結領域を複数抽出し、抽出した各連結領域に含まれる特徴点に基づいて各画像の特徴を表す特徴量を夫々算出し、算出した特徴量を比較することにより特徴点間の対応付けを行い、対応付けた特徴点の位置の情報を用いて2つの画像の座標変換を表す変換行列を算出し、算出した変換行列を用いて一方の画像を変換することにより画像合成を行う構成とすることにより、入力された2つの画像が互いに傾いている場合であっても正確に特徴点の対応付けを行うことができ、精度良く画像合成を実行することができる画像処理装置、画像読取装置、及び画像形成装置を提供することを目的とする。 The present invention has been made in view of such circumstances, and extracts a plurality of connected regions in which pixels are connected from each of two images, and characterizes each image based on feature points included in each extracted connected region. Each feature amount to be expressed is calculated, and the feature points are associated by comparing the calculated feature amounts, and a transformation matrix representing the coordinate transformation of the two images is calculated using the information on the position of the associated feature points In addition, by composing the image by converting one image using the calculated conversion matrix, even when the two input images are inclined to each other, the feature points can be accurately associated with each other. it can be performed, and an object thereof is to provide an image processing MakotoSo location capable of performing high accuracy image synthesis, the image reading apparatus, and an image forming apparatus.

また、本発明の他の目的は、変換行列を算出する際、用いる特徴点を選択して変換行列の精度(画像合成の精度)を向上させることができる画像処理装置を提供することにある。   Another object of the present invention is to provide an image processing apparatus capable of selecting a feature point to be used and improving the accuracy of the transformation matrix (image synthesis accuracy) when calculating the transformation matrix.

更に、本発明の他の目的は、合成された画像データを特徴量、原稿を表すインデックス、及び合成画像であることを表すタグ情報を関連付けて格納しておき、再度、画像の合成動作を行わなくても、元の原稿を用いて合成画像データを抽出することができる画像処理装置を提供することにある。   Another object of the present invention is to store the synthesized image data in association with the feature amount, the index representing the document, and the tag information representing the synthesized image, and perform the image synthesizing operation again. An object of the present invention is to provide an image processing apparatus that can extract composite image data using an original document without using the original document.

本発明に係る画像処理装置は、互いに重なるべき領域を有する2つの画像を取り込み、取り込んだ2つの画像を前記領域にて合成する画像処理装置において、前記2つの画像の夫々から画素を連結した連結領域を複数抽出する手段と、抽出した各連結領域に含まれる特徴点を抽出する手段と、抽出した特徴点に基づいて各画像の特徴を表す特徴量を夫々算出する手段と、算出した各画像の特徴量を比較することにより各連結領域から抽出した特徴点間の対応付けを行う手段と、対応付けた特徴点の位置の情報を用いて一方の画像の座標系を他方の画像の座標系に写す変換行列を算出する手段と、算出した変換行列を用いて前記一方の画像を変換することにより前記2つの画像を合成する手段と、取り込んだ画像を記憶画像と照合する画像照合手段とを備え、該画像照合手段は、前記取り込んだ画像から画素を連結した連結領域を抽出する手段と、抽出した連結領域に含まれる特徴点を抽出する手段と、抽出した特徴点に基づいて前記画像の特徴を表す特徴量を算出する手段と、算出した特徴量と予め記憶されている記憶画像の特徴量とを比較し、一致する特徴量の記憶画像に投票する手段とを備え、該手段による投票結果に基づき、取り込んだ画像と記憶画像との類比判定を行うようにしてあることを特徴とする。 An image processing apparatus according to the present invention captures two images having areas that should overlap with each other, and combines the two captured images in the areas, in which a pixel is connected from each of the two images. Means for extracting a plurality of regions, means for extracting feature points included in each extracted connected region, means for calculating feature amounts representing the features of each image based on the extracted feature points, and each calculated image Means for associating feature points extracted from each connected region by comparing the feature quantities of the image and the coordinate system of one image using the information of the position of the associated feature point It means for calculating a transformation matrix copy to, and means for combining the two images by transforming the image of one using the calculated transformation matrix, the image matching for matching images captured with the stored image A step of extracting a connected region in which pixels are connected from the captured image, a means for extracting a feature point included in the extracted connected region, and a feature point based on the extracted feature point. Means for calculating a feature amount representing a feature of the image, and means for comparing the calculated feature amount with a feature amount of a stored image stored in advance and voting on a stored image having a matching feature amount, based on the voting results by means and Citea Rukoto to perform analogy determination between an image and storing the image captured.

本発明にあっては、2つの画像の夫々から抽出した特徴点を用いて各画像の特徴量をそれぞれ算出し、算出した特徴量を比較することによって特徴点間の対応付けを行い、対応付けた特徴点の座標を用いることによって座標変換を表す変換行列を求める。従来の画像合成には、様々な特徴点を採用したパターンマッチングが使用されてきたが、本発明では、画像の回転、平行移動、拡大縮小を含む幾何学的変化に対して不変な特徴量を用いて特徴点の対応付けを行うため、2つの画像に傾き等が生じている場合であっても、正確な対応付けが可能となり、画像合成の精度が向上する。
また、本発明にあっては、画像照合手段が、画像から画素を連結した連結領域を抽出する手段と、抽出した連結領域に含まれる特徴点を抽出する手段と、抽出した特徴点に基づいて画像の特徴を表す特徴量を算出する手段と、算出した特徴量と予め記憶されている記憶画像の特徴量とを比較し、一致する特徴量の記憶画像に投票する手段とを備えるため、画像照合手段の一部の機能を利用することにより、2つの画像から抽出した特徴点間の対応付けが可能となる。
In the present invention, the feature points of each image are calculated using the feature points extracted from each of the two images, and the feature points are associated by comparing the calculated feature amounts. A transformation matrix representing coordinate transformation is obtained by using the coordinates of the feature points. In conventional image synthesis, pattern matching using various feature points has been used. However, in the present invention, feature amounts that are invariant to geometrical changes including image rotation, translation, and scaling are used. Since feature points are associated with each other, accurate association is possible even when there is an inclination or the like between two images, and the accuracy of image synthesis is improved.
Further, in the present invention, the image collating means is based on the extracted feature points, the means for extracting the connected areas obtained by connecting the pixels from the image, the means for extracting the feature points included in the extracted connected areas, and the extracted feature points. The image processing apparatus includes: means for calculating a feature amount representing the feature of the image; and means for comparing the calculated feature amount with the feature amount of the stored image stored in advance and voting on the stored image with the matching feature amount. By using a part of the function of the matching means, it is possible to associate the feature points extracted from the two images.

本発明に係る画像処理装置は、前記特徴点を抽出する手段は、変換行列を算出する際に阻害要因となる特徴点を、抽出した特徴点から除去するようにしてあることを特徴とする。   The image processing apparatus according to the present invention is characterized in that the means for extracting feature points removes feature points that become an obstacle when calculating the transformation matrix from the extracted feature points.

本発明にあっては、選択した特徴点を用いて画像合成を行うため、画像合成の精度が向上する。   In the present invention, since image synthesis is performed using the selected feature points, the accuracy of image synthesis is improved.

本発明に係る画像処理装置は、合成された画像データを、合成された画像データより抽出された特徴量、合成された画像データの夫々を識別する第1の識別情報、及び合成された画像データであることを示す第2の識別情報に対応付けて記憶手段に格納する制御部を備えることを特徴とする。   The image processing apparatus according to the present invention includes a synthesized image data, a feature amount extracted from the synthesized image data, first identification information for identifying each of the synthesized image data, and synthesized image data. A control unit that stores the information in the storage unit in association with the second identification information indicating that

本発明にあっては、記憶手段に関連付けられた格納された情報に基づいて合成された画像データを読み出すことができるため、再度、画像の合成動作を行わなくても、元の原稿を用いて合成画像データを抽出することができる。   In the present invention, since the image data synthesized based on the stored information associated with the storage means can be read out, the original document can be used without performing the image synthesizing operation again. Composite image data can be extracted.

本発明に係る画像処理装置は、抽出した連結領域の重心を算出する手段を備え、算出した重心を前記連結領域の特徴点としてあることを特徴とする。   The image processing apparatus according to the present invention includes means for calculating the center of gravity of the extracted connected area, and the calculated center of gravity is used as a feature point of the connected area.

本発明にあっては、抽出した連結領域の重心を算出し、算出した重心を特徴点としているため、任意の画像について特徴点の抽出が可能となり、高速かつ精度よく特徴量の算出が可能となる。   In the present invention, since the center of gravity of the extracted connected region is calculated and the calculated center of gravity is used as the feature point, the feature point can be extracted from any image, and the feature amount can be calculated quickly and accurately. Become.

本発明に係る画像処理装置は、前記特徴量は、前記画像の回転、平行移動、拡大縮小を含む幾何学的変化に対して不変なパラメータであることを特徴とする。   The image processing apparatus according to the present invention is characterized in that the feature amount is a parameter that is invariant to a geometric change including rotation, translation, and enlargement / reduction of the image.

本発明にあっては、画像の回転、平行移動、拡大縮小を含む幾何学的変化に対して不変なパラメータを特徴量として算出するため、合成対象の画像が天地逆転してスキャンされた場合であっても、画像合成の精度が保たれる。   In the present invention, parameters that are invariant to geometric changes including image rotation, parallel movement, and enlargement / reduction are calculated as feature amounts. Therefore, when the image to be synthesized is scanned upside down. Even if it exists, the accuracy of image composition is maintained.

本発明に係る画像処理装置は、1つの画像から抽出した特徴点間の距離を用いて定式化したハッシュ関数によりハッシュ値を算出する手段を備え、算出したハッシュ値を前記画像の特徴量としてあることを特徴とする。   The image processing apparatus according to the present invention includes means for calculating a hash value by a hash function formulated using a distance between feature points extracted from one image, and the calculated hash value is used as a feature amount of the image. It is characterized by that.

本発明にあっては、特徴点間の距離を用いて定式化したハッシュ関数によりハッシュ値を算出するようにしているため、特徴点の幾何学的な配置に応じた不変量が算出される。   In the present invention, the hash value is calculated by the hash function formulated using the distance between the feature points, so the invariant according to the geometrical arrangement of the feature points is calculated.

本発明に係る画像処理装置は、合成すべき領域を各画像について予め設定してあることを特徴とする。   The image processing apparatus according to the present invention is characterized in that a region to be synthesized is preset for each image.

本発明にあっては、合成すべき領域が予め設定されているため、処理時間が短縮される。   In the present invention, since the areas to be combined are set in advance, the processing time is shortened.

本発明に係る画像読取装置は、原稿を載置する原稿台と、該原稿台に載置された原稿から画像を読み取る読取手段と、前述した発明の何れか1つに記載の画像処理装置とを備え、前記読取手段にて読み取った2つの画像を前記画像処理装置にて合成するようにしてあることを特徴とする。   An image reading apparatus according to the present invention includes a document table on which a document is placed, a reading unit that reads an image from a document placed on the document table, and the image processing device according to any one of the above-described inventions. And two images read by the reading means are combined by the image processing apparatus.

本発明にあっては、スキャナ装置、デジタル複合機等により読み取られた画像について画像合成を行うことができる。   In the present invention, image synthesis can be performed on an image read by a scanner device, a digital multi-function peripheral, or the like.

本発明に係る画像読取装置は、合成すべき領域を前記原稿台に対して設定してあることを特徴とする。   The image reading apparatus according to the present invention is characterized in that an area to be combined is set for the document table.

本発明にあっては、合成すべき領域を原稿台に対して設定しているため、原稿の載置位置を容易に特定することができる。   In the present invention, since the area to be combined is set for the document table, the document placement position can be easily specified.

本発明に係る画像形成装置は、前述した発明の何れか1つに記載の画像処理装置と、該画像処理装置により2つの画像を合成して得られた画像をシート上に形成する手段とを備えることを特徴とする。   An image forming apparatus according to the present invention includes the image processing apparatus according to any one of the above-described inventions, and a unit that forms an image obtained by combining two images by the image processing apparatus on a sheet. It is characterized by providing.

本発明にあっては、プリンタ装置、デジタル複合機などに適用することができ、合成して得られた画像をシート上に形成することができる。   The present invention can be applied to a printer device, a digital multi-function peripheral, and the like, and an image obtained by combining can be formed on a sheet.

本発明に係る画像形成装置は、原稿を載置する原稿台と、該原稿台に載置された原稿から画像を読み取る読取手段とを備え、合成すべき領域を前記原稿台に対して設定してあることを特徴とする。   An image forming apparatus according to the present invention includes a document table on which a document is placed, and a reading unit that reads an image from the document placed on the document table, and sets an area to be combined to the document table. It is characterized by being.

本発明にあっては、合成すべき領域を原稿台に対して設定しているため、原稿の載置位置を容易に特定することができる。   In the present invention, since the area to be combined is set for the document table, the document placement position can be easily specified.

本発明による場合は、2つの画像の夫々から抽出した特徴点を用いて各画像の特徴量をそれぞれ算出し、算出した特徴量を比較することによって特徴点間の対応付けを行い、対応付けた特徴点の座標を用いることによって座標変換を表す変換行列を求める。従来の画像合成には、様々な特徴点を採用したパターンマッチングが使用されてきたが、本発明では、画像の回転、平行移動、拡大縮小を含む幾何学的変化に対して不変な特徴量を用いて特徴点の対応付けを行うため、2つの画像に傾き等が生じている場合であっても、特徴点を正確に対応付けることが可能となり、精度よく2つの画像を合成することができる。   In the case of the present invention, the feature points of each image are calculated using the feature points extracted from each of the two images, and the feature points are associated by comparing the calculated feature amounts. A transformation matrix representing coordinate transformation is obtained by using the coordinates of feature points. In conventional image synthesis, pattern matching using various feature points has been used. However, in the present invention, feature amounts that are invariant to geometrical changes including image rotation, translation, and scaling are used. Since the feature points are associated with each other, the feature points can be accurately associated even if the two images have an inclination or the like, and the two images can be synthesized with high accuracy.

本発明による場合は、画像照合手段が、画像から画素を連結した連結領域を抽出する手段と、抽出した連結領域に含まれる特徴点を抽出する手段と、抽出した特徴点に基づいて画像の特徴を表す特徴量を算出する手段と、算出した特徴量と予め記憶されている記憶画像の特徴量とを比較し、一致する特徴量の記憶画像に投票する手段とを備える。したがって、画像照合手段の一部の機能を利用することにより、2つの画像から抽出した特徴点間の対応付けを行うことができ、対応付けた特徴点の位置の情報を用いて画像合成を行うことができる。また、画像合成手段の一部の機能を用いるため、画像合成を行うために付加する回路構成を必要最小限とすることができる。   In the case of the present invention, the image matching means extracts means for extracting a connected area in which pixels are connected from the image, means for extracting feature points included in the extracted connected area, and image features based on the extracted feature points. And a means for comparing the calculated feature value with a feature value of a stored image stored in advance and voting for a stored image with a matching feature value. Therefore, by using a part of the functions of the image collating means, it is possible to associate the feature points extracted from the two images, and perform image synthesis using information on the positions of the associated feature points. be able to. In addition, since some functions of the image composition means are used, the circuit configuration added to perform image composition can be minimized.

本発明よる場合は、選択した特徴点を用いて画像合成を行うため、画像合成の精度を向上させることができる。   In the case of the present invention, since image synthesis is performed using the selected feature points, the accuracy of image synthesis can be improved.

本発明による場合は、記憶手段に関連付けられた格納された情報に基づいて合成された画像データを読み出すことができるため、再度、画像の合成動作を行わなくても、元の原稿を用いて合成画像データを抽出することができる。   According to the present invention, the image data synthesized based on the stored information associated with the storage means can be read out, so that the original document can be synthesized without performing the image synthesis operation again. Image data can be extracted.

本発明による場合は、抽出した連結領域の重心を算出し、算出した重心を特徴点としている。したがって、任意の画像について特徴点の抽出が可能となり、高速かつ精度良く特徴量を算出することができる。   According to the present invention, the center of gravity of the extracted connected area is calculated, and the calculated center of gravity is used as a feature point. Therefore, feature points can be extracted from an arbitrary image, and feature quantities can be calculated with high speed and accuracy.

本発明による場合は、画像の回転、平行移動、拡大縮小を含む幾何学的変化に対して不変なパラメータを特徴量として算出するため、合成対象の画像が天地逆転してスキャンされた場合であっても、画像合成の精度を一定以上に保つことができる。   According to the present invention, parameters that are invariant to geometrical changes including image rotation, parallel movement, and enlargement / reduction are calculated as feature amounts. Therefore, the image to be synthesized is scanned upside down. However, the accuracy of image composition can be kept above a certain level.

本発明による場合は、特徴点間の距離を用いて定式化したハッシュ関数によりハッシュ値を算出するようにしているため、特徴点の幾何学的な配置に応じた不変量を算出することができる。   In the case of the present invention, since the hash value is calculated by the hash function formulated using the distance between the feature points, the invariant according to the geometrical arrangement of the feature points can be calculated. .

本発明による場合は、合成すべき領域が予め設定されているため、処理時間を短縮することができる。   In the case of the present invention, the processing time can be shortened because the areas to be combined are preset.

本発明による場合は、スキャナ装置、デジタル複合機等により読み取られた画像について画像合成を行うことができる。   According to the present invention, it is possible to perform image composition on an image read by a scanner device, a digital multifunction peripheral, or the like.

本発明による場合は、合成すべき領域を原稿台に対して設定しているため、原稿の載置位置を容易に特定することができる。   According to the present invention, since the area to be combined is set for the document table, the document placement position can be easily specified.

本発明による場合は、プリンタ装置、デジタル複合機などに適用することができ、合成して得られた画像をシート上に形成することができる。   According to the present invention, it can be applied to a printer device, a digital multi-function peripheral, and the like, and an image obtained by combining can be formed on a sheet.

以下、本発明をその実施の形態を示す図面に基づいて具体的に説明する。
実施の形態1.
図1は本発明に係る画像処理装置を備える画像処理システムの内部構成を説明するブロック図である。実施の形態1に係る画像処理システムは、操作パネル1、画像入力装置3、画像処理装置5A、画像出力装置7を備える。
Hereinafter, the present invention will be specifically described with reference to the drawings illustrating embodiments thereof.
Embodiment 1 FIG.
FIG. 1 is a block diagram illustrating an internal configuration of an image processing system including an image processing apparatus according to the present invention. The image processing system according to the first embodiment includes an operation panel 1, an image input device 3, an image processing device 5A, and an image output device 7.

操作パネル1は、液晶表示装置、各種スイッチ等からなり、ユーザに報知すべき情報の表示、ユーザによる各種選択操作等を受付ける。   The operation panel 1 includes a liquid crystal display device, various switches, and the like, and accepts display of information to be notified to the user, various selection operations by the user, and the like.

画像入力装置3は、原稿の画像を光学的に読み取る読取手段であり、読取用の原稿に光を照射する光源、CCD(Charge Coupled Device)のようなイメージセンサ等を備えている。画像入力装置3では、所定の読取位置にセットされた原稿からの反射光像を当該イメージセンサに結像させ、RGB(R : Red, G : Green, B : Blue)のアナログ電気信号を出力する。画像入力装置3が出力したアナログ電気信号は画像処理装置5Aへ入力される。   The image input device 3 is a reading unit that optically reads an image of a document, and includes a light source that irradiates light to a document for reading, an image sensor such as a CCD (Charge Coupled Device), and the like. In the image input device 3, a reflected light image from a document set at a predetermined reading position is formed on the image sensor, and RGB (R: Red, G: Green, B: Blue) analog electrical signals are output. . The analog electric signal output from the image input device 3 is input to the image processing device 5A.

画像処理装置5Aは、画像入力装置3から出力されるアナログ電気信号をデジタル電気信号に変換した後、適宜の画像処理を行い、得られた画像データを画像出力装置7へ出力する。なお、画像処理装置5Aの内部構成、動作等については後に詳述することとする。   The image processing device 5 </ b> A converts the analog electrical signal output from the image input device 3 into a digital electrical signal, performs appropriate image processing, and outputs the obtained image data to the image output device 7. The internal configuration and operation of the image processing apparatus 5A will be described in detail later.

画像出力装置7は、画像処理装置5Aが出力する画像信号に基づいて用紙、OHPフィルム等のシート上に画像形成を行う手段である。そのため、画像出力装置7は、感光体ドラムを所定の電位に帯電させる帯電器、外部から受付けた画像データに応じてレーザ光を発して感光体ドラム上に静電潜像を生成させるレーザ書込装置、感光体ドラム表面に形成された静電潜像にトナーを供給して顕像化する現像器、感光体ドラム表面に形成されたトナー像を用紙上に転写する転写器等(不図示)を備えており、電子写真方式にて利用者が所望する画像を用紙上に形成する。なお、レーザ書込装置を用いた電子写真方式により画像形成を行う他、インクジェット方式、熱転写方式、昇華方式等により画像形成を行う構成であってもよい。   The image output device 7 is means for forming an image on a sheet such as paper or an OHP film based on an image signal output from the image processing device 5A. For this reason, the image output device 7 is a charger for charging the photosensitive drum to a predetermined potential, and laser writing for generating an electrostatic latent image on the photosensitive drum by emitting laser light in accordance with image data received from the outside. An apparatus, a developing device that supplies toner to the electrostatic latent image formed on the surface of the photosensitive drum to make it visible, a transfer device that transfers the toner image formed on the surface of the photosensitive drum onto paper (not shown), etc. And an image desired by the user is formed on a sheet by electrophotography. In addition to image formation by an electrophotographic method using a laser writing apparatus, an image formation may be performed by an inkjet method, a thermal transfer method, a sublimation method, or the like.

次に、画像処理装置5Aの内部構成について説明する。AD変換部51は、画像入力装置3から入力されたRGBのアナログ信号をデジタル信号に変換する。シェーディング補正部52は、AD変換部51から出力されたデジタル形式のRGB信号に対して、画像入力装置3の照明系、結像系、撮像系で生じる各種の歪みを取り除く処理を施す。シェーディング補正されたRGB信号は、文書照合処理部53へ出力される。   Next, the internal configuration of the image processing apparatus 5A will be described. The AD converter 51 converts RGB analog signals input from the image input device 3 into digital signals. The shading correction unit 52 performs a process of removing various distortions generated in the illumination system, the imaging system, and the imaging system of the image input device 3 on the digital RGB signal output from the AD conversion unit 51. The RGB signal subjected to the shading correction is output to the document matching processing unit 53.

文書照合処理部53は、画像入力装置3を通じて取り込まれた画像が予め記憶されている記憶画像(以下、登録フォーマットという)に類似しているか否かの判定を行い、類似していると判定した場合、入力画像が登録フォーマットに対して書き込みを行った画像であるか否かを判断する。登録フォーマットに対して書き込みを行った画像であると判断した場合、書き込みに対応した領域を抽出し、抽出した領域の画像を登録フォーマットに関連付けて記憶する。   The document matching processing unit 53 determines whether or not the image captured through the image input device 3 is similar to a stored image (hereinafter referred to as a registered format), and determines that the image is similar. In this case, it is determined whether or not the input image is an image written in the registered format. If it is determined that the image has been written in the registered format, an area corresponding to the writing is extracted, and the image in the extracted area is stored in association with the registered format.

画像合成処理部54は、画像入力装置3を通じて取り込まれた2つの画像を合成する際、文書照合処理部53の機能の一部を用いて両画像に共通する特徴点を抽出し、抽出した特徴点同士の対応付けを行い、一方の画像の座標系を他方の画像の座標系に写す変換行列を求め、求めた変換行列を用いて一方の画像を変換することにより画像合成を行うものである。   When the two images captured through the image input device 3 are synthesized, the image synthesis processing unit 54 extracts a feature point common to both images using a part of the function of the document matching processing unit 53, and extracts the extracted features. Points are associated with each other, a transformation matrix that maps the coordinate system of one image to the coordinate system of the other image is obtained, and image synthesis is performed by transforming one image using the obtained transformation matrix. .

入力階調補正部55は、下地濃度の除去やコントラストなどの画質調整処理を行う。領域分離処理部56は、RGB信号より、入力画像中の各画素を文字領域、網点領域、写真領域の何れかに分離する処理を行う。領域分離処理部56は、分離結果に基づき、画素がどの領域に属しているかを示す領域識別信号を後段の黒生成下色除去部58、空間フィルタ処理部59、及び階調再現処理部62へ出力すると共に、入力されたRGB信号をそのまま後段の色補正部57へ出力する。   The input tone correction unit 55 performs image quality adjustment processing such as background density removal and contrast. The region separation processing unit 56 performs processing for separating each pixel in the input image into one of a character region, a halftone dot region, and a photographic region from the RGB signals. The region separation processing unit 56 sends a region identification signal indicating which region the pixel belongs to to the subsequent black generation and under color removal unit 58, the spatial filter processing unit 59, and the gradation reproduction processing unit 62 based on the separation result. At the same time, the input RGB signal is output to the subsequent color correction unit 57 as it is.

色補正部57は、色再現の忠実化再現のために、不要吸収成分を含むCMY色材の分光特性に基づいた色濁りを取り除く処理を行うものである。色補正されたRGB信号は、後段の黒生成下色除去部58へ出力される。黒生成下色除去部58は、色補正後のCMYの3色信号から黒(K)信号を生成する黒生成、元のCMY信号から黒生成で得たK信号を差し引いた新たなCMY信号を生成する処理を行う。この処理によってCMYの3色信号はCMYKの4色信号に変換される。   The color correction unit 57 performs processing for removing color turbidity based on the spectral characteristics of CMY color materials including unnecessary absorption components in order to faithfully reproduce color reproduction. The color-corrected RGB signal is output to the subsequent black generation and under color removal unit 58. The black generation and under color removal unit 58 generates black (K) signals from the CMY three-color signals after color correction, and generates a new CMY signal obtained by subtracting the K signal obtained by black generation from the original CMY signals. Generate the process. By this processing, the CMY three-color signal is converted into a CMYK four-color signal.

黒生成処理の一例として、スケルトンブラックによる黒生成を行う方法がある。この方法では、スケルトンカーブの入出力特性をy=f(x)、入力されるデータをC,M,Y、出力されるデータをC’,M’,Y’,K’、UCR率(UCR : Under Color Removal)をα(0<α<1)とすると、黒生成下色除去処理は以下の式で表される。   As an example of the black generation process, there is a method of generating black using skeleton black. In this method, the input / output characteristic of the skeleton curve is y = f (x), the input data is C, M, Y, the output data is C ′, M ′, Y ′, K ′, the UCR rate (UCR) : Under Color Removal) α (0 <α <1), the black generation under color removal processing is expressed by the following equation.

K’=f{min(C,M,Y)}
C’=C−αK’
M’=M−αK’
Y’=Y−αK’
K ′ = f {min (C, M, Y)}
C ′ = C−αK ′
M ′ = M−αK ′
Y ′ = Y−αK ′

空間フィルタ処理部59は、黒生成下色除去部58より入力されるCMYK信号の画像データに対して、領域識別信号を基にデジタルフィルタによる空間フィルタ処理を行い、空間周波数特性を補正することによって出力画像のぼやけや粒子状劣化を防ぐように処理を行う。   The spatial filter processing unit 59 performs spatial filter processing using a digital filter on the image data of the CMYK signal input from the black generation and under color removal unit 58 based on the region identification signal, thereby correcting the spatial frequency characteristics. Processing is performed to prevent blurring and particulate deterioration of the output image.

例えば、領域分離処理部56にて文字に分離された領域は、特に黒文字又は色文字の再現性を高めるために、空間フィルタ処理部59による空間フィルタ処理における鮮鋭強調処理で高周波数の強調量が大きくされる。同時に、階調再現処理部62においては、高周波数の再現に適した高解像度のスクリーンでの二値化又は多値化処理が選択される。また、領域分離処理部56にて網点領域に分離された領域に関しては、空間フィルタ処理部59において、入力網点成分を除去するためのローパスフィルタ処理が施される。そして、出力階調補正部60において、濃度信号などの信号をカラー画像出力装置の特性値である網点面積率に変換する出力階調補正処理を行った後、階調再現処理部62で最終的に画像を画素に分離してそれぞれの階調を再現できるように処理する階調再現処理を施す。また、領域分離処理部56にて写真に分離された領域に関しては、階調再現性を重視したスクリーンでの二値化又は多値化処理が行われる。また、変倍処理部61は、領域再現処理を行う前に必要に応じて変倍処理を行う。   For example, the region separated into characters by the region separation processing unit 56 has a high frequency enhancement amount in the sharp enhancement processing in the spatial filter processing by the spatial filter processing unit 59 in order to improve the reproducibility of black characters or color characters in particular. Increased. At the same time, the gradation reproduction processing unit 62 selects binarization or multi-value processing on a high-resolution screen suitable for high-frequency reproduction. Further, with respect to the region separated into halftone dot regions by the region separation processing unit 56, the spatial filter processing unit 59 performs low pass filter processing for removing the input halftone component. The output tone correction unit 60 performs output tone correction processing for converting a signal such as a density signal into a halftone dot area ratio that is a characteristic value of the color image output device, and then the tone reproduction processing unit 62 performs the final processing. Specifically, gradation reproduction processing is performed in which an image is separated into pixels and processed so that each gradation can be reproduced. In addition, regarding the region separated into photographs by the region separation processing unit 56, binarization or multi-value processing is performed on the screen with an emphasis on gradation reproducibility. Further, the scaling processing unit 61 performs scaling processing as necessary before performing the area reproduction processing.

前述した各処理が施された画像データは、一旦記憶手段(不図示)に記憶され、所定のタイミングで読出されて画像出力装置7へ出力される。   The image data subjected to the above-described processes is temporarily stored in storage means (not shown), read at a predetermined timing, and output to the image output device 7.

本実施の形態では、画像合成処理部54が文書照合処理部53の機能の一部を利用することにより、画像合成を行うことを特徴としている。以下では、文書照合処理部53の詳細について説明する。   The present embodiment is characterized in that the image composition processing unit 54 performs image composition by using a part of the function of the document collation processing unit 53. Hereinafter, details of the document matching processing unit 53 will be described.

図2は文書照合処理部53の内部構成を示すブロック図である。文書照合処理部53は、制御部530、特徴点算出部531、特徴量算出部532、投票処理部533、類似度判定処理部534、データ格納部535を備える。   FIG. 2 is a block diagram showing the internal configuration of the document collation processing unit 53. The document collation processing unit 53 includes a control unit 530, a feature point calculation unit 531, a feature amount calculation unit 532, a voting processing unit 533, a similarity determination processing unit 534, and a data storage unit 535.

制御部530は、例えばCPUであり、前述したハードウェア各部の制御を行う。特徴点算出部531は、入力画像に含まれる文字列、罫線などから連結部分を抽出し、連結部分の重心を特徴点として算出する。特徴量算出部532は、特徴点算出部531で算出された特徴点を用いて、回転、拡大、縮小に対して不変な量である特徴量(ハッシュ値)を算出する。投票処理部533は、特徴量算出部532で算出された特徴量を用いてデータ格納部535に予め登録している登録フォーマットに投票する。類似度判定処理部534は、投票結果を用いて入力画像と登録フォーマットとの類比を判定する。   The control unit 530 is, for example, a CPU, and controls each of the hardware units described above. The feature point calculation unit 531 extracts a connected part from a character string, ruled line, and the like included in the input image, and calculates the center of gravity of the connected part as a feature point. The feature amount calculation unit 532 uses the feature points calculated by the feature point calculation unit 531 to calculate a feature amount (hash value) that is an invariable amount with respect to rotation, enlargement, and reduction. The voting processing unit 533 uses the feature amount calculated by the feature amount calculation unit 532 to vote for a registration format registered in advance in the data storage unit 535. The similarity determination processing unit 534 determines the analogy between the input image and the registration format using the vote result.

図3は特徴点算出部531の構成を示すブロック図である。特徴点算出部531は、無彩化処理部5311、解像度変換部5312、フィルタ処理部5313、2値化処理部5314、及び重心算出部5315を備えている。   FIG. 3 is a block diagram showing a configuration of the feature point calculation unit 531. The feature point calculation unit 531 includes an achromatic processing unit 5311, a resolution conversion unit 5312, a filter processing unit 5313, a binarization processing unit 5314, and a centroid calculation unit 5315.

無彩化処理部5311は、入力画像データがカラー画像であった場合に無彩化して、明度信号又は輝度信号に変換するための処理部である。例えば、下記の変換式により輝度信号を求める。   The achromatic processing unit 5311 is a processing unit for performing achromatic processing when the input image data is a color image and converting it to a lightness signal or a luminance signal. For example, the luminance signal is obtained by the following conversion formula.

Yj=0.30Rj+0.59Gj+0.11Bj   Yj = 0.30Rj + 0.59Gj + 0.11Bj

ここで、Yjは各画素の輝度値、Rj,Gj,Bjは各画素の色成分を表す。また、この方法ではなく、RGB信号をCIE1976L*** 信号(CIE : Commission International de l'Eclairage、 L* : 明度、a*, b* :色度)に変換しても良い。 Here, Yj represents the luminance value of each pixel, and Rj, Gj, Bj represents the color component of each pixel. Instead of this method, RGB signals may be converted into CIE 1976 L * a * b * signals (CIE: Commission International de l'Eclairage, L *: lightness, a * , b * : chromaticity).

解像度変換部5312は、入力画像データが画像入力装置3にて光学的に変倍されていた場合に、所定の解像度になるように再度変倍する処理部である。また、解像度変換部5312では、後段の処理量を軽減するために、画像入力装置3にて等倍時に読込まれる解像度よりも解像度を落とすための解像度変換としても用いられる。例えば、600dpi(dot per inch)で読み込まれた画像データを300dpiに変換する。   The resolution conversion unit 5312 is a processing unit that, when the input image data has been optically scaled by the image input device 3, scales again so as to obtain a predetermined resolution. Further, the resolution conversion unit 5312 is also used as resolution conversion for lowering the resolution from the resolution read by the image input apparatus 3 at the same magnification in order to reduce the subsequent processing amount. For example, image data read at 600 dpi (dot per inch) is converted to 300 dpi.

フィルタ処理部5313は、画像入力装置の空間周波数特性が機種ごとに異なることを吸収するために用いられる処理部である。CCDが出力する画像信号には、レンズやミラー等の光学部品、CCDの受光面のアパーチャ開口度、転送効率や残像、物理的な走査による積分効果及び走査ムラ等に起因して、画像のぼけなどの劣化が生じている。フィルタ処理部5313は、適切なフィルタ処理(強調処理)を施すことにより、MTFの劣化により生じるぼやけを修復する処理を行う。また、後段の処理に不要な高周波成分を抑制するためにも用いる。すなわち、混合フィルタを用いて強調及び平滑化処理を行う。   The filter processing unit 5313 is a processing unit used to absorb that the spatial frequency characteristics of the image input device are different for each model. The image signal output by the CCD is blurred due to optical components such as lenses and mirrors, aperture aperture of the light receiving surface of the CCD, transfer efficiency and afterimage, integration effect due to physical scanning, and scanning unevenness. Degradation such as has occurred. The filter processing unit 5313 performs a process of repairing the blur caused by the degradation of the MTF by performing an appropriate filter process (enhancement process). It is also used to suppress high-frequency components that are not necessary for subsequent processing. That is, the enhancement and smoothing processing is performed using the mixing filter.

2値化処理部5314は、無彩化された画像データから重心算出に適した2値画像データを作成する処理部である。重心算出部5315は、2値化されたデータから連結成分の重心を求め、これを特徴点として特徴量算出部532へ出力する。重心の算出方法としては、従来手法を用いることができる。すなわち、2値画像の2値化情報に基づいて各画素に対してラベリングを行い、同一ラベルが付された画素によって連結された連結領域を特定し、特定した連結領域の重心を特徴点として算出する。   The binarization processing unit 5314 is a processing unit that creates binary image data suitable for centroid calculation from achromatic image data. The center-of-gravity calculation unit 5315 obtains the center of gravity of the connected component from the binarized data, and outputs this to the feature quantity calculation unit 532 as a feature point. As a method for calculating the center of gravity, a conventional method can be used. In other words, each pixel is labeled based on the binarization information of the binary image, the connected area connected by the pixel with the same label is specified, and the center of gravity of the specified connected area is calculated as a feature point. To do.

図4は特徴点の抽出例を示す模式図である。図4(a)は、前述した手法により、「A」の文字が連結領域として特定された例であり、図中の黒丸で示した点が特徴点(重心)として算出された様子を示している。図4(b)は、同様に「書」の文字から連結領域を抽出した例であるが、連結領域が2つの領域に分割されて特定されている様子を示している。この場合、各連結領域から特徴点(重心)が算出されるため、1つの文字から2つの特徴点(特徴点A,特徴点B)が算出されることになる。   FIG. 4 is a schematic diagram illustrating an example of feature point extraction. FIG. 4A is an example in which the character “A” is specified as a connected region by the above-described method, and shows how the points indicated by black circles in the figure are calculated as feature points (centroids). Yes. FIG. 4B shows an example in which a connected area is similarly extracted from the characters “book”, and shows a state in which the connected area is specified by being divided into two areas. In this case, since feature points (center of gravity) are calculated from each connected region, two feature points (feature point A and feature point B) are calculated from one character.

次に、特徴量の算出手法について説明する。図5は特徴量算出部532の構成を示すブロック図である。特徴量算出部532は、近傍点抽出部5321及び特徴量抽出部5322を備える。近傍点抽出部5321は、特徴点算出部531によって算出された複数の特徴点のうち、任意の1つを注目特徴点として選択し、その注目特徴点から距離が小さい順に4つの特徴点を周辺特徴点として選択する。特徴量抽出部5322は、注目特徴点に対する4つの周辺特徴点の距離に基づいてハッシュ値(特徴量)を算出する。   Next, a feature amount calculation method will be described. FIG. 5 is a block diagram illustrating a configuration of the feature amount calculation unit 532. The feature amount calculation unit 532 includes a neighboring point extraction unit 5321 and a feature amount extraction unit 5322. The neighboring point extraction unit 5321 selects an arbitrary one of the plurality of feature points calculated by the feature point calculation unit 531 as the feature point of interest, and sets the four feature points in the order of decreasing distance from the feature point of interest. Select as a feature point. The feature amount extraction unit 5322 calculates a hash value (feature amount) based on the distances of the four peripheral feature points with respect to the feature point of interest.

図6は注目特徴点及び周辺特徴点について説明する説明図である。図6は特徴点算出部531によって6つの特徴点P1〜P6が算出された様子を示している。このとき、特徴量算出部532が特徴点P3を注目特徴点として選択した場合、特徴点P1,P2,P4,P5が周辺特徴点として選択される。特徴量算出部532は、選択した注目特徴点(P3)及び周辺特徴点(P1,P2,P4,P5)を用いて、入力画像の傾き、移動、回転等により不変な不変量を算出し、算出した不変量から入力画像の特徴量を算出する。   FIG. 6 is an explanatory diagram for explaining the feature point of interest and the peripheral feature points. FIG. 6 shows a state where six feature points P <b> 1 to P <b> 6 are calculated by the feature point calculation unit 531. At this time, when the feature amount calculation unit 532 selects the feature point P3 as the feature point of interest, the feature points P1, P2, P4, and P5 are selected as the peripheral feature points. The feature amount calculation unit 532 uses the selected feature point of interest (P3) and the peripheral feature points (P1, P2, P4, P5) to calculate an invariant that is invariant due to the inclination, movement, rotation, etc. of the input image, The feature amount of the input image is calculated from the calculated invariant.

図7は注目特徴点P3による不変量の算出例を説明する説明図である。注目特徴点P3と周辺特徴点P1,P2,P4,P5との間の距離を用いて、不変量H3jを、H3j=A3j/B3jにより定義する。ここで、j=1,2,3の値をとり、A3j、B3jはそれぞれ特徴点間の距離を示しており、特徴点間の距離は、各周辺特徴点の座標値に基づいて算出される。すなわち、3通りの不変量が算出され、不変量H31の値はA31/B31(図7(a)参照)、不変量H32の値はA32/B32(図7(b)参照)、不変量H33の値はA33/B33となる(図7(c)参照)。これらの不変量H3jは、例えば、原稿読取時に原稿が回転、移動、傾いた場合であっても値が変化せず、後段の類似判定において画像の類比判定を精度良く行うことができる。   FIG. 7 is an explanatory diagram for explaining an example of calculating invariants by the feature point P3 of interest. The invariant H3j is defined by H3j = A3j / B3j using the distance between the target feature point P3 and the peripheral feature points P1, P2, P4, and P5. Here, j = 1, 2, and 3 are taken, and A3j and B3j indicate distances between the feature points, and the distances between the feature points are calculated based on the coordinate values of the respective peripheral feature points. . That is, three invariants are calculated, the value of invariant H31 is A31 / B31 (see FIG. 7A), the value of invariant H32 is A32 / B32 (see FIG. 7B), and invariant H33. Is A33 / B33 (see FIG. 7C). These invariants H3j, for example, do not change even when the document is rotated, moved, or tilted when the document is read, and the image similarity determination can be performed with high accuracy in the subsequent similarity determination.

図8は注目特徴点を特徴点P4とした場合の不変量の算出例を説明する説明図である。特徴量算出部532は、周辺特徴点として特徴点P2,P3,P5,P6を選択する。このとき、不変量H4j(j=1,2,3)は、前述と同様に、H4j=A4j/B4jにより算出することができる。すなわち、不変量H41の値はA41/B41(図8(a)参照)、不変量H42の値はA42/B42(図8(b)参照)、不変量H43の値はA43/B43となる(図8(c)参照)。   FIG. 8 is an explanatory diagram illustrating an example of calculating invariants when the feature point of interest is the feature point P4. The feature amount calculation unit 532 selects feature points P2, P3, P5, and P6 as peripheral feature points. At this time, the invariant H4j (j = 1, 2, 3) can be calculated by H4j = A4j / B4j, as described above. That is, the value of the invariant H41 is A41 / B41 (see FIG. 8A), the value of the invariant H42 is A42 / B42 (see FIG. 8B), and the value of the invariant H43 is A43 / B43 (see FIG. 8B). (Refer FIG.8 (c)).

他の特徴点P1,P2,P5,P6を注目特徴点として選択した場合も同様であり、特徴量算出部532は、注目特徴点を順次変更し、各特徴点P1,P2,…,P6を選択した場合の不変量Hij(i=1,2,…,6:j=1,2,3)を算出する。   The same applies to the case where other feature points P1, P2, P5, and P6 are selected as the feature points of interest, and the feature amount calculation unit 532 sequentially changes the feature points of interest, and sets the feature points P1, P2,. The invariant Hij (i = 1, 2,..., 6: j = 1, 2, 3) when selected is calculated.

次いで、特徴量算出部532は、各注目特徴点により算出された不変量を用いて特徴量(ハッシュ値)Hiを算出する。注目特徴点を特徴点Piとした場合のハッシュ値Hiは、Hi=(Hi1×102 +Hi2×101 +Hi3×100 )/Eで表される。ここで、iは自然数であり特徴点の数を表しており、Eは余りをどの程度設定するかにより決定される定数であり、例えば、E=10とした場合、余りは0〜9の値をとり、これが算出するハッシュ値の取り得る範囲となる。 Next, the feature amount calculation unit 532 calculates a feature amount (hash value) Hi using the invariant calculated by each feature point of interest. The hash value Hi when the feature point of interest is the feature point Pi is represented by Hi = (Hi1 × 10 2 + Hi2 × 10 1 + Hi3 × 10 0 ) / E. Here, i is a natural number and represents the number of feature points, and E is a constant determined by how much remainder is set. For example, when E = 10, the remainder is a value of 0 to 9. This is the range that the hash value calculated can take.

図9及び図10はそれぞれ注目特徴点をP3及びP4とした場合の不変量の他の算出例を説明する説明図である。注目特徴点による不変量を算出する方法としては、例えば、図9に示すように、注目特徴点P3の周辺特徴点P1,P2,P4,P5の4点より4通りの組み合わせを選択し、不変量H3j(j=1,2,3,4)を前述の場合と同様に、H3j=A3j/B3jにより算出してもよい。また、注目特徴点をP4としたときも同様に、注目特徴点P4の周辺特徴点P2,P3,P5,P6の4点より4通りの組み合わせを選択し(図10を参照)、不変量H4j(j=1,2,3,4)をH4j=A4j/B4jにより算出してもよい。この場合、ハッシュ値は、Hi=(Hi1×103 +Hi2×102 +Hi3×101 +Hi4×100)/Eで算出される。 FIG. 9 and FIG. 10 are explanatory diagrams for explaining other examples of invariants when the feature point of interest is P3 and P4, respectively. As a method for calculating the invariant based on the feature point of interest, for example, as shown in FIG. 9, four combinations are selected from the four feature points P1, P2, P4, and P5 around the feature point P3. The variable H3j (j = 1, 2, 3, 4) may be calculated by H3j = A3j / B3j in the same manner as described above. Similarly, when the target feature point is set to P4, four combinations are selected from the four peripheral feature points P2, P3, P5, and P6 of the target feature point P4 (see FIG. 10), and the invariant H4j is selected. (J = 1, 2, 3, 4) may be calculated by H4j = A4j / B4j. In this case, the hash value is calculated as Hi = (Hi1 × 10 3 + Hi2 × 10 2 + Hi3 × 10 1 + Hi4 × 10 0 ) / E.

なお、特徴量としての上記ハッシュ値は一例であって、これに限定されるものではなく、他のハッシュ関数を用いることができる。また、上記では、周辺特徴点として4つを選択する構成としたが、4つに限定されるものではない。例えば、6つを抽出するようにしてもよい。この場合、6つの特徴点から5つを抽出し、5つを抽出する6通り夫々の方法について、5点から3点を抽出して不変量を求め、ハッシュ値を算出するようにしてもよい。   The hash value as the feature amount is an example, and the hash value is not limited to this, and other hash functions can be used. In the above description, four feature points are selected as the peripheral feature points, but the number is not limited to four. For example, six may be extracted. In this case, for each of the six methods of extracting five from six feature points and extracting five, three points may be extracted from five points to obtain an invariant and a hash value may be calculated. .

特徴量算出部532では、このようにして各連結領域について特徴量(ハッシュ値)を算出する。投票処理部533は、特徴量算出部532が算出したハッシュ値に基づいてハッシュテーブルを検索し、登録されているインデックスの原稿に投票する。図11はハッシュテーブルの一例を示す概念図である。ハッシュテーブルは、ハッシュ値及び登録フォーマットを表すインデックスの各欄により構成される。すなわち、図11(a)に示すように、連結領域の特徴を表す特徴量に対応して、登録フォーマットを表すインデックスを登録している。例えば、算出したハッシュ値が「H1」である場合、投票処理部533は、「ID1」のインデックスを持つ登録フォーマットに投票を行う。また、算出したハッシュ値が「H3」である場合、投票処理部533は2種類の登録フォーマット(すなわち、「ID2」、「ID3」のインデックスを持つ登録フォーマット)に投票を行う。算出したハッシュ値が他の値である場合も同様である。なお、ハッシュ値が等しい場合(H1=H5)、図11(b)に示すように、ハッシュテーブルの2つのエントリを1つにまとめることも可能である。   In this way, the feature amount calculation unit 532 calculates the feature amount (hash value) for each connected region. The voting processing unit 533 searches the hash table based on the hash value calculated by the feature amount calculation unit 532 and votes for the document with the registered index. FIG. 11 is a conceptual diagram showing an example of a hash table. The hash table is composed of each column of a hash value and an index representing a registration format. That is, as shown in FIG. 11A, an index representing a registration format is registered corresponding to the feature amount representing the feature of the connected area. For example, when the calculated hash value is “H1”, the voting processing unit 533 votes for a registration format having an index of “ID1”. When the calculated hash value is “H3”, the voting processing unit 533 votes for two types of registration formats (that is, registration formats having indexes of “ID2” and “ID3”). The same applies when the calculated hash value is another value. When the hash values are equal (H1 = H5), as shown in FIG. 11B, it is possible to combine two entries in the hash table into one.

図12は投票結果の一例を示すグラフである。横軸は登録フォーマットの種類、縦軸は得票数を表している。図12に示した例は、3種類の登録フォーマット(「N1」〜「N3」)について投票が行われている様子を示している。投票を累積加算した投票結果は類似度判定処理部534へ出力される。   FIG. 12 is a graph showing an example of the voting result. The horizontal axis represents the type of registration format, and the vertical axis represents the number of votes. The example illustrated in FIG. 12 illustrates a state where voting is performed for three types of registration formats (“N1” to “N3”). The vote result obtained by cumulatively adding votes is output to the similarity determination processing unit 534.

類似度判定処理部534は、投票処理部533から入力された投票結果に基づいて、画像の類似度を判定し、判定結果を制御部530へ通知する。類似度判定処理部534は、投票処理部533から入力された投票数(得票数)を予め定めた閾値と比較し、投票数が閾値以上である場合、入力画像が登録フォーマットに類似すると判定する。類似度判定処理部534は、投票処理部533から入力された投票数が閾値より小さい場合、類似する原稿がないと判定して、その結果を制御部530へ通知する。   The similarity determination processing unit 534 determines the image similarity based on the voting result input from the voting processing unit 533 and notifies the control unit 530 of the determination result. The similarity determination processing unit 534 compares the number of votes (number of votes obtained) input from the voting processing unit 533 with a predetermined threshold, and determines that the input image is similar to the registered format when the number of votes is equal to or greater than the threshold. . When the number of votes input from the voting processing unit 533 is smaller than the threshold value, the similarity determination processing unit 534 determines that there is no similar document and notifies the control unit 530 of the result.

なお、上記判定方法は一例であり、別の方法として、例えば、原稿毎の最大得票数(原稿毎に求められる特徴点の数など)で得票数を除算して正規化した後、類比判定を行ってもよい。   Note that the above determination method is an example. As another method, for example, after dividing the number of votes by the maximum number of votes for each document (such as the number of feature points required for each document) and normalizing, the similarity determination is performed. You may go.

画像合成処理部54では、文書照合処理部53の機能の一部を用いて2つの原稿画像の合成を行う際、まず、1回目に読み込まれた原稿画像の特徴点の座標と2回目に読み込まれた原稿画像の特徴点の座標との対応付けを行う。図13は2つの画像から抽出された特徴点の対応付けを説明する説明図である。図13に示した例では、1回目に読み込まれた原稿画像から(x1,y1)、(x2,y2)、(x3,y3)、及び(x4,y4)の座標を持つ4つの特徴点が抽出されており、各特徴点は、2回目に読み込まれた原稿画像から抽出された(x1’,y1’)、(x2’,y2’)、(x3’,y3’)、及び(x4’,y4’)の座標を持つ4つの特徴点とそれぞれ対応付けられている様子を示している。   In the image composition processing unit 54, when combining two document images using a part of the function of the document collation processing unit 53, first, the coordinates of the feature points of the document image read first time and the second time read. Corresponding to the coordinates of the feature points of the original document image. FIG. 13 is an explanatory diagram for explaining the association between feature points extracted from two images. In the example shown in FIG. 13, four feature points having coordinates (x1, y1), (x2, y2), (x3, y3), and (x4, y4) from the original image read for the first time. Each feature point has been extracted, and (x1 ′, y1 ′), (x2 ′, y2 ′), (x3 ′, y3 ′), and (x4 ′) extracted from the original image read for the second time. , Y4 ′) are associated with four feature points having coordinates.

1回目に読み込まれた原稿画像の特徴点の座標を用いて作成した行列をPout、2回目に読み込まれた原稿画像の特徴点の座標を用いて作成した行列をPinとした場合、一方の原稿画像の座標系を他方の原稿画像の座標系に写す変換式は、変換行列Aを用いて以下のように表すことができる。   When the matrix created using the coordinates of the feature points of the original image read in the first time is Pout, and the matrix created using the coordinates of the feature points of the original image read in the second time is Pin, one original A conversion formula that maps the image coordinate system to the coordinate system of the other document image can be expressed as follows using the conversion matrix A.

Figure 0004378408
Figure 0004378408

行列Pinは正方行列ではないので、両辺にPinの転置行列PinT を乗算し、さらにPinT Pinの逆行列を乗算することにより、変換行列Aを求めることができる。 Since the matrix Pin is not a square matrix, the transformation matrix A can be obtained by multiplying both sides by the transposed matrix Pin T of Pin and further multiplying by the inverse matrix of Pin T Pin.

Figure 0004378408
Figure 0004378408

したがって、一方の画像上の座標(x,y)を、他方の画像上の座標系に写す変換式は変換行列Aを用いて、以下のように表すことができる。   Therefore, a conversion formula that maps the coordinates (x, y) on one image to the coordinate system on the other image can be expressed as follows using the conversion matrix A.

Figure 0004378408
Figure 0004378408

画像合成処理部54は、数式3を用いて一方の画像上の座標を変換することにより、画像合成を行う。   The image composition processing unit 54 performs image composition by converting the coordinates on one image using Equation 3.

以下、画像合成の具体的な処理手順について説明する。図14は実施の形態1に係る画像処理システムによる画像合成の処理手順を説明するフローチャートである。画像処理装置5Aは、まず、画像データの取り込み回数kを1にセットし(ステップS11)、k回目の画像データの取り込みを行う(ステップS12)。   Hereinafter, a specific processing procedure for image composition will be described. FIG. 14 is a flowchart for explaining an image composition processing procedure by the image processing system according to the first embodiment. First, the image processing apparatus 5A sets the number k of image data captures to 1 (step S11), and captures the k-th image data (step S12).

図15は原稿の読取手順を説明する説明図である。本実施の形態では、原稿を載置するプラテン30のサイズ(例えばA3サイズ)を越えるサイズの原稿(例えばA2サイズの原稿)を幾らかの重複領域を含めて、2回に分けてスキャンする。図15(a)は、原稿の上側領域をスキャンしている様子を示しており、図15(b)は、前記上側領域の一部を重複して原稿の下側領域をスキャンしている様子を示している。すなわち、互いに重なり合う領域を持つように画像が取り込まれる。   FIG. 15 is an explanatory diagram for explaining a document reading procedure. In the present embodiment, a document (for example, an A2 size document) having a size exceeding the size (for example, A3 size) of the platen 30 on which the document is placed is scanned in two times including some overlapping areas. FIG. 15A shows a state in which the upper area of the document is scanned, and FIG. 15B shows a state in which the lower area of the document is scanned by overlapping a part of the upper area. Is shown. That is, images are captured so as to have overlapping areas.

次いで、文書照合処理部53の特徴点算出部531及び特徴量算出部532を用いることにより、特徴量算出処理を行う(ステップS13)。このとき、文書照合処理部53は、特徴量として算出したハッシュ値に対応する特徴点のインデックスを格納すると共に、各インデックスに関連付けて特徴点の座標を格納する。図16は特徴量(ハッシュ値)と特徴点のインデックスとの対応関係を示す図であり、図17は特徴点のインデックスと座標との対応関係を示す図である。このような対応関係は、例えば、文書照合処理部53のデータ格納部535に格納される。   Next, a feature amount calculation process is performed by using the feature point calculation unit 531 and the feature amount calculation unit 532 of the document matching processing unit 53 (step S13). At this time, the document matching processing unit 53 stores the index of the feature point corresponding to the hash value calculated as the feature quantity, and stores the coordinates of the feature point in association with each index. FIG. 16 is a diagram showing the correspondence between feature quantities (hash values) and feature point indexes, and FIG. 17 is a diagram showing the correspondence between feature point indexes and coordinates. Such a correspondence relationship is stored in the data storage unit 535 of the document collation processing unit 53, for example.

次いで、画像処理装置5Aは、取り込んだ画像データが2回目であるか否か(すなわち、k=2であるか否か)を判断し(ステップS14)、2回目でない場合には(S14:NO)、kの値を1つだけインクリメントし(ステップS15)、処理をステップS12へ移行させる。   Next, the image processing apparatus 5A determines whether or not the captured image data is the second time (that is, whether or not k = 2) (step S14), and if it is not the second time (S14: NO). ), The value of k is incremented by one (step S15), and the process proceeds to step S12.

取込んだ画像が2回目である場合(S14:YES)、特徴点の対応付けを行う(ステップS16)。1回目及び2回目に取込んだ画像から算出したハッシュ値と特徴点のインデックスとの対応関係が、それぞれ図16(a)及び図16(b)に示したようになり、特徴点を表すインデックスと座標との対応関係が、それぞれ図17(a)及び図17(b)に示したようになった場合、一方の画像から算出した特徴点f1,f2,f3,f4は、それぞれ他方の画像から抽出した特徴点p1,p2,p3,p4と対応付けられることが分かる。   When the captured image is the second time (S14: YES), feature points are associated (step S16). The correspondence between the hash value calculated from the first and second captured images and the feature point index is as shown in FIGS. 16A and 16B, respectively. 17A and 17B, the feature points f1, f2, f3, and f4 calculated from one image are respectively the other image. It can be seen that they are associated with the feature points p1, p2, p3, p4 extracted from.

これらの特徴点を用いて2つの画像を合成する場合、画像合成処理部54は、対応する特徴点を2組以上用いて前述した変換行列Aを算出する(ステップS17)。算出した変換行列Aを用いることにより、1回目の画像上の任意の座標(x,y)は、2回目の画像上の座標(x’,y’)に変換される。これにより、1回目の原稿が傾きを持っていた場合であっても、この変換行列Aによって、2回目のスキャン画像の座標系に合わせて座標変換され、全体として連続した画像として合成することができる(ステップS18)。   When two images are combined using these feature points, the image composition processing unit 54 calculates the transformation matrix A described above using two or more corresponding feature points (step S17). By using the calculated conversion matrix A, arbitrary coordinates (x, y) on the first image are converted into coordinates (x ′, y ′) on the second image. As a result, even if the first document has an inclination, the conversion matrix A is used to perform coordinate conversion in accordance with the coordinate system of the second scan image, and can be combined as a continuous image as a whole. Yes (step S18).

なお、特徴点及び特徴量の算出は画像全体について行ってもよく、予め重ね合わせる領域を設定しておき、その設定領域内でのみ特徴点及び特徴量の算出を行ってもよい。図18は重ね合わせる領域の設定例を示す模式図である。図18に示した例では、重ね合わせる領域を明示するために指示板31をプラテン30の側面に設けている。指示板31は指標32を備えており、指標32によって指定されるプラテン上の領域30aを重ね合わせの領域として設定している。この領域に合わせて1回目及び2回目のスキャンを実施し、入力画像データを作成することにより、設定幅の領域だけに対して一連の処理を実行すればよい。   Note that the feature points and feature amounts may be calculated for the entire image, or a region to be overlapped may be set in advance, and the feature points and feature amounts may be calculated only within the set region. FIG. 18 is a schematic diagram showing an example of setting the overlapping area. In the example shown in FIG. 18, the indicator plate 31 is provided on the side surface of the platen 30 in order to clearly indicate the overlapping region. The indication plate 31 includes an index 32, and an area 30a on the platen designated by the index 32 is set as an overlapping area. By executing the first and second scans in accordance with this region and creating input image data, a series of processing may be executed only for the region of the set width.

重ね合わせる領域を設定しない場合は、一方の画像から算出したf1,f2,f3,f4,…と、他方の画像から抽出した特徴点p1,p2,p3,p4,…との対応付けを行う際、特徴点を選択するようにしてもよい。原稿を重複して読み取っているので、ほとんどの特徴点は重複領域のものが対応付けられているが、場合によっては、重複領域の特徴点のハッシュ値が重複していない領域のハッシュ値と一致する場合もあり得る。重複領域以外の特徴点の座標のデータが含まれると変換行列の精度が低下する虞があるので、重複領域内の特徴点のみを用いるようにする。   When the overlapping area is not set, when associating f1, f2, f3, f4,... Calculated from one image with the feature points p1, p2, p3, p4,. The feature points may be selected. Since the original is read redundantly, most feature points are associated with those in the overlapping region, but in some cases, the hash values of the feature points in the overlapping region match the hash values in the non-overlapping region. It is possible that If the coordinate data of feature points other than the overlapping region is included, the accuracy of the transformation matrix may be lowered. Therefore, only the feature points in the overlapping region are used.

図19は対応付けを行う2つの画像の夫々から抽出した特徴点の一例を示す模式図である。例えば、両方の画像より特徴量が一致する特徴点を抽出し、抽出した特徴点f1,f2,f3,f4,…、及びp1,p2,p3,p4,…について、原稿の4辺E1、E2、E3、E4、及びE1’、E2’、 E3’、 E4’からの距離を加算したヒストグラムを作成し、それぞれの特徴点が原稿の何れの辺に近い領域から抽出されているか(どの領域が重複して読み取られているか)を判定する。図20は作成するヒストグラムを説明する説明図である。上記ヒストグラムのうち、特徴点が抽出された辺は、ヒストグラム(各点から辺までの距離の累積値)が最も小さくなるので、この特徴を用いることにより、どの領域から特徴点が抽出されているか判定することができる(図20は2つの特徴点の座標を加算した例を示している。)。そして、特定された辺から所定の範囲内(例えば、特徴点の座標位置で500)にある特徴点を選択することにより、不要な特徴点を削除して変換行列を求めることができる。また、特徴点がどの領域(辺)に存在するのかの判定を自動で行うので、ユーザは原稿の読み取りを行う際、原稿の向きを考慮することなく、原稿の読み取りを行うことができる。   FIG. 19 is a schematic diagram illustrating an example of feature points extracted from each of two images to be associated. For example, feature points having the same feature amount are extracted from both images, and the four sides E1, E2 of the document are extracted for the extracted feature points f1, f2, f3, f4,... And p1, p2, p3, p4,. , E3, E4, and E1 ′, E2 ′, E3 ′, and E4 ′ are added to the histogram, and each feature point is extracted from an area close to which side of the document (which area is Whether it has been duplicated). FIG. 20 is an explanatory diagram for explaining a histogram to be created. Of the above histogram, the edge from which the feature point is extracted has the smallest histogram (cumulative value of the distance from each point to the edge), so from which region the feature point is extracted by using this feature It can be determined (FIG. 20 shows an example in which the coordinates of two feature points are added). Then, by selecting a feature point within a predetermined range (for example, 500 at the coordinate position of the feature point) from the specified side, unnecessary feature points can be deleted to obtain a transformation matrix. Further, since it is automatically determined in which region (side) the feature point exists, the user can read the document without considering the direction of the document when reading the document.

なお、デジタル複写機、複合機を用いて画像合成を行う場合は、例えば、操作パネル1より画像合成のモードを選択する。モードの設定は制御部530によって認識され、文書照合処理部53の機能を用いて画像合成処理がなされ、合成することによって得られた画像データは変倍処理部61で予め定められる値(又はユーザにより設定された値)に縮小され、階調再現処理部62を通じて画像出力装置7へ送られる。   In the case of performing image composition using a digital copying machine or a multifunction machine, for example, an image composition mode is selected from the operation panel 1. The setting of the mode is recognized by the control unit 530, the image composition processing is performed using the function of the document collation processing unit 53, and the image data obtained by the composition is a value determined in advance by the scaling processing unit 61 (or the user And is sent to the image output device 7 through the gradation reproduction processing unit 62.

実施の形態2.
実施の形態1では、文書照合処理部53を利用して画像合成を実施したが、画像合成処理に文書照合処理の機能を組み込む構成であってもよい。本実施の形態では、画像合成処理に文書照合処理を組み込んだ画像処理装置の構成について説明する。
Embodiment 2. FIG.
In the first embodiment, image composition is performed using the document collation processing unit 53. However, a configuration in which the function of document collation processing is incorporated in the image composition processing may be employed. In the present embodiment, a configuration of an image processing apparatus in which a document matching process is incorporated in an image composition process will be described.

図21は本発明に係る画像処理装置を備える画像処理システムの内部構成を説明するブロック図である。本実施の形態2に係る画像処理システムは、操作パネル1、画像入力装置3、画像処理装置5B、画像出力装置7を備える。このうち、画像処理装置5B以外の構成については、実施の形態1と全く同様である。   FIG. 21 is a block diagram illustrating an internal configuration of an image processing system including an image processing apparatus according to the present invention. The image processing system according to the second embodiment includes an operation panel 1, an image input device 3, an image processing device 5B, and an image output device 7. Among these, the configuration other than the image processing device 5B is exactly the same as that of the first embodiment.

画像処理装置5Bは、AD変換部51、シェーディング補正部52、画像合成処理部64、入力階調補正部55、領域分離処理部56、色補正部57、黒生成下色除去部58、空間フィルタ処理部59、出力階調補正部60、変倍処理部61、階調再現処理部62により構成される。このうち、画像合成処理部64以外の構成については、実施の形態1と全く同様である。   The image processing device 5B includes an AD conversion unit 51, a shading correction unit 52, an image composition processing unit 64, an input tone correction unit 55, a region separation processing unit 56, a color correction unit 57, a black generation and under color removal unit 58, and a spatial filter. The processing unit 59, the output tone correction unit 60, the scaling processing unit 61, and the tone reproduction processing unit 62 are configured. Among these, the configuration other than the image composition processing unit 64 is exactly the same as in the first embodiment.

図22は画像合成処理部64の内部構成を示すブロック図である。画像合成処理部64は、制御部640、特徴点算出部641、特徴量算出部642、投票処理部643、合成処理部644、データ格納部645を備える。   FIG. 22 is a block diagram showing the internal configuration of the image composition processing unit 64. The image composition processing unit 64 includes a control unit 640, a feature point calculation unit 641, a feature amount calculation unit 642, a voting processing unit 643, a composition processing unit 644, and a data storage unit 645.

制御部640は、例えばCPUであり、前述したハードウェア各部の制御を行う。特徴点算出部641は、入力画像に含まれる文字列、罫線などから連結部分を抽出し、連結部分の重心を特徴点として算出する。特徴量算出部642は、特徴点算出部641で算出された特徴点を用いて、回転、拡大、縮小に対して不変な量である特徴量(ハッシュ値)を算出する。投票処理部643は、特徴量算出部642で算出された特徴量を用いてデータ格納部645に予め登録している登録フォーマットに投票する。合成処理部644は、投票処理部643による投票結果を用いることにより、2つの画像から抽出した特徴点同士の対応関係を求め、前記画像間に成り立つ変換行列を算出する。そして、算出した変換行列に従って一方の画像を他方の画像の座標系に変換することにより画像合成を行う。   The control unit 640 is, for example, a CPU, and controls each hardware unit described above. The feature point calculation unit 641 extracts a connected part from a character string, ruled line, or the like included in the input image, and calculates the center of gravity of the connected part as a feature point. The feature amount calculation unit 642 uses the feature points calculated by the feature point calculation unit 641 to calculate a feature amount (hash value) that is an invariable amount with respect to rotation, enlargement, and reduction. The voting processing unit 643 uses the feature amount calculated by the feature amount calculation unit 642 to vote for a registration format registered in advance in the data storage unit 645. The composition processing unit 644 obtains the correspondence between the feature points extracted from the two images by using the voting result from the voting processing unit 643, and calculates a transformation matrix that is established between the images. Then, image synthesis is performed by transforming one image into the coordinate system of the other image according to the calculated transformation matrix.

図23及び図24は実施の形態2に係る画像処理システムによる画像合成の処理手順を説明するフローチャートである。画像処理装置5Bは、まず、画像データの取り込み回数kを1にセットし(ステップS21)、k回目の画像データの取り込みを行う(ステップS22)。そして、画像合成処理部64の特徴点算出部641及び特徴量算出部642を用いることにより、特徴量算出処理を行う(ステップS23)。   FIG. 23 and FIG. 24 are flowcharts for explaining an image composition processing procedure by the image processing system according to the second embodiment. First, the image processing device 5B sets the number k of image data fetches to 1 (step S21), and fetches the k-th image data (step S22). Then, the feature amount calculation process is performed by using the feature point calculation unit 641 and the feature amount calculation unit 642 of the image composition processing unit 64 (step S23).

次いで、画像処理装置5Bは、取り込んだ画像データが2回目であるか否か(すなわち、k=2であるか否か)を判断し(ステップS24)、2回目でない場合には(S24:NO)、kの値を1つだけインクリメントし(ステップS25)、処理をステップS22へ移行させる。   Next, the image processing device 5B determines whether or not the captured image data is the second time (that is, whether or not k = 2) (step S24). If it is not the second time (S24: NO) ), The value of k is incremented by one (step S25), and the process proceeds to step S22.

図25は画像処理装置5Bに取り込まれる画像の一例を示す模式図である。画像入力装置3により読み取られる原稿のサイズは、プラテン30のサイズよりも少しだけ大きく、本実施の形態では、例えば原稿の上側領域及び下側領域の2回に分けて読み取りを行う。このとき、上側領域及び下側領域には共通する画像を含んだ重複領域が形成されるように読み取りがおこなわれる(図25(a)及び図25(b)を参照)。   FIG. 25 is a schematic diagram illustrating an example of an image captured by the image processing device 5B. The size of the document read by the image input device 3 is slightly larger than the size of the platen 30. In this embodiment, the document is read in two steps, for example, an upper region and a lower region of the document. At this time, reading is performed so that an overlapping region including a common image is formed in the upper region and the lower region (see FIGS. 25A and 25B).

本実施の形態では、1回目の読取画像にn個(nは2以上の整数)の探索画像領域、2回目の読取画像にn個の参照画像領域を設定し、探索画像領域内の特徴点と参照画像領域内の特徴点との対応付けを行う。図26は探索画像領域及び参照画像領域が設定されている様子を示す模式図である。すなわち、図26(a)に示した1回目の読取画像には、n個の探索画像領域T1,T2,…,Tnが設定されており、図26(b)に示した2回目の読取画像には、n個の参照画像領域S1,S2,…,Snが設定されている様子を示している。   In this embodiment, n (n is an integer of 2 or more) search image areas are set for the first read image, and n reference image areas are set for the second read image, and feature points in the search image area are set. Are associated with feature points in the reference image area. FIG. 26 is a schematic diagram showing a state in which a search image area and a reference image area are set. That is, n search image regions T1, T2,..., Tn are set in the first read image shown in FIG. 26A, and the second read image shown in FIG. Shows a state in which n reference image areas S1, S2,..., Sn are set.

以下、説明を図23に示したフローチャートに戻し、特徴点の対応付け及び画像合成の処理手順について説明する。取込んだ画像データが2回目である場合(S24:YES)、画像合成処理部64は、探索画像領域Tx及び参照画像領域Sxのインデックスxを1に設定する(ステップS26)。そして、探索画像領域Tx内での参照画像を探索し(ステップS27)、両領域に同一の特徴点があるか否かを判断する(ステップS28)。同一の特徴点がないと判断した場合(S28:NO)、処理をステップS27へ戻す。   Hereinafter, the description will be returned to the flowchart shown in FIG. 23, and the process steps of feature point association and image composition will be described. When the captured image data is the second time (S24: YES), the image composition processing unit 64 sets the index x of the search image area Tx and the reference image area Sx to 1 (step S26). Then, a reference image in the search image area Tx is searched (step S27), and it is determined whether or not the same feature point exists in both areas (step S28). If it is determined that there is no identical feature point (S28: NO), the process returns to step S27.

同一の特徴点があると判断した場合(S28:YES)、画像合成処理部64は、探索画像領域Tx及び参照画像領域Sx内の特徴点の座標を格納する(ステップS29)。   If it is determined that there is the same feature point (S28: YES), the image composition processing unit 64 stores the coordinates of the feature points in the search image region Tx and the reference image region Sx (step S29).

次いで、画像合成処理部64は、変換行列の算出の可否を判断するために、同一の特徴点が2組以上得られたか否かを判断する(ステップS30)。同一の特徴点が2組以上得られていないと判断した場合(S30:NO)、インデックスxが探索画像領域Tx及び参照画像領域Sxの設定数nに達したか否かを判断する(ステップS31)。インデックスxが設定数nに達していないと判断した場合(S31:NO)、画像合成処理部64は、インデックスxの値を1つだけインクリメントし(ステップS32)、処理をステップS27へ戻す。すなわち、同一の特徴点が2組以上得られていない場合には、変換行列Aを求めることができないため、残る探索画像領域Tx及び参照画像領域Sxについても特徴点の対応付けを試みる。一方、同一の特徴点が2組以上得られていない状態でインデックスxが設定数nに達したと判断した場合(S31:YES)、エラー処理を行い(ステップS33)、本フローチャートによる処理を終了する。エラー処理は、例えば、画像合成の実行が不能である旨をユーザに報知する。   Next, the image composition processing unit 64 determines whether or not two or more sets of the same feature points have been obtained in order to determine whether the conversion matrix can be calculated (step S30). When it is determined that two or more sets of the same feature points are not obtained (S30: NO), it is determined whether the index x has reached the set number n of the search image region Tx and the reference image region Sx (step S31). ). If it is determined that the index x has not reached the set number n (S31: NO), the image composition processing unit 64 increments the value of the index x by one (step S32), and the process returns to step S27. That is, when two or more sets of the same feature points are not obtained, the transformation matrix A cannot be obtained, so that the feature points are also associated with the remaining search image region Tx and reference image region Sx. On the other hand, if it is determined that the index x has reached the set number n in a state where two or more sets of the same feature points have not been obtained (S31: YES), error processing is performed (step S33), and the processing according to this flowchart ends. To do. In the error processing, for example, the user is notified that the image composition cannot be executed.

ステップS30にて同一の特徴点が2組以上得られたと判断した場合(S30:YES)、対応する特徴点を2組以上用いて実施の形態1で説明した変換行列Aを算出する(ステップS34)。そして、参照画像領域を設けた画像の全ての画像データを座標変換し(ステップS35)、全体として連続した画像として合成する。   When it is determined in step S30 that two or more sets of the same feature points are obtained (S30: YES), the transformation matrix A described in the first embodiment is calculated using two or more sets of corresponding feature points (step S34). ). Then, all the image data of the image provided with the reference image area are subjected to coordinate conversion (step S35), and synthesized as a continuous image as a whole.

なお、本実施の形態では、1回目に読み取った読取画像に探索画像領域を設定し、2回目に読み取った読取画像に参照画像領域を設けているが、実施の形態1に示すように、これらの画像領域を設けずに重複して読み取った領域の特徴点の対応関係を求めて座標変換を行い、画像合成を行う構成としてもよい。   In this embodiment, a search image area is set in the read image read first time, and a reference image area is provided in the read image read second time. However, as shown in the first embodiment, these search image areas are provided. It is possible to obtain a correspondence relationship between the feature points of the redundantly read areas without providing the image area, and perform coordinate conversion to perform image composition.

実施の形態3.
実施の形態1及び2では、各処理をハードウェアにより実現する構成としたが、ソフトウェアの処理により本発明を実現する構成としてもよい。
Embodiment 3 FIG.
In the first and second embodiments, each process is realized by hardware. However, the present invention may be realized by software processing.

図27は本発明のコンピュータプログラムがインストールされた画像処理装置の内部構成を説明するブロック図である。図中100は、本実施の形態に係る画像処理装置であり、具体的にはパーソナルコンピュータ、ワークステーション等である。画像処理装置100はCPU101を備えており、CPU101にはROM103、RAM104、ハードディスク105、外部記憶部106、入力部107、表示部108、通信ポート109等のハードウェアがバス102を介して接続されている。CPU101は、ROM103に予め格納された制御プログラムに従って前述のハードウェア各部を制御する。   FIG. 27 is a block diagram illustrating the internal configuration of an image processing apparatus in which the computer program of the present invention is installed. In the figure, reference numeral 100 denotes an image processing apparatus according to the present embodiment, specifically a personal computer, a workstation, or the like. The image processing apparatus 100 includes a CPU 101, and hardware such as a ROM 103, a RAM 104, a hard disk 105, an external storage unit 106, an input unit 107, a display unit 108, and a communication port 109 is connected to the CPU 101 via a bus 102. Yes. The CPU 101 controls the above-described hardware units according to a control program stored in advance in the ROM 103.

RAM104は前述の制御プログラム、又は本発明に係るコンピュータプログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)の実行中に生成される各種データを一時的に記憶する揮発性のメモリである。ハードディスク105は、磁気記録媒体を有する記憶手段であり、本発明のコンピュータプログラムのプログラムコード等が記憶される。外部記憶部106は、本発明のコンピュータプログラムのプログラムコードを記録した記録媒体Mからプログラムコードを読取るための読取装置を備えている。記録媒体Mとしては、FD(Flexible Disk)、CD−ROM等を用いることができる。外部記憶部106によって読取られたプログラムコードはハードディスク105に格納される。CPU101はハードディスク105に格納された本発明に係るプログラムコードをRAM104上にロードして実行することにより、装置全体を、実施の形態1で説明したような画像処理を実現する装置として機能させ、2つの画像からそれぞれ算出させた特徴量に基づいて特徴点同士の対応付けを行わせ、一方の画像の座標系を他方の画像の座標系に写す変換行列を算出させ、算出させた変換行列を用いて2つの画像の合成を行わせる。   The RAM 104 is a volatile memory that temporarily stores various data generated during the execution of the above-described control program or the program code (execution format program, intermediate code program, source program) of the computer program according to the present invention. . The hard disk 105 is a storage means having a magnetic recording medium, and stores the program code of the computer program of the present invention. The external storage unit 106 includes a reading device for reading the program code from the recording medium M on which the program code of the computer program of the present invention is recorded. As the recording medium M, an FD (Flexible Disk), a CD-ROM, or the like can be used. The program code read by the external storage unit 106 is stored in the hard disk 105. The CPU 101 loads the program code according to the present invention stored in the hard disk 105 onto the RAM 104 and executes it, thereby causing the entire apparatus to function as an apparatus that implements the image processing described in the first embodiment. Based on the feature values calculated from one image, the feature points are associated with each other, a conversion matrix that maps the coordinate system of one image to the coordinate system of the other image is calculated, and the calculated conversion matrix is used. The two images are combined.

入力部107は、外部から画像データを取得するためのインタフェースとして機能する。入力部107には、例えば、カラースキャナ装置などが接続される。表示部108は、処理対象の画像データ、画像処理中の画像データ、画像処理後の画像データ等を表示するためのインタフェースとして機能する。表示部108に液晶ディスプレイ装置などの外部表示装置を接続して画像データを表示する構成であってもよく、表示部108自身が表示装置を備え、画像データを表示する構成であってもよい。通信ポート109は、外部にプリンタ150を接続するためのインタフェースである。画像処理された画像データをプリンタ150にて印刷する場合、画像処理装置100は、前記画像データを基にプリンタ150にてデコード可能なプリントデータを生成し、生成したプリントデータをプリンタ150へ送信する。   The input unit 107 functions as an interface for acquiring image data from the outside. For example, a color scanner device or the like is connected to the input unit 107. The display unit 108 functions as an interface for displaying image data to be processed, image data during image processing, image data after image processing, and the like. The display unit 108 may be configured to display image data by connecting an external display device such as a liquid crystal display device, or the display unit 108 may include a display device and display image data. The communication port 109 is an interface for connecting the printer 150 to the outside. When printing image data that has undergone image processing by the printer 150, the image processing apparatus 100 generates print data that can be decoded by the printer 150 based on the image data, and transmits the generated print data to the printer 150. .

なお、本実施の形態では、各種演算をCPU101が実行する構成としたが、画像処理に係る演算を行う専用のチップを別途設け、CPU101からの指示により演算を行う構成としてもよい。   In the present embodiment, the CPU 101 performs various calculations. However, a dedicated chip for performing calculations related to image processing may be separately provided and calculations may be performed according to instructions from the CPU 101.

また、本発明に係るコンピュータプログラムコードを記録する記録媒体Mとしては、前述したFD及びCD−ROMの他に、MO、MD、DVD等の光ディスク、ハードディスク等の磁気記録媒体、ICカード、メモリカード、光カード等のカード型記録媒体、マスクROM、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)、フラッシュROM等による半導体メモリの利用も可能である。また、インターネットを含む通信ネットワークを接続可能なシステム構成であることから、通信ネットワークから本発明に係るコンピュータプログラムコードをダウンロードするようにしてもよい。   As the recording medium M for recording the computer program code according to the present invention, in addition to the above-mentioned FD and CD-ROM, optical recording medium such as MO, MD, DVD, magnetic recording medium such as hard disk, IC card, memory card Further, it is possible to use a semiconductor memory such as a card-type recording medium such as an optical card, mask ROM, EPROM (Erasable Programmable Read Only Memory), EEPROM (Electrically Erasable Programmable Read Only Memory), flash ROM, or the like. Further, since the system configuration is such that a communication network including the Internet can be connected, the computer program code according to the present invention may be downloaded from the communication network.

また、本発明のコンピュータプログラムは、単体のアプリケーションプログラム、ユーティリティプログラムとして提供される形態であってもよく、他のアプリケーションプログラム、ユーティリティプログラムに組み込み、そのプログラムの一部の機能として提供する形態であってもよい。例えば、その一形態としてプリンタドライバに組み込んで提供する形態が考えられる。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。   In addition, the computer program of the present invention may be provided as a single application program or utility program, or may be incorporated into another application program or utility program and provided as a partial function of the program. May be. For example, as one form, a form provided by being incorporated in a printer driver is conceivable. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.

実施の形態4.
実施の形態1及び2では、デジタル複写機、複合機を用いて画像合成を行う例を示したが、ネットワークで接続されたサーバを用いて処理を分担し、実現するようにしても良い。
Embodiment 4 FIG.
In the first and second embodiments, an example of performing image composition using a digital copying machine or a multifunction peripheral has been described. However, processing may be shared and realized using a server connected via a network.

図28は本実施の形態に係るネットワークシステムの全体構成を示す模式図である。図28に示すように、本実施の形態に係るネットワークシステムは、サーバ70、複合機(MFP)10A,10B,…、プリンタ81A,81B,…、ファクシミリ82A,82B,…、コンピュータ83A,83B,…、デジタルカメラ84A,84B,…、スキャナ85A,85B,…などがネットワークNを介して接続されている。システムの構成は上記のものに限定されず、例えば、サーバ70が複数接続されていてもよい。   FIG. 28 is a schematic diagram showing the overall configuration of the network system according to the present embodiment. As shown in FIG. 28, the network system according to the present embodiment includes a server 70, multifunction peripherals (MFPs) 10A, 10B,..., Printers 81A, 81B, ..., facsimile machines 82A, 82B,. ..., digital cameras 84A, 84B, ..., scanners 85A, 85B, ... are connected via a network N. The configuration of the system is not limited to the above, and for example, a plurality of servers 70 may be connected.

図29はMFP10A(10B)及びサーバ70の内部構成を示すブロック図である。MFP10A(10B)は、装置内のハードウェア各部を制御するMFP制御部11、読み込まれた原稿画像から特徴点を算出する特徴点算出部12、算出した特徴点に基づいて原稿画像の特徴量を算出する特徴量算出部13、算出した特徴量を用いて画像合成処理を行うMFP画像合成処理部14、及びメモリ15を備える。ハードウェア各部が実行する処理は、実施の形態1で説明した画像処理装置5Aが実行する処理と同様であるため、その詳細については説明を省略する。   FIG. 29 is a block diagram showing an internal configuration of the MFP 10A (10B) and the server 70. As shown in FIG. The MFP 10A (10B) includes an MFP control unit 11 that controls each part of the hardware in the apparatus, a feature point calculation unit 12 that calculates a feature point from the read document image, and a feature amount of the document image based on the calculated feature point. A feature amount calculation unit 13 to be calculated, an MFP image composition processing unit 14 that performs image composition processing using the calculated feature amount, and a memory 15 are provided. The processing executed by each part of the hardware is the same as the processing executed by the image processing apparatus 5A described in the first embodiment, and thus detailed description thereof is omitted.

サーバ70は、装置内のハードウェア各部を制御するサーバ制御部71、画像合成処理を行うサーバ画像合成処理部72、及びメモリ73を備える。サーバ画像合成処理部72では、主としてMFP10A(10B)で算出された特徴点、特徴量のデータに基づいて変換行列を算出する処理を行う。   The server 70 includes a server control unit 71 that controls each hardware unit in the apparatus, a server image composition processing unit 72 that performs image composition processing, and a memory 73. The server image composition processing unit 72 performs a process of calculating a transformation matrix mainly based on feature point and feature amount data calculated by the MFP 10A (10B).

例えば、複合機10Aにおいて、1回目に読み込まれた原稿画像および2回目に読み込まれた原稿画像より特徴点および特徴量を算出してサーバ70に送信するとともに、読み込まれた原稿画像を、一旦、ハードディスクなどに格納しておく。必要に応じて、圧縮して格納するようにしても良い。サーバ70では、上記特徴点のデータを用いて変換行列を算出し、算出結果を複合機10Aに送信する。複合機10Aでは、変換行列を受信した場合、ハードディスクなどに格納しておいた原稿画像を読み出し(圧縮している場合は復号処理を施した後、読み出す)、変換行列を用いて画像の合成を行う。   For example, in the MFP 10A, feature points and feature amounts are calculated from the original image read the first time and the original image read the second time and transmitted to the server 70, and the read original image is temporarily stored. Store it on a hard disk. You may make it compress and store as needed. The server 70 calculates a transformation matrix using the feature point data and transmits the calculation result to the multifunction machine 10A. In the MFP 10A, when the conversion matrix is received, the original image stored in the hard disk or the like is read out (if it is compressed, it is read after being decoded), and the image is synthesized using the conversion matrix. Do.

実施の形態5.
合成された画像データ(合成画像データ)、合成元の画像データを表すインデックス(第1の識別情報)、合成画像データであることを示すタグ(第2の識別情報)、及び抽出された特徴量(すなわち、合成された画像データ、合成画像データであることを示すタグとハッシュテーブル)をサーバ70(MFP10Aなどのハードディスクでも良い)等に格納しておき、MFP10A(10B)の操作パネルより画像合成モードを選択し、合成画像データの元の原稿を読み込んで、対応する合成画像データを検索するようにしても良い。この場合、1度合成画像データを作成しておけば、再度、画像の合成動作を行わなくても、元の原稿を用いて、合成画像データを抽出することができる。
Embodiment 5 FIG.
The synthesized image data (synthesized image data), an index (first identification information) representing the image data of the composition source, a tag (second identification information) indicating that it is the synthesized image data, and the extracted feature amount (In other words, the synthesized image data, the tag indicating the synthesized image data and the hash table) are stored in the server 70 (or a hard disk such as the MFP 10A) and the like, and the image is synthesized from the operation panel of the MFP 10A (10B). It is also possible to select a mode, read the original document of the composite image data, and search for the corresponding composite image data. In this case, once the composite image data is created, the composite image data can be extracted using the original document without performing the image composition operation again.

図30は操作パネルの一例を示す模式図であり、図31は操作パネルから画像合成モードが選択された場合に表示される画面の一例を示す模式図である。図30に示す操作パネルから画像合成モードを選択し、図31に示す画面から合成画像データに対象を絞って検索を行うことができるため、速やかに検索を行うことができるとともに、誤判別を抑制することができる。元の原稿は、合成画像の一部であるので、元の原稿から合成画像データを抽出することができるように、類似度判定の閾値を設定しておく。閾値は種々の原稿を用いて、対応する合成画像データが抽出できる値を決めれば良い。合成画像データはMMRやJPEG等原稿の種別に応じた方法で圧縮して格納しておいても良い。   FIG. 30 is a schematic diagram illustrating an example of an operation panel, and FIG. 31 is a schematic diagram illustrating an example of a screen displayed when an image composition mode is selected from the operation panel. Since the image composition mode is selected from the operation panel shown in FIG. 30 and the search can be performed by narrowing down the target to the composite image data from the screen shown in FIG. 31, the search can be quickly performed and erroneous determination is suppressed. can do. Since the original document is a part of the composite image, a threshold value for similarity determination is set so that the composite image data can be extracted from the original document. The threshold value may be determined using various originals so that the corresponding composite image data can be extracted. The composite image data may be stored after being compressed by a method according to the type of document such as MMR or JPEG.

本発明に係る画像処理装置を備える画像処理システムの内部構成を説明するブロック図である。It is a block diagram explaining the internal structure of an image processing system provided with the image processing apparatus which concerns on this invention. 文書照合処理部の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of a document collation process part. 特徴点算出部の構成を示すブロック図である。It is a block diagram which shows the structure of a feature point calculation part. 特徴点の抽出例を示す模式図である。It is a schematic diagram which shows the example of extraction of a feature point. 特徴量算出部の構成を示すブロック図である。It is a block diagram which shows the structure of a feature-value calculation part. 注目特徴点及び周辺特徴点について説明する説明図である。It is explanatory drawing explaining an attention feature point and a periphery feature point. 注目特徴点P3による不変量の算出例を説明する説明図である。It is explanatory drawing explaining the example of calculation of the invariant by the attention feature point P3. 注目特徴点を特徴点P4とした場合の不変量の算出例を説明する説明図である。It is explanatory drawing explaining the example of calculation of the invariable when a notable feature point is made into the feature point P4. 注目特徴点をP3とした場合の不変量の他の算出例を説明する説明図である。It is explanatory drawing explaining the other example of calculation of the invariable when a notable feature point is set to P3. 注目特徴点をP4とした場合の不変量の他の算出例を説明する説明図である。It is explanatory drawing explaining the other example of calculation of the invariable when a notable feature point is set to P4. ハッシュテーブルの一例を示す概念図である。It is a conceptual diagram which shows an example of a hash table. 投票結果の一例を示すグラフである。It is a graph which shows an example of a voting result. 2つの画像から抽出された特徴点の対応付けを説明する説明図である。It is explanatory drawing explaining matching of the feature point extracted from two images. 実施の形態1に係る画像処理システムによる画像合成の処理手順を説明するフローチャートである。4 is a flowchart for describing a processing procedure of image composition by the image processing system according to the first embodiment. 原稿の読取手順を説明する説明図である。FIG. 10 is an explanatory diagram illustrating a document reading procedure. 特徴量(ハッシュ値)と特徴点のインデックスとの対応関係を示す図である。It is a figure which shows the correspondence of the feature-value (hash value) and the index of a feature point. 特徴点のインデックスと座標との対応関係を示す図である。It is a figure which shows the correspondence of the index of a feature point, and a coordinate. 重ね合わせる領域の設定例を示す模式図である。It is a schematic diagram which shows the example of a setting of the area | region to overlap. 対応付けを行う2つの画像の夫々から抽出した特徴点の一例を示す模式図である。It is a schematic diagram which shows an example of the feature point extracted from each of two images which perform matching. 作成するヒストグラムを説明する説明図である。It is explanatory drawing explaining the histogram to produce. 本発明に係る画像処理装置を備える画像処理システムの内部構成を説明するブロック図である。It is a block diagram explaining the internal structure of an image processing system provided with the image processing apparatus which concerns on this invention. 画像合成処理部の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of an image composition process part. 実施の形態2に係る画像処理システムによる画像合成の処理手順を説明するフローチャートである。10 is a flowchart for describing a processing procedure of image composition by the image processing system according to the second embodiment. 実施の形態2に係る画像処理システムによる画像合成の処理手順を説明するフローチャートである。10 is a flowchart for describing a processing procedure of image composition by the image processing system according to the second embodiment. 画像処理装置に取り込まれる画像の一例を示す模式図である。It is a schematic diagram which shows an example of the image taken in into an image processing apparatus. 探索画像領域及び参照画像領域が設定されている様子を示す模式図である。It is a schematic diagram which shows a mode that the search image area | region and the reference image area | region are set. 本発明のコンピュータプログラムがインストールされた画像処理装置の内部構成を説明するブロック図である。It is a block diagram explaining the internal structure of the image processing apparatus in which the computer program of this invention was installed. 本実施の形態に係るネットワークシステムの全体構成を示す模式図である。It is a schematic diagram which shows the whole structure of the network system which concerns on this Embodiment. MFP及びサーバの内部構成を示すブロック図である。2 is a block diagram illustrating an internal configuration of an MFP and a server. FIG. 操作パネルの一例を示す模式図である。It is a schematic diagram which shows an example of an operation panel. 操作パネルから画像合成モードが選択された場合に表示される画面の一例を示す模式図である。It is a schematic diagram which shows an example of the screen displayed when the image composition mode is selected from the operation panel.

符号の説明Explanation of symbols

1 操作パネル
3 画像入力装置
5A,5B 画像処理装置
7 画像出力装置
53 文書照合処理部
54,64 画像合成処理部
530 制御部
531 特徴点算出部
532 特徴量算出部
533 投票処理部
534 類似度判定処理部
535 データ格納部
1 Operation Panel 3 Image Input Device 5A, 5B Image Processing Device
7 Image output device 53 Document collation processing unit 54, 64 Image composition processing unit 530 Control unit 531 Feature point calculation unit 532 Feature amount calculation unit 533 Voting processing unit 534 Similarity determination processing unit 535 Data storage unit

Claims (11)

互いに重なるべき領域を有する2つの画像を取り込み、取り込んだ2つの画像を前記領域にて合成する画像処理装置において、
前記2つの画像の夫々から画素を連結した連結領域を複数抽出する手段と、抽出した各連結領域に含まれる特徴点を抽出する手段と、抽出した特徴点に基づいて各画像の特徴を表す特徴量を夫々算出する手段と、算出した各画像の特徴量を比較することにより各連結領域から抽出した特徴点間の対応付けを行う手段と、対応付けた特徴点の位置の情報を用いて一方の画像の座標系を他方の画像の座標系に写す変換行列を算出する手段と、算出した変換行列を用いて前記一方の画像を変換することにより前記2つの画像を合成する手段と、取り込んだ画像を記憶画像と照合する画像照合手段とを備え、
該画像照合手段は、前記取り込んだ画像から画素を連結した連結領域を抽出する手段と、抽出した連結領域に含まれる特徴点を抽出する手段と、抽出した特徴点に基づいて前記画像の特徴を表す特徴量を算出する手段と、算出した特徴量と予め記憶されている記憶画像の特徴量とを比較し、一致する特徴量の記憶画像に投票する手段とを備え、該手段による投票結果に基づき、取り込んだ画像と記憶画像との類比判定を行うようにしてあることを特徴とする画像処理装置。
In an image processing apparatus that captures two images having areas that should overlap each other, and combines the two captured images in the areas,
Means for extracting a plurality of connected regions in which pixels are connected from each of the two images, means for extracting feature points included in each extracted connected region, and features representing the characteristics of each image based on the extracted feature points A means for calculating each of the quantities, a means for associating the feature points extracted from each connected region by comparing the calculated feature quantities of each image, and using the information on the positions of the associated feature points. Means for calculating a transformation matrix that maps the coordinate system of the image to the coordinate system of the other image, means for synthesizing the two images by transforming the one image using the computed transformation matrix , and Image collating means for collating an image with a stored image,
The image matching means extracts means for extracting a connected area in which pixels are connected from the captured image, means for extracting feature points included in the extracted connected area, and features of the image based on the extracted feature points. Means for calculating a feature quantity to be represented, means for comparing the calculated feature quantity with a feature quantity of a stored image stored in advance, and voting on a stored image having a matching feature quantity. based, the image processing apparatus according to claim Citea Rukoto to perform analogy determination between an image and storing the image captured.
前記特徴点を抽出する手段は、変換行列を算出する際に阻害要因となる特徴点を、抽出した特徴点から除去するようにしてあることを特徴とする請求項に記載の画像処理装置。 2. The image processing apparatus according to claim 1 , wherein the means for extracting feature points removes feature points that become an obstruction factor when calculating a transformation matrix from the extracted feature points. 合成された画像データを、合成された画像データより抽出された特徴量、合成された画像データの夫々を識別する第1の識別情報、及び合成された画像データであることを示す第2の識別情報に対応付けて記憶手段に格納する制御部を備えることを特徴とする請求項に記載の画像処理装置。 A feature value extracted from the synthesized image data, first identification information for identifying each of the synthesized image data, and a second identification indicating that the synthesized image data is synthesized image data The image processing apparatus according to claim 1 , further comprising a control unit that stores the information in the storage unit in association with the information. 抽出した連結領域の重心を算出する手段を備え、算出した重心を前記連結領域の特徴点としてあることを特徴とする請求項から請求項の何れか1つに記載の画像処理装置。 And means for calculating the centroid of the extracted connected region, the image processing apparatus according to any one of claims 3 and the calculated centroid claim 1, characterized in that as a characteristic point of the connecting region. 前記特徴量は、前記画像の回転、平行移動、拡大縮小を含む幾何学的変化に対して不変なパラメータであることを特徴とする請求項から請求項の何れか1つに記載の画像処理装置。 The image according to any one of claims 1 to 3 , wherein the feature amount is a parameter that is invariant to a geometric change including rotation, parallel movement, and enlargement / reduction of the image. Processing equipment. 1つの画像から抽出した特徴点間の距離を用いて定式化したハッシュ関数によりハッシュ値を算出する手段を備え、算出したハッシュ値を前記画像の特徴量としてあることを特徴とする請求項から請求項の何れか1つに記載の画像処理装置。 And means for calculating a hash value by the hash function is formulated using the distance between the extracted feature point from one image, the calculated hash value from claim 1, characterized in that as a feature value of the image the image processing apparatus according to any one of claims 3. 合成すべき領域を各画像について予め設定してあることを特徴とする請求項に記載の画像処理装置。 The image processing apparatus according to claim 1 , wherein a region to be synthesized is preset for each image. 原稿を載置する原稿台と、該原稿台に載置された原稿から画像を読み取る読取手段と、請求項から請求項の何れか1つに記載の画像処理装置とを備え、前記読取手段にて読み取った2つの画像を前記画像処理装置にて合成するようにしてあることを特徴とする画像読取装置。 Comprising a platen for placing an original, reading means for reading an image from a document placed on the document table, and an image processing apparatus according to claim 1, any one of claims 7, wherein the reading An image reading apparatus characterized in that two images read by the means are synthesized by the image processing apparatus. 合成すべき領域を前記原稿台に対して設定してあることを特徴とする請求項に記載の画像読取装置。 9. The image reading apparatus according to claim 8 , wherein an area to be combined is set for the document table. 請求項から請求項の何れか1つに記載の画像処理装置と、該画像処理装置により2つの画像を合成して得られた画像をシート上に形成する手段とを備えることを特徴とする画像形成装置。 An image processing apparatus according to any one of claims 1 to 7 , and means for forming an image obtained by synthesizing two images by the image processing apparatus on a sheet. Image forming apparatus. 原稿を載置する原稿台と、該原稿台に載置された原稿から画像を読み取る読取手段とを備え、合成すべき領域を前記原稿台に対して設定してあることを特徴とする請求項10に記載の画像形成装置。 An original table on which an original is placed, and reading means for reading an image from the original placed on the original table, and an area to be combined is set for the original table. The image forming apparatus according to 10 .
JP2007314986A 2006-12-18 2007-12-05 Image processing apparatus, image reading apparatus, and image forming apparatus Expired - Fee Related JP4378408B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007314986A JP4378408B2 (en) 2006-12-18 2007-12-05 Image processing apparatus, image reading apparatus, and image forming apparatus
US11/958,188 US20080181534A1 (en) 2006-12-18 2007-12-17 Image processing method, image processing apparatus, image reading apparatus, image forming apparatus and recording medium
CN2007103057726A CN101237514B (en) 2006-12-18 2007-12-18 Image processing apparatus, image processing method, image reading apparatus, image forming apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006340467 2006-12-18
JP2007314986A JP4378408B2 (en) 2006-12-18 2007-12-05 Image processing apparatus, image reading apparatus, and image forming apparatus

Publications (2)

Publication Number Publication Date
JP2008178084A JP2008178084A (en) 2008-07-31
JP4378408B2 true JP4378408B2 (en) 2009-12-09

Family

ID=39711104

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007314986A Expired - Fee Related JP4378408B2 (en) 2006-12-18 2007-12-05 Image processing apparatus, image reading apparatus, and image forming apparatus

Country Status (2)

Country Link
JP (1) JP4378408B2 (en)
CN (1) CN101237514B (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101666621B (en) * 2009-09-24 2011-01-05 浙江大学 Gauge point extracting method without reference to illumination
CN105659287B (en) * 2013-08-28 2018-08-17 株式会社理光 Image processing apparatus, image processing method and imaging system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1312635C (en) * 2004-03-17 2007-04-25 致伸科技股份有限公司 Image zooming method
CN1855985A (en) * 2005-04-25 2006-11-01 明基电通信息技术有限公司 Variable range scanning device

Also Published As

Publication number Publication date
CN101237514A (en) 2008-08-06
JP2008178084A (en) 2008-07-31
CN101237514B (en) 2010-06-02

Similar Documents

Publication Publication Date Title
JP4604100B2 (en) Image processing method, image processing apparatus, image forming apparatus, program, and storage medium
US8320683B2 (en) Image processing method, image processing apparatus, image reading apparatus, and image forming apparatus
US8351706B2 (en) Document extracting method and document extracting apparatus
JP4538507B2 (en) Image collation method, image collation apparatus, image data output processing apparatus, program, and storage medium
US8144994B2 (en) Image processing method, image processing apparatus, image reading apparatus, image forming apparatus, and recording medium
JP4362538B2 (en) Image processing apparatus, image forming apparatus, image transmitting apparatus, image reading apparatus, image processing system, image processing method, image processing program, and recording medium thereof
JP2009031876A (en) Image processor, image forming device and image reader therewith, image processing method, image processing program and recording medium recording image processing program
US20080031549A1 (en) Image processing apparatus, image reading apparatus, image forming apparatus, image processing method, and recording medium
US8300944B2 (en) Image processing method, image processing apparatus, image reading apparatus, image forming apparatus, image processing system, and storage medium
JP4378413B2 (en) Image processing apparatus, image forming apparatus, image reading apparatus, image processing system, image processing method, image processing program, and recording medium thereof
US8107728B2 (en) Image processing apparatus, image forming apparatus, image processing system, computer program and recording medium
JP4362537B2 (en) Image processing apparatus, image forming apparatus, image transmitting apparatus, image reading apparatus, image processing system, image processing method, image processing program, and recording medium thereof
US8184912B2 (en) Image processing apparatus, image forming apparatus, image processing system, and image processing method
JP4487000B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing system, image processing program, and recording medium thereof
JP4361946B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium storing the program
JP2009087262A (en) Image processing method, image processing apparatus, image forming apparatus, image reading apparatus, computer program, and recording medium
JP4378408B2 (en) Image processing apparatus, image reading apparatus, and image forming apparatus
JP2009206658A (en) Image processing method, image processor, image forming apparatus, program, and storage medium
JP4393556B2 (en) Image processing method, image processing apparatus, image reading apparatus, image forming apparatus, computer program, and computer-readable recording medium
US20080181534A1 (en) Image processing method, image processing apparatus, image reading apparatus, image forming apparatus and recording medium
JP5025611B2 (en) Image processing apparatus, image forming apparatus, computer program, recording medium, and image processing method
JP2008245147A (en) Image processor, image reader, image forming apparatus, image processing method, computer program and recording medium
JP2008154216A (en) Image processing method and device, image forming device, document reading device, computer program, and recording medium
JP4543067B2 (en) Image processing apparatus, image forming apparatus, image reading apparatus, image processing system, image processing method, computer program, and recording medium
JP2009048618A (en) Document extracting method, document extracting apparatus, computer program, and recording medium

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090303

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090602

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090818

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090914

R150 Certificate of patent or registration of utility model

Ref document number: 4378408

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120918

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130918

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees