JP2006268371A - Image processor and image processing method - Google Patents

Image processor and image processing method Download PDF

Info

Publication number
JP2006268371A
JP2006268371A JP2005084820A JP2005084820A JP2006268371A JP 2006268371 A JP2006268371 A JP 2006268371A JP 2005084820 A JP2005084820 A JP 2005084820A JP 2005084820 A JP2005084820 A JP 2005084820A JP 2006268371 A JP2006268371 A JP 2006268371A
Authority
JP
Japan
Prior art keywords
partial
partial images
image
feature points
original image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005084820A
Other languages
Japanese (ja)
Inventor
Toshiya Koyama
俊哉 小山
Teruka Saito
照花 斎藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2005084820A priority Critical patent/JP2006268371A/en
Publication of JP2006268371A publication Critical patent/JP2006268371A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To assume that difference of states of respective partial images to an original image exists, and to speed up processing for retrieving a plurality of common characteristic points, in an image processor and an image processing method joining the plurality of partial images obtained by dividing the original image into a plurality of pieces and reading them. <P>SOLUTION: The original image is divided into the plurality of pieces and is read such that one portion is overlapped, the plurality of pieces of partial read image data expressing the plurality of partial images are generated (100-105), a slant angle and an erect direction of each the partial image to the original image are detected (110, 112), the plurality of characteristic points in each the partial image are extracted by use of a filter corresponding to the detected slant angle (116), a set of the partial images having the plurality of common characteristic points is retrieved from the plurality of partial images on the basis of the extracted characteristic points (117-119), the retrieved set of the partial images is joined such that the plurality of characteristic points are overlapped, and original image data expressing the original image are generated (120). <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

この発明は、画像処理装置及び画像処理方法に係り、特に、原画像を複数に分けて読み取ることによって得られた複数の部分画像を接合する画像処理装置及び画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method, and more particularly to an image processing apparatus and an image processing method for joining a plurality of partial images obtained by dividing an original image into a plurality of parts.

従来、原画像を一部分が重複するように読み取る位置を変えて複数回読み取ることによって得られた複数の部分画像を接合する場合には、部分画像から特徴点を抽出すると共に、隣接する部分画像から共通する2つの特徴点を検索し、この共通する2つの特徴点が重なるように複数の部分画像を接合処理していた。   Conventionally, when joining a plurality of partial images obtained by changing the reading position so that a part of the original image overlaps a plurality of times, the feature points are extracted from the partial images and from the adjacent partial images. Two common feature points are searched, and a plurality of partial images are joined so that the two common feature points overlap.

また、複数の部分画像の各々が原画像に対して傾いていたり、正立方向が異なっている場合があるので、部分画像の原画像に対する傾きや方向などの状態の違いが存在することを想定して、部分画像から抽出する特徴点の種類を増やしたり、2つの特徴点の位置によるベクトルの方向を回転させながら検索範囲を拡大して共通する2つの特徴点を検索していた。   In addition, since each of the partial images may be inclined with respect to the original image or may have different erecting directions, it is assumed that there are differences in the state of the partial image with respect to the original image, such as inclination and direction. Then, the number of types of feature points extracted from the partial image is increased, or two common feature points are searched by expanding the search range while rotating the vector direction based on the positions of the two feature points.

画像を接合処理する装置では、一方の画像のエッジ上の点を特徴点として抽出し、各特徴点毎に他方の画像内のエッジ上の点との相関を求めて、相関に基づいて2つの画像の対応領域を定め、ずれを打ち消すように変形しながら画像データを合成する画像合成装置が知られている(特許文献1)。   In an apparatus for joining images, a point on the edge of one image is extracted as a feature point, and a correlation between each feature point and a point on the edge in the other image is obtained. An image synthesizing apparatus that synthesizes image data while determining a corresponding area of an image and deforming so as to cancel the shift is known (Patent Document 1).

また、部分画に対してローパスフィルタを施した画像に撮影されている2つの特徴点により、一方の部分画が他方の部分画に対してどの程度の角度回転しているかを求め、部分画を回転させながら合成する画像合成方法が知られている(特許文献2)。
特開平11―015951号公報 特開2000―078467
Also, by calculating the angle of rotation of one partial image with respect to the other partial image based on the two feature points captured in the image obtained by applying the low pass filter to the partial image, An image synthesizing method for synthesizing while rotating is known (Patent Document 2).
JP-A-11-015951 JP 2000-078467

しかしながら、特許文献1に記載の画像合成装置では、画像の原画像に対する傾きや方向などの状態の違いが存在することを想定すると、一方の画像の特徴点との相関を求める他方の画像内の点の数が多くなるため、対応領域を定めるための各特徴点毎の相関算出処理に時間がかかる、という問題がある。また、特許文献2に記載の画像合成方法では、部分画の原画像に対する傾きや方向などの状態の違いが存在することを想定すると、撮影されている2つの特徴点を検索する処理に時間がかかる、という問題がある。   However, in the image synthesizing apparatus described in Patent Document 1, assuming that there is a difference in state such as inclination and direction of the image with respect to the original image, the correlation between the feature point of one image and the other image is obtained. Since the number of points increases, there is a problem that it takes time for the correlation calculation processing for each feature point to determine the corresponding region. Further, in the image composition method described in Patent Document 2, assuming that there is a difference in state such as inclination and direction of the partial image with respect to the original image, it takes time to search for two captured feature points. There is a problem of this.

本発明は、上記の問題点を解決するためになされたもので、部分画像各々の原画像に対する状態の違いが存在することを想定し、かつ、共通する複数の特徴点を検索する処理の高速化を図ることができる画像処理装置及び画像処理方法を提供することを目的とする。   The present invention has been made to solve the above-described problems, and assumes that there is a difference in the state of each partial image with respect to the original image, and that high-speed processing for searching a plurality of common feature points is performed. It is an object of the present invention to provide an image processing apparatus and an image processing method that can be realized.

上記の目的を達成するために、本発明に係る画像処理装置は、原画像を複数回に分けて一部分が重複するように読み取ることにより得られた複数の部分読取画像データの各々で表される部分画像各々の前記原画像に対する状態を示す情報を検出する検出手段と、 前記検出された情報及び前記部分画像各々における複数の特徴点に基づいて、前記複数の部分画像から共通する複数の特徴点を有する部分画像の組を検索する検索手段と、前記検索された部分画像の組を前記共通する複数の特徴点が重畳するように接合して、前記原画像を表す原画像データを生成する接合生成手段と、を含んで構成されている。   In order to achieve the above object, an image processing apparatus according to the present invention is represented by each of a plurality of partial read image data obtained by reading an original image in a plurality of times so that a part thereof is overlapped. Detection means for detecting information indicating a state of each partial image with respect to the original image; and a plurality of feature points common to the plurality of partial images based on the detected information and a plurality of feature points in each of the partial images. A search means for searching for a set of partial images having a combination of the searched partial images so that the plurality of common feature points overlap, and generating original image data representing the original image Generating means.

また、本発明に係る画像処理方法は、原画像を複数回に分けて一部分が重複するように読み取ることにより得られた複数の部分読取画像データの各々で表される部分画像各々の前記原画像に対する状態を示す情報を検出し、前記検出された情報及び前記部分画像各々における複数の特徴点に基づいて、前記複数の部分画像から共通する複数の特徴点を有する部分画像の組を検索し、前記検索された部分画像の組を前記共通する複数の特徴点が重畳するように接合して、前記原画像を表す原画像データを生成することを特徴としている。   Further, the image processing method according to the present invention provides the original image of each of the partial images represented by each of the plurality of partial read image data obtained by dividing the original image into a plurality of times and reading so that a part thereof overlaps. Detecting information indicating a state with respect to, and searching a set of partial images having a plurality of common feature points from the plurality of partial images based on the detected information and a plurality of feature points in each of the partial images, The set of the searched partial images is joined so that the plurality of common feature points overlap, and original image data representing the original image is generated.

本発明によれば、原画像を複数回に分けて一部分が重複するように読み取ることにより得られた複数の部分読取画像データの各々で表される部分画像各々の原画像に対する状態を示す情報を検出し、検出された情報及び部分画像各々における複数の特徴点に基づいて、複数の部分画像から共通する複数の特徴点を有する部分画像の組を検索し、検索された部分画像の組を前記共通する複数の特徴点が重畳するように接合して、原画像を表す原画像データを生成する。   According to the present invention, the information indicating the state of each of the partial images represented by each of the plurality of partial read image data obtained by dividing the original image into a plurality of times so as to partially overlap the original image is obtained. And detecting a set of partial images having a plurality of common feature points from the plurality of partial images based on the detected information and a plurality of feature points in each of the partial images. A plurality of common feature points are joined so as to overlap, and original image data representing the original image is generated.

従って、部分画像各々の原画像に対する状態を示す情報を検出することにより、接合する部分画像の組に共通する複数の特徴点を検索する範囲を、部分画像の状態の違いが存在することを想定して拡大する必要がないため、共通する複数の特徴点を検索する処理の高速化を図ることができる。   Accordingly, by detecting information indicating the state of each partial image with respect to the original image, it is assumed that there is a difference in the state of the partial image in the range in which a plurality of feature points common to the set of partial images to be joined are searched. Therefore, since it is not necessary to enlarge, it is possible to speed up the process of searching for a plurality of common feature points.

また、検出手段は、原画像に対する状態を示す情報として、原画像の所定方向を基準とした部分画像各々の傾き角度、原画像に対する部分画像各々の正立方向、及び原画像に対する部分画像各々の位置の少なくとも1つを検出することができる。これにより、部分画像各々の傾き角度や正立方向が異なっていても、接合する部分画像の組に共通する複数の特徴点を検索する範囲を拡大する必要がなく、また、原画像に対する部分画像各々の位置を検出することにより、共通する複数の特徴点を検索する範囲を特定することができ、共通する複数の特徴点を検索する処理の高速化を図ることができる。   Further, the detection means uses the inclination angle of each partial image with reference to a predetermined direction of the original image, the erect direction of each partial image with respect to the original image, and each partial image with respect to the original image as information indicating the state with respect to the original image. At least one of the positions can be detected. As a result, even if the inclination angle and the erecting direction of each partial image are different, there is no need to expand the range for searching for a plurality of feature points common to the set of partial images to be joined, and the partial image relative to the original image By detecting each position, it is possible to specify a range for searching for a plurality of common feature points, and to speed up the process of searching for a plurality of common feature points.

また、検索手段は、検出された情報に対応するフィルタを用いて複数の部分読取画像データを処理することにより、部分画像各々における複数の特徴点を抽出し、検出された情報及び抽出された部分画像各々における複数の特徴点に基づいて、複数の部分画像から共通する複数の特徴点を有する部分画像の組を検索することができる。これによって、部分画像の原画像に対する状態の違いにより、誤った特徴点を共通する複数の特徴点として検索することを防止できるため、接合処理の精度を向上させることができる。   Further, the search means extracts a plurality of feature points in each partial image by processing a plurality of partial read image data using a filter corresponding to the detected information, and detects the detected information and the extracted portion. Based on a plurality of feature points in each image, a set of partial images having a plurality of common feature points can be searched from a plurality of partial images. Accordingly, it is possible to prevent an erroneous feature point from being searched for as a plurality of common feature points due to a difference in state of the partial image with respect to the original image, so that the accuracy of the joining process can be improved.

また、検索手段は、検出された情報に基づいて複数の部分画像各々の原画像に対する状態が一致するように複数の部分読取画像データを補正した後、補正された複数の部分読取画像データに基づいて、部分画像各々における複数の特徴点を抽出し、抽出された部分画像の各々における複数の特徴点に基づいて、複数の部分画像から共通する複数の特徴点を有する部分画像の組を検索することができる。複数の部分画像各々の原画像に対する状態が一致するように複数の部分読取画像データを補正することにより、接合する部分画像の組に共通する複数の特徴点を検索する範囲を、部分画像の状態の違いが存在することを想定して拡大する必要がないため、共通する複数の特徴点を検索する処理の高速化を図ることができる。   In addition, the search unit corrects the plurality of partial read image data based on the detected information so that the states of the plurality of partial images with respect to the original image match, and then based on the corrected plurality of partial read image data. Then, a plurality of feature points in each partial image is extracted, and a set of partial images having a plurality of common feature points is searched from the plurality of partial images based on the plurality of feature points in each of the extracted partial images. be able to. By correcting a plurality of partial read image data so that the states of the plurality of partial images with respect to the original image coincide with each other, a range for searching for a plurality of feature points common to a set of partial images to be joined is set to a state of the partial image. Therefore, it is not necessary to expand assuming that there is a difference between them, and therefore, it is possible to speed up the process of searching for a plurality of common feature points.

また、検出手段は、原画像に対する状態を示す情報として、原画像の所定方向を基準とした部分画像各々の傾き角度、及び原画像に対する部分画像各々の正立方向の少なくとも1つを検出し、検索手段は、検出された原画像の所定方向を基準とした部分画像各々の傾き角度、及び原画像に対する部分画像各々の正立方向の少なくとも1つが一致するように複数の部分読取画像データを回転補正した後、回転補正された複数の部分読取画像データに基づいて、部分画像各々における複数の特徴点を抽出し、抽出された部分画像各々における複数の特徴点に基づいて、複数の部分画像から共通する複数の特徴点を有する部分画像の組を検索することができる。これにより、部分画像各々の傾き角度や正立方向が異なっていても、接合する部分画像の組に共通する複数の特徴点を検索する範囲を拡大する必要がないため、共通する複数の特徴点を検索する処理の高速化を図ることができる。   Further, the detection means detects at least one of an inclination angle of each partial image with respect to a predetermined direction of the original image as information indicating a state with respect to the original image, and an erecting direction of each partial image with respect to the original image, The search means rotates a plurality of partial read image data so that at least one of an inclination angle of each partial image with reference to a predetermined direction of the detected original image and an erect direction of each partial image with respect to the original image coincide with each other. After the correction, a plurality of feature points in each of the partial images are extracted based on the plurality of partial read image data subjected to the rotation correction, and from the plurality of partial images based on the plurality of feature points in each of the extracted partial images. A set of partial images having a plurality of common feature points can be searched. As a result, even if the inclination angles and erecting directions of the partial images are different, there is no need to expand the range for searching for a plurality of feature points common to the set of partial images to be joined. Can be speeded up.

以上説明したように、本発明の画像処理装置及び画像処理方法によれば、部分画像各々の原画像に対する状態を示す情報を検出することにより、部分画像各々の原画像に対する状態の違いが存在することを想定し、かつ、共通する複数の特徴点を検索する処理の高速化を図ることができる、という効果が得られる。   As described above, according to the image processing apparatus and the image processing method of the present invention, there is a difference in the state of each partial image with respect to the original image by detecting information indicating the state of each partial image with respect to the original image. As a result, it is possible to speed up the process of searching for a plurality of common feature points.

以下に、本発明の第1の実施の形態について図面を参照して説明する。本発明の第1の実施の形態は、スキャナ装置に本発明を適用したものである。   Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. In the first embodiment of the present invention, the present invention is applied to a scanner device.

図1に示すように、画像処理システム10は、原稿に形成された画像を読み取り各種画像処理を行う本発明の第1の実施の形態に係るスキャナ装置12、及び画像の作成、加工、編集等の画像処理や文書作成を行う複数のクライアントPC14から構成されており、スキャナ装置12とクライアントPC14とはLANなどのネットワーク16によって接続されている。   As shown in FIG. 1, an image processing system 10 reads an image formed on a document and performs various image processing, and a scanner device 12 according to the first embodiment of the present invention, and image creation, processing, editing, and the like. The scanner apparatus 12 and the client PC 14 are connected by a network 16 such as a LAN.

スキャナ装置12には、後述する読取画像接合処理ルーチンのプログラムを含む各種プログラムやパラメータ等が記憶されたROM20、各種プログラムを実行するCPU22、CPU22による各種プログラムの実行時におけるワークエリア等として用いられるRAM24、設けられた撮像素子(図示省略)が走査することによって原稿に形成された原画像を読み取って部分読取画像データを生成する画像読取部26、画像データを格納するためのHDD28、ネットワークインタフェース30、及びこれらを相互に接続するためのバス32が設けられている。スキャナ装置12は、その他、従来公知の一般的機能を備えており、読取機能に関する説明は省略する。   The scanner device 12 includes a ROM 20 that stores various programs and parameters including a read image joining processing routine program, which will be described later, a CPU 22 that executes various programs, and a RAM 24 that is used as a work area when the CPU 22 executes various programs. An image reading unit 26 that reads an original image formed on a document by scanning an provided image sensor (not shown) and generates partial read image data; an HDD 28 for storing image data; a network interface 30; And a bus 32 for connecting them to each other. In addition, the scanner device 12 has a conventionally known general function, and a description regarding the reading function is omitted.

また、クライアントPC14には、スキャナ装置12に備えた各種の処理機能に対する指示(以下「読取設定」という)を設定するためのドライバ(図示省略)が設けられている。なお、クライアントPC14は、従来公知のパーソナルコンピュータの一般的構成を備えたものであればよく、本実施の形態では、クライアントPC14の一般的処理の説明を省略する。   The client PC 14 is provided with a driver (not shown) for setting instructions (hereinafter referred to as “reading settings”) for various processing functions provided in the scanner device 12. The client PC 14 only needs to have a general configuration of a conventionally known personal computer, and the description of the general processing of the client PC 14 is omitted in the present embodiment.

次に、第1の実施の形態の読取画像接合処理ルーチンについて図2を用いて説明する。第1の実施の形態は、原画像を3回に分けてスキャンした場合を例に説明する。   Next, the read image joining processing routine of the first embodiment will be described with reference to FIG. In the first embodiment, a case where an original image is scanned in three steps will be described as an example.

スキャナ装置12では、まず、ステップ100で、クライアントPC14からスキャン指示がなされたか否かを判定する。ユーザによって、原稿が表す原画像の高さ方向及び幅方向の何れか一方がスキャナ装置の副走査方向と等しくなるように、原画像を表す原稿の一部分がスキャナ装置12の画像読取部26にセットされ、クライアントPC14からスキャン指示が入力されると、ステップ100からステップ101に進み、ステップ101において、スキャン処理が実行され、カラー画像データである部分読取画像データA1が生成される。そして、ステップ102で、クライアントPC14からスキャン指示が入力されたか否かを判定し、ユーザによってスキャナ装置12の画像読取部26にセットされている原画像を表す原稿の位置が変更され、ステップ101でスキャン処理された部分読取画像データA1が表す部分画像S1と一部分が重複するように原稿がスキャナ装置12の画像読取部26にセットされ、クライアントPC14からのスキャン指示が入力されると、ステップ103において、スキャン処理が実行され、部分画像S2を表す部分読取画像データA2が生成される。また、同様にステップ104、105においてスキャン処理が実行され、部分画像S3を表す部分読取画像データA3が生成される。 The scanner device 12 first determines in step 100 whether or not a scan instruction has been issued from the client PC 14. A part of the document representing the original image is set in the image reading unit 26 of the scanner device 12 by the user so that either the height direction or the width direction of the original image represented by the document is equal to the sub-scanning direction of the scanner device. is, the scan instruction from the client PC14 is input, the process proceeds from step 100 to step 101, in step 101, the scanning process is performed, the image data a 1 reading portion is color image data is generated. In step 102, it is determined whether or not a scan instruction is input from the client PC 14, and the position of the original representing the original image set in the image reading unit 26 of the scanner device 12 is changed by the user. When a document is set in the image reading unit 26 of the scanner device 12 so that a part thereof overlaps the partial image S 1 represented by the scanned partial image data A 1 , and a scan instruction is input from the client PC 14, a step is performed. in 103, the scanning process is performed, partial read image data a 2 represents a partial image S 2 is generated. Similarly, the scanning process is performed in steps 104 and 105, partial read image data A 3 represents a partial image S 3 is generated.

そして、次のステップ108では、部分読取画像データA1、A2、A3を濃度に応じて二値化処理して、二値画像データB1、B2、B3を生成し、二値画像データB1、B2、B3に対して、データを間引くことにより縮小処理を行い、縮小二値画像データC1、C2、C3を生成し、ステップ110において、後述する傾き検出処理によって、画像読取部26にセットされた原稿が表す原画像の傾き角度を縮小二値画像データC1、C2、C3が表す部分画像S1、S2、S3について検出する。 In the next step 108, the partial read image data A 1 , A 2 , A 3 are binarized according to the density to generate binary image data B 1 , B 2 , B 3 , and binary data The image data B 1 , B 2 , B 3 is reduced by thinning out the data to generate reduced binary image data C 1 , C 2 , C 3. Thus, the inclination angle of the original image represented by the original set on the image reading unit 26 is detected for the partial images S 1 , S 2 , S 3 represented by the reduced binary image data C 1 , C 2 , C 3 .

次に、上記のステップ110の処理を実現する傾き検出処理ルーチンについて図3を用いて説明する。まず、ステップ140で、縮小二値画像データC1、C2、C3に対して、輪郭抽出を行い、輪郭縮小二値画像データD1、D2、D3を生成する。例えば、輪郭抽出処理は、オン画素とオフ画素とが隣接しているところのオン画素、オフ画素、及びオン画素とオフ画素との両方の何れかを抽出する。そして、ステップ142において、輪郭縮小二値画像データD1、D2、D3のオン画素に対してハフ変換処理を行い、輪郭縮小二値画像データD1、D2、D3の各々に対してハフ空間データを生成する。ハフ変換処理とは、xy直交座標上の直線を、ρθ極座標上の座標値に変換する処理であり、図4(a)に示すように、ρθ直交座標上の1点の座標値となる。また、xy直交座標上の1点は、ハフ変換処理により、ρθ極座標上の線に変換され、この線における極座標上の座標値をρθ直交座標で表すと、図4(b)に示すような曲線で表すことができる。この曲線は、以下の式で表すことができる。
ρ=x・cosθ+y・sinθ
ただし、θはx軸との角度、ρはxy直交座標の原点からの距離、x、yはxy直交座標上の座標を示す。
Next, an inclination detection processing routine for realizing the processing of step 110 will be described with reference to FIG. First, in step 140, the reduced binary image data C 1, C 2, C 3 , performs contour extraction, to generate image data contour reduction binary D 1, D 2, D 3 . For example, the contour extraction process extracts any of the on pixel, the off pixel, and both the on pixel and the off pixel where the on pixel and the off pixel are adjacent to each other. In step 142, Hough transform processing is performed on the on-pixels of the contour reduced binary image data D 1 , D 2 , and D 3 , and each of the contour reduced binary image data D 1 , D 2 , and D 3 is processed. To generate Hough space data. The Hough transform process is a process of converting a straight line on the xy orthogonal coordinates into a coordinate value on the ρθ polar coordinate, and becomes a coordinate value of one point on the ρθ orthogonal coordinate as shown in FIG. In addition, one point on the xy orthogonal coordinates is converted into a line on the ρθ polar coordinate by the Hough transform process, and when the coordinate value on the polar coordinate on this line is expressed by the ρθ orthogonal coordinate, as shown in FIG. It can be represented by a curve. This curve can be expressed by the following equation.
ρ = x · cos θ + y · sin θ
Where θ is the angle with the x-axis, ρ is the distance from the origin of the xy orthogonal coordinates, and x and y are the coordinates on the xy orthogonal coordinates.

輪郭縮小二値画像データのオン画素の画素位置を表すxy直交座標上の1点は、上記の式によりρθ直交座標上の曲線に変換すことができ、輪郭縮小二値画像データD1、D2、D3の各々の全てのオン画素について、上記の式によりρθ直交座標上の曲線に変換し、座標(ρ、θ)が変換された曲線上の点となる頻度を算出し、この算出された頻度がρθ極座標空間上のヒストグラムとなり、このヒストグラムがハフ空間データとして輪郭縮小二値画像データD1、D2、D3の各々に対して生成される。 One point on the xy orthogonal coordinates representing the pixel position of the on-pixel of the contour reduced binary image data can be converted into a curve on the ρθ orthogonal coordinate by the above formula, and the contour reduced binary image data D 1 , D 2 and D 3 , all the on-pixels are converted into a curve on the ρθ orthogonal coordinate by the above formula, and the frequency at which the coordinates (ρ, θ) are converted to a point on the curve is calculated. The obtained frequency becomes a histogram on the ρθ polar coordinate space, and this histogram is generated as the Hough space data for each of the contour reduced binary image data D 1 , D 2 , and D 3 .

次のステップ144では、ハフ空間データのヒストグラムをθ軸上へ投影して頻度を合計演算する演算投影処理を行い、以下に説明する輪郭縮小二値画像データD1、D2、D3の各々の演算投影ヒストグラムデータを生成する。まず、輪郭縮小二値画像データが表す画像の対角線の長さD(縦の長さの2乗と横の長さの2乗との和の平方根)を求め、θを0〜πまででπ/180ごと増加させた値とし、頻度の密集度である演算投影ヒストグラムデータを以下の式により求める。 In the next step 144, a calculation projection process is performed in which the histogram of the Hough space data is projected onto the θ-axis to calculate the total frequency, and each of the reduced-contour binary image data D 1 , D 2 , and D 3 described below is performed. The operation projection histogram data is generated. First, the diagonal length D (the square root of the sum of the square of the vertical length and the square of the horizontal length) of the image represented by the contour-reduced binary image data is obtained, and θ is π from 0 to π. The calculated histogram data, which is the frequency density, is obtained by the following equation.

Figure 2006268371
Figure 2006268371

ただし、freq(θ、ρ)はハフ空間データにおける極座標(θ、ρ)の頻度である。   However, freq (θ, ρ) is the frequency of polar coordinates (θ, ρ) in the Hough space data.

そして、ステップ146では、輪郭縮小二値画像データD1、D2、D3の各々の演算投影ヒストグラムデータに基づいて、hist(θ)が最大となるθを部分読取画像データA1、A2、A3が表す部分画像S1、S2、S3の各々の傾き角度として算出し、傾き検出処理ルーチンを終了する。 In step 146, based on the calculated projection histogram data of each of the contour reduced binary image data D 1 , D 2 , and D 3 , θ that maximizes hist (θ) is set as partial read image data A 1 , A 2. , A 3 are calculated as the inclination angles of the partial images S 1 , S 2 , S 3 , and the inclination detection processing routine is terminated.

そして、図2の読取画像接合処理ルーチンのステップ112で、図5に示す正立方向検出処理ルーチンを実行する。まず、ステップ160において、縮小二値画像データC1、C2、C3に対して文字部分抽出処理を行う。例えば、縮小二値画像データC1、C2、C3のオン画素に基づいて外接矩形を算出し、外接矩形の縦横比から文字部分であると推定される外接矩形を特定し、その外接矩形の領域を文字部分として抽出する。そして、ステップ162において、ステップ160で抽出した文字部分に対し文字認識処理を行う。文字認識処理によって、文字部分から認識した文字を表す文字データと文字部分が表示する文字が認識された文字である確率を表す確率データとを作成し、文字部分の文字方向を所定角度、例えば90度ずつ回転させて4回文字認識処理を行い、4つの文字方向毎に文字データと確率データと作成し、この文字認識処理をステップ160で抽出された複数の文字部分に対して実行する。 Then, in step 112 of the read image joining processing routine of FIG. 2, the erecting direction detection processing routine shown in FIG. 5 is executed. First, in step 160, character portion extraction processing is performed on the reduced binary image data C 1 , C 2 , and C 3 . For example, a circumscribed rectangle is calculated based on the ON pixels of the reduced binary image data C 1 , C 2 , and C 3 , a circumscribed rectangle that is estimated to be a character portion is specified from the aspect ratio of the circumscribed rectangle, and the circumscribed rectangle Is extracted as a character part. In step 162, character recognition processing is performed on the character portion extracted in step 160. Character data representing the character recognized from the character part and probability data representing the probability that the character displayed by the character part is recognized by the character recognition process are created, and the character direction of the character part is set to a predetermined angle, for example, 90 The character recognition processing is performed four times by rotating each time, character data and probability data are created for each of the four character directions, and this character recognition processing is executed for the plurality of character portions extracted in step 160.

次のステップ164では、ステップ162で作成された複数の確率データに基づいて、どの文字方向の確率データが最も高いかを判定する。例えば、文字方向毎に全ての確率データを合計し、この合計値を比較することにより、どの文字方向の確率データが最も高いかを縮小二値画像データC1、C2、C3の各々に対し判定し、確率データが最も高い文字方向の各々を部分読取画像データA1、A2、A3が表す部分画像S1、S2、S3の各々の正立方向として算出し、正立方向検出処理ルーチンを終了する。 In the next step 164, based on the plurality of probability data created in step 162, it is determined which character direction probability data is the highest. For example, all probability data is summed for each character direction, and the total value is compared to determine which character direction probability data is the highest in each of the reduced binary image data C 1 , C 2 , and C 3 . The character direction having the highest probability data is calculated as the upright direction of each of the partial images S 1 , S 2 , S 3 represented by the partial read image data A 1 , A 2 , A 3. The direction detection processing routine is terminated.

そして、図2の読取画像接合処理ルーチンのステップ114において、ステップ110、112で補正された部分読取画像データA1、A2、A3を濃度に応じて二値化処理して二値画像データE1、E2、E3を生成し、ステップ101、103、105における読取時の濃度の違いによる二値画像データE1、E2、E3の各々が表す線の太さを等しくするために細線化処理を行い、細線二値画像データF1、F2、F3を生成する。そして、ステップ116において、細線二値画像データF1をフィルタ処理することにより特徴点を抽出する。例えば、「+」、「⊥」、及び「L」などの予め定められた複数の図形パターンの輪郭上の交点を表す画素を特徴点として検索する。予め定められた小矩形領域が細線二値画像データF1上を走査し、小矩形領域で複数の図形パターンの各々に対応するフィルタをかけることにより、小矩形領域が予め定められた図形パターンの輪郭を表しているか否かを判定する。このとき、ステップ110で算出された傾き角度に基づいて、図形パターンの各々に対応するフィルタを算出された傾き角度だけ傾けた図形パターンの各々に対応するフィルタに変更し、変更されたフィルタを用いて判定を行う。何れかの図形パターンの輪郭に該当する判定されると、その輪郭上の交点に位置する画素位置情報と図形パターン情報とを特徴点データに記録する。また、特徴点は複数抽出されるため、特徴点データには、画像位置情報と図形パターン情報とが複数記録される。そして、細線二値画像データF2、F3についても同様にフィルタ処理し、特徴点を抽出する。 Then, in step 114 of the read image joining process routine of FIG. 2, the partial read image data A 1 , A 2 , A 3 corrected in steps 110 and 112 are binarized according to the density to obtain binary image data. E 1 , E 2 , E 3 are generated, and the thicknesses of the lines represented by the binary image data E 1 , E 2 , E 3 due to the difference in density at the time of reading in steps 101, 103, 105 are made equal. Thin line binary image data F 1 , F 2 , and F 3 are generated. Then, in step 116 extracts feature points by filtering the fine line binary image data F 1. For example, a pixel representing an intersection on a plurality of predetermined graphic patterns such as “+”, “⊥”, and “L” is searched as a feature point. Previously small rectangular area defined scans the thin line binary image data F 1 above, by applying a filter corresponding to each of the plurality of graphic patterns in a small rectangular area of the figure pattern small rectangular region predetermined It is determined whether or not a contour is represented. At this time, based on the tilt angle calculated in step 110, the filter corresponding to each graphic pattern is changed to a filter corresponding to each graphic pattern tilted by the calculated tilt angle, and the changed filter is used. To make a decision. If it is determined that it corresponds to the contour of any graphic pattern, the pixel position information and the graphic pattern information located at the intersection on the contour are recorded in the feature point data. Since a plurality of feature points are extracted, a plurality of image position information and graphic pattern information are recorded in the feature point data. The thin line binary image data F 2 and F 3 are similarly filtered to extract feature points.

次のステップ117では、細線二値画像データF1の特徴点データと細線二値画像データF2の特徴点データとに基づいて、部分画像S1と部分画像S2とに共通する2つの特徴点を検索する。例えば、細線二値画像データF1の特徴点データに記録された1つ目の特徴点と同じ図形パターンである第1の共通特徴点を細線二値画像データF2の特徴点データから検索する。 In the next step 117, based on the feature point data of the thin line binary image data F 1 feature data and thin line binary image data F 2, 2 a feature that is common to the partial image S 1 and the partial image S 2 Search for a point. For example, a first common feature point having the same graphic pattern as the first feature point recorded in the feature point data of the fine line binary image data F 1 is searched from the feature point data of the fine line binary image data F 2 . .

第1の共通特徴点が検索されると、細線二値画像データF2の特徴点データに基づいて、細線二値画像データF1の特徴点データに記録された2つ目の特徴点と同じ図形パターンの特徴点で、かつ、第1の共通特徴点の画素位置から、1つ目の特徴点の画素位置から2つ目の特徴点の画素位置へのベクトル分だけ移動した画素位置周辺から第2の共通特徴点を検索する。このとき、ステップ110で算出された傾き方向及びステップ112で算出された正立方向に基づいて、部分画像S1の正立方向に対するベクトルの方向と、部分画像S2の正立方向に対するベクトルの方向とが同一となるようにし、このベクトル分だけ移動した画素位置周辺から第2の共通特徴点を検索する。 When the first common feature point is retrieved, the same as the second feature point recorded in the feature point data of the fine line binary image data F 1 based on the feature point data of the fine line binary image data F 2 From the feature point of the graphic pattern and from the periphery of the pixel position moved from the pixel position of the first common feature point by the vector from the pixel position of the first feature point to the pixel position of the second feature point A second common feature point is searched. At this time, based on the erected direction calculated by the tilt direction and the step 112 calculated in step 110, the direction of the vector for erecting direction of the partial image S 1, the vector for erecting direction of the partial image S 2 The second common feature point is searched from around the pixel position moved by this vector so that the directions are the same.

第2の共通特徴点が検索されると、第1の共通特徴点と第2の共通特徴点とを共通特徴点データに記録し、また、共通特徴点画像データに部分読取画像データA1、A2の組を記録する。一方、第2の共通特徴点が検索されなかった場合には、細線二値画像データF2の特徴点データから他の第1の共通特徴点を検索し、検索されると、細線二値画像データF2の特徴点データから第2の共通特徴点を検索する。 When the second common feature point is searched, the first common feature point and the second common feature point are recorded in the common feature point data, and the partial read image data A 1 , to record the set of a 2. On the other hand, when the second common feature point is not searched, another first common feature point is searched from the feature point data of the thin line binary image data F 2 , and if it is searched, the thin line binary image is searched. searching for a second common feature points from the feature point data of the data F 2.

上記の検索処理を、第1の共通特徴点と第2の共通特徴点とが検索されるまで、又は、細線二値画像データF1の特徴点データに記録された特徴点の全ての組み合わせについて、第1の共通特徴点及び第2の共通特徴点を検索するまで実行される。 The above search processing until the first common feature points and the second common feature point is retrieved, or, for all combinations of feature points recorded in the feature point data of the thin line binary image data F 1 This is executed until the first common feature point and the second common feature point are searched.

そして、ステップ118において、ステップ117と同様に、細線二値画像データF1の特徴点データと細線二値画像データF3の特徴点データとに基づいて、部分画像S1と部分画像S3とに共通する2つの特徴点を検索し、共通する2つの特徴点が検索されると、この2つの特徴点を共通特徴点データに記録し、共通特徴点画像データに部分読取画像データA1、A3の組を記録する。また、次のステップ119においても、ステップ117と同様に、細線二値画像データF2の特徴点データと細線二値画像データF3の特徴点データとに基づいて、部分画像S2と部分画像S3とに共通する2つの特徴点を検索し、共通する2つの特徴点が検索されると、この2つの特徴点を共通特徴点データに記録し、共通特徴点画像データに部分読取画像データA2、A3の組を記録する。 In step 118, as in step 117, based on the feature point data of the thin line binary image data F 1 and the feature point data of the thin line binary image data F 3 , the partial image S 1 and the partial image S 3 Two common feature points are searched, and when two common feature points are searched, the two feature points are recorded in the common feature point data, and the partial read image data A 1 , to record the set of a 3. Also in the next step 119, as in step 117, based on the feature point data of the thin line binary image data F 2 feature data and thin line binary image data F 3, the partial image S 2 and the partial image Find the two feature points common to the S 3, the common two feature points is searched, and recording the two feature points to the common feature point data, partial read image data to the common feature point image data Record the set of A 2 and A 3 .

そして、ステップ120では、共通特徴点画像データに記録された部分読取画像データの組が表す部分画像の組を、共通特徴点データに記録された2つの特徴点が重なり合うように接合処理し、原画像を表す原画像データを生成し、ステップ122で、原画像データをクライアントPC14へ出力し、読取画像接合処理ルーチンを終了する。   In step 120, the set of partial images represented by the set of partially read image data recorded in the common feature point image data is joined so that the two feature points recorded in the common feature point data overlap, Original image data representing an image is generated. In step 122, the original image data is output to the client PC 14, and the read image joining processing routine is terminated.

以上説明したように、第1の実施の形態に係るスキャナ装置によれば、部分画像各々の原画像に対する傾き角度及び正立方向を検出することにより、部分画像各々の原画像に対する傾き角度及び正立方向の違いを想定して、接合する部分画像の組に共通する2つの特徴点を検索する範囲を拡大する必要がなく、また、特徴点として抽出する図形パターンの種類を増やす必要がないため、共通する2つの特徴点を検索する処理の高速化を図ることができる。また、部分画像各々の原画像に対する傾き角度及び正立方向の違いにより、誤った特徴点を共通する2つの特徴点として検索することを防止できるため、接合処理の精度を向上させることができる。   As described above, according to the scanner device according to the first embodiment, by detecting the inclination angle and the upright direction of each partial image with respect to the original image, the inclination angle and the positive direction of each partial image with respect to the original image are detected. Assuming a difference in vertical direction, there is no need to expand the range of searching for two feature points common to the set of partial images to be joined, and it is not necessary to increase the types of graphic patterns to be extracted as feature points Thus, it is possible to speed up the process of searching for two common feature points. In addition, it is possible to prevent an erroneous feature point from being searched as two common feature points due to a difference in inclination angle and erecting direction with respect to the original image of each partial image, so that the accuracy of the joining process can be improved.

なお、上記の第1の実施の形態では、二値画像から輪郭抽出処理を実施した画像に対して傾き検出処理を行っている場合を例に説明したが、入力画像のような濃度を持つ画像に対して微分フィルタ処理を行ってエッジ抽出処理を行い、エッジ抽出画像から傾きを検出してもよい。   In the above-described first embodiment, the case where the inclination detection process is performed on the image that has been subjected to the contour extraction process from the binary image has been described as an example. May be subjected to differential filter processing to perform edge extraction processing, and the inclination may be detected from the edge extracted image.

また、縮小画像に対して、傾き検出処理や正立方向検出を行っている場合を例に説明したが、縮小処理を行わない同サイズの画像に対して、傾き検出処理や正立方向検出を行ってもよい。   In addition, the case where tilt detection processing and erecting direction detection are performed on a reduced image has been described as an example, but tilt detection processing and erecting direction detection are performed on an image of the same size that is not subjected to reduction processing. You may go.

次に、本発明の第2の実施の形態について説明する。なお、第1の実施の形態と同一部分について同一符号を付してその詳細な説明を省略する。   Next, a second embodiment of the present invention will be described. The same parts as those in the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.

第2の実施の形態では、第1の実施の形態で説明した傾き検出処理によって検出された傾き角度及び正立方向検出処理によって検出された正立方向に基づいて、部分読取画像データを補正し、補正された部分読取画像データに基づいて、特徴点を抽出し、共通する特徴点を検索する点が第1の実施の形態と異なる。なお、第2の実施の形態の構成は、第1の実施の形態の構成と同一であるので、構成に関する説明を省略する。   In the second embodiment, the partially read image data is corrected based on the tilt angle detected by the tilt detection process described in the first embodiment and the erect direction detected by the erect direction detection process. The difference from the first embodiment is that feature points are extracted based on the corrected partial read image data and common feature points are searched. Note that the configuration of the second embodiment is the same as the configuration of the first embodiment, and a description regarding the configuration is omitted.

次に、第2の実施の形態の読取画像接合処理ルーチンについて図6を用いて説明する。なお、第1の実施の形態の処理と同一処理については、同一符号を付して詳細な説明を省略する。   Next, a read image joining process routine according to the second embodiment will be described with reference to FIG. Note that the same processes as those of the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.

スキャナ装置12では、まず、ステップ100、101で、スキャナ装置12で原稿が表す原画像の一部分のスキャン処理が実行され、カラー画像データである部分読取画像データA1が生成され、ステップ102、103で、ステップ101でスキャン処理された原画像の一部分である部分画像S1と一部が重複するように原稿がスキャナ装置12の画像読取部26にセットされ、部分画像S2を表す部分読取画像データA2が生成される。また、同様にステップ104、105においてスキャン処理が実行され、部分画像S3を表す部分読取画像データA3が生成される。次のステップ108では、縮小二値画像データC1、C2、C3を生成し、ステップ110において、画像読取部26にセットされた原稿が表す原画像の傾き角度を部分画像S1、S2、S3について検出する。 In the scanner device 12, first, in steps 100 and 101, a scan process of a part of the original image represented by the document is executed in the scanner device 12 to generate partial read image data A 1 which is color image data. Thus, the original is set in the image reading unit 26 of the scanner device 12 so as to partially overlap the partial image S 1 which is a part of the original image scanned in step 101, and the partial read image representing the partial image S 2 data A 2 is generated. Similarly, the scanning process is performed in steps 104 and 105, partial read image data A 3 represents a partial image S 3 is generated. In the next step 108, reduced binary image data C 1 , C 2 , C 3 are generated, and in step 110, the inclination angle of the original image represented by the original set on the image reading unit 26 is determined as the partial images S 1 , S 3. 2, to detect the S 3.

そして、ステップ200では、部分画像S1、S2、S3の傾き角度が一致するように部分読取画像データA1、A2、A3を回転補正処理する。例えば、部分読取画像データA1、A2、A3に対して、ステップ146で検出された各々の傾き角度だけ部分画像S1、S2、S3各々を逆回転させるように回転補正処理を行い、部分画像S1、S2、S3の傾き角度を0にする。なお、部分読取画像データA2、A3の各々に対して、ステップ146で検出された部分画像S1の傾き角度との差だけ回転補正処理を行い、部分画像S1、S2、S3の傾き角度を一致させるようにしてもよい。また、回転補正処理の方法としては、例えばAffine変換などの周知の方法を用いればよいため、回転補正処理の詳細な説明は省略する。 In step 200, the partial read image data A 1 , A 2 , A 3 are subjected to rotation correction processing so that the inclination angles of the partial images S 1 , S 2 , S 3 match. For example, rotation correction processing is performed on the partial read image data A 1 , A 2 , A 3 so that the partial images S 1 , S 2 , S 3 are rotated in reverse by the respective inclination angles detected in step 146. Then, the inclination angles of the partial images S 1 , S 2 , S 3 are set to zero. It should be noted that rotation correction processing is performed on each of the partial read image data A 2 and A 3 by a difference from the inclination angle of the partial image S 1 detected in step 146, and the partial images S 1 , S 2 , S 3 are processed. The inclination angles may be matched. Further, as a method of the rotation correction process, for example, a known method such as Affine conversion may be used, and thus detailed description of the rotation correction process is omitted.

次のステップ112では、部分画像S1、S2、S3の正立方向を検出し、ステップ202で、ステップ200で回転補正された部分画像S1、S2、S3の正立方向が一致するように、部分読取画像データA1、A2、A3に対し回転補正処理を実行する。このときに、部分画像S1、S2、S3の各々の正立方向が原画像の正立方向となるように、部分読取画像データA1、A2、A3をそれぞれ回転補正処理してもよく、また、部分画像S2、S3を部分画像S1の正立方向に一致させるように、部分画像S2、S3だけを回転補正処理してもよい。 In the next step 112, the erect directions of the partial images S 1 , S 2 , S 3 are detected, and in step 202, the erect directions of the partial images S 1 , S 2 , S 3 that have been rotationally corrected in step 200 are determined. Rotation correction processing is executed on the partial read image data A 1 , A 2 , A 3 so as to match. At this time, the partial read image data A 1 , A 2 , and A 3 are subjected to rotation correction processing so that the upright directions of the partial images S 1 , S 2 , and S 3 are the upright directions of the original image. at best, also, to match the partial image S 2, S 3 in the erecting direction of the partial image S 1, may be rotated correction process only partial images S 2, S 3.

そして、ステップ204において、ステップ200、202で補正処理された部分読取画像データA1、A2、A3を濃度に応じて二値化処理して二値画像データE1、E2、E3を生成し、二値画像データE1、E2、E3が表す線の太さを等しくするために細線化処理を行い、細線二値画像データF1、F2、F3を生成する。ステップ206では、予め定められた小矩形領域が細線二値画像データF1、F2、F3上を走査し、小矩形領域で複数の図形パターンの各々に対応するフィルタをかけることにより、部分画像S1、S2、S3の各々から特徴点を抽出し、特徴点の画素位置情報と図形パターン情報とを記録した特徴点データを細線二値画像データF1、F2、F3の各々について生成する。 In step 204, the partial read image data A 1 , A 2 , A 3 corrected in steps 200, 202 are binarized according to the density to obtain binary image data E 1 , E 2 , E 3. , And thinning processing is performed to equalize the thicknesses of the lines represented by the binary image data E 1 , E 2 , and E 3 , thereby generating thin line binary image data F 1 , F 2 , and F 3 . In step 206, a predetermined small rectangular area is scanned on the thin line binary image data F 1 , F 2 , F 3 and a filter corresponding to each of a plurality of graphic patterns is applied in the small rectangular area, thereby Feature points are extracted from each of the images S 1 , S 2 , S 3 , and the feature point data in which the pixel position information and graphic pattern information of the feature points are recorded as the fine line binary image data F 1 , F 2 , F 3 . Generate for each.

なお、上記のステップ200の回転補正処理において、部分画像S1、S2、S3の傾き角度が一致するように部分読取画像データA2、A3のみが回転補正処理された場合には、予め定められた複数の図形パターンを部分画像S1の傾き角度に一致するように回転させ、回転させられた図形パターンに対応するように、特徴点を抽出する際に使用するフィルタも変更する。 In the rotation correction process in step 200 described above, when only the partial read image data A 2 and A 3 are subjected to the rotation correction process so that the inclination angles of the partial images S 1 , S 2 , and S 3 coincide with each other, rotating the plurality of figure pattern predetermined to correspond to the inclination angle of the partial image S 1, so as to correspond to the figure pattern is rotated, it is also changed filter used to extract feature points.

そして、ステップ208において、細線二値画像データF1の特徴点データと細線二値画像データF2の特徴点データとに基づいて、部分画像S1と部分画像S2とに共通する2つの特徴点を検索し、共通する2つの特徴点が検索されると、この2つの特徴点を共通特徴点データに記録し、共通特徴点画像データに部分読取画像データA1、A2の組を記録する。なお、部分画像S1、S2の傾き角度及び正立方向が一致するように補正されているので、部分画像S1における1つ目の特徴点から2つ目の特徴点へのベクトルの方向と、部分画像S2における第1の共通特徴点から第2の共通特徴点へのベクトルの方向とは、同一である。 Then, in step 208, based on the feature point data of the thin line binary image data F 1 and the feature point data of the thin line binary image data F 2 , two features common to the partial image S 1 and the partial image S 2 are used. When a point is searched and two common feature points are searched, these two feature points are recorded in the common feature point data, and a set of partial read image data A 1 and A 2 is recorded in the common feature point image data. To do. Since the inclination angles and the erecting directions of the partial images S 1 and S 2 are corrected to coincide with each other, the vector direction from the first feature point to the second feature point in the partial image S 1 is corrected. And the direction of the vector from the first common feature point to the second common feature point in the partial image S 2 is the same.

そして、ステップ210において、細線二値画像データF1の特徴点データと細線二値画像データF3の特徴点データとに基づいて、部分画像S1と部分画像S3とに共通する2つの特徴点を検索し、共通する2つの特徴点が検索されると、この2つの特徴点を共通特徴点データに記録し、共通特徴点画像データに部分読取画像データA1、A3の組を記録する。また、同様にステップ212において、細線二値画像データF2の特徴点データと細線二値画像データF3の特徴点データとに基づいて、部分画像S2と部分画像S3とに共通する2つの特徴点を検索し、共通する2つの特徴点が検索されると、この2つの特徴点を共通特徴点データに記録し、共通特徴点画像データに部分読取画像データA2、A3の組を記録する。 Then, in step 210, based on the feature point data of the thin line binary image data F 1 feature data and thin line binary image data F 3, 2 a feature that is common to the partial image S 1 and the partial image S 3 When a point is searched and two common feature points are searched, the two feature points are recorded in the common feature point data, and a set of partial read image data A 1 and A 3 is recorded in the common feature point image data. To do. Further, in the same manner as step 212, based on the feature point data of the thin line binary image data F 2 feature data and thin line binary image data F 3, common to the partial image S 2 and the partial image S 3 2 When two feature points are searched for, the two feature points are recorded in the common feature point data, and a set of partial read image data A 2 and A 3 is added to the common feature point image data. Record.

そして、ステップ120では、共通特徴点画像データに記録された部分読取画像データの組が表す部分画像の組を、共通特徴点データに記録された2つの特徴点が重なり合うように接合し、原画像を表す原画像データを生成し、ステップ122で、原稿画像データをクライアントPC14へ出力し、読取画像接合処理ルーチンを終了する。   In step 120, the set of partial images represented by the set of partial read image data recorded in the common feature point image data is joined so that the two feature points recorded in the common feature point data overlap, and the original image Is generated, and in step 122, the original image data is output to the client PC 14, and the read image joining processing routine is terminated.

以上説明したように、第2の実施の形態に係るスキャナ装置によれば、複数の部分画像各々の原画像に対する傾き角度及び正立方向が一致するように複数の部分読取画像データを回転補正処理することにより、接合する部分画像の組に共通する複数の特徴点を検索する範囲を、傾き角度及び正立方向の違いを想定して拡大する必要がなく、また、傾き角度及び正立方向の違いを想定して特徴点の図形パターンの種類を増やす必要がないため、共通する複数の特徴点を検索する処理の高速化を図ることができる。   As described above, according to the scanner device according to the second embodiment, the rotation correction processing is performed on the plurality of partial read image data so that the inclination angle and the erecting direction with respect to the original image of each of the plurality of partial images coincide. By doing so, it is not necessary to expand the range for searching for a plurality of feature points common to the set of partial images to be joined, assuming the difference between the inclination angle and the erecting direction, and Since it is not necessary to increase the types of feature point graphic patterns in consideration of differences, it is possible to speed up the process of searching for a plurality of common feature points.

次に、本発明の第3の実施の形態について説明する。なお、第1の実施の形態と同一部分について同一符号を付してその詳細な説明を省略する。   Next, a third embodiment of the present invention will be described. The same parts as those in the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.

第3の実施の形態では、第1の実施の形態で説明した傾き算出処理及び正立方向算出処理に加え、原画像に対する部分画像S1、S2、S3の配置位置を算出する処理を実行する点が第1の実施の形態と異なる。なお、第3の実施の形態の構成は、第1の実施の形態の構成と同一であるので、構成に関する説明を省略する。 In the third embodiment, in addition to the inclination calculation process and the erecting direction calculation process described in the first embodiment, a process for calculating the arrangement positions of the partial images S 1 , S 2 , S 3 with respect to the original image is performed. The point to be executed is different from the first embodiment. Note that the configuration of the third embodiment is the same as the configuration of the first embodiment, and a description regarding the configuration is omitted.

次に、第3の実施の形態の読取画像接合処理ルーチンについて図7を用いて説明する。なお、第1の実施の形態の処理と同一処理については、同一符号を付して詳細な説明を省略する。   Next, a read image joining process routine according to the third embodiment will be described with reference to FIG. Note that the same processes as those of the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.

スキャナ装置12では、まず、ステップ100、101で、スキャナ装置12で原稿が表す原画像の一部分のスキャン処理が実行され、部分読取画像データA1が生成され、ステップ102、103で、部分画像S2を表す部分読取画像データA2が生成される。また、同様にステップ104、105においてスキャン処理が実行され、部分画像S3を表す部分読取画像データA3が生成される。次のステップ108では、縮小二値画像データC1、C2、C3を生成し、ステップ110において、画像読取部26にセットされた原稿が表す原画像の傾き角度を部分画像S1、S2、S3について検出し、ステップ112では、部分画像S1、S2、S3の正立方向を検出する。 In the scanner device 12, first, in steps 100 and 101, a scanning process of a part of the original image represented by the document is executed in the scanner device 12 to generate partial read image data A 1. In steps 102 and 103, the partial image S is processed. partial read image data a 2 represents a 2 is generated. Similarly, the scanning process is performed in steps 104 and 105, partial read image data A 3 represents a partial image S 3 is generated. In the next step 108, reduced binary image data C 1 , C 2 , C 3 are generated, and in step 110, the inclination angle of the original image represented by the original set on the image reading unit 26 is determined as the partial images S 1 , S 3. 2, detects the S 3, in step 112, detects the erecting direction of the partial image S 1, S 2, S 3 .

次のステップ250では、図8に示す配置位置検出処理ルーチンを実行する。まず、ステップ270において、縮小二値画像データC1に基づいて、部分画像S1の上部、下部、右部、及び左部の各々の領域から予め定められた複数の図形パターンの特徴点を抽出し、特徴点の図形パターン情報と画素位置情報とからなる特徴点データを上部、下部、右部、及び左部の各々について作成する。そして、同様に部分画像S2、S3についても上部、下部、右部、及び左部の各々の特徴点データを生成する。このとき、ステップ110で算出した部分画像S1、S2、S3の傾き角度に基づいて、図形パターンを抽出するためのフィルタを修正し、部分画像S1、S2、S3から特徴点を抽出する。 In the next step 250, the arrangement position detection processing routine shown in FIG. 8 is executed. First, in step 270, feature points of a plurality of predetermined graphic patterns are extracted from the upper, lower, right and left regions of the partial image S 1 based on the reduced binary image data C 1. Then, feature point data composed of graphic pattern information of feature points and pixel position information is created for each of the upper part, the lower part, the right part, and the left part. Similarly, for the partial images S 2 and S 3 , feature point data for the upper, lower, right, and left portions are generated. At this time, the filter for extracting the graphic pattern is corrected based on the inclination angles of the partial images S 1 , S 2 , S 3 calculated in step 110, and the feature points are extracted from the partial images S 1 , S 2 , S 3. To extract.

そして、ステップ272では、部分画像S1の特徴点データと部分画像S2の特徴点データとに基づいて、部分画像S1と部分画像S2との配置位置検出処理を実行する。例えば、ステップ112で算出された部分画像S1、S2各々の正立方向に基づいて、部分画像S1の正立方向から見た上部の特徴点データと部分画像S2の正立方向から見た下部の特徴点データとに基づいて、共通する2つの特徴点があるかを検索する。また、同様に、部分画像S1の正立方向から見た下部の特徴点データと部分画像S2の正立方向から見た上部の特徴点データ、部分画像S1の正立方向から見た右部の特徴点データと部分画像S2の正立方向から見た左部の特徴点データ、及び部分画像S1の正立方向から見た左部の特徴点データと部分画像S2の正立方向から見た右部の特徴点データに基づいて、部分画像S1と部分画像S2とに共通する2つの特徴点を検索し、共通する2つの特徴点が検索されると、この2つの特徴点を有する部分読取画像データの組が表す部分画像の配置位置情報と、この2つの特徴点の画素位置情報と図形パターン情報とからなる概略共通点情報とを作成する。 In step 272, based on the feature point data of the partial image S 1 feature data and the partial image S 2, executes the position detecting process of the partial image S 1 and the partial image S 2. For example, based on the erect direction of each of the partial images S 1 and S 2 calculated in step 112, the upper feature point data viewed from the erect direction of the partial image S 1 and the erect direction of the partial image S 2 Based on the seen feature point data at the bottom, it is searched whether there are two common feature points. Similarly, saw partial image S 1 of the erecting direction from the lower top of that seen from the erecting direction of the feature point data and the partial image S 2 of viewed feature point data, the erecting direction of the partial image S 1 feature point data of the left portion as viewed from the erecting direction of the feature point data and the partial image S 2 of the right portion, and a part left of the feature point data as seen from the upright direction of the image S 1 and the partial positive image S 2 Two feature points common to the partial image S 1 and the partial image S 2 are searched based on the feature point data on the right side as viewed from the vertical direction. The arrangement position information of the partial image represented by the set of partial read image data having one feature point and the approximate common point information including the pixel position information and the graphic pattern information of the two feature points are created.

次のステップ274では、ステップ272と同様に、部分画像S1の特徴点データと部分画像S3の特徴点データとに基づいて、部分画像S1と部分画像S3との配置位置検出処理を実行し、部分画像S1と部分画像S3とに共通する2つの特徴点が検索されると、配置位置情報と概略共通点情報とが生成され、ステップ276において、部分画像S2の特徴点データと部分画像S3の特徴点データとに基づいて、部分画像S2と部分画像S3との配置位置検出処理を実行し、部分画像S2と部分画像S3とに共通する2つの特徴点が検索されると、配置位置情報と概略共通点情報とが生成され、配置位置検出処理ルーチンを終了する。 In the next step 274, similarly to step 272, the arrangement position detection processing of the partial image S 1 and the partial image S 3 is performed based on the feature point data of the partial image S 1 and the feature point data of the partial image S 3. When two feature points common to the partial image S 1 and the partial image S 3 are searched, arrangement position information and approximate common point information are generated. In step 276, the characteristic points of the partial image S 2 are generated. based on the data and the partial feature point data of the image S 3, perform the position detecting process of the partial image S 2 and the partial image S 3, 2 a feature that is common to the partial image S 2 and the partial image S 3 When a point is searched, arrangement position information and general common point information are generated, and the arrangement position detection processing routine is terminated.

そして、図7の読取画像接合処理ルーチンのステップ114において、部分読取画像データA1、A2、A3に対して二値化処理及び細線化処理を実行して細線二値画像データF1、F2、F3を生成し、ステップ251において、概略共通点情報と細線二値画像データF1、F2、F3とに基づいて、部分画像S1、S2、S3から特徴点を抽出し、部分画像S1、S2、S3の各々について特徴点データを生成する。このとき、上記のステップ250で生成された概略共通点情報の画素位置情報が表す細線二値画像データにおける画素位置周辺から、概略共通点情報の図形パターン情報と同じ図形パターン情報を持つ特徴点のみを抽出する。 Then, in step 114 of the read image joining process routine of FIG. 7, the binarization process and the thinning process are executed on the partial read image data A 1 , A 2 , A 3 to obtain the thin line binary image data F 1 , F 2 and F 3 are generated. In step 251, feature points are obtained from the partial images S 1 , S 2 and S 3 based on the approximate common point information and the thin line binary image data F 1 , F 2 and F 3. Extraction is performed to generate feature point data for each of the partial images S 1 , S 2 , S 3 . At this time, only feature points having the same graphic pattern information as the graphic pattern information of the approximate common point information from the periphery of the pixel position in the thin line binary image data represented by the pixel position information of the approximate common point information generated in step 250 above. To extract.

次のステップ252では、共通する2つの特徴点を有する部分画像の組を表す細線二値画像データの組を示す番号nに初期値として1を設定し、次のステップ254では、n番目の細線二値画像データの組が表す部分画像の組に共通する2つの特徴点を検索し、検索された2つの特徴点を共通特徴点データに記録し、共通する2つの特徴点を有する部分読取画像データの組を共通特徴点画像データに記録する。   In the next step 252, 1 is set as an initial value to a number n indicating a set of thin-line binary image data representing a set of partial images having two common feature points. In the next step 254, the n-th thin line is set. Two feature points common to the set of partial images represented by the set of binary image data are searched, the two searched feature points are recorded in the common feature point data, and the partially read image having the two common feature points The data set is recorded in the common feature point image data.

次のステップ256では、n+1番目の細線二値画像データの組があるか否かを判定し、判定が肯定されると、ステップ258でnの値をインクリメントしてステップ254へ戻るが、全ての細線二値画像データの組について、ステップ254の共通する特徴点を検索する処理を実行すると、ステップ256の判定が否定され、ステップ120において、共通特徴点画像データに記録された部分読取画像データの組が表す部分画像の組を、共通特徴点データに記録された2つの特徴点が重なり合うように接合し、原画像を表す原画像データを生成し、ステップ122で、原画像データをクライアントPC14へ出力し、読取画像接合処理ルーチンを終了する。   In the next step 256, it is determined whether or not there is an n + 1th thin line binary image data set. If the determination is affirmative, the value of n is incremented in step 258 and the process returns to step 254. When the process of searching for the common feature point in step 254 is executed for the set of thin line binary image data, the determination in step 256 is denied, and in step 120, the partially read image data recorded in the common feature point image data is determined. The set of partial images represented by the set is joined so that the two feature points recorded in the common feature point data are overlapped to generate original image data representing the original image. In step 122, the original image data is sent to the client PC. Output, and the read image joining processing routine ends.

以上説明したように、第3の実施の形態に係るスキャナ装置によれば、原画像に対する部分画像各々の配置位置を検出することにより、接合する部分画像の組に共通する複数の特徴点を検索する範囲を限定することができるため、共通する複数の特徴点を検索する処理の高速化を図ることができる。   As described above, according to the scanner device according to the third embodiment, a plurality of feature points common to a set of partial images to be joined are searched by detecting the arrangement positions of the partial images with respect to the original image. Since the range to be performed can be limited, it is possible to speed up the process of searching for a plurality of common feature points.

なお、上記の実施の形態では、細線二値画像データの各々から特徴点を抽出し、抽出された特徴点の中から共通する2つの特徴点を検索する場合を例に説明したが、共通する特徴点を検索する対象となっている2つの細線二値画像データを、参照側の細線二値画像データと探索側の細線二値画像データとし、参照側の細線二値画像データから複数の特徴点を抽出し、抽出した特徴点と同じ特徴点が探索側の細線二値画像データから抽出できるか否かを判定するようにして、共通する2つの特徴点を検索するようにしてもよい。   In the above embodiment, the feature points are extracted from each of the thin line binary image data, and two common feature points are searched from the extracted feature points. Two thin line binary image data to be searched for feature points are set as a reference side thin line binary image data and a search side thin line binary image data, and a plurality of features are obtained from the reference side thin line binary image data. Two common feature points may be searched by extracting a point and determining whether the same feature point as the extracted feature point can be extracted from the thin-line binary image data on the search side.

本発明の第1の実施の形態に係る画像処理システムの構成を示す概略図である。1 is a schematic diagram showing a configuration of an image processing system according to a first embodiment of the present invention. 本発明の第1の実施の形態に係る読取画像接合処理ルーチンを示すフローチャートである。It is a flowchart which shows the read image joining process routine which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る傾き検出処理ルーチンを示すフローチャートである。It is a flowchart which shows the inclination detection process routine which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る傾き検出処理ルーチンにおけるハフ変換処理の内容を説明するイメージ図である。It is an image figure explaining the content of the Hough conversion process in the inclination detection process routine which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る正立方向検出処理ルーチンを示すフローチャートである。It is a flowchart which shows the erecting direction detection process routine which concerns on the 1st Embodiment of this invention. 本発明の第2の実施の形態に係る読取画像接合処理ルーチンを示すフローチャートである。It is a flowchart which shows the read image joining process routine which concerns on the 2nd Embodiment of this invention. 本発明の第3の実施の形態に係る読取画像接合処理ルーチンを示すフローチャートである。It is a flowchart which shows the read image joining process routine which concerns on the 3rd Embodiment of this invention. 本発明の第3の実施の形態に係る配置位置検出処理ルーチンを示すフローチャートである。It is a flowchart which shows the arrangement position detection processing routine based on the 3rd Embodiment of this invention.

符号の説明Explanation of symbols

10 画像処理システム
12 スキャナ装置
14 クライアントPC
20 ROM
22 CPU
24 RAM
26 画像読取部
28 HDD
1、A2、A3 部分読取画像データ
1、S2、S3 部分画像
DESCRIPTION OF SYMBOLS 10 Image processing system 12 Scanner apparatus 14 Client PC
20 ROM
22 CPU
24 RAM
26 Image reading unit 28 HDD
A 1 , A 2 , A 3 partial read image data S 1 , S 2 , S 3 partial image

Claims (6)

原画像を複数回に分けて一部分が重複するように読み取ることにより得られた複数の部分読取画像データの各々で表される部分画像各々の前記原画像に対する状態を示す情報を検出する検出手段と、
前記検出された情報及び前記部分画像各々における複数の特徴点に基づいて、前記複数の部分画像から共通する複数の特徴点を有する部分画像の組を検索する検索手段と、
前記検索された部分画像の組を前記共通する複数の特徴点が重畳するように接合して、前記原画像を表す原画像データを生成する接合生成手段と、
を含む画像処理装置。
Detecting means for detecting information indicating a state of each of the partial images represented by each of the plurality of partial read image data obtained by dividing the original image into a plurality of times so as to partially overlap the original image; ,
Search means for searching a set of partial images having a plurality of common feature points from the plurality of partial images based on the detected information and a plurality of feature points in each of the partial images;
A joining generation unit that joins the searched partial image sets so that the plurality of common feature points overlap, and generates original image data representing the original image;
An image processing apparatus.
前記検出手段は、前記原画像に対する状態を示す情報として、前記原画像の所定方向を基準とした前記部分画像各々の傾き角度、前記原画像に対する前記部分画像各々の正立方向、及び前記原画像に対する前記部分画像各々の位置の少なくとも1つを検出する請求項1に記載の画像処理装置。   The detection means includes, as information indicating a state with respect to the original image, an inclination angle of each of the partial images with reference to a predetermined direction of the original image, an upright direction of each of the partial images with respect to the original image, and the original image The image processing apparatus according to claim 1, wherein at least one position of each of the partial images with respect to the image is detected. 前記検索手段は、前記検出された情報に対応するフィルタを用いて前記複数の部分読取画像データを処理することにより、前記部分画像各々における複数の特徴点を抽出し、前記検出された情報及び前記抽出された前記部分画像各々における複数の特徴点に基づいて、前記複数の部分画像から共通する複数の特徴点を有する部分画像の組を検索する請求項1又は2に記載の画像処理装置。   The search means extracts a plurality of feature points in each of the partial images by processing the plurality of partial read image data using a filter corresponding to the detected information, and the detected information and the The image processing apparatus according to claim 1, wherein a set of partial images having a plurality of common feature points is searched from the plurality of partial images based on a plurality of feature points in each of the extracted partial images. 前記検索手段は、前記検出された情報に基づいて前記複数の部分画像各々の前記原画像に対する状態が一致するように前記複数の部分読取画像データを補正した後、補正された前記複数の部分読取画像データに基づいて、前記部分画像各々における複数の特徴点を抽出し、前記抽出された前記部分画像の各々における複数の特徴点に基づいて、前記複数の部分画像から共通する複数の特徴点を有する部分画像の組を検索する請求項1又は2に記載の画像処理装置。   The search means corrects the plurality of partial read image data based on the detected information so that a state of each of the plurality of partial images with respect to the original image matches, and then corrects the plurality of partial scans corrected. Based on the image data, a plurality of feature points in each of the partial images is extracted, and based on the plurality of feature points in each of the extracted partial images, a plurality of common feature points from the plurality of partial images are extracted. The image processing apparatus according to claim 1, wherein a set of partial images is searched. 前記検出手段は、前記原画像に対する状態を示す情報として、前記原画像の所定方向を基準とした前記部分画像各々の傾き角度、及び前記原画像に対する前記部分画像各々の正立方向の少なくとも1つを検出し、
前記検索手段は、前記検出された前記原画像の所定方向を基準とした前記部分画像各々の傾き角度、及び前記原画像に対する前記部分画像各々の正立方向の少なくとも1つが一致するように前記複数の部分読取画像データを回転補正した後、前記回転補正された前記複数の部分読取画像データに基づいて、前記部分画像各々における複数の特徴点を抽出し、前記抽出された前記部分画像各々における複数の特徴点に基づいて、前記複数の部分画像から共通する複数の特徴点を有する部分画像の組を検索する請求項1に記載の画像処理装置。
The detection means has at least one of an inclination angle of each of the partial images with reference to a predetermined direction of the original image, and an erecting direction of each of the partial images with respect to the original image as information indicating a state with respect to the original image. Detect
The search means includes the plurality of the plural images so that an inclination angle of each of the partial images with reference to a predetermined direction of the detected original image matches at least one of an erect direction of each of the partial images with respect to the original image. A plurality of feature points in each of the partial images is extracted based on the rotation-corrected partial read image data, and a plurality of feature points in each of the extracted partial images are extracted. The image processing apparatus according to claim 1, wherein a set of partial images having a plurality of common feature points is searched from the plurality of partial images based on the feature points.
原画像を複数回に分けて一部分が重複するように読み取ることにより得られた複数の部分読取画像データの各々で表される部分画像各々の前記原画像に対する状態を示す情報を検出し、
前記検出された情報及び前記部分画像各々における複数の特徴点に基づいて、前記複数の部分画像から共通する複数の特徴点を有する部分画像の組を検索し、
前記検索された部分画像の組を前記共通する複数の特徴点が重畳するように接合して、前記原画像を表す原画像データを生成することを特徴とする画像処理方法。
Detecting information indicating a state of each of the partial images represented by each of the plurality of partial read image data obtained by dividing the original image into a plurality of times so as to partially overlap,
Based on the detected information and a plurality of feature points in each of the partial images, a set of partial images having a plurality of common feature points is searched from the plurality of partial images,
An image processing method comprising: combining the searched partial images so that the plurality of common feature points overlap each other to generate original image data representing the original image.
JP2005084820A 2005-03-23 2005-03-23 Image processor and image processing method Pending JP2006268371A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005084820A JP2006268371A (en) 2005-03-23 2005-03-23 Image processor and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005084820A JP2006268371A (en) 2005-03-23 2005-03-23 Image processor and image processing method

Publications (1)

Publication Number Publication Date
JP2006268371A true JP2006268371A (en) 2006-10-05

Family

ID=37204295

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005084820A Pending JP2006268371A (en) 2005-03-23 2005-03-23 Image processor and image processing method

Country Status (1)

Country Link
JP (1) JP2006268371A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013052315A (en) * 2011-08-31 2013-03-21 Taisei Corp Large lump to be conveyed detecting system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013052315A (en) * 2011-08-31 2013-03-21 Taisei Corp Large lump to be conveyed detecting system

Similar Documents

Publication Publication Date Title
US6885776B2 (en) Image merging apparatus
JP4525787B2 (en) Image extraction apparatus and image extraction program
KR101399709B1 (en) Model-based dewarping method and apparatus
US8139897B2 (en) Detecting tilt in an image having different resolutions in different directions
JP4095947B2 (en) Method for determining skew angle and position of a document in an overscanned image
US6771842B1 (en) Document image skew detection method
JP4565396B2 (en) Image processing apparatus and image processing program
JP3006466B2 (en) Character input device
CN112800824A (en) Processing method, device and equipment for scanning file and storage medium
JP2008259172A (en) Image processing device, image processing method, and program
JP2006268371A (en) Image processor and image processing method
JP3698867B2 (en) Circular pattern determination method, apparatus and recording medium
JP4696239B2 (en) Method and apparatus for correcting inclination of character string
JP3058791B2 (en) Method of extracting figure of image recognition device
JPH05174182A (en) Method and device for document tilt angle detection
JPH11288453A (en) Method and system for detecting skew angle and black boundary line of original image in scan environment for reproduction
JP2000187705A (en) Document reader, document reading method and storage medium
JPH0876913A (en) Image processor
JP2007328652A (en) Image processing device and image processing program
JP5477542B2 (en) Image processing apparatus, processing method, and processing program
JP4785158B2 (en) Image data tilt correction method and image input apparatus
JP2007011528A (en) Method for searching position of recognition target item in ocr processing
JP2008258980A (en) Image information processor, and image inclination angle calculation method
JP2000123177A (en) Image processor and recording medium recording program for executing processing thereof
JP5453193B2 (en) Tilt detection device, imaging device and method