JP2012019474A - Image reading device and image correction program - Google Patents

Image reading device and image correction program Download PDF

Info

Publication number
JP2012019474A
JP2012019474A JP2010157043A JP2010157043A JP2012019474A JP 2012019474 A JP2012019474 A JP 2012019474A JP 2010157043 A JP2010157043 A JP 2010157043A JP 2010157043 A JP2010157043 A JP 2010157043A JP 2012019474 A JP2012019474 A JP 2012019474A
Authority
JP
Japan
Prior art keywords
correction
unit
image
image data
distortion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010157043A
Other languages
Japanese (ja)
Inventor
Minoru Oda
稔 小田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Data Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Data Corp filed Critical Oki Data Corp
Priority to JP2010157043A priority Critical patent/JP2012019474A/en
Publication of JP2012019474A publication Critical patent/JP2012019474A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image reading device which can correct a distorted image with an appropriate correction amount, and to provide an image correction program.SOLUTION: The image reading device comprises: a correction preprocessing unit 61 which generates distortion correction image data by performing first correction on medium image data generated when the surface image of a medium having a predetermined shape is read in distorted shape, extracts the contour line from the distortion correction image data, and then corrects the contour line with a plurality of correction factors having different values; a display processing unit 62 which generates the images of correction factor outside contour line corrected with respective correction factors, and displays a list of the images on a display unit 7 so that the images can be selected for each correction factor; and an image correction unit 63 which performs second correction on the distortion correction image data so that the contour line extracted from the distortion correction image data matches the correction factor outside contour line which the user inputs selectively to an operation input unit 8.

Description

本発明は、画像読取装置に関し、特に、所定の形状の媒体を読み込んで画像データを生成し、読み込む際に形成される歪んだ形状の歪み画像に歪み補正をする画像読取装置および画像補正プログラムに関する。   The present invention relates to an image reading apparatus, and more particularly to an image reading apparatus and an image correction program that read a medium having a predetermined shape, generate image data, and perform distortion correction on a distorted image having a distorted shape. .

冊子状の原稿の見開いたページをスキャナ(例えば、フラットベッドスキャナ(flat bed scanner))で読み込んだ際に、読み取った画像におけるページ綴じ部分にて、文字や図の歪みが生じてしまうという問題があった。
そのため、読み取った画像から原稿の外形形状(輪郭線)などを抽出して、その歪みの度合いを求め、この度合いに基づいて画像を伸張することでページ綴じ部の歪みを補正する画像読取装置が開示されている。
例えば、原稿の外形形状(輪郭線)や原稿に記載された文字列、罫線などの基準線と、画像の中心線との距離の差に従い算出した歪み補正率(伸張率)を用いて歪みのある領域の画像を伸長して画像の歪みを補正する画像読取装置がある(特許文献1)。
以上のように、従来の画像読取装置は、所定の方法で歪みの度合い(歪み補正率)の値を一つ算出し、その歪み補正率に基づきページ綴じ部の歪みの補正を行う。
When reading a spread page of a booklet-like document with a scanner (for example, a flat bed scanner), there is a problem that characters and drawings are distorted in the page binding portion of the read image. there were.
Therefore, an image reading apparatus that extracts the outer shape (outline) of a document from the read image, obtains the degree of distortion, and expands the image based on this degree to correct the distortion of the page binding portion. It is disclosed.
For example, using the distortion correction rate (expansion rate) calculated according to the difference in the distance between the outline of the document (contour line), a reference line such as a character string or ruled line written on the document, and the center line of the image, There is an image reading device that expands an image in a certain region and corrects image distortion (Patent Document 1).
As described above, the conventional image reading apparatus calculates one value of the degree of distortion (distortion correction rate) by a predetermined method, and corrects the distortion of the page binding portion based on the distortion correction rate.

特開2008−252945号公報JP 2008-252945 A

しかしながら、従来の画像読取装置では、算出した一つの歪み補正率に基づき、ページ綴じ部の歪みの補正を行うため、利用するユーザそれぞれの希望が反映されない。
そのため、従来の画像読取装置が行う補正では、利用するユーザによって、補正量が不十分であったり、補正量が過剰であったりするという問題点がある。
However, since the conventional image reading apparatus corrects the distortion of the page binding portion based on the calculated one distortion correction rate, each user's request to be used is not reflected.
Therefore, in the correction performed by the conventional image reading apparatus, there is a problem that the correction amount is insufficient or the correction amount is excessive depending on the user to use.

本発明は、以上のような問題を解決するためになされたものであり、適切な補正率で歪み画像を補正することができる画像読取装置および画像補正プログラムを提供することを課題とする。   SUMMARY An advantage of some aspects of the invention is that it provides an image reading apparatus and an image correction program capable of correcting a distorted image at an appropriate correction rate.

前記課題を解決するために、本発明の画像読取装置は、ユーザからの選択入力を受け付ける入力部と、表示部とを備え、所定の形状の媒体の表面画像を読み込んで媒体画像データを生成し、前記読み込んだときに前記媒体表面が歪んだ形状で生成された前記媒体画像データに歪み補正をする画像読取装置において、補正前処理部と、表示処理部と、画像補正部とを備える構成とした。   In order to solve the above problems, an image reading apparatus according to the present invention includes an input unit that receives a selection input from a user and a display unit, and reads a surface image of a medium having a predetermined shape to generate medium image data. An image reading apparatus that corrects distortion of the medium image data generated in a shape in which the medium surface is distorted when read, and includes a pre-correction processing unit, a display processing unit, and an image correction unit. did.

本発明によれば、適切な補正率で歪み画像を補正することができる。すなわち、補正後の輪郭線を補正率ごとに画像データを生成し、それぞれを選択可能にして、表示部に一覧表示することにより、ユーザに補正率の選択権を与えることができる。
また、各補正率で行われた補正後の輪郭線を表示部に表示することにより、ユーザは、希望する補正後の輪郭線を容易に判断できる。
また、媒体画像データから抽出した媒体の輪郭線が、ユーザが選択した補正率の輪郭線と一致するように、媒体画像データを補正することにより、ユーザに選択された補正率に基づいて、媒体の歪んだ形状を補正することができる。
このように、ユーザは、適切な補正量を簡便な操作で選択することができる。
According to the present invention, a distorted image can be corrected with an appropriate correction rate. That is, by generating image data for the corrected contour line for each correction rate, making each selectable and displaying the list on the display unit, the right to select the correction rate can be given to the user.
In addition, by displaying the corrected contour line performed at each correction rate on the display unit, the user can easily determine the desired corrected contour line.
Further, by correcting the medium image data so that the contour line of the medium extracted from the medium image data matches the contour line of the correction factor selected by the user, the medium is determined based on the correction factor selected by the user. The distorted shape can be corrected.
In this way, the user can select an appropriate correction amount with a simple operation.

本発明に係る画像読取装置の外観図である。1 is an external view of an image reading apparatus according to the present invention. 本発明に係る画像読取装置の全体構成のブロック図である。1 is a block diagram of an overall configuration of an image reading apparatus according to the present invention. 第1の実施形態に係る画像読取装置が有する画像処理システムのブロック図である。1 is a block diagram of an image processing system included in an image reading apparatus according to a first embodiment. (a)読取画像データD1、(b)歪み補正画像データD2を示す図である。It is a figure which shows (a) read image data D1, (b) distortion correction image data D2. (a)読取外形データS1に含まれる直線、(b)歪み補正外形データS2に含まれる直線を示す図である。(A) It is a figure which shows the straight line contained in the read external shape data S1, and the straight line contained in (b) distortion correction external shape data S2. エッジ画素を近似する曲線を示す図である。It is a figure which shows the curve which approximates an edge pixel. 直線上における構成点P1と、構成点P2との対応付けを示す図である。It is a figure which shows matching with the structural point P1 and the structural point P2 on a straight line. 図7の続きで、曲線上における構成点P1と、構成点P2との対応付けを示す図である。FIG. 8 is a continuation of FIG. 7 and shows a correspondence between the configuration point P1 and the configuration point P2 on the curve. 図8の続きで、曲線上における構成点P1と、構成点P2との対応付けを示す図である。FIG. 9 is a continuation of FIG. 8 showing a correspondence between the configuration point P1 and the configuration point P2 on the curve. 表示パネルに補正率別に部分画像が表示された一例を示す図である。It is a figure which shows an example in which the partial image was displayed according to the correction factor on the display panel. 補正率外形データS3の輪郭線(外形形状)の一例を示す図である。It is a figure which shows an example of the outline (outer shape) of correction factor outer shape data S3. 仮想点U3の位置と推定点U2の位置との関係の一例を示す図である。It is a figure which shows an example of the relationship between the position of the virtual point U3, and the position of the estimation point U2. 第1の実施形態に係る画像読取装置の全体処理動作を示すフローチャートである。3 is a flowchart illustrating an overall processing operation of the image reading apparatus according to the first embodiment. 補正準備部の補正準備処理動作を示すフローチャートである。It is a flowchart which shows the correction preparation process operation | movement of a correction preparation part. 外形形状抽出部の外形形状抽出処理動作を示すフローチャートである。It is a flowchart which shows the external shape extraction process operation | movement of an external shape extraction part. 構成点配置部の構成点配置処理動作を示すフローチャートである。It is a flowchart which shows the component point arrangement | positioning process operation | movement of a component point arrangement | positioning part. 対応関係構築部の対応関係構築処理動作を示すフローチャートである。It is a flowchart which shows the correspondence construction processing operation | movement of a correspondence construction part. 二次補正部の二次補正処理動作を示すフローチャートである。It is a flowchart which shows the secondary correction process operation | movement of a secondary correction | amendment part. 補正画像生成部の補正画像生成処理動作を示すフローチャートである。It is a flowchart which shows the correction image generation process operation | movement of a correction image generation part. 第2の実施形態に係る画像読取装置が有する画像処理システムのブロック図である。It is a block diagram of the image processing system which the image reading apparatus which concerns on 2nd Embodiment has. 表示パネルに補正率別に部分画像が表示された一例を示す図である。It is a figure which shows an example in which the partial image was displayed according to the correction factor on the display panel. 二次補正部の二次補正処理動作を示すフローチャートである。It is a flowchart which shows the secondary correction process operation | movement of a secondary correction | amendment part. 補正形状評価部の補正形状評価処理動作を示すフローチャートである。It is a flowchart which shows the correction | amendment shape evaluation process operation | movement of a correction | amendment shape evaluation part. 補正率外形データS3の一例を示す図である。It is a figure which shows an example of the correction factor external shape data S3.

以下、本発明の実施形態について、本発明をスキャナに適用し、媒体に本や冊子などを原稿として適用した場合を例にとり、適宜図面を参照しながら説明する。
まず、本発明に係る画像読取装置について説明する。図1に画像読取装置1の外観図を示し、図2に画像読取装置1の全体構成のブロック図を示す。
画像読取装置1は、図1に示すように、本や冊子などの原稿91が見開かれて、原稿91の読み取り面と接するように載置される媒体載置台81と、その媒体載置台81を覆う載置台カバー82と、原稿91の読み取り面を読み取るイメージセンサ83(画像読取部2)と、ユーザが指示を入力する操作ボタン84(操作入力部8)および開始ボタン85(操作入力部8)と、ユーザに情報を表示する表示パネル86(表示部7)とを主に備えている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings as appropriate, taking as an example the case where the present invention is applied to a scanner and a book or booklet is applied to a medium as a document.
First, an image reading apparatus according to the present invention will be described. FIG. 1 shows an external view of the image reading apparatus 1, and FIG. 2 shows a block diagram of the overall configuration of the image reading apparatus 1.
As shown in FIG. 1, the image reading apparatus 1 opens a document 91 such as a book or a booklet, covers a medium placing table 81 placed so as to be in contact with the reading surface of the document 91, and the medium placing table 81. A mounting table cover 82, an image sensor 83 (image reading unit 2) for reading the reading surface of the document 91, an operation button 84 (operation input unit 8) and a start button 85 (operation input unit 8) for a user to input instructions. And a display panel 86 (display unit 7) for displaying information to the user.

《第1の実施形態》
そして、第1の実施形態に係る画像読取装置1は、図2に示すように、前記イメージセンサ83で原稿91を読み取って読取データを生成する画像読取部2と、読取データから画像データを生成する画像データ生成部3と、画像読取装置1が備える各構成部を制御するCPU(Central Processing Unit)4と、CPU4が制御を行うためのプログラムが記憶されたプログラムROM(Read Only Memory)5と、データを記憶するRAM(Random Access Memory)6と、表示パネル86を備える表示部7と、操作ボタン84および開始ボタン85を有する操作入力部8と、生成した画像データを、不図示の電話回線やLAN(Local Area Network)などネットワーク網を介して外部機器(PC(Personal Computer)やサーバなど)と接続するI/F(インターフェース)部9とを備える。
<< First Embodiment >>
As shown in FIG. 2, the image reading apparatus 1 according to the first embodiment generates an image data from the read data, and an image reading unit 2 that reads the original 91 by the image sensor 83 and generates read data. An image data generation unit 3, a CPU (Central Processing Unit) 4 that controls each component included in the image reading apparatus 1, and a program ROM (Read Only Memory) 5 that stores a program for the CPU 4 to control A RAM (Random Access Memory) 6 for storing data, a display unit 7 having a display panel 86, an operation input unit 8 having an operation button 84 and a start button 85, and generated image data are transferred to a telephone line (not shown). An I / F (interface) unit 9 connected to an external device (PC (Personal Computer), server, etc.) via a network such as a LAN or a Local Area Network (LAN) Is provided.

次に、本発明の第1の実施形態に係る画像読取装置が有する画像処理システムについて説明する。図3は画像処理システムのブロック図である。
画像読取部2が原稿91を読み取った読取データから、画像データ生成部3は、画像データ(読取画像データD1)を生成する。そして、画像データ生成部3は、読取画像データD1をRAM6(画像データ記憶部11)に記憶させる。
CPU4により機能する画像処理部10は、画像データ記憶部11に記憶された読取画像データD1を取得して、画像処理を実行し、画像処理後の画像データを表示部7に表示させ、ユーザからの入力指示を操作入力部8から取得し、その指示に基づき補正を行った画像データを出力する。
Next, an image processing system included in the image reading apparatus according to the first embodiment of the present invention will be described. FIG. 3 is a block diagram of the image processing system.
The image data generation unit 3 generates image data (read image data D1) from the read data obtained by the image reading unit 2 reading the document 91. Then, the image data generation unit 3 stores the read image data D1 in the RAM 6 (image data storage unit 11).
The image processing unit 10 functioning by the CPU 4 acquires the read image data D1 stored in the image data storage unit 11, executes the image processing, displays the image data after the image processing on the display unit 7, and from the user. Is input from the operation input unit 8, and image data corrected based on the instruction is output.

[画像処理部10]
画像処理部10は、一次補正部12(補正前処理部61)と、補正準備部13(補正前処理部61)と、二次補正部14(表示処理部62および画像補正部63)とを備える。
[Image processing unit 10]
The image processing unit 10 includes a primary correction unit 12 (pre-correction processing unit 61), a correction preparation unit 13 (pre-correction processing unit 61), and a secondary correction unit 14 (display processing unit 62 and image correction unit 63). Prepare.

[画像データ記憶部11]
画像データ記憶部11は、RAM6に備えられ、画像データ生成部3からの読取画像データD1(図4(a))と、後記する一次補正部12からの歪み補正画像データD2(図4(b))とを記憶する記憶部である。
[Image data storage unit 11]
The image data storage unit 11 is provided in the RAM 6 and is read image data D1 (FIG. 4A) from the image data generation unit 3 and distortion corrected image data D2 (FIG. 4B) from the primary correction unit 12 described later. )).

[一次補正部12]
一次補正部12は、画像データ記憶部11から読取画像データD1を取得し、その読取画像データD1に対して従来の歪み補正処理(第1補正)を実行し、歪み補正画像データD2を生成する補正部である。そして、その歪み補正画像データD2を、画像データ記憶部11に記憶させる。
従来の歪み補正処理とは、例えば、特許文献1に記載された歪み補正処理である。
[Primary correction unit 12]
The primary correction unit 12 acquires the read image data D1 from the image data storage unit 11, performs a conventional distortion correction process (first correction) on the read image data D1, and generates distortion correction image data D2. It is a correction unit. The distortion corrected image data D2 is stored in the image data storage unit 11.
The conventional distortion correction process is, for example, the distortion correction process described in Patent Document 1.

[補正準備部13]
補正準備部13は、読取画像データD1と歪み補正画像データD2とに補正準備処理を実行することで、歪み補正画像データD2から原稿91の外形形状(輪郭線)を抽出し(歪み補正外形データS2)、補正率外形データS3を生成する構成部である。
補正準備部13は、外形形状抽出部21と、構成点配置部22と、対応関係構築部23と、補正率設定部24と、形状補正部25とを備える。
[Correction preparation unit 13]
The correction preparation unit 13 extracts the outer shape (outline) of the document 91 from the distortion corrected image data D2 by executing correction preparation processing on the read image data D1 and the distortion corrected image data D2 (distortion corrected outer shape data). S2) is a component that generates correction factor outline data S3.
The correction preparation unit 13 includes an outer shape extraction unit 21, a component point arrangement unit 22, a correspondence relationship construction unit 23, a correction rate setting unit 24, and a shape correction unit 25.

(外形形状抽出部21)
外形形状抽出部21は、画像データ記憶部11から、読取画像データD1と、歪み補正画像データD2とを取得して、外形形状抽出処理を実行し、読取画像データD1から読取外形データS1(読取外形輪郭線)を抽出し、歪み補正画像データD2から歪み補正外形データS2(歪み補正外形輪郭線)を抽出する構成部である。
そして、外形形状抽出部21は、読取外形データS1と歪み補正外形データS2とを、構成点配置部22と補正率設定部24との双方に出力する。
(Outer shape extraction unit 21)
The outer shape extraction unit 21 acquires the read image data D1 and the distortion-corrected image data D2 from the image data storage unit 11, executes the outer shape extraction process, and reads the read outer shape data S1 (read) from the read image data D1. (Outline outline) is extracted, and the distortion correction outline data S2 (distortion correction outline outline) is extracted from the distortion correction image data D2.
Then, the outer shape extraction unit 21 outputs the read outer shape data S1 and the distortion correction outer shape data S2 to both the component point arrangement unit 22 and the correction factor setting unit 24.

ここで、外形形状抽出処理について説明する。
外形形状抽出部21は、読取画像データD1から原稿91の外形形状(輪郭線)を形成する画素(外形形状画素Mz1)を抽出し、抽出した外形形状画素Mz1のすべてを読取外形データS1(読取外形輪郭線)とする。そして、外形形状抽出部21は読取外形データS1を、構成点配置部22と補正率設定部24との双方に出力する。
同様に、外形形状抽出部21は、歪み補正画像データD2からも原稿91の外形形状(輪郭線)を形成する画素(外形形状画素Mz2)を抽出し、抽出した外形形状画素Mz2のすべてである歪み補正外形データS2(歪み補正外形輪郭線)を、構成点配置部22と補正率設定部24との双方に出力する。
Here, the outer shape extraction process will be described.
The outer shape extraction unit 21 extracts pixels (outer shape pixels Mz 1 ) that form the outer shape (outline) of the document 91 from the read image data D1, and reads all the extracted outer shape pixels Mz 1 as read outer shape data S1. (Reading outline). Then, the outer shape extraction unit 21 outputs the read outer shape data S1 to both the component point arrangement unit 22 and the correction factor setting unit 24.
Similarly, profile-shape extractor 21, distortion correction also extracts pixels that form the outer shape of the original 91 (the contour lines) (external shape pixel Mz 2) from the image data D2, all extracted contour pixels Mz 2 Is output to both the component point arrangement unit 22 and the correction factor setting unit 24.

(構成点配置部22)
構成点配置部22は、外形形状抽出部21から読取外形データS1と歪み補正外形データS2とを取得して、読取外形データS1と歪み補正外形データS2とに構成点配置処理を実行する構成部である。
この構成点配置処理により、構成点配置部22は、読取外形データS1から原稿91の外形形状(輪郭線)を形成する画素(外形形状画素Mz1)それぞれを座標変換して、平面座標上の外形形状画素Mz1の位置に構成点P1を配置する。この構成点P1は所定の間隔で配置すればよい。これにより、図7に示すように、構成点P1は、P11、P12、…、や、P1a、P1b、…として配置される。
そして、構成点配置部22は、構成点P1それぞれに識別番号を付与し、構成点の識別番号と、その構成点の座標値とを対応付けて、後記する外形記憶部26に記憶させる。このとき、構成点配置部22が付与する識別番号は、各構成点が互いに重複しないかつ構成点を一つに決める数である。
(Composition point arrangement part 22)
The component point arrangement unit 22 acquires the read outer shape data S1 and the distortion correction outer shape data S2 from the outer shape extraction unit 21, and executes the component point arrangement process on the read outer shape data S1 and the distortion correction outer shape data S2. It is.
By this component point arrangement processing, the component point arrangement unit 22 performs coordinate conversion of each pixel (outer shape pixel Mz 1 ) that forms the outer shape (outline) of the document 91 from the read outer shape data S1, and then on the plane coordinates. placing the configuration point P1 to the position of the outer shape pixels Mz 1. The constituent points P1 may be arranged at a predetermined interval. Accordingly, as shown in FIG. 7, the configuration points P1 are arranged as P 11 , P 12 ,..., P 1a , P 1b,.
Then, the configuration point arrangement unit 22 assigns an identification number to each configuration point P1, and associates the identification number of the configuration point with the coordinate value of the configuration point and stores it in the outer shape storage unit 26 described later. At this time, the identification number assigned by the component point arrangement unit 22 is a number that does not overlap each other and determines one component point.

同様に、構成点配置部22は、歪み補正外形データS2から原稿91の外形形状(輪郭線)を形成する画素(外形形状画素Mz2)それぞれを座標変換して、平面座標上の外形形状画素Mz2の位置に構成点P2を配置する。これにより、図7に示すように、構成点P1は、P21、P22、…、や、P2a、P2b、…として配置される。
そして、構成点配置部22は、構成点P2それぞれに識別番号を付与し、構成点の識別番号と、その構成点の座標値とを対応付けて、後記する外形記憶部26に記憶させる。この対応付けは、データベースを用いて行う。
以下、特に記載がない場合、対応付けはデータベースを用いて行われる。
Similarly, the component point arrangement unit 22 performs coordinate conversion of each pixel (outer shape pixel Mz 2 ) that forms the outer shape (outline) of the document 91 from the distortion corrected outer shape data S2 to obtain an outer shape pixel on a plane coordinate. placing the configuration point P2 to the position of the Mz 2. Accordingly, as shown in FIG. 7, the configuration points P1 are arranged as P 21 , P 22 ,..., P 2a , P 2b,.
Then, the configuration point placement unit 22 assigns an identification number to each configuration point P2, and associates the identification number of the configuration point with the coordinate value of the configuration point and stores them in the outer shape storage unit 26 described later. This association is performed using a database.
Hereinafter, unless otherwise specified, the association is performed using a database.

(対応関係構築部23)
対応関係構築部23は、後記する外形記憶部26から、構成点P1と構成点P2とを取得して、対応関係構築処理を実行する。
この対応関係構築処理により、対応関係構築部23は、図9に示すように、読取外形データS1(S1L)の輪郭線を構成するすべての構成点P1を、歪み補正外形データS2(S2L)の輪郭線を構成するすべての構成点P2それぞれと対応付ける。
ここで、構成点P1とに付与された識別番号と、その構成点P1に対応する構成点P2に付与された識別番号とを対応付けて、後記する外形記憶部26に記憶させることで、構成点の対応付けがされる。
(Correspondence relationship construction unit 23)
The correspondence construction unit 23 acquires the configuration point P1 and the configuration point P2 from the outer shape storage unit 26 described later, and executes the correspondence construction process.
By this correspondence construction processing, the correspondence construction unit 23 converts all the constituent points P1 constituting the contour of the read contour data S1 (S1L) to the distortion-corrected contour data S2 (S2L) as shown in FIG. Each of the constituent points P2 constituting the outline is associated with each of the constituent points P2.
Here, the identification number assigned to the configuration point P1 and the identification number assigned to the configuration point P2 corresponding to the configuration point P1 are associated with each other and stored in the outer shape storage unit 26 to be described later. Points are associated.

(補正率設定部24)
補正率設定部24は、読取外形データS1の状態を補正率R=0.0に、歪み補正外形データS2の状態を補正率R=1.0に設定し、所定の間隔で補正率Rの値を変化させた複数の補正率Rを設定する構成部である。
例えば、所定の間隔が「0.2」であれば、補正率設定部24は、補正率Rとして、『…、0.6、0.8、1.0、1.2、1.4、1.6、1.8、…』の値を設定する。
(Correction rate setting unit 24)
The correction rate setting unit 24 sets the state of the read outer shape data S1 to the correction rate R = 0.0 and the state of the distortion correction outer shape data S2 to the correction rate R = 1.0, and sets the correction rate R at a predetermined interval. It is a component that sets a plurality of correction factors R whose values are changed.
For example, if the predetermined interval is “0.2”, the correction rate setting unit 24 sets the correction rate R as “..., 0.6, 0.8, 1.0, 1.2, 1.4, 1.6, 1.8,... ”Are set.

(形状補正部25)
形状補正部25は、補正率Rを変化させた値それぞれで、歪み補正外形データS2を補正して、複数の(補正率Rごとの)補正率外形データS3を生成する構成部である。
そして、形状補正部25は、読取外形データS1と歪み補正外形データS2と補正率外形データS3とをRAM6(外形記憶部26)に記憶する。
ここで、形状補正部25が行う補正は、公知の2次元モーフィングであるフィールドモーフィング(field morphing)を用いて行われる。
(Shape correction unit 25)
The shape correction unit 25 is a component that corrects the distortion correction outer shape data S2 with each value obtained by changing the correction rate R and generates a plurality of correction rate outer shape data S3 (for each correction rate R).
Then, the shape correcting unit 25 stores the read outer shape data S1, the distortion corrected outer shape data S2, and the correction factor outer shape data S3 in the RAM 6 (outer shape storage unit 26).
Here, the correction performed by the shape correction unit 25 is performed using field morphing, which is known two-dimensional morphing.

[外形記憶部26]
外形記憶部26は、RAM6(図2)に備えられ、補正準備部13が生成したデータを記憶する記憶部である。第1の実施形態によれば、以下の(1)〜(3)に示すデータが記憶される。
(1)構成点P1(P2)の識別番号と座標値
外形記憶部26には、構成点配置部22により、構成点P1それぞれの識別番号と、その構成点P1の座標値とが対応付けられて記憶される。また、構成点P2それぞれの識別番号と、その構成点P2の座標値とが対応付けられて記憶される。
これらの識別番号は、各構成点が互いに重複しないかつ構成点を一つに決める数である。
(2)構成点P1と構成点P2とを対応付けるデータ
また、外形記憶部26には、対応関係構築部23により、構成点P1に付与された識別番号と、その構成点P1に対応する構成点P2に付与された識別番号とが対応付けられて記憶される。
(3)読取外形データS1と歪み補正外形データS2と補正率外形データS3
そして、外形記憶部26には、形状補正部25により、読取外形データS1と、歪み補正外形データS2と、補正率外形データS3とが記憶される。
ここで、外形記憶部26には、読取外形データS1として、画像データ記憶部11の読取画像データD1において読取外形データS1の輪郭線を形成する、対応関係構築処理後(図14のS206)の構成点P1すべての識別番号が記憶される。
また、外形記憶部26には、形状補正部25により、歪み補正外形データS2として、画像データ記憶部11の歪み補正画像データD2において歪み補正外形データS2の輪郭線を形成する、対応関係構築処理後(図14のS206)の構成点P2すべての識別番号が記憶される。
さらに、外形記憶部26には、形状補正部25により、補正率外形データS3として、歪み補正外形データS2の輪郭線を形成する構成点P2の座標値を、補正率Rで補正した後の構成点P2の座標値が記憶される。
[Outer shape storage unit 26]
The external shape storage unit 26 is a storage unit that is provided in the RAM 6 (FIG. 2) and stores data generated by the correction preparation unit 13. According to the first embodiment, the following data (1) to (3) are stored.
(1) Identification Number and Coordinate Value of Configuration Point P1 (P2) In the external shape storage unit 26, the configuration point placement unit 22 associates each identification number of the configuration point P1 with the coordinate value of the configuration point P1. Is memorized. Further, the identification number of each constituent point P2 and the coordinate value of the constituent point P2 are stored in association with each other.
These identification numbers are numbers that do not overlap each other and determine one component point.
(2) Data correlating the configuration point P1 and the configuration point P2 Further, in the external shape storage unit 26, the identification number given to the configuration point P1 by the correspondence construction unit 23 and the configuration point corresponding to the configuration point P1 The identification number assigned to P2 is stored in association with it.
(3) Reading outline data S1, distortion correction outline data S2, and correction factor outline data S3
The outer shape storage unit 26 stores read outer shape data S1, distortion corrected outer shape data S2, and correction factor outer shape data S3 by the shape correcting unit 25.
Here, in the outer shape storage unit 26, the outline of the read outer shape data S1 is formed in the read image data D1 of the image data storage unit 11 as the read outer shape data S1, after the correspondence construction processing (S206 in FIG. 14). The identification numbers of all the constituent points P1 are stored.
Also, in the outer shape storage unit 26, the shape correction unit 25 forms a contour line of the distortion corrected outer shape data S2 in the distortion corrected image data D2 of the image data storage unit 11 as the distortion corrected outer shape data S2. The identification numbers of all the constituent points P2 later (S206 in FIG. 14) are stored.
Further, in the outer shape storage unit 26, the shape correction unit 25 corrects the coordinate value of the configuration point P2 forming the contour line of the distortion corrected outer shape data S2 as the correction rate outer shape data S3 with the correction rate R. The coordinate value of the point P2 is stored.

[二次補正部14]
二次補正部14は、二次補正処理を行う構成部であり、特徴領域抽出部27(表示処理部62)と、表示制御部28(表示処理部62)と、入力処理部29(画像補正部63)と、補正画像生成部30(画像補正部63)とを備える。
[Secondary correction unit 14]
The secondary correction unit 14 is a component that performs secondary correction processing, and includes a feature region extraction unit 27 (display processing unit 62), a display control unit 28 (display processing unit 62), and an input processing unit 29 (image correction). Unit 63) and a corrected image generation unit 30 (image correction unit 63).

(特徴領域抽出部27)
特徴領域抽出部27は、読取外形データS1と、歪み補正外形データS2と、補正率外形データS3と、読取画像データD1と、歪み補正画像データD2とを取得し、特徴領域抽出処理を実行し、読取外形データS1の輪郭線と歪み補正外形データS2の輪郭線との変化率が高い所定の大きさの領域(特徴領域)を抽出する。そして、すべての補正率外形データS3から、特徴領域内にあたる画像(部分画像)を抽出する構成部である。
(Feature region extraction unit 27)
The feature region extraction unit 27 acquires the read outer shape data S1, the distortion correction outer shape data S2, the correction factor outer shape data S3, the read image data D1, and the distortion correction image data D2, and executes the feature region extraction process. Then, a region (feature region) having a predetermined size with a high rate of change between the contour line of the read outer shape data S1 and the contour line of the distortion corrected outer shape data S2 is extracted. And it is a component which extracts the image (partial image) which falls in a characteristic area from all the correction factor external shape data S3.

(表示制御部28)
表示制御部28は、表示部7に複数の部分画像を表示させる構成部である。
図10は、表示制御部28が、表示パネル86(表示部7)に補正率Rごとに部分画像を表示させた一例であり、J1が補正率R=1.0、J2が補正率R=1.2、J3が補正率R=1.4、J4が補正率R=1.6の部分画像を示している。
(Display control unit 28)
The display control unit 28 is a component that displays a plurality of partial images on the display unit 7.
FIG. 10 shows an example in which the display control unit 28 causes the display panel 86 (display unit 7) to display partial images for each correction rate R. J1 is the correction rate R = 1.0, and J2 is the correction rate R =. 1.2, J3 indicates a partial image with a correction factor R = 1.4, and J4 indicates a correction factor R = 1.6.

(入力処理部29)
入力処理部29は、操作入力部8から入力される選択情報を取得する構成部である。
例えば、ユーザが操作ボタン84(図1,操作入力部8)を操作して、表示パネル86(図1,表示部7)に表示された一つの部分画像を選択することで、入力処理部29は、その部分画像の選択情報を取得する。
(Input processing unit 29)
The input processing unit 29 is a configuration unit that acquires selection information input from the operation input unit 8.
For example, when the user operates the operation button 84 (FIG. 1, operation input unit 8) and selects one partial image displayed on the display panel 86 (FIG. 1, display unit 7), the input processing unit 29 is selected. Acquires selection information of the partial image.

(補正画像生成部30)
補正画像生成部30は、選択情報に基づき、選択された部分画像(特徴領域)に対応する補正率Rの補正率外形データS3を外形記憶部26から取得し、補正画像生成処理を実行する構成部である。
まず、補正画像生成部30は、補正率外形データS3をラスタ化し、補正率外形データS3の輪郭線を取得する(図11)。このラスタ化の処理は、公知のアルゴリズムを用いて行う。ここで、補正率外形データS3Lの輪郭線とは、図11に示すD3a〜D3b〜D3d〜D3e〜D3aを通って囲う線である。
(Correction image generation unit 30)
Based on the selection information, the corrected image generation unit 30 acquires correction rate outer shape data S3 of the correction rate R corresponding to the selected partial image (feature region) from the outer shape storage unit 26, and executes correction image generation processing Part.
First, the correction image generation unit 30 rasterizes the correction factor outer shape data S3 and acquires the contour line of the correction factor outer shape data S3 (FIG. 11). This rasterization process is performed using a known algorithm. Here, the contour correction factor profile data S3L, a line surrounding through D3 a ~D3 b ~D3 d ~D3 e ~D3 a shown in FIG. 11.

そして、補正画像生成部30は、補正画像生成処理により、図11に示すように、補正率外形データS3(S3L)の輪郭線で囲まれた領域内に位置する仮想点U3から最近傍の補正率外形データS3の構成点P3(P3n:nは整数)と、その構成点P3に対応付けられた歪み補正外形データS2の輪郭線の構成点P2(P2n:nは整数)とから、仮想点U3が補正前に、歪み補正画像データD2(D2L)にあったと推定される推定点U2(u2n:nは整数)を算出する。そして、仮想点U3(u3n:nは整数)の位置に相当する画素の画素値を、推定点U2の位置に相当する歪み補正画像データD2の画素の画素値で補正する。 Then, the corrected image generation unit 30 corrects the nearest neighbor from the virtual point U3 located in the region surrounded by the outline of the correction factor outline data S3 (S3L) by the corrected image generation process as shown in FIG. From the component point P3 (P 3n : n is an integer) of the rate contour data S3 and the component point P2 (P 2n : n is an integer) of the contour line of the distortion-corrected contour data S2 associated with the component point P3, An estimated point U2 (u 2n : n is an integer) that is estimated to be in the distortion corrected image data D2 (D2L) is calculated before the virtual point U3 is corrected. Then, the pixel value of the pixel corresponding to the position of the virtual point U3 (u 3n : n is an integer) is corrected with the pixel value of the pixel of the distortion corrected image data D2 corresponding to the position of the estimated point U2.

以上の補正画像生成処理を、補正率外形データS3の輪郭線で囲まれた領域内に位置するすべての点(仮想点U3)に行うことで、補正画像生成部30は、補正率外形データS3の輪郭線で囲まれた領域内の画素(座標)の画素値を、歪み補正画像データD2の画素の画素値で補正(第2補正)することができる。   The correction image generation unit 30 performs the above correction image generation processing on all points (virtual points U3) located in the region surrounded by the outline of the correction factor outer shape data S3, so that the correction image generation unit 30 corrects the correction factor outer shape data S3. The pixel value of the pixel (coordinates) in the region surrounded by the contour line can be corrected (second correction) with the pixel value of the pixel of the distortion corrected image data D2.

<画像読取装置の全体処理>
次に、図13を参照して、画像読取装置1の全体処理動作について説明する(適宜、図1ないし図12を参照)。
まず、画像読取部2が媒体載置台に載置された原稿91の表面画像を読み取る(ステップS101)。読み取ったデータから、画像データ生成部3は、読取画像データD1(図4(a))を生成して(ステップS102)、読取画像データD1を画像データ記憶部11に記憶させる(ステップS103)。
<Overall Processing of Image Reading Apparatus>
Next, the overall processing operation of the image reading apparatus 1 will be described with reference to FIG. 13 (refer to FIGS. 1 to 12 as appropriate).
First, the image reading unit 2 reads the surface image of the document 91 placed on the medium placement table (step S101). The image data generation unit 3 generates read image data D1 (FIG. 4A) from the read data (step S102), and stores the read image data D1 in the image data storage unit 11 (step S103).

次に、画像処理部10が備える一次補正部12は、画像データ記憶部11から読取画像データD1を取得し、従来の歪み補正処理を実行し(ステップS104)、歪み補正画像データD2を生成する。そして、その歪み補正画像データD2(図4(b))を、画像データ記憶部11に記憶させる(ステップS105)。   Next, the primary correction unit 12 included in the image processing unit 10 acquires the read image data D1 from the image data storage unit 11, executes a conventional distortion correction process (step S104), and generates distortion correction image data D2. . The distortion corrected image data D2 (FIG. 4B) is stored in the image data storage unit 11 (step S105).

補正準備部13は、画像データ記憶部11から、読取画像データD1と、歪み補正画像データD2とを取得し、補正準備処理を実行する(ステップS106)。この補正準備処理により、歪み補正画像データD2から原稿91の外形形状(輪郭線)を抽出した歪み補正外形データS2と、生成した補正率外形データS3とを外形記憶部26に記憶させる。   The correction preparation unit 13 acquires the read image data D1 and the distortion corrected image data D2 from the image data storage unit 11, and executes correction preparation processing (step S106). By this correction preparation process, the distortion correction outline data S2 obtained by extracting the outline shape (outline) of the document 91 from the distortion correction image data D2 and the generated correction factor outline data S3 are stored in the outline storage unit 26.

二次補正部14は、外形記憶部26から、歪み補正外形データS2と、補正率外形データS3とを取得し、さらに、画像データ記憶部11から歪み補正画像データD2を取得し、二次補正処理を実行する(ステップS107)。
この二次補正処理により、二次補正部14は、補正準備部13で生成した補正率外形データS3を表示部7に表示し、ユーザにより操作入力部8を介して選択された外形データ(補正率外形データS3)から補正画像データを生成する。
そして、二次補正部14は、補正画像データを、HDDなどの記憶部や、I/F部9を介して、外部機器(PCやサーバなど)に出力する(ステップS108)。そして、画像読取装置1は処理を終了する。
The secondary correction unit 14 acquires the distortion correction external shape data S2 and the correction factor external shape data S3 from the external shape storage unit 26, further acquires the distortion correction image data D2 from the image data storage unit 11, and performs secondary correction. Processing is executed (step S107).
By this secondary correction process, the secondary correction unit 14 displays the correction factor outline data S3 generated by the correction preparation unit 13 on the display unit 7, and the outline data (correction) selected by the user via the operation input unit 8. The corrected image data is generated from the rate contour data S3).
Then, the secondary correction unit 14 outputs the corrected image data to an external device (such as a PC or a server) via a storage unit such as an HDD or the I / F unit 9 (step S108). Then, the image reading apparatus 1 ends the process.

<補正準備処理>
次に、図14を参照して、補正準備部13の補正準備処理動作(図13のステップS106)について説明する(適宜、図1ないし図13を参照)。
補正準備部13が備える外形形状抽出部21は、画像データ記憶部11から、読取画像データD1と、歪み補正画像データD2とを取得する(ステップS201)。そして、外形形状抽出部21は、まず、読取画像データD1に外形形状抽出処理を実行する(ステップS202)。これにより、外形形状抽出部21は、読取外形データS1を取得する。そして、取得した読取外形データS1を、構成点配置部22と補正率設定部24との双方に出力する。
<Correction preparation process>
Next, the correction preparation processing operation (step S106 in FIG. 13) of the correction preparation unit 13 will be described with reference to FIG. 14 (refer to FIGS. 1 to 13 as appropriate).
The outer shape extraction unit 21 included in the correction preparation unit 13 acquires the read image data D1 and the distortion corrected image data D2 from the image data storage unit 11 (step S201). Then, the outer shape extraction unit 21 first performs outer shape extraction processing on the read image data D1 (step S202). Thereby, the outer shape extraction unit 21 acquires the read outer shape data S1. Then, the acquired reading outline data S1 is output to both the component point arrangement unit 22 and the correction factor setting unit 24.

ここで、図15を参照して、外形形状抽出部21が読取画像データD1に外形形状抽出処理動作(図15のステップS202)を行った場合について説明する(適宜、図1ないし図14を参照)。
<外形形状抽出処理>
外形形状抽出部21は、読取画像データD1に平滑化処理を実行し(ステップS301)、さらに、平滑化された読取画像データD1に微分フィルタをかけてエッジを検出する。そしてエッジ上の画素を抽出する(ステップS302)。
ここで、外形形状抽出部21が実行する平滑化処理は、公知の平滑化アルゴリズムにより実行される。また、微分フィルタをかけてエッジを検出する処理は、公知のラプラシアンフィルタを用いたフィルタ処理により実行される。
Here, a case where the outer shape extraction unit 21 performs the outer shape extraction processing operation (step S202 in FIG. 15) on the read image data D1 will be described with reference to FIG. 15 (refer to FIGS. 1 to 14 as appropriate). ).
<External shape extraction processing>
The outer shape extraction unit 21 performs a smoothing process on the read image data D1 (step S301), and further applies a differential filter to the smoothed read image data D1 to detect an edge. Then, the pixels on the edge are extracted (step S302).
Here, the smoothing process executed by the outer shape extraction unit 21 is executed by a known smoothing algorithm. In addition, the process of applying the differential filter to detect the edge is executed by a filter process using a known Laplacian filter.

そして、外形形状抽出部21は、そのエッジ上の画素に二値化処理を実行する(ステップS303)。このとき、所定の直線画素値(閾値)と比較して、直線画素値より大きい画素値の画素を抽出し、抽出したすべての画素から孤立点を除去した後の画素をエッジ画素とする。なお、孤立点の除去は公知のアルゴリズムを用いて行う。
そして、エッジ画素の座標を用いて直線Lをすべて検出する(ステップS304)。ここで、直線Lの検出は、公知のハフ変換アルゴリズムにより実行される。これにより、外形形状抽出部21は、図4(a)の読取画像データD1から、直線(L11、・・・、L17、・・・)を検出する。
そして、外形形状抽出部21は、検出した直線Lすべてにおいて、画像の中心に最も近い直線(L11)を、ページ境界線に設定する(ページ境界線を設定)(ステップS305)。
Then, the outer shape extraction unit 21 performs binarization processing on the pixels on the edge (step S303). At this time, a pixel having a pixel value larger than the linear pixel value is extracted as compared with a predetermined linear pixel value (threshold value), and a pixel after an isolated point is removed from all the extracted pixels is defined as an edge pixel. It should be noted that isolated points are removed using a known algorithm.
Then, all the straight lines L are detected using the coordinates of the edge pixels (step S304). Here, the detection of the straight line L is executed by a known Hough transform algorithm. Thereby, the external shape extraction part 21 detects a straight line (L11, ..., L17, ...) from the read image data D1 of Fig.4 (a).
Then, the outer shape extraction unit 21 sets the straight line (L11) closest to the center of the image as the page boundary line in all the detected straight lines L (sets the page boundary line) (step S305).

そして、外形形状抽出部21は、ページ境界線L11で画像を分割する(D1LとD1R)(ステップS306)。
外形形状抽出部21は、分割後の1つの画像(D1L)から、ステップS305で抽出したすべての直線Lのうち、所定の直線画素数(閾値)と比較して、直線画素数以上の数のエッジ画素を含む(エッジ画素の座標を通過する)直線Lを抽出する(ステップS307)。これにより、直線L12からL17までの6本の直線Lが抽出される。
そして、外形形状抽出部21は、1ページの輪郭線を形成する直線および曲線をラスタライズして、輪郭線を形成する画素(外形形状画素Mz1)を抽出する(ステップS308)。
Then, the outer shape extraction unit 21 divides the image at the page boundary line L11 (D1L and D1R) (step S306).
The outer shape extraction unit 21 compares the number of straight pixels out of all the straight lines L extracted in step S305 from one divided image (D1L) with a number equal to or greater than the number of straight pixels. A straight line L including the edge pixel (passing the coordinates of the edge pixel) is extracted (step S307). As a result, six straight lines L from straight lines L12 to L17 are extracted.
Then, the outer shape extraction unit 21 rasterizes the straight lines and curves that form the contour line of one page, and extracts the pixels (outer shape pixel Mz 1 ) that form the contour line (step S308).

以下に、ステップS308の外形形状画素Mz1を抽出する手順を次に示す。図6は、エッジ画素を近似する曲線を示す図である。
まず、外形形状抽出部21は、歪んだ曲線上の画素を抽出する処理を行う。外形形状抽出部21は、直線L14上にあるエッジ画素において、ページ境界線L11に最も近いエッジ画素を点Pc1とする。また、ページ境界線L11にあるエッジ画素において、直線L14に最も近いエッジ画素を点Pc2とする。そして、ページ境界線L11と直線L14との交点を点Pc0とする。
次に、点Pc0と、点Pc1と、点Pc2とを頂点とする三角形を形成し、その三角形の領域内にあるエッジ画素を抽出し、それらエッジ画素を近似する曲線Lc1を、公知の最小二乗法を用いて取得する。
そして、取得した曲線Lc1とページ境界線L11との交点D1d、および直線L14との交点D1cを取得する。交点D1c〜D1d間の曲線Lc1をラスタライズして、曲線Lc1を形成する画素を抽出する(抽出画素A:外形形状画素Mz1の一部)。
Hereinafter, following the procedure of extracting the outer shape pixels Mz 1 in step S308. FIG. 6 is a diagram illustrating a curve that approximates an edge pixel.
First, the outer shape extraction unit 21 performs a process of extracting pixels on a distorted curve. The outer shape extraction unit 21 sets the edge pixel closest to the page boundary line L11 as the point Pc1 among the edge pixels on the straight line L14. In addition, in the edge pixel on the page boundary line L11, the edge pixel closest to the straight line L14 is set as a point Pc2. The intersection of the page boundary line L11 and the straight line L14 is set as a point Pc0.
Next, a triangle having points Pc0, Pc1, and Pc2 as vertices is formed, edge pixels in the triangular region are extracted, and a curve Lc1 that approximates these edge pixels is represented by a known minimum two Obtain using multiplication.
Then, the intersection point D1 d between the acquired curve Lc1 and the page boundary line L11 and the intersection point D1 c between the straight line L14 are acquired. The curve Lc1 between the intersection points D1 c to D1 d is rasterized to extract pixels forming the curve Lc1 (extraction pixel A: a part of the external shape pixel Mz 1 ).

同様に、外形形状抽出部21は、直線L12上にあるエッジ画素において、ページ境界線L11に最も近いエッジ画素を点Pc4(境界点)とする。また、ページ境界線L11にあるエッジ画素において、直線L12に最も近いエッジ画素を点Pc5(境界点)とする。そして、ページ境界線L11と直線L12との交点を点Pc3とする。
次に、点Pc0と、点Pc1と、点Pc2とを頂点とする三角形を形成し、その三角形の領域内にあるエッジ画素を抽出し、それらエッジ画素を近似する曲線Lc2を、公知の最小二乗法を用いて取得する。
そして、取得した曲線Lc2とページ境界線L11との交点D1e、および直線L12との交点D1fを取得する。交点D1e〜D1f間の曲線Lc2をラスタライズして、曲線Lc2を形成する画素を抽出する(抽出画素B:外形形状画素Mz1の一部)。
Similarly, the outer shape extraction unit 21 sets the edge pixel closest to the page boundary line L11 as the point Pc4 (boundary point) among the edge pixels on the straight line L12. In addition, in the edge pixel on the page boundary line L11, an edge pixel closest to the straight line L12 is set as a point Pc5 (boundary point). The intersection of the page boundary line L11 and the straight line L12 is defined as a point Pc3.
Next, a triangle having vertices of point Pc0, point Pc1, and point Pc2 is formed, edge pixels within the triangular region are extracted, and a curve Lc2 that approximates these edge pixels is represented by a known minimum two Obtain using multiplication.
Then, an intersection point D1 e between the acquired curve Lc2 and the page boundary line L11 and an intersection point D1 f between the straight line L12 are acquired. By rasterizing curves Lc2 between the intersections D1 e ~ D1 f, extracts pixels that form a curve Lc2 (extracted pixel B: part of the outer shape pixels Mz 1).

外形形状抽出部21は、直線L12とL13との交点D1a、および直線L13とL14との交点D1bを取得する。次に、ページ境界線L11上の交点D1d〜D1e間をラスタライズし、交点D1d〜D1e間の線分を形成する画素を抽出する(抽出画素C:外形形状画素Mz1の一部)。
さらに、直線L12上の交点D1a〜D1f間と、直線L13上の交点D1a〜D1b間と、直線L14上の交点D1b〜D1c間とをそれぞれラスタライズして、それぞれの線分を形成する画素を抽出する(抽出画素D:外形形状画素Mz1の一部)。
以上により、外形形状抽出部21は、抽出画素A〜Dによる、1ページの輪郭を形成する線分上および曲線上の画素(外形形状画素Mz1)を抽出する。
The outer shape extraction unit 21 acquires an intersection D1 a between the straight lines L12 and L13 and an intersection D1 b between the straight lines L13 and L14. Next, the intersections D1 d to D1 e on the page boundary line L11 are rasterized, and pixels forming a line segment between the intersections D1 d to D1 e are extracted (extraction pixel C: part of the outer shape pixel Mz 1 ). ).
Further, the line segments are rasterized between the intersection points D1 a to D1 f on the straight line L12, between the intersection points D1 a to D1 b on the straight line L13, and between the intersection points D1 b to D1 c on the straight line L14. Are extracted (extracted pixel D: part of the outer shape pixel Mz 1 ).
As described above, the outer shape extraction unit 21 extracts pixels on the line segment and the curve (outer shape pixel Mz 1 ) that form the outline of one page by the extraction pixels A to D.

次に、外形形状抽出部21は、もう一方の分割後の画像(D1R)に対しても、同様に、ステップS307〜ステップS308の処理を行い、読取画像データD1に対する外形形状抽出処理(図14のステップS202)終了後、次にステップS203(図14)の処理を実行する。   Next, the outer shape extraction unit 21 similarly performs the processing of step S307 to step S308 for the other divided image (D1R), and the outer shape extraction processing (FIG. 14) for the read image data D1. Step S202), the process of step S203 (FIG. 14) is executed.

例えば、写真や枠、直線などが掲載されたページ(図4(a)における写真G)を読み込んだとしても、外形形状抽出部21は、図5(a)に示すように、その写真Gの枠を直線(L181〜L184)として抽出する。そして、外形形状抽出部21は、外形形状抽出処理により、いずれの直線も、画像の中心に最も近い直線ではないと判定し、さらに分割後の画像において外形を形成する直線でもないと判定することとなる。   For example, even if a page (photo G in FIG. 4A) on which a photo, a frame, a straight line, or the like is loaded is read, the outer shape extraction unit 21 can display the photo G as shown in FIG. The frame is extracted as a straight line (L181 to L184). Then, the outer shape extraction unit 21 determines, by the outer shape extraction process, that none of the straight lines is the straight line closest to the center of the image, and further determines that the straight line does not form the outer shape in the divided image. It becomes.

再び、図14の説明に戻る。
次に、外形形状抽出部21は、同様に、歪み補正画像データD2に外形形状抽出処理を実行する(ステップS203,図14)。これにより、外形形状抽出部21は、歪み補正外形データS2を取得する。そして、外形形状抽出部21が歪み補正画像データD2に対する外形形状抽出処理終了後、次にステップS204の処理を実行する。
Returning to the description of FIG.
Next, the outer shape extraction unit 21 similarly executes outer shape extraction processing on the distortion corrected image data D2 (step S203, FIG. 14). Thereby, the external shape extraction part 21 acquires distortion correction external shape data S2. Then, after the outer shape extraction unit 21 finishes the outer shape extraction processing on the distortion corrected image data D2, the process of step S204 is executed next.

ここで、歪み補正画像データD2に外形形状抽出処理を実行した処理について説明する。
外形形状抽出部21は、図5(b)の歪み補正画像データD2から、直線(L21、・・・、L27、・・・)を検出する。そして、L21をページ境界線と設定する。また、外形形状抽出部21は、直線L22〜L27を外形形状直線Lz2に設定し、さらに、外形形状直線Lz2上のエッジ画素を外形形状画素Mz2に設定する。そして、ページ境界線L21と、外形形状直線Lz2と、外形形状画素Mz2とを、歪み補正外形データS2とする。そして、歪み補正外形データS2を、構成点配置部22と補正率設定部24との双方に出力する。
Here, the process which performed the external shape extraction process to distortion correction image data D2 is demonstrated.
The outer shape extraction unit 21 detects straight lines (L21,..., L27,...) From the distortion corrected image data D2 of FIG. Then, L21 is set as a page boundary line. Also, profile-shape extractor 21 sets the linear L22~L27 to the outer shape straight Lz 2, further sets the edge pixels on the contour straight line Lz 2 to the outer shape pixel Mz 2. Then, a page boundary line L21, the outer shape straight Lz 2, the outer shape pixel Mz 2, the distortion correction profile data S2. Then, the distortion correction outer shape data S <b> 2 is output to both the component point arrangement unit 22 and the correction factor setting unit 24.

次に、構成点配置部22は、外形形状抽出部21から読取外形データS1と歪み補正外形データS2とを取得して、まず、読取外形データS1に構成点配置処理を実行する(ステップS204)。   Next, the component point arrangement unit 22 acquires the read outer shape data S1 and the distortion-corrected outer shape data S2 from the outer shape extraction unit 21, and first executes the component point arrangement process on the read outer shape data S1 (step S204). .

ここで、図16を参照して、構成点配置部22が読取外形データS1に構成点配置処理動作(図16のステップS204)を行った場合について説明する(適宜、図1ないし図14を参照)。
<構成点配置処理>
構成点配置部22は、読取外形データS1から外形形状画素Mz1を抽出し、外形形状画素Mz1それぞれをxy平面へ座標変換して、外形形状画素Mz1それぞれのxy平面座標値を取得する(ステップS401)。次に、構成点配置部22は、角となる外形形状画素Mz1(角構成点)を抽出し(ステップS402)、さらに、その抽出した角となる外形形状画素Mz1(角構成点)からy座標値が最小の外形形状画素Mz1を抽出し、この角構成点をスタート地点とする(ステップS403)。
ここで、ステップS402において、角となる外形形状画素Mz1を抽出するとき、外形形状抽出部21が取得した交点(D1a〜D1d)を角構成点の候補としてもよい。
Here, with reference to FIG. 16, the case where the component point arrangement unit 22 performs the component point arrangement processing operation (step S204 in FIG. 16) on the read outline data S1 will be described (refer to FIGS. 1 to 14 as appropriate). ).
<Composition point arrangement processing>
The component point arrangement unit 22 extracts the outer shape pixel Mz 1 from the read outer shape data S1, converts the coordinates of each of the outer shape pixels Mz 1 to the xy plane, and acquires the xy plane coordinate values of the outer shape pixels Mz 1. (Step S401). Next, the configuration point placement section 22, the extracting outer shape pixels Mz 1 as a corner (corner constituent points) (step S402), further, the outer shape pixel Mz 1 (angular configuration point) serving as the extracted corner y-coordinate value is extracted smallest outer shape pixel Mz 1, the starting point of this square configuration point (step S403).
Here, in step S402, when extracting outer shape pixels Mz 1 as a corner, it may be the intersection of profile-shape extractor 21 obtains the (D1 a ~D1 d) as a candidate corner control points.

次に、構成点配置部22は、xy平面座標に基づき、スタート地点の角構成点と隣接する外形形状画素Mz1を検索し、検出した外形形状画素Mz1を一つ抽出する(ステップS404)。
このときの検索方向は、所定の方向であり、例えば、処理対象の読取外形データS1の画像が、ステップS306で分割したときの左側の画像である場合の検索方向は左回りであり、また、右側の画像である場合の検索方向は右回りであることが望ましい。
また、スタート地点として抽出する角構成点は、最もy座標値が大きいものであってもよく、一つの角構成点を抽出できればよい。任意の点でよい。
Next, the component point arrangement unit 22 searches for the outer shape pixel Mz 1 adjacent to the corner point of the start point based on the xy plane coordinates, and extracts one detected outer shape pixel Mz 1 (step S404). .
The search direction at this time is a predetermined direction. For example, the search direction when the image of the read outline data S1 to be processed is the left image when divided in step S306 is counterclockwise. In the case of the right side image, the search direction is preferably clockwise.
In addition, the corner composing point extracted as the start point may be the one having the largest y coordinate value, and it is only necessary to extract one corner composing point. Any point is acceptable.

そして、構成点配置部22は、抽出した外形形状画素Mz1のxy平面座標が、スタート地点の角構成点のxy平面座標と一致するか否かを判定する(ステップS405)。
一致しない場合(ステップS405,No)、構成点配置部22は、抽出した外形形状画素Mz1を構成点(構成点P1)とし(ステップS406)、識別番号を付与する。次に、構成点の識別番号と、その構成点のxy平面座標値とを対応付けて、外形記憶部26に記憶させる(ステップS407)。そして、再度、ステップS404の処理を行い、構成点(構成点P1)となった外形形状画素Mz1(抽出した外形形状画素Mz1)と隣接する外形形状画素Mz1を検索する。これにより、スタート地点の角構成点に近い構成点から順番に識別番号が付与される。
一方、一致する場合(ステップS405,Yes)、構成点配置部22は、読取外形データS1に対する構成点配置処理(図14のステップS204)を終了する。そして、次にステップS205の処理を実行する。
Then, the constituent point arrangement unit 22 determines whether or not the xy plane coordinates of the extracted outer shape pixel Mz 1 coincide with the xy plane coordinates of the corner constituent point of the start point (step S405).
If they do not match (Step S405, No), composing point arrangement unit 22, the extracted contour pixels Mz 1 configuration point as (Configuration point P1) (step S406), to impart an identification number. Next, the identification number of the component point and the xy plane coordinate value of the component point are associated with each other and stored in the outer shape storage unit 26 (step S407). Then, again, it performs the process of step S404, searches the external shape pixels Mz 1 and the adjacent control points (control points P1) and became outer shape pixel Mz 1 (extracted contour pixels Mz 1). Thereby, an identification number is provided in order from the component point close to the corner component point of the start point.
On the other hand, if they match (step S405, Yes), the component point arrangement unit 22 ends the component point arrangement process (step S204 in FIG. 14) for the read outline data S1. Then, the process of step S205 is executed.

当該構成点配置処理により、構成点配置部22は、読取外形データS1に含まれる直線(ページ境界線L11と外形形状直線Lz1(直線L12〜L14))により形成される輪郭線を、構成点P1(P11、P12、…、や、P1a、P1b、…)(図7)で表現する。 By the component point arrangement process, the component point arrangement unit 22 converts the contour line formed by the straight lines (page boundary line L11 and the outer shape straight line Lz 1 (straight lines L12 to L14)) included in the read outline data S1 into the component points. P1 (P 11, P 12, ..., and, P 1a, P 1b, ... ) is expressed by (Figure 7).

再び、図14の説明に戻る。
次に、構成点配置部22は、同様に、歪み補正外形データS2に構成点配置処理を実行する(ステップS205,図14)。これにより、歪み補正外形データS2に含まれる直線(ページ境界線L21と外形形状直線Lz2(直線L22〜L24))により形成される輪郭線を、構成点P2(P21、P22、…、や、P2a、P2b、…)(図7)で表現する。
Returning to the description of FIG.
Next, the constituent point placement unit 22 similarly executes the constituent point placement processing on the distortion correction outline data S2 (step S205, FIG. 14). As a result, contour lines formed by straight lines (page boundary line L21 and external shape straight lines Lz 2 (straight lines L22 to L24)) included in the distortion-corrected outer shape data S2 are converted into constituent points P2 (P 21 , P 22 ,. Or P 2a , P 2b ,...) (FIG. 7).

次に、対応関係構築部23は、外形記憶部26から、構成点P1と構成点P2とを取得して、対応関係構築処理を実行する(ステップS206)。この対応関係構築処理により、対応関係構築部23は、読取外形データS1の輪郭線を構成するすべての構成点P1を、歪み補正外形データS2の輪郭線を構成するすべての構成点P2それぞれと対応付ける。   Next, the correspondence relationship construction unit 23 acquires the configuration point P1 and the configuration point P2 from the outer shape storage unit 26, and executes a correspondence relationship construction process (step S206). By this correspondence construction processing, the correspondence construction unit 23 associates all the constituent points P1 constituting the outline of the read outline data S1 with all the constituent points P2 constituting the outline of the distortion correction outline data S2. .

ここで、図17を参照して、対応関係構築部23の対応関係構築処理動作(図14のステップS206)について説明する(適宜、図1ないし図14を参照)。
<対応関係構築処理>
まず、対応関係構築部23は、読取外形データS1の輪郭線上の構成点P1から、直線と曲線との境界点を抽出する(ステップS501)。当該処理により、D1c、D1d、D1e、D1fが境界点として抽出される。
同様に、対応関係構築部23は、歪み補正外形データS2の輪郭線上の構成点P2から、直線と曲線との境界点を抽出する(ステップS502)。当該処理により、D2c、D2d、D2e、D2fが境界点として抽出される。
Here, with reference to FIG. 17, the correspondence construction processing operation (step S206 in FIG. 14) of the correspondence construction unit 23 will be described (refer to FIGS. 1 to 14 as appropriate).
<Correspondence building process>
First, the correspondence construction unit 23 extracts a boundary point between a straight line and a curve from the constituent point P1 on the contour line of the read outer shape data S1 (step S501). Through this process, D1 c , D1 d , D1 e , and D1 f are extracted as boundary points.
Similarly, the correspondence construction unit 23 extracts a boundary point between a straight line and a curve from the constituent point P2 on the contour line of the distortion correction outer shape data S2 (step S502). Through this processing, D2 c , D2 d , D2 e , and D2 f are extracted as boundary points.

次に、対応関係構築部23は、読取外形データS1から抽出した境界点のうち、ページ境界線L11上にある境界点D1e(D1d)と、歪み補正外形データS2から抽出した境界点のうち、ページ境界線L21上にある境界点D2e(D2d)とを対応付ける(ステップS503)。
次に、対応関係構築部23は、読取外形データS1の角構成点D1a(D1b)と、歪み補正外形データS2の角構成点D2a(D2b)とを対応付ける(ステップS504)。
当該ステップS503〜S504の処理により、対応関係構築部23は、図7にて破線で示すように、角構成点D1aとD2aとを対応付け、そして、ページ境界線L11またはL21上にある境界点D1eと境界点D2eとを対応付ける。
Next, the correspondence construction part 23 selects the boundary points D1 e (D1 d ) on the page boundary line L11 out of the boundary points extracted from the read outline data S1 and the boundary points extracted from the distortion corrected outline data S2. Among these, the boundary point D2 e (D2 d ) on the page boundary line L21 is associated (step S503).
Next, the correspondence construction unit 23 associates the corner component point D1 a (D1 b ) of the read outer shape data S1 with the corner component point D2 a (D2 b ) of the distortion corrected outer shape data S2 (step S504).
The process of step S503~S504, correspondence construction unit 23, as indicated by a broken line in FIG. 7, correlates the angular configuration point D1 a and D2 a, and lies on the page boundary line L11 or L21 The boundary point D1 e is associated with the boundary point D2 e .

そして、対応関係構築部23は、読取外形データS1から抽出した境界点のうち、ページ境界線L11上にない境界点D1f(D1c)を、歪み補正外形データS2に投影する(ステップS505)。 Then, the correspondence relationship construction unit 23 projects the boundary point D1 f (D1 c ) that is not on the page boundary line L11 among the boundary points extracted from the read outer shape data S1 to the distortion corrected outer shape data S2 (step S505). .

そして、対応関係構築部23は、読取外形データS1のページ境界線L11上にない境界点D1fと、歪み補正外形データS2に投影した位置に最近傍の構成点P2(D2f)とを対応付ける(ステップS506)。
当該ステップS505〜S506の処理により、対応関係構築部23は、図7にて破線で示すように、境界点D1fと投影点D2fとを対応付ける。同様にして、対応関係構築部23は、ページ境界線L11上にない境界点D1cと、境界点D1cを歪み補正外形データS2に投影した位置に最近傍の構成点P2(D2c)とを対応付ける。
Then, the correspondence construction unit 23 associates the boundary point D1 f not on the page boundary line L11 of the read outer shape data S1 with the nearest constituent point P2 (D2 f ) at the position projected on the distortion corrected outer shape data S2. (Step S506).
By the processing in steps S505 to S506, the correspondence relationship building unit 23 associates the boundary point D1 f with the projection point D2 f as indicated by a broken line in FIG. Similarly, the correspondence construction unit 23 creates a boundary point D1 c that is not on the page boundary line L11, and the nearest constituent point P2 (D2 c ) at the position where the boundary point D1 c is projected onto the distortion correction outline data S2. Associate.

そして、対応関係構築部23は、読取外形データS1における境界点D1eから境界点D1fまでの区間の輪郭線上にある構成点P1の数と、歪み補正外形データS2における境界点D2eから投影点D2fまでの区間の輪郭線上にある構成点P2の数とが同数になるように、数が少ない方の外形データの構成点の数を増やして調整する(ステップS507)。そして、対応関係構築部23は、読取外形データS1における区間内の構成点と、歪み補正外形データS2における区間内の構成点とをそれぞれ対応付ける(ステップS508)。このステップS507〜S508の処理の説明は、後記する。
そして、対応関係構築処理(図14のステップS206)を終了し、次にステップS207の処理を実行する。
Then, the correspondence establishing section 23 includes a number of control points P1 located on the contour line of the section from the border point D1 e in the read contour data S1 to the boundary point D1 f, projected from the boundary point D2 e in distortion correction profile data S2 Adjustment is performed by increasing the number of constituent points of the smaller outer shape data so that the number of constituent points P2 on the contour line of the section up to the point D2 f is the same (step S507). Then, the correspondence relationship construction unit 23 associates the constituent points in the section in the read outer shape data S1 with the constituent points in the section in the distortion correction outer shape data S2 (step S508). The processing of steps S507 to S508 will be described later.
Then, the correspondence construction process (step S206 in FIG. 14) is terminated, and then the process of step S207 is executed.

ここで、対応関係構築部23は、区間内の構成点の数を調整する際、まず、読取外形データS1における区間(D1e〜D1f)内の構成点P1の数と、歪み補正外形データS2における区間(D2e〜D2f)内の構成点P2の数とを比較する。そして、差分した数(構成点が足りない数)の構成点を、構成点の数が少ない方の外形データの区間内に、新たに追加して構成点の数を調整する処理を、ステップS507〜S508の処理で行う。 Here, when the correspondence construction unit 23 adjusts the number of constituent points in the section, first, the number of constituent points P1 in the section (D1 e to D1 f ) in the read outer shape data S1 and the distortion correction outer shape data. comparing the number of sections (D2 e ~D2 f) constituent points in P2 in S2. Then, a process of newly adding the difference number (the number of constituent points is insufficient) in the outline data section having the smaller number of constituent points to adjust the number of constituent points is performed in step S507. ˜S508 is performed.

(ステップS507〜S508の処理の説明)
ここで、対応関係構築部23が行うステップS507〜S508の処理について、図6および図7を用いて説明する。
対応関係構築部23は区間内の構成点の数を調整する際、まず、読取外形データS1における区間(D1e〜D1f)内の構成点P1の数と、歪み補正外形データS2における区間(D2e〜D2f)内の構成点P2の数とを取得し、構成点の数を比較する。そして、足りない数だけ、構成点の数が少ない外形データの区間内の構成点を追加する。
例えば、図7の場合、構成点P1の数=3、構成点P2の数=7であり、読取外形データS1の方が4つだけ構成点の数が足りない。
(Description of processing in steps S507 to S508)
Here, the processing of steps S507 to S508 performed by the correspondence construction unit 23 will be described with reference to FIGS.
When the correspondence construction unit 23 adjusts the number of constituent points in the section, first, the number of constituent points P1 in the section (D1 e to D1 f ) in the read outer shape data S1 and the section in the distortion corrected outer shape data S2 ( D2 e to D2 f ) and the number of constituent points P2 are obtained, and the number of constituent points is compared. Then, the number of constituent points in the section of the outline data having a small number of constituent points is added by the number that is insufficient.
For example, in the case of FIG. 7, the number of component points P1 = 3 and the number of component points P2 = 7, and the read outline data S1 has only four component points.

次に、対応関係構築部23は差分した数(構成点が足りない数)の構成点を、構成点の数が少ない方の外形データの区間内に、新たに追加する処理を行う。このとき、区間中央地点に最近傍に位置する既存の構成点から順番に、既存の構成点と同じ位置に新たな構成点を追加する。最も離れて位置する既存の構成点と同じ位置に新たな構成点を追加してもなお、追加すべき新たな構成点の数に余剰があれば、再び、区間中央地点に最近傍に位置する既存の構成点から順番に構成点を追加する。   Next, the correspondence construction unit 23 performs processing for newly adding the difference number (the number of configuration points is insufficient) in the section of the external data having the smaller number of configuration points. At this time, a new component point is added to the same position as the existing component point sequentially from the existing component point located closest to the section center point. Even if a new component point is added at the same position as the existing component point that is located farthest away, if there is a surplus in the number of new component points to be added, it is again positioned closest to the section center point Add composition points in order from existing composition points.

図8を用いて当該追加処理について説明する。
まず、対応関係構築部23は、外形記憶部26を参照して、構成点の数が少ない方の読取外形データS1から、区間(D1e〜D1f)を二等分する位置を抽出し、その位置を区間中央地点Mとする。そして、区間中央地点Mに最近傍の構成点P12を抽出し、1つ目の新たな構成点P14を構成点P12と同じ位置に重ねて追加する。そして、区間中央地点Mから次に近い構成点P11を抽出し、2つ目の新たな構成点P15を構成点P11と同じ位置に重ねて追加する。そして、区間中央地点Mから3番目に近い構成点P13を抽出し、3つ目の新たな構成点P16を構成点P13と同じ位置に重ねて追加する。
ここで、区間(D1e〜D1f)内で、区間中央地点Mから最も離れた位置にある構成点P13に新たな構成点を追加してもなお、歪み補正外形データS2より構成点の数が1つ足りないため、4つ目の新たな構成点P17を構成点P12と同じ位置に重ねて追加する。
The addition process will be described with reference to FIG.
First, the correspondence relationship building unit 23 refers to the outer shape storage unit 26 and extracts a position that bisects the section (D1 e to D1 f ) from the read outer shape data S1 having a smaller number of constituent points. The position is defined as a section center point M. Then, the nearest constituent point P 12 is extracted from the section center point M, and the first new constituent point P 14 is added at the same position as the constituent point P 12 . Then, the next closest configuration point P 11 is extracted from the section center point M, and a second new configuration point P 15 is added at the same position as the configuration point P 11 . Then, the third closest configuration point P 13 from the section center point M is extracted, and a third new configuration point P 16 is added at the same position as the configuration point P 13 .
Here, the interval (D1 e ~D1 f) within, adding a new configuration points composing point P 13 which is positioned farthest from the section center point M Note that the configuration point than distortion correction profile data S2 Since the number is one, the fourth new component point P 17 is added at the same position as the component point P 12 .

以上のように、ステップS507の処理が行われて、読取外形データS1の構成点P1の数と、歪み補正外形データS2の構成点P2の数とが調整され、図8に示すように、読取外形データS1の区間(D1e〜D1f)の構成点は、P11〜P17の7つになる。そして、P11と同じ位置にP15が追加され、P12と同じ位置にP14とP17とが追加され、P13と同じ位置にP16が追加される。
このように、読取外形データS1の構成点P1の数と、歪み補正外形データS2の構成点P2の数とが調整されて、ステップS507の処理が終了する。
As described above, the process of step S507 is performed, and the number of constituent points P1 of the read outer shape data S1 and the number of constituent points P2 of the distortion corrected outer shape data S2 are adjusted. As shown in FIG. There are seven constituent points P 11 to P 17 in the section (D1 e to D1 f ) of the outer shape data S1. Then, P 15 is added at the same position as P 11 , P 14 and P 17 are added at the same position as P 12, and P 16 is added at the same position as P 13 .
In this way, the number of constituent points P1 of the read outer shape data S1 and the number of constituent points P2 of the distortion-corrected outer shape data S2 are adjusted, and the process of step S507 ends.

そして、対応関係構築部23は、ステップS508の処理を行う。このステップS508の処理を図9を用いて説明する。
ここで、読取外形データS1における区間(D1e〜D1f)内の構成点P1は、D1fの最近傍にある構成点から、P11、P15(P11)、P12、P14(P12)、P17(P12)、P13、P16(P13)の順番で配置されている。一方、歪み補正外形データS2における区間(D2e〜D2f)内の構成点P2は、D2fの最近傍にある構成点から、P21、P22、P23、P24、P25、P26、P27の順番で配置されている。
まず、対応関係構築部23は、外形記憶部26に記憶された構成点の座標値に基づき、D1fとD2fの最近傍にある構成点同士を対応付け、その後、配置された順番に対応付けを行う。つまり、対応関係構築部23は、まず、D1fの最近傍にある構成点P11と、D2fの最近傍にある構成点P21とを対応付け、次に、構成点P15(P11)と構成点P22とを対応付ける。そして最後に、構成点P16(P13)と構成点P27とを対応付ける。
以上の処理により、図9に示すように、読取外形データS1における区間内の構成点P1(P11〜P17)と、歪み補正外形データS2における区間内の構成点P2(P21〜P27)とがそれぞれ対応付けられて、ステップS508の処理が終了する。
Then, the correspondence relationship construction unit 23 performs the process of step S508. The processing in step S508 will be described with reference to FIG.
Here, the configuration point P1 in the section (D1 e to D1 f ) in the read outline data S1 is P 11 , P 15 (P 11 ), P 12 , P 14 (from the configuration point nearest to D1 f. P 12), P 17 (P 12), are arranged in the order of P 13, P 16 (P 13 ). On the other hand, the constituent point P2 in the section (D2 e to D2 f ) in the distortion corrected outer shape data S2 is P 21 , P 22 , P 23 , P 24 , P 25 , P 25 from the constituent point closest to D2 f. 26, are arranged in the order of P 27.
First, the correspondence construction unit 23 associates the constituent points that are closest to D1 f and D2 f on the basis of the coordinate values of the constituent points stored in the outer shape storage unit 26, and then corresponds to the arrangement order. To do. That is, the correspondence relationship construction unit 23 first associates the configuration point P 11 that is closest to D1 f with the configuration point P 21 that is closest to D2 f , and then configures the configuration point P 15 (P 11 ) and associates the configuration point P 22. Finally, the configuration point P 16 (P 13 ) is associated with the configuration point P 27 .
By the above processing, as shown in FIG. 9, the constituent point P1 (P 11 to P 17 ) in the section in the read outer shape data S1 and the constituent point P2 (P 21 to P 27 in the section in the distortion corrected outer shape data S2). ) Are associated with each other, and the process of step S508 ends.

対応関係構築部23は、ステップS501〜S508に示す対応関係構築処理を、読取外形データS1の輪郭線を構成するすべての構成点P1と、歪み補正外形データS2の輪郭線を構成するすべての構成点P2とに対して行う。これにより、すべての構成点P1と、すべての構成点P2とがそれぞれ対応付けられる。   The correspondence relationship construction unit 23 performs the correspondence relationship construction processing shown in steps S501 to S508 on all the constituent points P1 constituting the contour line of the read outer shape data S1 and all the constituent points constituting the contour line of the distortion corrected outer shape data S2. Perform for point P2. Thereby, all the configuration points P1 and all the configuration points P2 are associated with each other.

再び、図14の説明に戻る。
補正率設定部24は、歪み補正外形データS2の状態を補正率R=1.0に設定し、所定の間隔(例えば、0.2とする)で値を変化させた複数の補正率Rを設定する(ステップS207)。
Returning to the description of FIG.
The correction factor setting unit 24 sets the state of the distortion correction outer shape data S2 to the correction factor R = 1.0, and sets a plurality of correction factors R whose values are changed at a predetermined interval (for example, 0.2). Setting is made (step S207).

当該ステップS207の処理について、図5を用いて説明する。
補正率設定部24は、読取外形データS1における、ページ境界線L11上の境界点D1dと境界点D1eとを結ぶ線分の長さの状態を補正率R=0.0として、歪み補正外形データS2における、ページ境界線L21上の境界点D2dと境界点D2eとを結ぶ線分の長さの状態を補正率R=1.0とする。そして、補正率Rを変えて、境界点D2dと境界点D2eとを結ぶ線分の長さに乗算する補正を行う。
ここで、補正率Rが「R<1」であれば、境界点D2dと境界点D2eとを結ぶ線分の長さが短くなり、R=0,0で、境界点D1dと境界点D1eとを結ぶ線分の長さと一致することになる。一方、「R>1」であれば、境界点D2dと境界点D2eとを結ぶ線分の長さがさらに長くなる。
The process of step S207 will be described with reference to FIG.
The correction rate setting unit 24 sets the length of the line segment connecting the boundary point D1 d and the boundary point D1 e on the page boundary line L11 in the read outline data S1 as the correction rate R = 0.0, and corrects the distortion. on the profile data S2, the line segment connecting the boundary point D2 d and the boundary point D2 e on the page boundary L21 state length as the correction factor R = 1.0. Then, by changing the correction factor R, performs correction to be multiplied by the length of a line connecting the boundary point D2 d and the boundary point D2 e.
Here, if the correction rate R is “R <1”, the length of the line segment connecting the boundary point D2 d and the boundary point D2 e becomes short, and when R = 0, 0, the boundary point D1 d and the boundary point This coincides with the length of the line segment connecting the point D1 e . On the other hand, if “R> 1”, the length of the line segment connecting the boundary point D2 d and the boundary point D2 e is further increased.

再び、図14の説明に戻る。
形状補正部25は、歪み補正外形データS2を、補正率Rそれぞれの値で補正した、複数の補正率外形データS3を生成し(ステップS208)、読取外形データS1と歪み補正外形データS2と補正率外形データS3を外形記憶部26に記憶する(ステップS209)。そして、補正準備部13は補正準備処理(図13のステップS106)を終了する。
Returning to the description of FIG.
The shape correction unit 25 generates a plurality of correction factor outer shape data S3 obtained by correcting the distortion correction outer shape data S2 with each value of the correction factor R (step S208), and corrects the read outer shape data S1 and the distortion correction outer shape data S2. The rate outline data S3 is stored in the outline storage unit 26 (step S209). Then, the correction preparation unit 13 ends the correction preparation process (step S106 in FIG. 13).

ステップS208の処理にて、形状補正部25は、次のように補正を行い、補正率外形データS3を生成する。
まず、形状補正部25は、外形記憶部26から、歪み補正外形データS2を取得し、歪み補正外形データS2の輪郭線における境界点D2d〜境界点D2e間のページ境界線L11の線分(図5(b))上の、構成点P2の座標値を補正率Rで補正し、補正後の構成点P2の座標値が外形記憶部26に記憶される。
さらに、境界点D2c〜境界点D2d間の曲線の線分(図5(b))および境界点D2e〜境界点D2f間の曲線の線分(図5(b))上の構成点P2の座標値を、その補正率Rに基づく補正をし、補正後の構成点P2の座標値が外形記憶部26に記憶される。この補正率Rに基づく補正は、ページ境界線L11に近いほど補正量が多くなるようにし、反対に境界点D2cおよび境界点D2fに近いほど補正量が少なくなるようにする。このとき、境界点D2cおよび境界点D2fの座標値には、補正率Rに基づく補正は行われない。
この補正は、例えば、公知の2次元モーフィングであるフィールドモーフィング(field morphing)を用いて行うことにより、実現することができる。
In the process of step S208, the shape correcting unit 25 performs correction as follows, and generates correction factor outline data S3.
First, the shape correction unit 25, from the outer storage section 26, distortion correction acquires profile data S2, the line distortion correcting boundary point in the contour of the outer shape data S2 D2 d ~ page boundary line L11 between boundary points D2 e The coordinate value of the component point P2 on (FIG. 5B) is corrected with the correction rate R, and the coordinate value of the component point P2 after correction is stored in the outer shape storage unit 26.
Furthermore, construction of the line segment of the curve between the boundary points D2 c ~ boundary point D2 d (FIG. 5 (b)) and the line segment of the curve between the boundary points D2 e ~ boundary point D2 f (FIG. 5 (b)) The coordinate value of the point P2 is corrected based on the correction rate R, and the coordinate value of the corrected component point P2 is stored in the outer shape storage unit 26. Correction based on the correction factor R is as as the correction amount is increased close to a page boundary L11, so that the more the correction amount near the boundary point D2 c and boundary point D2 f Conversely decreases. At this time, the coordinate values of the boundary points D2 c and boundary point D2 f is corrected based on the correction factor R is not performed.
This correction can be realized, for example, by performing field morphing, which is known two-dimensional morphing.

<二次補正処理>
次に、図18を参照して、二次補正部14の二次補正処理動作(図13のステップS107)について説明する(適宜、図1ないし図13を参照)。
二次補正部14が備える特徴領域抽出部27は、外形記憶部26から読取外形データS1と歪み補正外形データS2と補正率外形データS3とを取得し、さらに、画像データ記憶部11から読取画像データD1と歪み補正画像データD2とを取得する(ステップS601)。そして、特徴領域抽出処理を実行する。
<Secondary correction processing>
Next, the secondary correction processing operation (step S107 in FIG. 13) of the secondary correction unit 14 will be described with reference to FIG. 18 (refer to FIGS. 1 to 13 as appropriate).
The feature region extraction unit 27 included in the secondary correction unit 14 acquires the read outer shape data S1, the distortion correction outer shape data S2, and the correction factor outer shape data S3 from the outer shape storage unit 26, and further reads the read image from the image data storage unit 11. Data D1 and distortion corrected image data D2 are acquired (step S601). Then, a feature region extraction process is executed.

特徴領域抽出部27は、ステップS306の処理にて、外形形状抽出部21が読取画像データD1を分割した2つの画像(D1LとD1R)を、補正率Rが一致する画像同士で合成し、一つの画像データにする(ステップS602)。同様に、外形形状抽出部21が歪み補正画像データD2を分割した2つの画像(D2LとD2R)も合成する。   In the process of step S306, the feature region extraction unit 27 combines two images (D1L and D1R) obtained by dividing the read image data D1 by the outer shape extraction unit 21 with images having the same correction rate R, One image data is set (step S602). Similarly, the outer shape extraction unit 21 combines two images (D2L and D2R) obtained by dividing the distortion-corrected image data D2.

そして、特徴領域抽出部27は、対応関係構築部23により、読取画像データD1と歪み補正画像データD2との間で対応付けられたすべての構成点の組(構成点P1と構成点P2との組)における、構成点間の距離を算出する(ステップS603)。そして、特徴領域抽出部27は、構成点間の距離が最大となる(変化率が高い)構成点の組を検出する(ステップS604)。このとき、その組の構成点の座標値を取得する。   Then, the feature region extraction unit 27 uses the correspondence relationship construction unit 23 to set all of the constituent points associated with the read image data D1 and the distortion corrected image data D2 (the constituent points P1 and P2). The distance between the component points in the set) is calculated (step S603). Then, the feature region extraction unit 27 detects a set of component points that maximizes the distance between the component points (the rate of change is high) (step S604). At this time, the coordinate values of the constituent points of the set are acquired.

特徴領域抽出部27は、構成点間を結ぶ線分を伸張し、その線分を対角線とする矩形の特徴領域を抽出する(ステップS605)。このとき、線分の端点の座標を取得しておく。
以上に示す特徴領域抽出処理により、特徴領域抽出部27は、読取外形データS1の輪郭線と歪み補正外形データS2の輪郭線との変化率が高い所定の大きさの領域(特徴領域)を抽出する。
The feature region extraction unit 27 extends a line segment connecting the constituent points, and extracts a rectangular feature region having the line segment as a diagonal line (step S605). At this time, the coordinates of the end points of the line segment are acquired.
By the feature region extraction processing described above, the feature region extraction unit 27 extracts a region (feature region) having a predetermined size with a high rate of change between the contour line of the read outer shape data S1 and the contour line of the distortion corrected outer shape data S2. To do.

次に、特徴領域抽出部27は、すべての補正率外形データS3から、ステップS605で抽出した特徴領域内にあたる画像(部分画像)を抽出する(ステップS606)。
これにより、特徴領域抽出部27は、ステップS602で補正率Rが一致する画像同士で合成してから、ステップS603〜S606の処理を行うため、特徴領域抽出部27により、補正率R毎に異なる複数の部分画像が抽出される。
Next, the feature region extraction unit 27 extracts an image (partial image) corresponding to the feature region extracted in step S605 from all the correction factor outline data S3 (step S606).
As a result, the feature region extraction unit 27 performs the processing of steps S603 to S606 after combining the images with the same correction rate R in step S602, so that the feature region extraction unit 27 differs for each correction rate R. A plurality of partial images are extracted.

そして、表示制御部28は、特徴領域抽出部27が抽出した部分画像を取得し、表示部7に補正率R毎に異なる複数の部分画像を一覧表示させる(図10参照)(ステップS607)。
ユーザは、操作入力部8を操作して、一つの部分画像を選択する(ステップS608)。
入力処理部29は、操作入力部8から入力される選択情報を取得する(ステップS609)。
そして、補正画像生成部30は、補正画像生成処理を実行する(ステップS610)。
Then, the display control unit 28 acquires the partial images extracted by the feature region extraction unit 27, and causes the display unit 7 to display a list of different partial images for each correction factor R (see FIG. 10) (step S607).
The user operates the operation input unit 8 to select one partial image (step S608).
The input processing unit 29 acquires selection information input from the operation input unit 8 (step S609).
Then, the corrected image generation unit 30 executes a corrected image generation process (step S610).

<補正画像生成処理>
ここで、図19を参照して、補正画像生成部30の補正画像生成処理動作(図18のステップS610)について説明する(適宜、図1ないし図18、特に図12を参照)。
まず、補正画像生成部30は、選択情報に基づき、選択された部分画像(特徴領域)に対応する補正率Rの補正率外形データS3を、外形記憶部26から取得する(ステップS701)。そして、補正率外形データS3をラスタ化し、補正率外形データS3の輪郭線を取得する(ステップS702)。
<Corrected image generation processing>
Here, the corrected image generation processing operation (step S610 in FIG. 18) of the corrected image generation unit 30 will be described with reference to FIG. 19 (refer to FIGS. 1 to 18, particularly FIG. 12 as appropriate).
First, based on the selection information, the corrected image generation unit 30 acquires the correction rate outline data S3 of the correction rate R corresponding to the selected partial image (feature area) from the outline storage unit 26 (step S701). Then, the correction factor outline data S3 is rasterized, and the contour line of the correction factor outline data S3 is acquired (step S702).

補正画像生成部30は、補正率外形データS3の輪郭線上になく、輪郭線で囲まれた領域内に位置する仮想点U3(u3n)の座標(x3,y3)を取得し(ステップS703)、その仮想点U3から最近傍の補正率外形データS3の構成点P3を検出する(ステップS704)。 The corrected image generation unit 30 acquires the coordinates (x 3 , y 3 ) of the virtual point U3 (u 3n ) that is not on the contour line of the correction factor outer shape data S3 but is located within the region surrounded by the contour line (Step 3 In step S703, the constituent point P3 of the nearest correction factor outline data S3 is detected from the virtual point U3 (step S704).

補正画像生成部30は、その構成点P3(P3n)に対応付けられた歪み補正外形データS2の輪郭線の構成点P2(P2n)を取得し(ステップS705)、構成点P3から構成点P2までの移動ベクトルV(xt,yt)を算出する(ステップS706)。 The corrected image generation unit 30 acquires the configuration point P2 (P 2n ) of the contour line of the distortion correction outline data S2 associated with the configuration point P3 (P 3n ) (step S705), and configures the configuration point from the configuration point P3. A movement vector V (x t , y t ) up to P2 is calculated (step S706).

さらに、補正画像生成部30は、所定の条件を満たす点Q(交点QLLまたは交点QLW)から構成点P3までの距離と、前記点Qから仮想点U3までの距離とから、重み係数ωを算出する(ステップS707)。 Furthermore, the corrected image generation unit 30 calculates the weighting factor ω from the distance from the point Q (intersection Q LL or intersection Q LW ) that satisfies a predetermined condition to the constituent point P3 and the distance from the point Q to the virtual point U3. Is calculated (step S707).

重み係数ωは次のように算出する。
構成点P2と構成点P3とを結ぶ直線と、ページの中央を縦断する直線LLとの交点をQLLとする。また、構成点P2と構成点P3とを結ぶ直線と、ページの中央を横断する直線LWとの交点をQLWとする。
そして、交点QLLから構成点P3までの距離または交点QLWから構成点P3までの距離のいずれか短い方の距離をLmaxとし、距離Lmaxに選ばれた点(交点QLLまたは交点QLW)から仮想点U3までの距離をLuとする。そして、数式(1)を用いて、LuのLmaxに対する割合を重み係数ωとする。
The weighting factor ω is calculated as follows.
Let Q LL be the intersection of a straight line connecting the constituent point P2 and the constituent point P3 and a straight line LL that cuts through the center of the page. Further, an intersection of a straight line connecting the configuration point P2 and the configuration point P3 and a straight line LW crossing the center of the page is defined as Q LW .
Then, the distance from the intersection point Q LL to the component point P3 or the distance from the intersection point Q LW to the component point P3, whichever is shorter, is L max, and the point selected as the distance L max (the intersection point Q LL or the intersection point Q 3 Let L u be the distance from LW ) to the virtual point U3. Then, using Equation (1), the ratio of L u to L max is set as a weighting factor ω.

Figure 2012019474
Figure 2012019474

再び、図19の説明に戻る。
補正画像生成部30は、数式(2)を用いて、移動ベクトルVと重み係数ωとから、仮想点U3(x3,y3)が補正前に、歪み補正画像データD2にあったと推定される推定点U2(x2,y2)(推定点u2n)を算出する(ステップS708)。
Returning again to the description of FIG.
The corrected image generation unit 30 estimates that the virtual point U3 (x 3 , y 3 ) was in the distortion corrected image data D2 before correction from the movement vector V and the weighting coefficient ω using Equation (2). Estimated point U2 (x 2 , y 2 ) (estimated point u 2n ) is calculated (step S708).

Figure 2012019474
Figure 2012019474

補正画像生成部30は、数式(3)を用いて、仮想点U3の位置に相当する画素の画素値I3を、推定点U2(x2,y2)の位置に相当する歪み補正画像データD2の画素の画素値I2で補正する(ステップS709)。 The corrected image generation unit 30 uses the equation (3) to calculate the pixel value I 3 of the pixel corresponding to the position of the virtual point U3 and the distortion corrected image data corresponding to the position of the estimated point U2 (x 2 , y 2 ). corrected pixel value I 2 of D2 pixel (step S709).

Figure 2012019474
Figure 2012019474

補正画像生成部30は、補正率外形データS3の輪郭線で囲まれた領域内に位置するすべての点(仮想点U3)の座標を取得したか否かを判定する(ステップS710)。
取得していない点の座標がある場合(ステップS710,No)、ステップS703の処理を再度行う。
一方、すべての点の座標を取得している場合(ステップS710,Yes)、補正画像生成処理(図18のステップS610)を終了するとともに、二次補正処理(図13のステップS107)を終了する。そして、次にステップS108(図13)の処理を実行する。
The corrected image generation unit 30 determines whether or not the coordinates of all the points (virtual points U3) located in the region surrounded by the outline of the correction factor outline data S3 have been acquired (step S710).
If there are coordinates of points that have not been acquired (step S710, No), the process of step S703 is performed again.
On the other hand, when the coordinates of all the points have been acquired (step S710, Yes), the corrected image generation process (step S610 in FIG. 18) ends and the secondary correction process (step S107 in FIG. 13) ends. . Then, the process of step S108 (FIG. 13) is executed.

以上により、第1の実施形態に係る画像読取装置1は、補正量が不十分な画像に対して、ユーザが選択した補正率Rに従って二次補正が行われるため、適切な補正量で歪み画像を補正することができる。
また、画像読取装置1は、補正画像生成部30が、補正後の輪郭線(補正率外形データS3)を補正率Rごとに画像データを生成し、それぞれを選択可能にして、表示部7に一覧表示させることにより、ユーザに補正率Rの選択権を与えることができる。そして、ユーザは希望する補正後の輪郭線(補正率外形データS3)を容易に判断できる。
As described above, since the image reading apparatus 1 according to the first embodiment performs the secondary correction on the image with the insufficient correction amount according to the correction rate R selected by the user, the distorted image with the appropriate correction amount. Can be corrected.
Further, in the image reading apparatus 1, the corrected image generation unit 30 generates image data for each corrected correction rate R for the corrected contour line (correction rate outer shape data S <b> 3). By displaying the list, it is possible to give the user the right to select the correction factor R. Then, the user can easily determine a desired contour line after correction (correction factor outer shape data S3).

また、画像読取装置1は、媒体画像データ(歪み補正画像データD2)から抽出した媒体の輪郭線(歪み補正外形データS2)が、ユーザが選択した補正率Rの輪郭線(補正率外形データS3)と一致するように、媒体画像データ(歪み補正画像データD2)を補正することにより、ユーザに選択された補正率Rに基づいて、媒体の歪んだ形状を補正することができる。   Further, the image reading apparatus 1 uses the contour line (distortion correction outer shape data S2) of the medium extracted from the medium image data (distortion correction image data D2) as the contour (correction rate outer shape data S3) of the correction factor R selected by the user. ), The distorted shape of the medium can be corrected based on the correction rate R selected by the user by correcting the medium image data (distortion correction image data D2).

《第2の実施形態》
次に、第2の実施形態に係る画像読取装置の構成について説明する。
図20に示すように、第2の実施形態に係る画像読取装置1Aの二次補正部14Aは、第1の実施形態に係る画像読取装置1の二次補正部14(図3)に、さらに、補正形状評価部51と、補正形状評価部51からのデータを取得して処理を行う機能が追加された表示制御部28Aとを備えた装置である。
<< Second Embodiment >>
Next, the configuration of the image reading apparatus according to the second embodiment will be described.
As shown in FIG. 20, the secondary correction unit 14A of the image reading apparatus 1A according to the second embodiment is further added to the secondary correction unit 14 (FIG. 3) of the image reading apparatus 1 according to the first embodiment. The correction shape evaluation unit 51 and a display control unit 28A to which a function of acquiring data from the correction shape evaluation unit 51 and performing processing are added.

(補正形状評価部51)
補正形状評価部51は、外形記憶部26からすべての補正率外形データS3を取得し、補正形状評価処理を実行する構成部である。
この補正形状評価処理により、補正形状評価部51は、各補正率外形データS3の輪郭線の評価値を算出する。そして、最高評価値の補正率外形データS3に行われた補正率Rを表示制御部28Aに出力する。
(Correction shape evaluation unit 51)
The correction shape evaluation unit 51 is a component that acquires all the correction factor outline data S3 from the outline storage unit 26 and executes the correction shape evaluation process.
By this correction shape evaluation process, the correction shape evaluation unit 51 calculates the evaluation value of the outline of each correction factor outline data S3. Then, the correction rate R applied to the highest evaluation value correction rate profile data S3 is output to the display control unit 28A.

(表示制御部28A)
第2の実施形態における表示制御部28Aは、補正形状評価部51から取得した補正率Rに対応する部分画像を強調した画像データを生成して、表示部7に複数の部分画像を表示させる。図21は、表示制御部28Aが、表示パネル86(表示部7)にJ3の補正率R=1.4の部分画像を強調して表示させた一例である。
(Display control unit 28A)
The display control unit 28A in the second embodiment generates image data in which the partial image corresponding to the correction rate R acquired from the correction shape evaluation unit 51 is emphasized, and causes the display unit 7 to display a plurality of partial images. FIG. 21 shows an example in which the display control unit 28A emphasizes and displays the partial image with the correction ratio R = 1.4 of J3 on the display panel 86 (display unit 7).

<二次補正処理>
次に、図22を参照して、二次補正部14Aの二次補正処理動作(図13のステップS107)について説明する。
ここで、第1の実施形態における画像読取装置1(二次補正部14)の二次補正処理動作(図18)と重複するステップS601〜ステップS606と、ステップS608〜ステップS610との処理については、説明を省略する。
<Secondary correction processing>
Next, with reference to FIG. 22, the secondary correction processing operation (step S107 in FIG. 13) of the secondary correction unit 14A will be described.
Here, the processes in steps S601 to S606 and steps S608 to S610 that overlap with the secondary correction processing operation (FIG. 18) of the image reading apparatus 1 (secondary correction unit 14) in the first embodiment are described. The description is omitted.

特徴領域抽出部27が補正率R毎に異なる複数の部分画像を抽出した後(図18のステップS606)、補正形状評価部51は、外形記憶部26に記憶されたすべての補正率外形データS3に対して、補正形状評価処理を実行する(ステップS801)。補正形状評価処理により、補正形状評価部51は、最高評価値の補正率外形データS3に行われた補正率R(最適補正率)を表示制御部28Aに出力する。
表示制御部28Aは、特徴領域抽出部27が抽出した部分画像を取得し、表示部7に補正率R毎に異なる複数の部分画像を一覧表示させる。このとき、表示制御部28Aは、補正形状評価部51から入力される補正率R(最適補正率)に対応する部分画像を強調した画像データを生成して、表示部7に部分画像を表示させる(図21参照)(ステップS802)。
After the feature region extraction unit 27 extracts a plurality of different partial images for each correction rate R (step S606 in FIG. 18), the correction shape evaluation unit 51 stores all the correction rate outer shape data S3 stored in the outer shape storage unit 26. Then, a corrected shape evaluation process is executed (step S801). By the correction shape evaluation process, the correction shape evaluation unit 51 outputs the correction rate R (optimum correction rate) performed on the correction rate outer shape data S3 of the highest evaluation value to the display control unit 28A.
The display control unit 28A acquires the partial images extracted by the feature region extraction unit 27, and causes the display unit 7 to display a list of different partial images for each correction factor R. At this time, the display control unit 28A generates image data in which the partial image corresponding to the correction rate R (optimum correction rate) input from the correction shape evaluation unit 51 is emphasized, and causes the display unit 7 to display the partial image. (See FIG. 21) (step S802).

<補正形状評価処理>
次に、図23および図24を参照して、補正形状評価部51の補正形状評価処理動作(図22のステップS801)について説明する(適宜、図20ないし図22を参照)。
補正形状評価部51は、まず、外形記憶部26から補正率外形データS3を取得し(ステップS901)、その補正率外形データS3から2つの角構成点(D3aとD3b)の座標値と、ページ境界線L31上にある境界点(D3eとD3d)の座標値とを抽出し、角構成点D3aと角構成点D3bとを結ぶ直線L33と、ページ境界線L31との角度θを算出する(ステップS902)。
そして、補正形状評価部51は、数式(4)を用いて、ページ境界線L31の傾きの評価値Egrad(平行度)を算出する(ステップS903)。ただし、角度θは鋭角であるとする。
<Correction shape evaluation process>
Next, the corrected shape evaluation processing operation (step S801 in FIG. 22) of the corrected shape evaluating unit 51 will be described with reference to FIGS. 23 and 24 (refer to FIGS. 20 to 22 as appropriate).
The correction shape evaluation unit 51 first acquires the correction factor outer shape data S3 from the outer shape storage unit 26 (step S901), and the coordinate values of the two corner composing points (D3 a and D3 b ) from the correction factor outer shape data S3. The coordinate value of the boundary point (D3 e and D3 d ) on the page boundary line L31 is extracted, and the angle between the straight line L33 connecting the corner component point D3 a and the corner component point D3 b and the page boundary line L31 θ is calculated (step S902).
Then, the correction shape evaluation unit 51 calculates the evaluation value E grad (parallelism) of the inclination of the page boundary line L31 using Expression (4) (Step S903). However, it is assumed that the angle θ is an acute angle.

Figure 2012019474
Figure 2012019474

次に、補正形状評価部51は、角構成点D3aと角構成点D3bとを結ぶ線分(直線L33)の長さLedgeと、境界点D3eと境界点D3dとを結ぶ線分(ページ境界線L31)の長さLborderとを算出する(ステップS904)。
そして、補正形状評価部51は、数式(5)を用いて、ページ境界線L31の長さの評価値Elength(一致度)を算出する(ステップS905)。
Next, the correction shape evaluation unit 51, a line connecting the length L edge of the segment (straight line L33) connecting the corner control points D3 a and angular configuration point D3 b, and a boundary point D3 e and the boundary point D3 d The length L border of the minute (page boundary line L31) is calculated (step S904).
Then, the corrected shape evaluation unit 51 calculates the evaluation value E length (degree of coincidence) of the length of the page boundary line L31 using Equation (5) (Step S905).

Figure 2012019474
Figure 2012019474

そして、補正形状評価部51は、数式(6)を用いて、評価値Egradおよび評価値Elengthから、総合評価値Etotalを算出する(ステップS906)。ここで、αは長さについての評価値の重みを表す所定の数である。 And the correction | amendment shape evaluation part 51 calculates total evaluation value Etotal from evaluation value Egrad and evaluation value Elength using Numerical formula (6) (step S906). Here, α is a predetermined number representing the weight of the evaluation value for the length.

Figure 2012019474
Figure 2012019474

補正形状評価部51は、外形記憶部26からすべての補正率外形データS3を取得したか否かを判定する(ステップS907)。
まだ取得していない補正率外形データS3がある場合(ステップS907,No)、補正形状評価部51は、再びステップS901の処理を実行する。
The correction shape evaluation unit 51 determines whether or not all the correction factor outer shape data S3 has been acquired from the outer shape storage unit 26 (step S907).
When there is correction rate outline data S3 that has not yet been acquired (No at Step S907), the correction shape evaluation unit 51 executes the process at Step S901 again.

一方、すべての補正率外形データS3を取得した(ステップS907,Yes)、補正形状評価部51は、各補正率外形データS3から算出した総合評価値Etotalから、最高の総合評価値Etotalを抽出する(ステップS908)。そして、補正形状評価部51は、その最高評価値(最高の総合評価値Etotal)の補正率外形データS3に行われた補正率Rを表示制御部28Aに出力する(ステップS909)。そして、補正形状評価部51が補正形状評価処理(図22のステップS801)終了後、次にステップS802の処理を実行する。 On the other hand, it has acquired all the correction factor profile data S3 (step S907, Yes), the correction shape evaluation unit 51, a comprehensive evaluation value E total calculated from the correction factor profile data S3, the highest total evaluation value E total Extract (step S908). Then, the corrected shape evaluation unit 51 outputs the correction rate R performed on the correction rate outer shape data S3 of the highest evaluation value (the highest overall evaluation value Etotal ) to the display control unit 28A (step S909). Then, after the corrected shape evaluation unit 51 ends the corrected shape evaluation process (step S801 in FIG. 22), the process of step S802 is executed next.

以上により、第2の実施形態に係る画像読取装置1Aは、補正形状評価部51が、最も歪みが少ない補正率外形データS3を、最高評価値(最高の総合評価値Etotal)で算出する。これにより、その補正率外形データS3の補正率R(最適補正率)が表示制御部28Aに出力される。
そして、表示制御部28Aは、補正形状評価部51から取得した補正率R(最適補正率)に対応する部分画像を強調した画像データを生成する。そのため、画像読取装置1Aは、表示部7に、ユーザに最適な補正量を提示することができる。
As described above, in the image reading apparatus 1 </ b> A according to the second embodiment, the correction shape evaluation unit 51 calculates the correction factor outline data S <b> 3 with the least distortion with the highest evaluation value (the highest total evaluation value E total ). Thereby, the correction rate R (optimum correction rate) of the correction rate outer shape data S3 is output to the display control unit 28A.
Then, the display control unit 28A generates image data in which the partial image corresponding to the correction rate R (optimum correction rate) acquired from the correction shape evaluation unit 51 is emphasized. Therefore, the image reading apparatus 1 </ b> A can present the optimal correction amount to the user on the display unit 7.

以上、本発明の実施形態について説明したが、本発明は前記した実施形態に限定されず、適宜変更して実施することが可能である。
例えば、画像読取部2および画像データ生成部3を備えるスキャナなどの外部装置が、生成した画像データを、電話回線やLANなどのネットワーク網や、USBメモリやCD−RAMなどの記録媒体などを介して、画像処理装置(PCなど)に入力する構成であっても構わない。
この画像処理装置は、外部装置が生成した画像データが入力されるデータ入力部、ユーザからの入力操作を受け付ける操作入力部、画像を表示する表示部、CPU、ROM、RAM、HDD(Hard Disc Drive)などを備えた一般的なコンピュータで構成することができる。そして、このコンピュータを、図3に示す補正前処理部61、表示処理部62、画像補正部63として機能させるプログラム(画像補正プログラム)により実現することができる。
ここで、前記データ入力部は、外部装置とネットワーク網を介して接続され、外部装置が送信した画像データを受信する通信部であってもよい。
Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and can be implemented with appropriate modifications.
For example, an external device such as a scanner including the image reading unit 2 and the image data generation unit 3 transmits the generated image data via a network such as a telephone line or a LAN, a recording medium such as a USB memory or a CD-RAM, or the like. Thus, it may be configured to input to an image processing apparatus (such as a PC).
This image processing apparatus includes a data input unit to which image data generated by an external device is input, an operation input unit that receives an input operation from a user, a display unit that displays an image, a CPU, a ROM, a RAM, an HDD (Hard Disc Drive) ) And the like. The computer can be realized by a program (image correction program) that functions as the pre-correction processing unit 61, the display processing unit 62, and the image correction unit 63 shown in FIG.
Here, the data input unit may be a communication unit that is connected to an external device via a network and receives image data transmitted by the external device.

また、本実施形態では、図1に示すように、冊子状の原稿91を見開いた状態で媒体載置台81に載置した場合について示したが、冊子状の原稿91の表紙と裏表紙とが接するように折り曲げた状態で、片側のページを読み取り面として媒体載置台81に載置しても構わない。この場合、画像読取装置1(1A)の外形形状抽出部21は、ステップ306(図15)にて、画像を2つに分割しない。   Further, in the present embodiment, as shown in FIG. 1, the case where the booklet-shaped document 91 is placed on the medium placing table 81 in a state where the booklet-shaped document 91 is opened is shown, but the cover and back cover of the booklet-shaped document 91 are separated. In a state of being bent so as to be in contact, the page on one side may be placed on the medium placing table 81 as a reading surface. In this case, the outer shape extraction unit 21 of the image reading apparatus 1 (1A) does not divide the image into two in step 306 (FIG. 15).

1 画像読取装置
2 画像読取部
3 画像データ生成部
7 表示部
8 操作入力部
10 画像処理部(4 CPU)
11 画像データ記憶部
12 一次補正部
13 補正準備部
14 二次補正部
21 外形形状抽出部
22 構成点配置部
23 対応関係構築部
24 補正率設定部
25 形状補正部
26 外形記憶部
27 特徴領域抽出部
28 表示制御部
29 入力処理部
30 補正画像生成部
61 補正前処理部
62 表示処理部
63 画像補正部
D1 読取画像データ
D2 歪み補正画像データ
DESCRIPTION OF SYMBOLS 1 Image reading apparatus 2 Image reading part 3 Image data generation part 7 Display part 8 Operation input part 10 Image processing part (4 CPU)
DESCRIPTION OF SYMBOLS 11 Image data memory | storage part 12 Primary correction | amendment part 13 Correction | amendment preparation part 14 Secondary correction | amendment part 21 Outline shape extraction part 22 Composition point arrangement | positioning part 23 Correspondence relationship construction part 24 Correction rate setting part 25 Shape correction part 26 Outline storage part 27 Feature area extraction Unit 28 Display control unit 29 Input processing unit 30 Correction image generation unit 61 Pre-correction processing unit 62 Display processing unit 63 Image correction unit D1 Read image data D2 Distortion correction image data

Claims (5)

ユーザからの選択入力を受け付ける入力部と、表示部とを備え、
所定の形状の媒体の表面画像を読み込んで媒体画像データを生成し、前記読み込んだときに前記媒体表面が歪んだ形状で生成された前記媒体画像データに歪み補正をする画像読取装置であって、
前記媒体表面が歪んだ形状で読み込まれて生成された前記媒体画像データに第1補正をした歪み補正画像データから、前記媒体表面の輪郭線を抽出し、値がそれぞれ異なる複数の補正率で前記輪郭線を補正する補正前処理部と、
前記補正率ごとに前記補正後の補正率外形輪郭線の画像を生成し、前記補正率ごとの画像を選択可能にして、前記表示部に一覧表示させる表示処理部と、
前記歪み補正画像データから抽出した輪郭線が、前記入力部に選択入力された前記補正率外形輪郭線と一致するように、前記歪み補正画像データに第2補正をする画像補正部と
を備えることを特徴とする画像読取装置。
An input unit that accepts a selection input from the user, and a display unit;
An image reading device that reads a surface image of a medium having a predetermined shape to generate medium image data, and corrects the distortion of the medium image data generated in a shape in which the surface of the medium is distorted when read.
An outline of the medium surface is extracted from distortion corrected image data obtained by first correcting the medium image data generated by reading the medium surface in a distorted shape, and the correction values are different from each other at a plurality of correction rates. A pre-correction processing unit for correcting the contour line;
A display processing unit that generates an image of the corrected correction factor outline contour for each correction factor, enables the selection of the image for each correction factor, and displays the list on the display unit;
An image correction unit that performs second correction on the distortion-corrected image data so that a contour line extracted from the distortion-corrected image data matches the correction factor outline contour line that is selected and input to the input unit. An image reading apparatus.
前記補正前処理部は、
前記媒体表面が歪んだ形状で生成された媒体画像データに前記第1補正を行って前記歪み補正画像データを生成する一次補正部と、
前記媒体画像データから前記媒体表面の読取外形輪郭線を抽出し、前記歪み補正画像データから前記媒体表面の歪み補正外形輪郭線を抽出する外形形状抽出部と、
前記歪み補正外形輪郭線を基準とした複数の補正率を設定する補正率設定部と、
前記補正率で前記歪み補正外形輪郭線を補正して、前記補正率ごとの補正率外形輪郭線を生成する形状補正部と、
を備えることを特徴とする請求項1に記載された画像読取装置。
The correction preprocessing unit
A primary correction unit configured to generate the distortion correction image data by performing the first correction on the medium image data generated in a distorted shape of the medium surface;
An outer shape extraction unit that extracts a reading outer contour line of the medium surface from the medium image data, and extracts a distortion correction outer contour line of the medium surface from the distortion correction image data;
A correction rate setting unit for setting a plurality of correction rates based on the distortion-corrected outer contour line;
A shape correction unit that corrects the distortion-corrected outer contour line with the correction factor and generates a correction factor outer contour line for each correction factor;
The image reading apparatus according to claim 1, further comprising:
前記補正前処理部は、
前記外形形状抽出部が抽出した読取外形輪郭線上に構成点を配置し、前記外形形状抽出部が抽出した歪み補正外形輪郭線上に構成点を配置する構成配置部と、
前記読取外形輪郭線上の構成点と、前記歪み補正外形輪郭線上の構成点とが、同一平面上で近接する構成点同士を対応付ける対応関係構築部と
を備え、
前記表示処理部は、
前記対応付けられた構成点間で距離が最大となる構成点の組を検出し、検出した構成点間を結ぶ線分を伸張し、その線分を対角線とする矩形枠を生成し、前記形状補正部で生成された複数の補正率外形輪郭線から、前記矩形枠内となる特徴領域を抽出する特徴領域抽出部と、
前記補正率ごとに抽出された特徴領域の画像を生成し、前記補正率ごとの画像を選択可能にして、前記表示部に一覧表示させる表示制御部と
を備えることを特徴とする請求項2に記載された画像読取装置。
The correction preprocessing unit
A configuration placement unit that places a configuration point on the read outline contour extracted by the profile extraction unit, and a configuration point that arranges the configuration point on a distortion-corrected profile contour extracted by the profile extraction unit;
A correspondence relationship construction unit that associates component points on the read contour outline and component points on the distortion-corrected contour outline that are close to each other on the same plane;
The display processing unit
Detecting a set of component points having the maximum distance between the associated component points, extending a line segment connecting the detected component points, generating a rectangular frame having the line segment as a diagonal line, and generating the shape A feature region extraction unit that extracts a feature region that is within the rectangular frame from a plurality of correction factor outer contour lines generated by the correction unit;
The display control part which produces | generates the image of the characteristic area extracted for every said correction factor, makes the image for every said correction factor selectable, and makes it display on a list on the said display part. The described image reading apparatus.
前記媒体は、少なくとも一対の線分を有する形状であり、
前記表示処理部が、前記補正率ごとの補正率外形輪郭線すべてから、一対の線分を抽出して前記一対の線分がなす角度から平行度を取得するとともに、互いの線分の長さの比率から一致度を取得し、前記平行度および前記一致度から最適補正率の前記補正率外形輪郭線を取得する補正形状評価部を備え、
前記表示制御部が、さらに、前記最適補正率の補正率外形輪郭線から抽出した前記特徴領域の画像を、前記表示部に強調表示させることを特徴とする請求項3に記載された画像読取装置。
The medium has a shape having at least a pair of line segments,
The display processing unit extracts a pair of line segments from all the correction factor outline contour lines for each correction factor, acquires parallelism from an angle formed by the pair of line segments, and lengths of the respective line segments. A correction shape evaluation unit that acquires the degree of coincidence from the ratio of, and obtains the correction factor outline contour of the optimum correction factor from the parallelism and the degree of coincidence,
The image reading apparatus according to claim 3, wherein the display control unit further causes the display unit to highlight an image of the feature region extracted from the correction rate outline of the optimal correction rate. .
ユーザからの選択入力を受け付ける入力部と、表示部と、媒体表面が歪んだ形状で生成された媒体画像データを取得するデータ入力部とを備えるコンピュータを、
前記データ入力部が取得した前記媒体画像データに、第1補正をして歪み補正画像データを生成し、前記歪み補正画像データから前記媒体表面の輪郭線を抽出し、値がそれぞれ異なる複数の補正率で前記輪郭線を補正する補正前処理手段、
前記補正率ごとに前記輪郭線を補正した補正率外形輪郭線の画像を生成し、前記補正率ごとの画像を選択可能にして、前記表示部に一覧表示させる表示処理手段、
前記歪み補正画像データから抽出した輪郭線が、前記入力部に選択入力された前記補正率外形輪郭線と一致するように、前記歪み補正画像データに第2補正をする画像補正手段、
として機能させることを特徴とする画像補正プログラム。
A computer including an input unit that receives a selection input from a user, a display unit, and a data input unit that acquires medium image data generated in a shape in which the medium surface is distorted.
A first correction is performed on the medium image data acquired by the data input unit to generate distortion-corrected image data, an outline of the medium surface is extracted from the distortion-corrected image data, and a plurality of corrections having different values are provided. Correction preprocessing means for correcting the contour line at a rate,
Display processing means for generating an image of a correction rate outline contour line obtained by correcting the contour line for each correction rate, enabling selection of an image for each correction rate, and displaying the list on the display unit;
Image correction means for performing second correction on the distortion-corrected image data so that the contour line extracted from the distortion-corrected image data matches the correction factor outer contour line selected and input to the input unit;
An image correction program characterized by functioning as
JP2010157043A 2010-07-09 2010-07-09 Image reading device and image correction program Pending JP2012019474A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010157043A JP2012019474A (en) 2010-07-09 2010-07-09 Image reading device and image correction program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010157043A JP2012019474A (en) 2010-07-09 2010-07-09 Image reading device and image correction program

Publications (1)

Publication Number Publication Date
JP2012019474A true JP2012019474A (en) 2012-01-26

Family

ID=45604349

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010157043A Pending JP2012019474A (en) 2010-07-09 2010-07-09 Image reading device and image correction program

Country Status (1)

Country Link
JP (1) JP2012019474A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110390642A (en) * 2018-04-20 2019-10-29 西南民族大学 A kind of method of pair of woodcut Tibetan language geometric correction of imagery
JP2020181510A (en) * 2019-04-26 2020-11-05 キヤノンメディカルシステムズ株式会社 Medical image processing device and medical image processing program
CN114485389A (en) * 2020-10-26 2022-05-13 住友重机械工业株式会社 Distortion aberration correction processing device, distortion aberration correction method, and storage medium

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110390642A (en) * 2018-04-20 2019-10-29 西南民族大学 A kind of method of pair of woodcut Tibetan language geometric correction of imagery
CN110390642B (en) * 2018-04-20 2023-12-08 西南民族大学 Method for geometrically correcting woodcut Tibetan image
JP2020181510A (en) * 2019-04-26 2020-11-05 キヤノンメディカルシステムズ株式会社 Medical image processing device and medical image processing program
JP7296773B2 (en) 2019-04-26 2023-06-23 キヤノンメディカルシステムズ株式会社 MEDICAL IMAGE PROCESSING APPARATUS AND MEDICAL IMAGE PROCESSING PROGRAM
CN114485389A (en) * 2020-10-26 2022-05-13 住友重机械工业株式会社 Distortion aberration correction processing device, distortion aberration correction method, and storage medium

Similar Documents

Publication Publication Date Title
JP4047352B2 (en) Image distortion correction program, image distortion correction apparatus, and image distortion correction method
JP5722482B2 (en) Image processing system and image processing method
US10459670B2 (en) Methods, systems, apparatuses and devices for facilitating printing of a digital image based on image splitting
TWI398158B (en) Method for generating the depth of a stereo image
JP2010171976A (en) Method and system for correcting distorted document image
JP6432871B2 (en) Book digitization method and book digitization apparatus
JP5675445B2 (en) Information processing apparatus, information processing apparatus control method, and computer program
JP2012019474A (en) Image reading device and image correction program
US10317880B2 (en) Print data dividing apparatus, and related program and recording medium, that determine a shape of a joint portion of a target area and generate three-dimensional shape data for division printing of the target area
JP2016159437A (en) Image formation apparatus and control method thereof
JP2013059111A (en) Device, method, system and program of handling code
US8749834B2 (en) Information processing apparatus that perform margin reduction depending on the column group structure, method for controlling same, and storage medium on which computer program has been recorded
JP5479049B2 (en) Document processing device
JP7451106B2 (en) Information processing device, control method, program and storage medium
JP5356711B2 (en) Map information correction apparatus, map information correction method, and program
CN101686309A (en) Method and device of generating trapping by image path
JP2007264965A (en) Digital content creation system, digital content creation program and digital content creation method
JP2012022651A (en) Image processing apparatus, image processing method and program
JP2018055256A (en) Information processing apparatus, information processing method, and program
JP2009146150A (en) Method and device for detecting feature position
JP2013026865A (en) Image processing apparatus and image processing method
JP6598546B2 (en) Image processing apparatus, image processing method, and program
JP5719271B2 (en) Image processing method, image processing apparatus, and image processing program
JP6648451B2 (en) Low overhead near unit scaling technology
US20180211366A1 (en) Flattening and Rectifying A Curved Image