JP2012019474A - Image reading device and image correction program - Google Patents
Image reading device and image correction program Download PDFInfo
- Publication number
- JP2012019474A JP2012019474A JP2010157043A JP2010157043A JP2012019474A JP 2012019474 A JP2012019474 A JP 2012019474A JP 2010157043 A JP2010157043 A JP 2010157043A JP 2010157043 A JP2010157043 A JP 2010157043A JP 2012019474 A JP2012019474 A JP 2012019474A
- Authority
- JP
- Japan
- Prior art keywords
- correction
- unit
- image
- image data
- distortion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012937 correction Methods 0.000 claims abstract description 341
- 238000012545 processing Methods 0.000 claims abstract description 84
- 239000000284 extract Substances 0.000 claims abstract description 23
- 238000003702 image correction Methods 0.000 claims abstract description 9
- 238000007781 pre-processing Methods 0.000 claims abstract 4
- 238000000605 extraction Methods 0.000 claims description 74
- 238000010276 construction Methods 0.000 claims description 39
- 238000011156 evaluation Methods 0.000 claims description 39
- 239000000470 constituent Substances 0.000 description 61
- 238000000034 method Methods 0.000 description 48
- 230000008569 process Effects 0.000 description 46
- 238000002360 preparation method Methods 0.000 description 19
- 238000013500 data storage Methods 0.000 description 16
- 238000012854 evaluation process Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 239000000203 mixture Substances 0.000 description 5
- 238000011112 process operation Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000009499 grossing Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000001154 acute effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
Abstract
Description
本発明は、画像読取装置に関し、特に、所定の形状の媒体を読み込んで画像データを生成し、読み込む際に形成される歪んだ形状の歪み画像に歪み補正をする画像読取装置および画像補正プログラムに関する。 The present invention relates to an image reading apparatus, and more particularly to an image reading apparatus and an image correction program that read a medium having a predetermined shape, generate image data, and perform distortion correction on a distorted image having a distorted shape. .
冊子状の原稿の見開いたページをスキャナ(例えば、フラットベッドスキャナ(flat bed scanner))で読み込んだ際に、読み取った画像におけるページ綴じ部分にて、文字や図の歪みが生じてしまうという問題があった。
そのため、読み取った画像から原稿の外形形状(輪郭線)などを抽出して、その歪みの度合いを求め、この度合いに基づいて画像を伸張することでページ綴じ部の歪みを補正する画像読取装置が開示されている。
例えば、原稿の外形形状(輪郭線)や原稿に記載された文字列、罫線などの基準線と、画像の中心線との距離の差に従い算出した歪み補正率(伸張率)を用いて歪みのある領域の画像を伸長して画像の歪みを補正する画像読取装置がある(特許文献1)。
以上のように、従来の画像読取装置は、所定の方法で歪みの度合い(歪み補正率)の値を一つ算出し、その歪み補正率に基づきページ綴じ部の歪みの補正を行う。
When reading a spread page of a booklet-like document with a scanner (for example, a flat bed scanner), there is a problem that characters and drawings are distorted in the page binding portion of the read image. there were.
Therefore, an image reading apparatus that extracts the outer shape (outline) of a document from the read image, obtains the degree of distortion, and expands the image based on this degree to correct the distortion of the page binding portion. It is disclosed.
For example, using the distortion correction rate (expansion rate) calculated according to the difference in the distance between the outline of the document (contour line), a reference line such as a character string or ruled line written on the document, and the center line of the image, There is an image reading device that expands an image in a certain region and corrects image distortion (Patent Document 1).
As described above, the conventional image reading apparatus calculates one value of the degree of distortion (distortion correction rate) by a predetermined method, and corrects the distortion of the page binding portion based on the distortion correction rate.
しかしながら、従来の画像読取装置では、算出した一つの歪み補正率に基づき、ページ綴じ部の歪みの補正を行うため、利用するユーザそれぞれの希望が反映されない。
そのため、従来の画像読取装置が行う補正では、利用するユーザによって、補正量が不十分であったり、補正量が過剰であったりするという問題点がある。
However, since the conventional image reading apparatus corrects the distortion of the page binding portion based on the calculated one distortion correction rate, each user's request to be used is not reflected.
Therefore, in the correction performed by the conventional image reading apparatus, there is a problem that the correction amount is insufficient or the correction amount is excessive depending on the user to use.
本発明は、以上のような問題を解決するためになされたものであり、適切な補正率で歪み画像を補正することができる画像読取装置および画像補正プログラムを提供することを課題とする。 SUMMARY An advantage of some aspects of the invention is that it provides an image reading apparatus and an image correction program capable of correcting a distorted image at an appropriate correction rate.
前記課題を解決するために、本発明の画像読取装置は、ユーザからの選択入力を受け付ける入力部と、表示部とを備え、所定の形状の媒体の表面画像を読み込んで媒体画像データを生成し、前記読み込んだときに前記媒体表面が歪んだ形状で生成された前記媒体画像データに歪み補正をする画像読取装置において、補正前処理部と、表示処理部と、画像補正部とを備える構成とした。 In order to solve the above problems, an image reading apparatus according to the present invention includes an input unit that receives a selection input from a user and a display unit, and reads a surface image of a medium having a predetermined shape to generate medium image data. An image reading apparatus that corrects distortion of the medium image data generated in a shape in which the medium surface is distorted when read, and includes a pre-correction processing unit, a display processing unit, and an image correction unit. did.
本発明によれば、適切な補正率で歪み画像を補正することができる。すなわち、補正後の輪郭線を補正率ごとに画像データを生成し、それぞれを選択可能にして、表示部に一覧表示することにより、ユーザに補正率の選択権を与えることができる。
また、各補正率で行われた補正後の輪郭線を表示部に表示することにより、ユーザは、希望する補正後の輪郭線を容易に判断できる。
また、媒体画像データから抽出した媒体の輪郭線が、ユーザが選択した補正率の輪郭線と一致するように、媒体画像データを補正することにより、ユーザに選択された補正率に基づいて、媒体の歪んだ形状を補正することができる。
このように、ユーザは、適切な補正量を簡便な操作で選択することができる。
According to the present invention, a distorted image can be corrected with an appropriate correction rate. That is, by generating image data for the corrected contour line for each correction rate, making each selectable and displaying the list on the display unit, the right to select the correction rate can be given to the user.
In addition, by displaying the corrected contour line performed at each correction rate on the display unit, the user can easily determine the desired corrected contour line.
Further, by correcting the medium image data so that the contour line of the medium extracted from the medium image data matches the contour line of the correction factor selected by the user, the medium is determined based on the correction factor selected by the user. The distorted shape can be corrected.
In this way, the user can select an appropriate correction amount with a simple operation.
以下、本発明の実施形態について、本発明をスキャナに適用し、媒体に本や冊子などを原稿として適用した場合を例にとり、適宜図面を参照しながら説明する。
まず、本発明に係る画像読取装置について説明する。図1に画像読取装置1の外観図を示し、図2に画像読取装置1の全体構成のブロック図を示す。
画像読取装置1は、図1に示すように、本や冊子などの原稿91が見開かれて、原稿91の読み取り面と接するように載置される媒体載置台81と、その媒体載置台81を覆う載置台カバー82と、原稿91の読み取り面を読み取るイメージセンサ83(画像読取部2)と、ユーザが指示を入力する操作ボタン84(操作入力部8)および開始ボタン85(操作入力部8)と、ユーザに情報を表示する表示パネル86(表示部7)とを主に備えている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings as appropriate, taking as an example the case where the present invention is applied to a scanner and a book or booklet is applied to a medium as a document.
First, an image reading apparatus according to the present invention will be described. FIG. 1 shows an external view of the image reading apparatus 1, and FIG. 2 shows a block diagram of the overall configuration of the image reading apparatus 1.
As shown in FIG. 1, the image reading apparatus 1 opens a
《第1の実施形態》
そして、第1の実施形態に係る画像読取装置1は、図2に示すように、前記イメージセンサ83で原稿91を読み取って読取データを生成する画像読取部2と、読取データから画像データを生成する画像データ生成部3と、画像読取装置1が備える各構成部を制御するCPU(Central Processing Unit)4と、CPU4が制御を行うためのプログラムが記憶されたプログラムROM(Read Only Memory)5と、データを記憶するRAM(Random Access Memory)6と、表示パネル86を備える表示部7と、操作ボタン84および開始ボタン85を有する操作入力部8と、生成した画像データを、不図示の電話回線やLAN(Local Area Network)などネットワーク網を介して外部機器(PC(Personal Computer)やサーバなど)と接続するI/F(インターフェース)部9とを備える。
<< First Embodiment >>
As shown in FIG. 2, the image reading apparatus 1 according to the first embodiment generates an image data from the read data, and an
次に、本発明の第1の実施形態に係る画像読取装置が有する画像処理システムについて説明する。図3は画像処理システムのブロック図である。
画像読取部2が原稿91を読み取った読取データから、画像データ生成部3は、画像データ(読取画像データD1)を生成する。そして、画像データ生成部3は、読取画像データD1をRAM6(画像データ記憶部11)に記憶させる。
CPU4により機能する画像処理部10は、画像データ記憶部11に記憶された読取画像データD1を取得して、画像処理を実行し、画像処理後の画像データを表示部7に表示させ、ユーザからの入力指示を操作入力部8から取得し、その指示に基づき補正を行った画像データを出力する。
Next, an image processing system included in the image reading apparatus according to the first embodiment of the present invention will be described. FIG. 3 is a block diagram of the image processing system.
The image
The image processing unit 10 functioning by the
[画像処理部10]
画像処理部10は、一次補正部12(補正前処理部61)と、補正準備部13(補正前処理部61)と、二次補正部14(表示処理部62および画像補正部63)とを備える。
[Image processing unit 10]
The image processing unit 10 includes a primary correction unit 12 (pre-correction processing unit 61), a correction preparation unit 13 (pre-correction processing unit 61), and a secondary correction unit 14 (display processing unit 62 and image correction unit 63). Prepare.
[画像データ記憶部11]
画像データ記憶部11は、RAM6に備えられ、画像データ生成部3からの読取画像データD1(図4(a))と、後記する一次補正部12からの歪み補正画像データD2(図4(b))とを記憶する記憶部である。
[Image data storage unit 11]
The image
[一次補正部12]
一次補正部12は、画像データ記憶部11から読取画像データD1を取得し、その読取画像データD1に対して従来の歪み補正処理(第1補正)を実行し、歪み補正画像データD2を生成する補正部である。そして、その歪み補正画像データD2を、画像データ記憶部11に記憶させる。
従来の歪み補正処理とは、例えば、特許文献1に記載された歪み補正処理である。
[Primary correction unit 12]
The
The conventional distortion correction process is, for example, the distortion correction process described in Patent Document 1.
[補正準備部13]
補正準備部13は、読取画像データD1と歪み補正画像データD2とに補正準備処理を実行することで、歪み補正画像データD2から原稿91の外形形状(輪郭線)を抽出し(歪み補正外形データS2)、補正率外形データS3を生成する構成部である。
補正準備部13は、外形形状抽出部21と、構成点配置部22と、対応関係構築部23と、補正率設定部24と、形状補正部25とを備える。
[Correction preparation unit 13]
The
The
(外形形状抽出部21)
外形形状抽出部21は、画像データ記憶部11から、読取画像データD1と、歪み補正画像データD2とを取得して、外形形状抽出処理を実行し、読取画像データD1から読取外形データS1(読取外形輪郭線)を抽出し、歪み補正画像データD2から歪み補正外形データS2(歪み補正外形輪郭線)を抽出する構成部である。
そして、外形形状抽出部21は、読取外形データS1と歪み補正外形データS2とを、構成点配置部22と補正率設定部24との双方に出力する。
(Outer shape extraction unit 21)
The outer
Then, the outer
ここで、外形形状抽出処理について説明する。
外形形状抽出部21は、読取画像データD1から原稿91の外形形状(輪郭線)を形成する画素(外形形状画素Mz1)を抽出し、抽出した外形形状画素Mz1のすべてを読取外形データS1(読取外形輪郭線)とする。そして、外形形状抽出部21は読取外形データS1を、構成点配置部22と補正率設定部24との双方に出力する。
同様に、外形形状抽出部21は、歪み補正画像データD2からも原稿91の外形形状(輪郭線)を形成する画素(外形形状画素Mz2)を抽出し、抽出した外形形状画素Mz2のすべてである歪み補正外形データS2(歪み補正外形輪郭線)を、構成点配置部22と補正率設定部24との双方に出力する。
Here, the outer shape extraction process will be described.
The outer
Similarly, profile-
(構成点配置部22)
構成点配置部22は、外形形状抽出部21から読取外形データS1と歪み補正外形データS2とを取得して、読取外形データS1と歪み補正外形データS2とに構成点配置処理を実行する構成部である。
この構成点配置処理により、構成点配置部22は、読取外形データS1から原稿91の外形形状(輪郭線)を形成する画素(外形形状画素Mz1)それぞれを座標変換して、平面座標上の外形形状画素Mz1の位置に構成点P1を配置する。この構成点P1は所定の間隔で配置すればよい。これにより、図7に示すように、構成点P1は、P11、P12、…、や、P1a、P1b、…として配置される。
そして、構成点配置部22は、構成点P1それぞれに識別番号を付与し、構成点の識別番号と、その構成点の座標値とを対応付けて、後記する外形記憶部26に記憶させる。このとき、構成点配置部22が付与する識別番号は、各構成点が互いに重複しないかつ構成点を一つに決める数である。
(Composition point arrangement part 22)
The component
By this component point arrangement processing, the component
Then, the configuration
同様に、構成点配置部22は、歪み補正外形データS2から原稿91の外形形状(輪郭線)を形成する画素(外形形状画素Mz2)それぞれを座標変換して、平面座標上の外形形状画素Mz2の位置に構成点P2を配置する。これにより、図7に示すように、構成点P1は、P21、P22、…、や、P2a、P2b、…として配置される。
そして、構成点配置部22は、構成点P2それぞれに識別番号を付与し、構成点の識別番号と、その構成点の座標値とを対応付けて、後記する外形記憶部26に記憶させる。この対応付けは、データベースを用いて行う。
以下、特に記載がない場合、対応付けはデータベースを用いて行われる。
Similarly, the component
Then, the configuration
Hereinafter, unless otherwise specified, the association is performed using a database.
(対応関係構築部23)
対応関係構築部23は、後記する外形記憶部26から、構成点P1と構成点P2とを取得して、対応関係構築処理を実行する。
この対応関係構築処理により、対応関係構築部23は、図9に示すように、読取外形データS1(S1L)の輪郭線を構成するすべての構成点P1を、歪み補正外形データS2(S2L)の輪郭線を構成するすべての構成点P2それぞれと対応付ける。
ここで、構成点P1とに付与された識別番号と、その構成点P1に対応する構成点P2に付与された識別番号とを対応付けて、後記する外形記憶部26に記憶させることで、構成点の対応付けがされる。
(Correspondence relationship construction unit 23)
The
By this correspondence construction processing, the
Here, the identification number assigned to the configuration point P1 and the identification number assigned to the configuration point P2 corresponding to the configuration point P1 are associated with each other and stored in the outer
(補正率設定部24)
補正率設定部24は、読取外形データS1の状態を補正率R=0.0に、歪み補正外形データS2の状態を補正率R=1.0に設定し、所定の間隔で補正率Rの値を変化させた複数の補正率Rを設定する構成部である。
例えば、所定の間隔が「0.2」であれば、補正率設定部24は、補正率Rとして、『…、0.6、0.8、1.0、1.2、1.4、1.6、1.8、…』の値を設定する。
(Correction rate setting unit 24)
The correction
For example, if the predetermined interval is “0.2”, the correction
(形状補正部25)
形状補正部25は、補正率Rを変化させた値それぞれで、歪み補正外形データS2を補正して、複数の(補正率Rごとの)補正率外形データS3を生成する構成部である。
そして、形状補正部25は、読取外形データS1と歪み補正外形データS2と補正率外形データS3とをRAM6(外形記憶部26)に記憶する。
ここで、形状補正部25が行う補正は、公知の2次元モーフィングであるフィールドモーフィング(field morphing)を用いて行われる。
(Shape correction unit 25)
The
Then, the
Here, the correction performed by the
[外形記憶部26]
外形記憶部26は、RAM6(図2)に備えられ、補正準備部13が生成したデータを記憶する記憶部である。第1の実施形態によれば、以下の(1)〜(3)に示すデータが記憶される。
(1)構成点P1(P2)の識別番号と座標値
外形記憶部26には、構成点配置部22により、構成点P1それぞれの識別番号と、その構成点P1の座標値とが対応付けられて記憶される。また、構成点P2それぞれの識別番号と、その構成点P2の座標値とが対応付けられて記憶される。
これらの識別番号は、各構成点が互いに重複しないかつ構成点を一つに決める数である。
(2)構成点P1と構成点P2とを対応付けるデータ
また、外形記憶部26には、対応関係構築部23により、構成点P1に付与された識別番号と、その構成点P1に対応する構成点P2に付与された識別番号とが対応付けられて記憶される。
(3)読取外形データS1と歪み補正外形データS2と補正率外形データS3
そして、外形記憶部26には、形状補正部25により、読取外形データS1と、歪み補正外形データS2と、補正率外形データS3とが記憶される。
ここで、外形記憶部26には、読取外形データS1として、画像データ記憶部11の読取画像データD1において読取外形データS1の輪郭線を形成する、対応関係構築処理後(図14のS206)の構成点P1すべての識別番号が記憶される。
また、外形記憶部26には、形状補正部25により、歪み補正外形データS2として、画像データ記憶部11の歪み補正画像データD2において歪み補正外形データS2の輪郭線を形成する、対応関係構築処理後(図14のS206)の構成点P2すべての識別番号が記憶される。
さらに、外形記憶部26には、形状補正部25により、補正率外形データS3として、歪み補正外形データS2の輪郭線を形成する構成点P2の座標値を、補正率Rで補正した後の構成点P2の座標値が記憶される。
[Outer shape storage unit 26]
The external
(1) Identification Number and Coordinate Value of Configuration Point P1 (P2) In the external
These identification numbers are numbers that do not overlap each other and determine one component point.
(2) Data correlating the configuration point P1 and the configuration point P2 Further, in the external
(3) Reading outline data S1, distortion correction outline data S2, and correction factor outline data S3
The outer
Here, in the outer
Also, in the outer
Further, in the outer
[二次補正部14]
二次補正部14は、二次補正処理を行う構成部であり、特徴領域抽出部27(表示処理部62)と、表示制御部28(表示処理部62)と、入力処理部29(画像補正部63)と、補正画像生成部30(画像補正部63)とを備える。
[Secondary correction unit 14]
The secondary correction unit 14 is a component that performs secondary correction processing, and includes a feature region extraction unit 27 (display processing unit 62), a display control unit 28 (display processing unit 62), and an input processing unit 29 (image correction). Unit 63) and a corrected image generation unit 30 (image correction unit 63).
(特徴領域抽出部27)
特徴領域抽出部27は、読取外形データS1と、歪み補正外形データS2と、補正率外形データS3と、読取画像データD1と、歪み補正画像データD2とを取得し、特徴領域抽出処理を実行し、読取外形データS1の輪郭線と歪み補正外形データS2の輪郭線との変化率が高い所定の大きさの領域(特徴領域)を抽出する。そして、すべての補正率外形データS3から、特徴領域内にあたる画像(部分画像)を抽出する構成部である。
(Feature region extraction unit 27)
The feature
(表示制御部28)
表示制御部28は、表示部7に複数の部分画像を表示させる構成部である。
図10は、表示制御部28が、表示パネル86(表示部7)に補正率Rごとに部分画像を表示させた一例であり、J1が補正率R=1.0、J2が補正率R=1.2、J3が補正率R=1.4、J4が補正率R=1.6の部分画像を示している。
(Display control unit 28)
The
FIG. 10 shows an example in which the
(入力処理部29)
入力処理部29は、操作入力部8から入力される選択情報を取得する構成部である。
例えば、ユーザが操作ボタン84(図1,操作入力部8)を操作して、表示パネル86(図1,表示部7)に表示された一つの部分画像を選択することで、入力処理部29は、その部分画像の選択情報を取得する。
(Input processing unit 29)
The
For example, when the user operates the operation button 84 (FIG. 1, operation input unit 8) and selects one partial image displayed on the display panel 86 (FIG. 1, display unit 7), the
(補正画像生成部30)
補正画像生成部30は、選択情報に基づき、選択された部分画像(特徴領域)に対応する補正率Rの補正率外形データS3を外形記憶部26から取得し、補正画像生成処理を実行する構成部である。
まず、補正画像生成部30は、補正率外形データS3をラスタ化し、補正率外形データS3の輪郭線を取得する(図11)。このラスタ化の処理は、公知のアルゴリズムを用いて行う。ここで、補正率外形データS3Lの輪郭線とは、図11に示すD3a〜D3b〜D3d〜D3e〜D3aを通って囲う線である。
(Correction image generation unit 30)
Based on the selection information, the corrected
First, the correction
そして、補正画像生成部30は、補正画像生成処理により、図11に示すように、補正率外形データS3(S3L)の輪郭線で囲まれた領域内に位置する仮想点U3から最近傍の補正率外形データS3の構成点P3(P3n:nは整数)と、その構成点P3に対応付けられた歪み補正外形データS2の輪郭線の構成点P2(P2n:nは整数)とから、仮想点U3が補正前に、歪み補正画像データD2(D2L)にあったと推定される推定点U2(u2n:nは整数)を算出する。そして、仮想点U3(u3n:nは整数)の位置に相当する画素の画素値を、推定点U2の位置に相当する歪み補正画像データD2の画素の画素値で補正する。
Then, the corrected
以上の補正画像生成処理を、補正率外形データS3の輪郭線で囲まれた領域内に位置するすべての点(仮想点U3)に行うことで、補正画像生成部30は、補正率外形データS3の輪郭線で囲まれた領域内の画素(座標)の画素値を、歪み補正画像データD2の画素の画素値で補正(第2補正)することができる。
The correction
<画像読取装置の全体処理>
次に、図13を参照して、画像読取装置1の全体処理動作について説明する(適宜、図1ないし図12を参照)。
まず、画像読取部2が媒体載置台に載置された原稿91の表面画像を読み取る(ステップS101)。読み取ったデータから、画像データ生成部3は、読取画像データD1(図4(a))を生成して(ステップS102)、読取画像データD1を画像データ記憶部11に記憶させる(ステップS103)。
<Overall Processing of Image Reading Apparatus>
Next, the overall processing operation of the image reading apparatus 1 will be described with reference to FIG. 13 (refer to FIGS. 1 to 12 as appropriate).
First, the
次に、画像処理部10が備える一次補正部12は、画像データ記憶部11から読取画像データD1を取得し、従来の歪み補正処理を実行し(ステップS104)、歪み補正画像データD2を生成する。そして、その歪み補正画像データD2(図4(b))を、画像データ記憶部11に記憶させる(ステップS105)。
Next, the
補正準備部13は、画像データ記憶部11から、読取画像データD1と、歪み補正画像データD2とを取得し、補正準備処理を実行する(ステップS106)。この補正準備処理により、歪み補正画像データD2から原稿91の外形形状(輪郭線)を抽出した歪み補正外形データS2と、生成した補正率外形データS3とを外形記憶部26に記憶させる。
The
二次補正部14は、外形記憶部26から、歪み補正外形データS2と、補正率外形データS3とを取得し、さらに、画像データ記憶部11から歪み補正画像データD2を取得し、二次補正処理を実行する(ステップS107)。
この二次補正処理により、二次補正部14は、補正準備部13で生成した補正率外形データS3を表示部7に表示し、ユーザにより操作入力部8を介して選択された外形データ(補正率外形データS3)から補正画像データを生成する。
そして、二次補正部14は、補正画像データを、HDDなどの記憶部や、I/F部9を介して、外部機器(PCやサーバなど)に出力する(ステップS108)。そして、画像読取装置1は処理を終了する。
The secondary correction unit 14 acquires the distortion correction external shape data S2 and the correction factor external shape data S3 from the external
By this secondary correction process, the secondary correction unit 14 displays the correction factor outline data S3 generated by the
Then, the secondary correction unit 14 outputs the corrected image data to an external device (such as a PC or a server) via a storage unit such as an HDD or the I / F unit 9 (step S108). Then, the image reading apparatus 1 ends the process.
<補正準備処理>
次に、図14を参照して、補正準備部13の補正準備処理動作(図13のステップS106)について説明する(適宜、図1ないし図13を参照)。
補正準備部13が備える外形形状抽出部21は、画像データ記憶部11から、読取画像データD1と、歪み補正画像データD2とを取得する(ステップS201)。そして、外形形状抽出部21は、まず、読取画像データD1に外形形状抽出処理を実行する(ステップS202)。これにより、外形形状抽出部21は、読取外形データS1を取得する。そして、取得した読取外形データS1を、構成点配置部22と補正率設定部24との双方に出力する。
<Correction preparation process>
Next, the correction preparation processing operation (step S106 in FIG. 13) of the
The outer
ここで、図15を参照して、外形形状抽出部21が読取画像データD1に外形形状抽出処理動作(図15のステップS202)を行った場合について説明する(適宜、図1ないし図14を参照)。
<外形形状抽出処理>
外形形状抽出部21は、読取画像データD1に平滑化処理を実行し(ステップS301)、さらに、平滑化された読取画像データD1に微分フィルタをかけてエッジを検出する。そしてエッジ上の画素を抽出する(ステップS302)。
ここで、外形形状抽出部21が実行する平滑化処理は、公知の平滑化アルゴリズムにより実行される。また、微分フィルタをかけてエッジを検出する処理は、公知のラプラシアンフィルタを用いたフィルタ処理により実行される。
Here, a case where the outer
<External shape extraction processing>
The outer
Here, the smoothing process executed by the outer
そして、外形形状抽出部21は、そのエッジ上の画素に二値化処理を実行する(ステップS303)。このとき、所定の直線画素値(閾値)と比較して、直線画素値より大きい画素値の画素を抽出し、抽出したすべての画素から孤立点を除去した後の画素をエッジ画素とする。なお、孤立点の除去は公知のアルゴリズムを用いて行う。
そして、エッジ画素の座標を用いて直線Lをすべて検出する(ステップS304)。ここで、直線Lの検出は、公知のハフ変換アルゴリズムにより実行される。これにより、外形形状抽出部21は、図4(a)の読取画像データD1から、直線(L11、・・・、L17、・・・)を検出する。
そして、外形形状抽出部21は、検出した直線Lすべてにおいて、画像の中心に最も近い直線(L11)を、ページ境界線に設定する(ページ境界線を設定)(ステップS305)。
Then, the outer
Then, all the straight lines L are detected using the coordinates of the edge pixels (step S304). Here, the detection of the straight line L is executed by a known Hough transform algorithm. Thereby, the external
Then, the outer
そして、外形形状抽出部21は、ページ境界線L11で画像を分割する(D1LとD1R)(ステップS306)。
外形形状抽出部21は、分割後の1つの画像(D1L)から、ステップS305で抽出したすべての直線Lのうち、所定の直線画素数(閾値)と比較して、直線画素数以上の数のエッジ画素を含む(エッジ画素の座標を通過する)直線Lを抽出する(ステップS307)。これにより、直線L12からL17までの6本の直線Lが抽出される。
そして、外形形状抽出部21は、1ページの輪郭線を形成する直線および曲線をラスタライズして、輪郭線を形成する画素(外形形状画素Mz1)を抽出する(ステップS308)。
Then, the outer
The outer
Then, the outer
以下に、ステップS308の外形形状画素Mz1を抽出する手順を次に示す。図6は、エッジ画素を近似する曲線を示す図である。
まず、外形形状抽出部21は、歪んだ曲線上の画素を抽出する処理を行う。外形形状抽出部21は、直線L14上にあるエッジ画素において、ページ境界線L11に最も近いエッジ画素を点Pc1とする。また、ページ境界線L11にあるエッジ画素において、直線L14に最も近いエッジ画素を点Pc2とする。そして、ページ境界線L11と直線L14との交点を点Pc0とする。
次に、点Pc0と、点Pc1と、点Pc2とを頂点とする三角形を形成し、その三角形の領域内にあるエッジ画素を抽出し、それらエッジ画素を近似する曲線Lc1を、公知の最小二乗法を用いて取得する。
そして、取得した曲線Lc1とページ境界線L11との交点D1d、および直線L14との交点D1cを取得する。交点D1c〜D1d間の曲線Lc1をラスタライズして、曲線Lc1を形成する画素を抽出する(抽出画素A:外形形状画素Mz1の一部)。
Hereinafter, following the procedure of extracting the outer shape pixels Mz 1 in step S308. FIG. 6 is a diagram illustrating a curve that approximates an edge pixel.
First, the outer
Next, a triangle having points Pc0, Pc1, and Pc2 as vertices is formed, edge pixels in the triangular region are extracted, and a curve Lc1 that approximates these edge pixels is represented by a known minimum two Obtain using multiplication.
Then, the intersection point D1 d between the acquired curve Lc1 and the page boundary line L11 and the intersection point D1 c between the straight line L14 are acquired. The curve Lc1 between the intersection points D1 c to D1 d is rasterized to extract pixels forming the curve Lc1 (extraction pixel A: a part of the external shape pixel Mz 1 ).
同様に、外形形状抽出部21は、直線L12上にあるエッジ画素において、ページ境界線L11に最も近いエッジ画素を点Pc4(境界点)とする。また、ページ境界線L11にあるエッジ画素において、直線L12に最も近いエッジ画素を点Pc5(境界点)とする。そして、ページ境界線L11と直線L12との交点を点Pc3とする。
次に、点Pc0と、点Pc1と、点Pc2とを頂点とする三角形を形成し、その三角形の領域内にあるエッジ画素を抽出し、それらエッジ画素を近似する曲線Lc2を、公知の最小二乗法を用いて取得する。
そして、取得した曲線Lc2とページ境界線L11との交点D1e、および直線L12との交点D1fを取得する。交点D1e〜D1f間の曲線Lc2をラスタライズして、曲線Lc2を形成する画素を抽出する(抽出画素B:外形形状画素Mz1の一部)。
Similarly, the outer
Next, a triangle having vertices of point Pc0, point Pc1, and point Pc2 is formed, edge pixels within the triangular region are extracted, and a curve Lc2 that approximates these edge pixels is represented by a known minimum two Obtain using multiplication.
Then, an intersection point D1 e between the acquired curve Lc2 and the page boundary line L11 and an intersection point D1 f between the straight line L12 are acquired. By rasterizing curves Lc2 between the intersections D1 e ~ D1 f, extracts pixels that form a curve Lc2 (extracted pixel B: part of the outer shape pixels Mz 1).
外形形状抽出部21は、直線L12とL13との交点D1a、および直線L13とL14との交点D1bを取得する。次に、ページ境界線L11上の交点D1d〜D1e間をラスタライズし、交点D1d〜D1e間の線分を形成する画素を抽出する(抽出画素C:外形形状画素Mz1の一部)。
さらに、直線L12上の交点D1a〜D1f間と、直線L13上の交点D1a〜D1b間と、直線L14上の交点D1b〜D1c間とをそれぞれラスタライズして、それぞれの線分を形成する画素を抽出する(抽出画素D:外形形状画素Mz1の一部)。
以上により、外形形状抽出部21は、抽出画素A〜Dによる、1ページの輪郭を形成する線分上および曲線上の画素(外形形状画素Mz1)を抽出する。
The outer
Further, the line segments are rasterized between the intersection points D1 a to D1 f on the straight line L12, between the intersection points D1 a to D1 b on the straight line L13, and between the intersection points D1 b to D1 c on the straight line L14. Are extracted (extracted pixel D: part of the outer shape pixel Mz 1 ).
As described above, the outer
次に、外形形状抽出部21は、もう一方の分割後の画像(D1R)に対しても、同様に、ステップS307〜ステップS308の処理を行い、読取画像データD1に対する外形形状抽出処理(図14のステップS202)終了後、次にステップS203(図14)の処理を実行する。
Next, the outer
例えば、写真や枠、直線などが掲載されたページ(図4(a)における写真G)を読み込んだとしても、外形形状抽出部21は、図5(a)に示すように、その写真Gの枠を直線(L181〜L184)として抽出する。そして、外形形状抽出部21は、外形形状抽出処理により、いずれの直線も、画像の中心に最も近い直線ではないと判定し、さらに分割後の画像において外形を形成する直線でもないと判定することとなる。
For example, even if a page (photo G in FIG. 4A) on which a photo, a frame, a straight line, or the like is loaded is read, the outer
再び、図14の説明に戻る。
次に、外形形状抽出部21は、同様に、歪み補正画像データD2に外形形状抽出処理を実行する(ステップS203,図14)。これにより、外形形状抽出部21は、歪み補正外形データS2を取得する。そして、外形形状抽出部21が歪み補正画像データD2に対する外形形状抽出処理終了後、次にステップS204の処理を実行する。
Returning to the description of FIG.
Next, the outer
ここで、歪み補正画像データD2に外形形状抽出処理を実行した処理について説明する。
外形形状抽出部21は、図5(b)の歪み補正画像データD2から、直線(L21、・・・、L27、・・・)を検出する。そして、L21をページ境界線と設定する。また、外形形状抽出部21は、直線L22〜L27を外形形状直線Lz2に設定し、さらに、外形形状直線Lz2上のエッジ画素を外形形状画素Mz2に設定する。そして、ページ境界線L21と、外形形状直線Lz2と、外形形状画素Mz2とを、歪み補正外形データS2とする。そして、歪み補正外形データS2を、構成点配置部22と補正率設定部24との双方に出力する。
Here, the process which performed the external shape extraction process to distortion correction image data D2 is demonstrated.
The outer
次に、構成点配置部22は、外形形状抽出部21から読取外形データS1と歪み補正外形データS2とを取得して、まず、読取外形データS1に構成点配置処理を実行する(ステップS204)。
Next, the component
ここで、図16を参照して、構成点配置部22が読取外形データS1に構成点配置処理動作(図16のステップS204)を行った場合について説明する(適宜、図1ないし図14を参照)。
<構成点配置処理>
構成点配置部22は、読取外形データS1から外形形状画素Mz1を抽出し、外形形状画素Mz1それぞれをxy平面へ座標変換して、外形形状画素Mz1それぞれのxy平面座標値を取得する(ステップS401)。次に、構成点配置部22は、角となる外形形状画素Mz1(角構成点)を抽出し(ステップS402)、さらに、その抽出した角となる外形形状画素Mz1(角構成点)からy座標値が最小の外形形状画素Mz1を抽出し、この角構成点をスタート地点とする(ステップS403)。
ここで、ステップS402において、角となる外形形状画素Mz1を抽出するとき、外形形状抽出部21が取得した交点(D1a〜D1d)を角構成点の候補としてもよい。
Here, with reference to FIG. 16, the case where the component
<Composition point arrangement processing>
The component
Here, in step S402, when extracting outer shape pixels Mz 1 as a corner, it may be the intersection of profile-
次に、構成点配置部22は、xy平面座標に基づき、スタート地点の角構成点と隣接する外形形状画素Mz1を検索し、検出した外形形状画素Mz1を一つ抽出する(ステップS404)。
このときの検索方向は、所定の方向であり、例えば、処理対象の読取外形データS1の画像が、ステップS306で分割したときの左側の画像である場合の検索方向は左回りであり、また、右側の画像である場合の検索方向は右回りであることが望ましい。
また、スタート地点として抽出する角構成点は、最もy座標値が大きいものであってもよく、一つの角構成点を抽出できればよい。任意の点でよい。
Next, the component
The search direction at this time is a predetermined direction. For example, the search direction when the image of the read outline data S1 to be processed is the left image when divided in step S306 is counterclockwise. In the case of the right side image, the search direction is preferably clockwise.
In addition, the corner composing point extracted as the start point may be the one having the largest y coordinate value, and it is only necessary to extract one corner composing point. Any point is acceptable.
そして、構成点配置部22は、抽出した外形形状画素Mz1のxy平面座標が、スタート地点の角構成点のxy平面座標と一致するか否かを判定する(ステップS405)。
一致しない場合(ステップS405,No)、構成点配置部22は、抽出した外形形状画素Mz1を構成点(構成点P1)とし(ステップS406)、識別番号を付与する。次に、構成点の識別番号と、その構成点のxy平面座標値とを対応付けて、外形記憶部26に記憶させる(ステップS407)。そして、再度、ステップS404の処理を行い、構成点(構成点P1)となった外形形状画素Mz1(抽出した外形形状画素Mz1)と隣接する外形形状画素Mz1を検索する。これにより、スタート地点の角構成点に近い構成点から順番に識別番号が付与される。
一方、一致する場合(ステップS405,Yes)、構成点配置部22は、読取外形データS1に対する構成点配置処理(図14のステップS204)を終了する。そして、次にステップS205の処理を実行する。
Then, the constituent
If they do not match (Step S405, No), composing
On the other hand, if they match (step S405, Yes), the component
当該構成点配置処理により、構成点配置部22は、読取外形データS1に含まれる直線(ページ境界線L11と外形形状直線Lz1(直線L12〜L14))により形成される輪郭線を、構成点P1(P11、P12、…、や、P1a、P1b、…)(図7)で表現する。
By the component point arrangement process, the component
再び、図14の説明に戻る。
次に、構成点配置部22は、同様に、歪み補正外形データS2に構成点配置処理を実行する(ステップS205,図14)。これにより、歪み補正外形データS2に含まれる直線(ページ境界線L21と外形形状直線Lz2(直線L22〜L24))により形成される輪郭線を、構成点P2(P21、P22、…、や、P2a、P2b、…)(図7)で表現する。
Returning to the description of FIG.
Next, the constituent
次に、対応関係構築部23は、外形記憶部26から、構成点P1と構成点P2とを取得して、対応関係構築処理を実行する(ステップS206)。この対応関係構築処理により、対応関係構築部23は、読取外形データS1の輪郭線を構成するすべての構成点P1を、歪み補正外形データS2の輪郭線を構成するすべての構成点P2それぞれと対応付ける。
Next, the correspondence
ここで、図17を参照して、対応関係構築部23の対応関係構築処理動作(図14のステップS206)について説明する(適宜、図1ないし図14を参照)。
<対応関係構築処理>
まず、対応関係構築部23は、読取外形データS1の輪郭線上の構成点P1から、直線と曲線との境界点を抽出する(ステップS501)。当該処理により、D1c、D1d、D1e、D1fが境界点として抽出される。
同様に、対応関係構築部23は、歪み補正外形データS2の輪郭線上の構成点P2から、直線と曲線との境界点を抽出する(ステップS502)。当該処理により、D2c、D2d、D2e、D2fが境界点として抽出される。
Here, with reference to FIG. 17, the correspondence construction processing operation (step S206 in FIG. 14) of the
<Correspondence building process>
First, the
Similarly, the
次に、対応関係構築部23は、読取外形データS1から抽出した境界点のうち、ページ境界線L11上にある境界点D1e(D1d)と、歪み補正外形データS2から抽出した境界点のうち、ページ境界線L21上にある境界点D2e(D2d)とを対応付ける(ステップS503)。
次に、対応関係構築部23は、読取外形データS1の角構成点D1a(D1b)と、歪み補正外形データS2の角構成点D2a(D2b)とを対応付ける(ステップS504)。
当該ステップS503〜S504の処理により、対応関係構築部23は、図7にて破線で示すように、角構成点D1aとD2aとを対応付け、そして、ページ境界線L11またはL21上にある境界点D1eと境界点D2eとを対応付ける。
Next, the
Next, the
The process of step S503~S504,
そして、対応関係構築部23は、読取外形データS1から抽出した境界点のうち、ページ境界線L11上にない境界点D1f(D1c)を、歪み補正外形データS2に投影する(ステップS505)。
Then, the correspondence
そして、対応関係構築部23は、読取外形データS1のページ境界線L11上にない境界点D1fと、歪み補正外形データS2に投影した位置に最近傍の構成点P2(D2f)とを対応付ける(ステップS506)。
当該ステップS505〜S506の処理により、対応関係構築部23は、図7にて破線で示すように、境界点D1fと投影点D2fとを対応付ける。同様にして、対応関係構築部23は、ページ境界線L11上にない境界点D1cと、境界点D1cを歪み補正外形データS2に投影した位置に最近傍の構成点P2(D2c)とを対応付ける。
Then, the
By the processing in steps S505 to S506, the correspondence
そして、対応関係構築部23は、読取外形データS1における境界点D1eから境界点D1fまでの区間の輪郭線上にある構成点P1の数と、歪み補正外形データS2における境界点D2eから投影点D2fまでの区間の輪郭線上にある構成点P2の数とが同数になるように、数が少ない方の外形データの構成点の数を増やして調整する(ステップS507)。そして、対応関係構築部23は、読取外形データS1における区間内の構成点と、歪み補正外形データS2における区間内の構成点とをそれぞれ対応付ける(ステップS508)。このステップS507〜S508の処理の説明は、後記する。
そして、対応関係構築処理(図14のステップS206)を終了し、次にステップS207の処理を実行する。
Then, the
Then, the correspondence construction process (step S206 in FIG. 14) is terminated, and then the process of step S207 is executed.
ここで、対応関係構築部23は、区間内の構成点の数を調整する際、まず、読取外形データS1における区間(D1e〜D1f)内の構成点P1の数と、歪み補正外形データS2における区間(D2e〜D2f)内の構成点P2の数とを比較する。そして、差分した数(構成点が足りない数)の構成点を、構成点の数が少ない方の外形データの区間内に、新たに追加して構成点の数を調整する処理を、ステップS507〜S508の処理で行う。
Here, when the
(ステップS507〜S508の処理の説明)
ここで、対応関係構築部23が行うステップS507〜S508の処理について、図6および図7を用いて説明する。
対応関係構築部23は区間内の構成点の数を調整する際、まず、読取外形データS1における区間(D1e〜D1f)内の構成点P1の数と、歪み補正外形データS2における区間(D2e〜D2f)内の構成点P2の数とを取得し、構成点の数を比較する。そして、足りない数だけ、構成点の数が少ない外形データの区間内の構成点を追加する。
例えば、図7の場合、構成点P1の数=3、構成点P2の数=7であり、読取外形データS1の方が4つだけ構成点の数が足りない。
(Description of processing in steps S507 to S508)
Here, the processing of steps S507 to S508 performed by the
When the
For example, in the case of FIG. 7, the number of component points P1 = 3 and the number of component points P2 = 7, and the read outline data S1 has only four component points.
次に、対応関係構築部23は差分した数(構成点が足りない数)の構成点を、構成点の数が少ない方の外形データの区間内に、新たに追加する処理を行う。このとき、区間中央地点に最近傍に位置する既存の構成点から順番に、既存の構成点と同じ位置に新たな構成点を追加する。最も離れて位置する既存の構成点と同じ位置に新たな構成点を追加してもなお、追加すべき新たな構成点の数に余剰があれば、再び、区間中央地点に最近傍に位置する既存の構成点から順番に構成点を追加する。
Next, the
図8を用いて当該追加処理について説明する。
まず、対応関係構築部23は、外形記憶部26を参照して、構成点の数が少ない方の読取外形データS1から、区間(D1e〜D1f)を二等分する位置を抽出し、その位置を区間中央地点Mとする。そして、区間中央地点Mに最近傍の構成点P12を抽出し、1つ目の新たな構成点P14を構成点P12と同じ位置に重ねて追加する。そして、区間中央地点Mから次に近い構成点P11を抽出し、2つ目の新たな構成点P15を構成点P11と同じ位置に重ねて追加する。そして、区間中央地点Mから3番目に近い構成点P13を抽出し、3つ目の新たな構成点P16を構成点P13と同じ位置に重ねて追加する。
ここで、区間(D1e〜D1f)内で、区間中央地点Mから最も離れた位置にある構成点P13に新たな構成点を追加してもなお、歪み補正外形データS2より構成点の数が1つ足りないため、4つ目の新たな構成点P17を構成点P12と同じ位置に重ねて追加する。
The addition process will be described with reference to FIG.
First, the correspondence
Here, the interval (D1 e ~D1 f) within, adding a new configuration points composing point P 13 which is positioned farthest from the section center point M Note that the configuration point than distortion correction profile data S2 Since the number is one, the fourth new component point P 17 is added at the same position as the component point P 12 .
以上のように、ステップS507の処理が行われて、読取外形データS1の構成点P1の数と、歪み補正外形データS2の構成点P2の数とが調整され、図8に示すように、読取外形データS1の区間(D1e〜D1f)の構成点は、P11〜P17の7つになる。そして、P11と同じ位置にP15が追加され、P12と同じ位置にP14とP17とが追加され、P13と同じ位置にP16が追加される。
このように、読取外形データS1の構成点P1の数と、歪み補正外形データS2の構成点P2の数とが調整されて、ステップS507の処理が終了する。
As described above, the process of step S507 is performed, and the number of constituent points P1 of the read outer shape data S1 and the number of constituent points P2 of the distortion corrected outer shape data S2 are adjusted. As shown in FIG. There are seven constituent points P 11 to P 17 in the section (D1 e to D1 f ) of the outer shape data S1. Then, P 15 is added at the same position as P 11 , P 14 and P 17 are added at the same position as P 12, and P 16 is added at the same position as P 13 .
In this way, the number of constituent points P1 of the read outer shape data S1 and the number of constituent points P2 of the distortion-corrected outer shape data S2 are adjusted, and the process of step S507 ends.
そして、対応関係構築部23は、ステップS508の処理を行う。このステップS508の処理を図9を用いて説明する。
ここで、読取外形データS1における区間(D1e〜D1f)内の構成点P1は、D1fの最近傍にある構成点から、P11、P15(P11)、P12、P14(P12)、P17(P12)、P13、P16(P13)の順番で配置されている。一方、歪み補正外形データS2における区間(D2e〜D2f)内の構成点P2は、D2fの最近傍にある構成点から、P21、P22、P23、P24、P25、P26、P27の順番で配置されている。
まず、対応関係構築部23は、外形記憶部26に記憶された構成点の座標値に基づき、D1fとD2fの最近傍にある構成点同士を対応付け、その後、配置された順番に対応付けを行う。つまり、対応関係構築部23は、まず、D1fの最近傍にある構成点P11と、D2fの最近傍にある構成点P21とを対応付け、次に、構成点P15(P11)と構成点P22とを対応付ける。そして最後に、構成点P16(P13)と構成点P27とを対応付ける。
以上の処理により、図9に示すように、読取外形データS1における区間内の構成点P1(P11〜P17)と、歪み補正外形データS2における区間内の構成点P2(P21〜P27)とがそれぞれ対応付けられて、ステップS508の処理が終了する。
Then, the correspondence
Here, the configuration point P1 in the section (D1 e to D1 f ) in the read outline data S1 is P 11 , P 15 (P 11 ), P 12 , P 14 (from the configuration point nearest to D1 f. P 12), P 17 (P 12), are arranged in the order of P 13, P 16 (P 13 ). On the other hand, the constituent point P2 in the section (D2 e to D2 f ) in the distortion corrected outer shape data S2 is P 21 , P 22 , P 23 , P 24 , P 25 , P 25 from the constituent point closest to D2 f. 26, are arranged in the order of P 27.
First, the
By the above processing, as shown in FIG. 9, the constituent point P1 (P 11 to P 17 ) in the section in the read outer shape data S1 and the constituent point P2 (P 21 to P 27 in the section in the distortion corrected outer shape data S2). ) Are associated with each other, and the process of step S508 ends.
対応関係構築部23は、ステップS501〜S508に示す対応関係構築処理を、読取外形データS1の輪郭線を構成するすべての構成点P1と、歪み補正外形データS2の輪郭線を構成するすべての構成点P2とに対して行う。これにより、すべての構成点P1と、すべての構成点P2とがそれぞれ対応付けられる。
The correspondence
再び、図14の説明に戻る。
補正率設定部24は、歪み補正外形データS2の状態を補正率R=1.0に設定し、所定の間隔(例えば、0.2とする)で値を変化させた複数の補正率Rを設定する(ステップS207)。
Returning to the description of FIG.
The correction
当該ステップS207の処理について、図5を用いて説明する。
補正率設定部24は、読取外形データS1における、ページ境界線L11上の境界点D1dと境界点D1eとを結ぶ線分の長さの状態を補正率R=0.0として、歪み補正外形データS2における、ページ境界線L21上の境界点D2dと境界点D2eとを結ぶ線分の長さの状態を補正率R=1.0とする。そして、補正率Rを変えて、境界点D2dと境界点D2eとを結ぶ線分の長さに乗算する補正を行う。
ここで、補正率Rが「R<1」であれば、境界点D2dと境界点D2eとを結ぶ線分の長さが短くなり、R=0,0で、境界点D1dと境界点D1eとを結ぶ線分の長さと一致することになる。一方、「R>1」であれば、境界点D2dと境界点D2eとを結ぶ線分の長さがさらに長くなる。
The process of step S207 will be described with reference to FIG.
The correction
Here, if the correction rate R is “R <1”, the length of the line segment connecting the boundary point D2 d and the boundary point D2 e becomes short, and when R = 0, 0, the boundary point D1 d and the boundary point This coincides with the length of the line segment connecting the point D1 e . On the other hand, if “R> 1”, the length of the line segment connecting the boundary point D2 d and the boundary point D2 e is further increased.
再び、図14の説明に戻る。
形状補正部25は、歪み補正外形データS2を、補正率Rそれぞれの値で補正した、複数の補正率外形データS3を生成し(ステップS208)、読取外形データS1と歪み補正外形データS2と補正率外形データS3を外形記憶部26に記憶する(ステップS209)。そして、補正準備部13は補正準備処理(図13のステップS106)を終了する。
Returning to the description of FIG.
The
ステップS208の処理にて、形状補正部25は、次のように補正を行い、補正率外形データS3を生成する。
まず、形状補正部25は、外形記憶部26から、歪み補正外形データS2を取得し、歪み補正外形データS2の輪郭線における境界点D2d〜境界点D2e間のページ境界線L11の線分(図5(b))上の、構成点P2の座標値を補正率Rで補正し、補正後の構成点P2の座標値が外形記憶部26に記憶される。
さらに、境界点D2c〜境界点D2d間の曲線の線分(図5(b))および境界点D2e〜境界点D2f間の曲線の線分(図5(b))上の構成点P2の座標値を、その補正率Rに基づく補正をし、補正後の構成点P2の座標値が外形記憶部26に記憶される。この補正率Rに基づく補正は、ページ境界線L11に近いほど補正量が多くなるようにし、反対に境界点D2cおよび境界点D2fに近いほど補正量が少なくなるようにする。このとき、境界点D2cおよび境界点D2fの座標値には、補正率Rに基づく補正は行われない。
この補正は、例えば、公知の2次元モーフィングであるフィールドモーフィング(field morphing)を用いて行うことにより、実現することができる。
In the process of step S208, the
First, the
Furthermore, construction of the line segment of the curve between the boundary points D2 c ~ boundary point D2 d (FIG. 5 (b)) and the line segment of the curve between the boundary points D2 e ~ boundary point D2 f (FIG. 5 (b)) The coordinate value of the point P2 is corrected based on the correction rate R, and the coordinate value of the corrected component point P2 is stored in the outer
This correction can be realized, for example, by performing field morphing, which is known two-dimensional morphing.
<二次補正処理>
次に、図18を参照して、二次補正部14の二次補正処理動作(図13のステップS107)について説明する(適宜、図1ないし図13を参照)。
二次補正部14が備える特徴領域抽出部27は、外形記憶部26から読取外形データS1と歪み補正外形データS2と補正率外形データS3とを取得し、さらに、画像データ記憶部11から読取画像データD1と歪み補正画像データD2とを取得する(ステップS601)。そして、特徴領域抽出処理を実行する。
<Secondary correction processing>
Next, the secondary correction processing operation (step S107 in FIG. 13) of the secondary correction unit 14 will be described with reference to FIG. 18 (refer to FIGS. 1 to 13 as appropriate).
The feature
特徴領域抽出部27は、ステップS306の処理にて、外形形状抽出部21が読取画像データD1を分割した2つの画像(D1LとD1R)を、補正率Rが一致する画像同士で合成し、一つの画像データにする(ステップS602)。同様に、外形形状抽出部21が歪み補正画像データD2を分割した2つの画像(D2LとD2R)も合成する。
In the process of step S306, the feature
そして、特徴領域抽出部27は、対応関係構築部23により、読取画像データD1と歪み補正画像データD2との間で対応付けられたすべての構成点の組(構成点P1と構成点P2との組)における、構成点間の距離を算出する(ステップS603)。そして、特徴領域抽出部27は、構成点間の距離が最大となる(変化率が高い)構成点の組を検出する(ステップS604)。このとき、その組の構成点の座標値を取得する。
Then, the feature
特徴領域抽出部27は、構成点間を結ぶ線分を伸張し、その線分を対角線とする矩形の特徴領域を抽出する(ステップS605)。このとき、線分の端点の座標を取得しておく。
以上に示す特徴領域抽出処理により、特徴領域抽出部27は、読取外形データS1の輪郭線と歪み補正外形データS2の輪郭線との変化率が高い所定の大きさの領域(特徴領域)を抽出する。
The feature
By the feature region extraction processing described above, the feature
次に、特徴領域抽出部27は、すべての補正率外形データS3から、ステップS605で抽出した特徴領域内にあたる画像(部分画像)を抽出する(ステップS606)。
これにより、特徴領域抽出部27は、ステップS602で補正率Rが一致する画像同士で合成してから、ステップS603〜S606の処理を行うため、特徴領域抽出部27により、補正率R毎に異なる複数の部分画像が抽出される。
Next, the feature
As a result, the feature
そして、表示制御部28は、特徴領域抽出部27が抽出した部分画像を取得し、表示部7に補正率R毎に異なる複数の部分画像を一覧表示させる(図10参照)(ステップS607)。
ユーザは、操作入力部8を操作して、一つの部分画像を選択する(ステップS608)。
入力処理部29は、操作入力部8から入力される選択情報を取得する(ステップS609)。
そして、補正画像生成部30は、補正画像生成処理を実行する(ステップS610)。
Then, the
The user operates the
The
Then, the corrected
<補正画像生成処理>
ここで、図19を参照して、補正画像生成部30の補正画像生成処理動作(図18のステップS610)について説明する(適宜、図1ないし図18、特に図12を参照)。
まず、補正画像生成部30は、選択情報に基づき、選択された部分画像(特徴領域)に対応する補正率Rの補正率外形データS3を、外形記憶部26から取得する(ステップS701)。そして、補正率外形データS3をラスタ化し、補正率外形データS3の輪郭線を取得する(ステップS702)。
<Corrected image generation processing>
Here, the corrected image generation processing operation (step S610 in FIG. 18) of the corrected
First, based on the selection information, the corrected
補正画像生成部30は、補正率外形データS3の輪郭線上になく、輪郭線で囲まれた領域内に位置する仮想点U3(u3n)の座標(x3,y3)を取得し(ステップS703)、その仮想点U3から最近傍の補正率外形データS3の構成点P3を検出する(ステップS704)。
The corrected
補正画像生成部30は、その構成点P3(P3n)に対応付けられた歪み補正外形データS2の輪郭線の構成点P2(P2n)を取得し(ステップS705)、構成点P3から構成点P2までの移動ベクトルV(xt,yt)を算出する(ステップS706)。
The corrected
さらに、補正画像生成部30は、所定の条件を満たす点Q(交点QLLまたは交点QLW)から構成点P3までの距離と、前記点Qから仮想点U3までの距離とから、重み係数ωを算出する(ステップS707)。
Furthermore, the corrected
重み係数ωは次のように算出する。
構成点P2と構成点P3とを結ぶ直線と、ページの中央を縦断する直線LLとの交点をQLLとする。また、構成点P2と構成点P3とを結ぶ直線と、ページの中央を横断する直線LWとの交点をQLWとする。
そして、交点QLLから構成点P3までの距離または交点QLWから構成点P3までの距離のいずれか短い方の距離をLmaxとし、距離Lmaxに選ばれた点(交点QLLまたは交点QLW)から仮想点U3までの距離をLuとする。そして、数式(1)を用いて、LuのLmaxに対する割合を重み係数ωとする。
The weighting factor ω is calculated as follows.
Let Q LL be the intersection of a straight line connecting the constituent point P2 and the constituent point P3 and a straight line LL that cuts through the center of the page. Further, an intersection of a straight line connecting the configuration point P2 and the configuration point P3 and a straight line LW crossing the center of the page is defined as Q LW .
Then, the distance from the intersection point Q LL to the component point P3 or the distance from the intersection point Q LW to the component point P3, whichever is shorter, is L max, and the point selected as the distance L max (the intersection point Q LL or the intersection point Q 3 Let L u be the distance from LW ) to the virtual point U3. Then, using Equation (1), the ratio of L u to L max is set as a weighting factor ω.
再び、図19の説明に戻る。
補正画像生成部30は、数式(2)を用いて、移動ベクトルVと重み係数ωとから、仮想点U3(x3,y3)が補正前に、歪み補正画像データD2にあったと推定される推定点U2(x2,y2)(推定点u2n)を算出する(ステップS708)。
Returning again to the description of FIG.
The corrected
補正画像生成部30は、数式(3)を用いて、仮想点U3の位置に相当する画素の画素値I3を、推定点U2(x2,y2)の位置に相当する歪み補正画像データD2の画素の画素値I2で補正する(ステップS709)。
The corrected
補正画像生成部30は、補正率外形データS3の輪郭線で囲まれた領域内に位置するすべての点(仮想点U3)の座標を取得したか否かを判定する(ステップS710)。
取得していない点の座標がある場合(ステップS710,No)、ステップS703の処理を再度行う。
一方、すべての点の座標を取得している場合(ステップS710,Yes)、補正画像生成処理(図18のステップS610)を終了するとともに、二次補正処理(図13のステップS107)を終了する。そして、次にステップS108(図13)の処理を実行する。
The corrected
If there are coordinates of points that have not been acquired (step S710, No), the process of step S703 is performed again.
On the other hand, when the coordinates of all the points have been acquired (step S710, Yes), the corrected image generation process (step S610 in FIG. 18) ends and the secondary correction process (step S107 in FIG. 13) ends. . Then, the process of step S108 (FIG. 13) is executed.
以上により、第1の実施形態に係る画像読取装置1は、補正量が不十分な画像に対して、ユーザが選択した補正率Rに従って二次補正が行われるため、適切な補正量で歪み画像を補正することができる。
また、画像読取装置1は、補正画像生成部30が、補正後の輪郭線(補正率外形データS3)を補正率Rごとに画像データを生成し、それぞれを選択可能にして、表示部7に一覧表示させることにより、ユーザに補正率Rの選択権を与えることができる。そして、ユーザは希望する補正後の輪郭線(補正率外形データS3)を容易に判断できる。
As described above, since the image reading apparatus 1 according to the first embodiment performs the secondary correction on the image with the insufficient correction amount according to the correction rate R selected by the user, the distorted image with the appropriate correction amount. Can be corrected.
Further, in the image reading apparatus 1, the corrected
また、画像読取装置1は、媒体画像データ(歪み補正画像データD2)から抽出した媒体の輪郭線(歪み補正外形データS2)が、ユーザが選択した補正率Rの輪郭線(補正率外形データS3)と一致するように、媒体画像データ(歪み補正画像データD2)を補正することにより、ユーザに選択された補正率Rに基づいて、媒体の歪んだ形状を補正することができる。 Further, the image reading apparatus 1 uses the contour line (distortion correction outer shape data S2) of the medium extracted from the medium image data (distortion correction image data D2) as the contour (correction rate outer shape data S3) of the correction factor R selected by the user. ), The distorted shape of the medium can be corrected based on the correction rate R selected by the user by correcting the medium image data (distortion correction image data D2).
《第2の実施形態》
次に、第2の実施形態に係る画像読取装置の構成について説明する。
図20に示すように、第2の実施形態に係る画像読取装置1Aの二次補正部14Aは、第1の実施形態に係る画像読取装置1の二次補正部14(図3)に、さらに、補正形状評価部51と、補正形状評価部51からのデータを取得して処理を行う機能が追加された表示制御部28Aとを備えた装置である。
<< Second Embodiment >>
Next, the configuration of the image reading apparatus according to the second embodiment will be described.
As shown in FIG. 20, the
(補正形状評価部51)
補正形状評価部51は、外形記憶部26からすべての補正率外形データS3を取得し、補正形状評価処理を実行する構成部である。
この補正形状評価処理により、補正形状評価部51は、各補正率外形データS3の輪郭線の評価値を算出する。そして、最高評価値の補正率外形データS3に行われた補正率Rを表示制御部28Aに出力する。
(Correction shape evaluation unit 51)
The correction shape evaluation unit 51 is a component that acquires all the correction factor outline data S3 from the
By this correction shape evaluation process, the correction shape evaluation unit 51 calculates the evaluation value of the outline of each correction factor outline data S3. Then, the correction rate R applied to the highest evaluation value correction rate profile data S3 is output to the display control unit 28A.
(表示制御部28A)
第2の実施形態における表示制御部28Aは、補正形状評価部51から取得した補正率Rに対応する部分画像を強調した画像データを生成して、表示部7に複数の部分画像を表示させる。図21は、表示制御部28Aが、表示パネル86(表示部7)にJ3の補正率R=1.4の部分画像を強調して表示させた一例である。
(Display control unit 28A)
The display control unit 28A in the second embodiment generates image data in which the partial image corresponding to the correction rate R acquired from the correction shape evaluation unit 51 is emphasized, and causes the
<二次補正処理>
次に、図22を参照して、二次補正部14Aの二次補正処理動作(図13のステップS107)について説明する。
ここで、第1の実施形態における画像読取装置1(二次補正部14)の二次補正処理動作(図18)と重複するステップS601〜ステップS606と、ステップS608〜ステップS610との処理については、説明を省略する。
<Secondary correction processing>
Next, with reference to FIG. 22, the secondary correction processing operation (step S107 in FIG. 13) of the
Here, the processes in steps S601 to S606 and steps S608 to S610 that overlap with the secondary correction processing operation (FIG. 18) of the image reading apparatus 1 (secondary correction unit 14) in the first embodiment are described. The description is omitted.
特徴領域抽出部27が補正率R毎に異なる複数の部分画像を抽出した後(図18のステップS606)、補正形状評価部51は、外形記憶部26に記憶されたすべての補正率外形データS3に対して、補正形状評価処理を実行する(ステップS801)。補正形状評価処理により、補正形状評価部51は、最高評価値の補正率外形データS3に行われた補正率R(最適補正率)を表示制御部28Aに出力する。
表示制御部28Aは、特徴領域抽出部27が抽出した部分画像を取得し、表示部7に補正率R毎に異なる複数の部分画像を一覧表示させる。このとき、表示制御部28Aは、補正形状評価部51から入力される補正率R(最適補正率)に対応する部分画像を強調した画像データを生成して、表示部7に部分画像を表示させる(図21参照)(ステップS802)。
After the feature
The display control unit 28A acquires the partial images extracted by the feature
<補正形状評価処理>
次に、図23および図24を参照して、補正形状評価部51の補正形状評価処理動作(図22のステップS801)について説明する(適宜、図20ないし図22を参照)。
補正形状評価部51は、まず、外形記憶部26から補正率外形データS3を取得し(ステップS901)、その補正率外形データS3から2つの角構成点(D3aとD3b)の座標値と、ページ境界線L31上にある境界点(D3eとD3d)の座標値とを抽出し、角構成点D3aと角構成点D3bとを結ぶ直線L33と、ページ境界線L31との角度θを算出する(ステップS902)。
そして、補正形状評価部51は、数式(4)を用いて、ページ境界線L31の傾きの評価値Egrad(平行度)を算出する(ステップS903)。ただし、角度θは鋭角であるとする。
<Correction shape evaluation process>
Next, the corrected shape evaluation processing operation (step S801 in FIG. 22) of the corrected shape evaluating unit 51 will be described with reference to FIGS. 23 and 24 (refer to FIGS. 20 to 22 as appropriate).
The correction shape evaluation unit 51 first acquires the correction factor outer shape data S3 from the outer shape storage unit 26 (step S901), and the coordinate values of the two corner composing points (D3 a and D3 b ) from the correction factor outer shape data S3. The coordinate value of the boundary point (D3 e and D3 d ) on the page boundary line L31 is extracted, and the angle between the straight line L33 connecting the corner component point D3 a and the corner component point D3 b and the page boundary line L31 θ is calculated (step S902).
Then, the correction shape evaluation unit 51 calculates the evaluation value E grad (parallelism) of the inclination of the page boundary line L31 using Expression (4) (Step S903). However, it is assumed that the angle θ is an acute angle.
次に、補正形状評価部51は、角構成点D3aと角構成点D3bとを結ぶ線分(直線L33)の長さLedgeと、境界点D3eと境界点D3dとを結ぶ線分(ページ境界線L31)の長さLborderとを算出する(ステップS904)。
そして、補正形状評価部51は、数式(5)を用いて、ページ境界線L31の長さの評価値Elength(一致度)を算出する(ステップS905)。
Next, the correction shape evaluation unit 51, a line connecting the length L edge of the segment (straight line L33) connecting the corner control points D3 a and angular configuration point D3 b, and a boundary point D3 e and the boundary point D3 d The length L border of the minute (page boundary line L31) is calculated (step S904).
Then, the corrected shape evaluation unit 51 calculates the evaluation value E length (degree of coincidence) of the length of the page boundary line L31 using Equation (5) (Step S905).
そして、補正形状評価部51は、数式(6)を用いて、評価値Egradおよび評価値Elengthから、総合評価値Etotalを算出する(ステップS906)。ここで、αは長さについての評価値の重みを表す所定の数である。 And the correction | amendment shape evaluation part 51 calculates total evaluation value Etotal from evaluation value Egrad and evaluation value Elength using Numerical formula (6) (step S906). Here, α is a predetermined number representing the weight of the evaluation value for the length.
補正形状評価部51は、外形記憶部26からすべての補正率外形データS3を取得したか否かを判定する(ステップS907)。
まだ取得していない補正率外形データS3がある場合(ステップS907,No)、補正形状評価部51は、再びステップS901の処理を実行する。
The correction shape evaluation unit 51 determines whether or not all the correction factor outer shape data S3 has been acquired from the outer shape storage unit 26 (step S907).
When there is correction rate outline data S3 that has not yet been acquired (No at Step S907), the correction shape evaluation unit 51 executes the process at Step S901 again.
一方、すべての補正率外形データS3を取得した(ステップS907,Yes)、補正形状評価部51は、各補正率外形データS3から算出した総合評価値Etotalから、最高の総合評価値Etotalを抽出する(ステップS908)。そして、補正形状評価部51は、その最高評価値(最高の総合評価値Etotal)の補正率外形データS3に行われた補正率Rを表示制御部28Aに出力する(ステップS909)。そして、補正形状評価部51が補正形状評価処理(図22のステップS801)終了後、次にステップS802の処理を実行する。 On the other hand, it has acquired all the correction factor profile data S3 (step S907, Yes), the correction shape evaluation unit 51, a comprehensive evaluation value E total calculated from the correction factor profile data S3, the highest total evaluation value E total Extract (step S908). Then, the corrected shape evaluation unit 51 outputs the correction rate R performed on the correction rate outer shape data S3 of the highest evaluation value (the highest overall evaluation value Etotal ) to the display control unit 28A (step S909). Then, after the corrected shape evaluation unit 51 ends the corrected shape evaluation process (step S801 in FIG. 22), the process of step S802 is executed next.
以上により、第2の実施形態に係る画像読取装置1Aは、補正形状評価部51が、最も歪みが少ない補正率外形データS3を、最高評価値(最高の総合評価値Etotal)で算出する。これにより、その補正率外形データS3の補正率R(最適補正率)が表示制御部28Aに出力される。
そして、表示制御部28Aは、補正形状評価部51から取得した補正率R(最適補正率)に対応する部分画像を強調した画像データを生成する。そのため、画像読取装置1Aは、表示部7に、ユーザに最適な補正量を提示することができる。
As described above, in the image reading apparatus 1 </ b> A according to the second embodiment, the correction shape evaluation unit 51 calculates the correction factor outline data S <b> 3 with the least distortion with the highest evaluation value (the highest total evaluation value E total ). Thereby, the correction rate R (optimum correction rate) of the correction rate outer shape data S3 is output to the display control unit 28A.
Then, the display control unit 28A generates image data in which the partial image corresponding to the correction rate R (optimum correction rate) acquired from the correction shape evaluation unit 51 is emphasized. Therefore, the image reading apparatus 1 </ b> A can present the optimal correction amount to the user on the
以上、本発明の実施形態について説明したが、本発明は前記した実施形態に限定されず、適宜変更して実施することが可能である。
例えば、画像読取部2および画像データ生成部3を備えるスキャナなどの外部装置が、生成した画像データを、電話回線やLANなどのネットワーク網や、USBメモリやCD−RAMなどの記録媒体などを介して、画像処理装置(PCなど)に入力する構成であっても構わない。
この画像処理装置は、外部装置が生成した画像データが入力されるデータ入力部、ユーザからの入力操作を受け付ける操作入力部、画像を表示する表示部、CPU、ROM、RAM、HDD(Hard Disc Drive)などを備えた一般的なコンピュータで構成することができる。そして、このコンピュータを、図3に示す補正前処理部61、表示処理部62、画像補正部63として機能させるプログラム(画像補正プログラム)により実現することができる。
ここで、前記データ入力部は、外部装置とネットワーク網を介して接続され、外部装置が送信した画像データを受信する通信部であってもよい。
Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and can be implemented with appropriate modifications.
For example, an external device such as a scanner including the
This image processing apparatus includes a data input unit to which image data generated by an external device is input, an operation input unit that receives an input operation from a user, a display unit that displays an image, a CPU, a ROM, a RAM, an HDD (Hard Disc Drive) ) And the like. The computer can be realized by a program (image correction program) that functions as the pre-correction processing unit 61, the display processing unit 62, and the image correction unit 63 shown in FIG.
Here, the data input unit may be a communication unit that is connected to an external device via a network and receives image data transmitted by the external device.
また、本実施形態では、図1に示すように、冊子状の原稿91を見開いた状態で媒体載置台81に載置した場合について示したが、冊子状の原稿91の表紙と裏表紙とが接するように折り曲げた状態で、片側のページを読み取り面として媒体載置台81に載置しても構わない。この場合、画像読取装置1(1A)の外形形状抽出部21は、ステップ306(図15)にて、画像を2つに分割しない。
Further, in the present embodiment, as shown in FIG. 1, the case where the booklet-shaped
1 画像読取装置
2 画像読取部
3 画像データ生成部
7 表示部
8 操作入力部
10 画像処理部(4 CPU)
11 画像データ記憶部
12 一次補正部
13 補正準備部
14 二次補正部
21 外形形状抽出部
22 構成点配置部
23 対応関係構築部
24 補正率設定部
25 形状補正部
26 外形記憶部
27 特徴領域抽出部
28 表示制御部
29 入力処理部
30 補正画像生成部
61 補正前処理部
62 表示処理部
63 画像補正部
D1 読取画像データ
D2 歪み補正画像データ
DESCRIPTION OF SYMBOLS 1
DESCRIPTION OF
Claims (5)
所定の形状の媒体の表面画像を読み込んで媒体画像データを生成し、前記読み込んだときに前記媒体表面が歪んだ形状で生成された前記媒体画像データに歪み補正をする画像読取装置であって、
前記媒体表面が歪んだ形状で読み込まれて生成された前記媒体画像データに第1補正をした歪み補正画像データから、前記媒体表面の輪郭線を抽出し、値がそれぞれ異なる複数の補正率で前記輪郭線を補正する補正前処理部と、
前記補正率ごとに前記補正後の補正率外形輪郭線の画像を生成し、前記補正率ごとの画像を選択可能にして、前記表示部に一覧表示させる表示処理部と、
前記歪み補正画像データから抽出した輪郭線が、前記入力部に選択入力された前記補正率外形輪郭線と一致するように、前記歪み補正画像データに第2補正をする画像補正部と
を備えることを特徴とする画像読取装置。 An input unit that accepts a selection input from the user, and a display unit;
An image reading device that reads a surface image of a medium having a predetermined shape to generate medium image data, and corrects the distortion of the medium image data generated in a shape in which the surface of the medium is distorted when read.
An outline of the medium surface is extracted from distortion corrected image data obtained by first correcting the medium image data generated by reading the medium surface in a distorted shape, and the correction values are different from each other at a plurality of correction rates. A pre-correction processing unit for correcting the contour line;
A display processing unit that generates an image of the corrected correction factor outline contour for each correction factor, enables the selection of the image for each correction factor, and displays the list on the display unit;
An image correction unit that performs second correction on the distortion-corrected image data so that a contour line extracted from the distortion-corrected image data matches the correction factor outline contour line that is selected and input to the input unit. An image reading apparatus.
前記媒体表面が歪んだ形状で生成された媒体画像データに前記第1補正を行って前記歪み補正画像データを生成する一次補正部と、
前記媒体画像データから前記媒体表面の読取外形輪郭線を抽出し、前記歪み補正画像データから前記媒体表面の歪み補正外形輪郭線を抽出する外形形状抽出部と、
前記歪み補正外形輪郭線を基準とした複数の補正率を設定する補正率設定部と、
前記補正率で前記歪み補正外形輪郭線を補正して、前記補正率ごとの補正率外形輪郭線を生成する形状補正部と、
を備えることを特徴とする請求項1に記載された画像読取装置。 The correction preprocessing unit
A primary correction unit configured to generate the distortion correction image data by performing the first correction on the medium image data generated in a distorted shape of the medium surface;
An outer shape extraction unit that extracts a reading outer contour line of the medium surface from the medium image data, and extracts a distortion correction outer contour line of the medium surface from the distortion correction image data;
A correction rate setting unit for setting a plurality of correction rates based on the distortion-corrected outer contour line;
A shape correction unit that corrects the distortion-corrected outer contour line with the correction factor and generates a correction factor outer contour line for each correction factor;
The image reading apparatus according to claim 1, further comprising:
前記外形形状抽出部が抽出した読取外形輪郭線上に構成点を配置し、前記外形形状抽出部が抽出した歪み補正外形輪郭線上に構成点を配置する構成配置部と、
前記読取外形輪郭線上の構成点と、前記歪み補正外形輪郭線上の構成点とが、同一平面上で近接する構成点同士を対応付ける対応関係構築部と
を備え、
前記表示処理部は、
前記対応付けられた構成点間で距離が最大となる構成点の組を検出し、検出した構成点間を結ぶ線分を伸張し、その線分を対角線とする矩形枠を生成し、前記形状補正部で生成された複数の補正率外形輪郭線から、前記矩形枠内となる特徴領域を抽出する特徴領域抽出部と、
前記補正率ごとに抽出された特徴領域の画像を生成し、前記補正率ごとの画像を選択可能にして、前記表示部に一覧表示させる表示制御部と
を備えることを特徴とする請求項2に記載された画像読取装置。 The correction preprocessing unit
A configuration placement unit that places a configuration point on the read outline contour extracted by the profile extraction unit, and a configuration point that arranges the configuration point on a distortion-corrected profile contour extracted by the profile extraction unit;
A correspondence relationship construction unit that associates component points on the read contour outline and component points on the distortion-corrected contour outline that are close to each other on the same plane;
The display processing unit
Detecting a set of component points having the maximum distance between the associated component points, extending a line segment connecting the detected component points, generating a rectangular frame having the line segment as a diagonal line, and generating the shape A feature region extraction unit that extracts a feature region that is within the rectangular frame from a plurality of correction factor outer contour lines generated by the correction unit;
The display control part which produces | generates the image of the characteristic area extracted for every said correction factor, makes the image for every said correction factor selectable, and makes it display on a list on the said display part. The described image reading apparatus.
前記表示処理部が、前記補正率ごとの補正率外形輪郭線すべてから、一対の線分を抽出して前記一対の線分がなす角度から平行度を取得するとともに、互いの線分の長さの比率から一致度を取得し、前記平行度および前記一致度から最適補正率の前記補正率外形輪郭線を取得する補正形状評価部を備え、
前記表示制御部が、さらに、前記最適補正率の補正率外形輪郭線から抽出した前記特徴領域の画像を、前記表示部に強調表示させることを特徴とする請求項3に記載された画像読取装置。 The medium has a shape having at least a pair of line segments,
The display processing unit extracts a pair of line segments from all the correction factor outline contour lines for each correction factor, acquires parallelism from an angle formed by the pair of line segments, and lengths of the respective line segments. A correction shape evaluation unit that acquires the degree of coincidence from the ratio of, and obtains the correction factor outline contour of the optimum correction factor from the parallelism and the degree of coincidence,
The image reading apparatus according to claim 3, wherein the display control unit further causes the display unit to highlight an image of the feature region extracted from the correction rate outline of the optimal correction rate. .
前記データ入力部が取得した前記媒体画像データに、第1補正をして歪み補正画像データを生成し、前記歪み補正画像データから前記媒体表面の輪郭線を抽出し、値がそれぞれ異なる複数の補正率で前記輪郭線を補正する補正前処理手段、
前記補正率ごとに前記輪郭線を補正した補正率外形輪郭線の画像を生成し、前記補正率ごとの画像を選択可能にして、前記表示部に一覧表示させる表示処理手段、
前記歪み補正画像データから抽出した輪郭線が、前記入力部に選択入力された前記補正率外形輪郭線と一致するように、前記歪み補正画像データに第2補正をする画像補正手段、
として機能させることを特徴とする画像補正プログラム。 A computer including an input unit that receives a selection input from a user, a display unit, and a data input unit that acquires medium image data generated in a shape in which the medium surface is distorted.
A first correction is performed on the medium image data acquired by the data input unit to generate distortion-corrected image data, an outline of the medium surface is extracted from the distortion-corrected image data, and a plurality of corrections having different values are provided. Correction preprocessing means for correcting the contour line at a rate,
Display processing means for generating an image of a correction rate outline contour line obtained by correcting the contour line for each correction rate, enabling selection of an image for each correction rate, and displaying the list on the display unit;
Image correction means for performing second correction on the distortion-corrected image data so that the contour line extracted from the distortion-corrected image data matches the correction factor outer contour line selected and input to the input unit;
An image correction program characterized by functioning as
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010157043A JP2012019474A (en) | 2010-07-09 | 2010-07-09 | Image reading device and image correction program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010157043A JP2012019474A (en) | 2010-07-09 | 2010-07-09 | Image reading device and image correction program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012019474A true JP2012019474A (en) | 2012-01-26 |
Family
ID=45604349
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010157043A Pending JP2012019474A (en) | 2010-07-09 | 2010-07-09 | Image reading device and image correction program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012019474A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110390642A (en) * | 2018-04-20 | 2019-10-29 | 西南民族大学 | A kind of method of pair of woodcut Tibetan language geometric correction of imagery |
JP2020181510A (en) * | 2019-04-26 | 2020-11-05 | キヤノンメディカルシステムズ株式会社 | Medical image processing device and medical image processing program |
CN114485389A (en) * | 2020-10-26 | 2022-05-13 | 住友重机械工业株式会社 | Distortion aberration correction processing device, distortion aberration correction method, and storage medium |
-
2010
- 2010-07-09 JP JP2010157043A patent/JP2012019474A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110390642A (en) * | 2018-04-20 | 2019-10-29 | 西南民族大学 | A kind of method of pair of woodcut Tibetan language geometric correction of imagery |
CN110390642B (en) * | 2018-04-20 | 2023-12-08 | 西南民族大学 | Method for geometrically correcting woodcut Tibetan image |
JP2020181510A (en) * | 2019-04-26 | 2020-11-05 | キヤノンメディカルシステムズ株式会社 | Medical image processing device and medical image processing program |
JP7296773B2 (en) | 2019-04-26 | 2023-06-23 | キヤノンメディカルシステムズ株式会社 | MEDICAL IMAGE PROCESSING APPARATUS AND MEDICAL IMAGE PROCESSING PROGRAM |
CN114485389A (en) * | 2020-10-26 | 2022-05-13 | 住友重机械工业株式会社 | Distortion aberration correction processing device, distortion aberration correction method, and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4047352B2 (en) | Image distortion correction program, image distortion correction apparatus, and image distortion correction method | |
JP5722482B2 (en) | Image processing system and image processing method | |
US10459670B2 (en) | Methods, systems, apparatuses and devices for facilitating printing of a digital image based on image splitting | |
TWI398158B (en) | Method for generating the depth of a stereo image | |
JP2010171976A (en) | Method and system for correcting distorted document image | |
JP6432871B2 (en) | Book digitization method and book digitization apparatus | |
JP5675445B2 (en) | Information processing apparatus, information processing apparatus control method, and computer program | |
JP2012019474A (en) | Image reading device and image correction program | |
US10317880B2 (en) | Print data dividing apparatus, and related program and recording medium, that determine a shape of a joint portion of a target area and generate three-dimensional shape data for division printing of the target area | |
JP2016159437A (en) | Image formation apparatus and control method thereof | |
JP2013059111A (en) | Device, method, system and program of handling code | |
US8749834B2 (en) | Information processing apparatus that perform margin reduction depending on the column group structure, method for controlling same, and storage medium on which computer program has been recorded | |
JP5479049B2 (en) | Document processing device | |
JP7451106B2 (en) | Information processing device, control method, program and storage medium | |
JP5356711B2 (en) | Map information correction apparatus, map information correction method, and program | |
CN101686309A (en) | Method and device of generating trapping by image path | |
JP2007264965A (en) | Digital content creation system, digital content creation program and digital content creation method | |
JP2012022651A (en) | Image processing apparatus, image processing method and program | |
JP2018055256A (en) | Information processing apparatus, information processing method, and program | |
JP2009146150A (en) | Method and device for detecting feature position | |
JP2013026865A (en) | Image processing apparatus and image processing method | |
JP6598546B2 (en) | Image processing apparatus, image processing method, and program | |
JP5719271B2 (en) | Image processing method, image processing apparatus, and image processing program | |
JP6648451B2 (en) | Low overhead near unit scaling technology | |
US20180211366A1 (en) | Flattening and Rectifying A Curved Image |