JP2008167352A - Image processing apparatus - Google Patents

Image processing apparatus Download PDF

Info

Publication number
JP2008167352A
JP2008167352A JP2007000221A JP2007000221A JP2008167352A JP 2008167352 A JP2008167352 A JP 2008167352A JP 2007000221 A JP2007000221 A JP 2007000221A JP 2007000221 A JP2007000221 A JP 2007000221A JP 2008167352 A JP2008167352 A JP 2008167352A
Authority
JP
Japan
Prior art keywords
document
unit
image
distance
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007000221A
Other languages
Japanese (ja)
Other versions
JP4883574B2 (en
Inventor
Ichiro Urata
一郎 浦田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Data Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Data Corp filed Critical Oki Data Corp
Priority to JP2007000221A priority Critical patent/JP4883574B2/en
Publication of JP2008167352A publication Critical patent/JP2008167352A/en
Application granted granted Critical
Publication of JP4883574B2 publication Critical patent/JP4883574B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Facsimile Scanning Arrangements (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Variable Magnification In Projection-Type Copying Machines (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)
  • Facsimile Heads (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To eliminate blurring in an image read from an object such as a book having a binding part, and to deal with a request for accelerating a reading speed. <P>SOLUTION: On the basis of a document distance detected by a document distance detecting unit 105, a focal distance control unit 106 controls the position of a focusing lens so as to focus a document 20. A main control unit 101c reads image data of a binding part from a position of a line, which is the position of the focusing lens controlled by the focal distance control unit 106, indicating the main scanning direction used for the document distance detection unit 105 for detecting the document distance to an ending position of the binding part detected by a binding part position detection unit 104. An image compositing unit 110 overwrites the image data of the binding part, read by the main control unit 101c on document image data that are being stored in a document image data storage region 103d included in a storage unit 103. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、綴じ部を有する被写体の画像を読み取る画像処理装置に関する。   The present invention relates to an image processing apparatus that reads an image of a subject having a binding portion.

従来から、書籍の綴じ部等を有する被写体のすべての表面に焦点を合わせ、ぼけのない美しい画像が得られる画像入力装置が提案されている(例えば、特許文献1参照)。この画像入力装置は、綴じ部と平行に配置されたラインセンサを綴じ部と同じ方向に走査させることで、ラインセンサと被写体との間の距離を1ライン毎に測定するようになっている。そして、この画像入力装置は、この測定データに基づいて、被写体の像がラインセンサ上に結像するように光学系を制御しながら、ラインセンサを走査するようになっている。
特開平5−316302号公報
2. Description of the Related Art Conventionally, an image input device has been proposed that can focus on all surfaces of a subject having a binding portion of a book and obtain a beautiful image without blurring (see, for example, Patent Document 1). This image input device measures the distance between the line sensor and the subject for each line by scanning a line sensor arranged in parallel with the binding portion in the same direction as the binding portion. The image input device scans the line sensor based on the measurement data while controlling the optical system so that an image of the subject is formed on the line sensor.
JP-A-5-316302

しかしながら、特許文献1に記載の画像入力装置では、上述したように、ラインセンサを綴じ部の方向に1ラインづつ走査して被写体の画像を読み取る際に、予めラインセンサと被写体との間の距離を測定したのち、その測定データに基づいて光学系を制御しながら画像を読み取るため、読み取り速度の高速化の要求に応えられないという問題点があった。   However, in the image input device described in Patent Document 1, as described above, when the line sensor is scanned line by line in the direction of the binding portion and the image of the subject is read, the distance between the line sensor and the subject in advance. Then, since the image is read while controlling the optical system based on the measurement data, there is a problem that it is not possible to meet the demand for higher reading speed.

また、特許文献1に記載の画像入力装置では、ラインセンサと被写体との間の距離を測定したのち、その測定データに基づいて光学系を制御しながら画像を読み取るのみであるので、光源から距離がある綴じ部における画像データの画素の濃度値が補正されていず、綴じ部における画像の濃度とそれ以外の部分の濃度とが互いに調和せず、不自然な画像になる虞が発生するという問題点があった。   Further, in the image input device described in Patent Document 1, after measuring the distance between the line sensor and the subject, the image is only read while controlling the optical system based on the measurement data. The density value of the pixel of the image data in a certain binding part is not corrected, and the density of the image in the binding part and the density of the other part do not harmonize with each other, which may cause an unnatural image. There was a point.

そこで、本発明は上述した問題点に鑑み、被写体に有する綴じ部以外の箇所でラインセンサと被写体との間の距離を予め測定するという無駄な処理を行うことなく、読み取り速度の高速化が可能な画像処理装置を提供することを目的とする。   Therefore, in view of the above-described problems, the present invention can increase the reading speed without performing a wasteful process of measuring in advance the distance between the line sensor and the subject at a place other than the binding portion of the subject. An object of the present invention is to provide a simple image processing apparatus.

また、本発明は、被写体に有する綴じ部における画像の濃度とそれ以外の部分の濃度とが互いに調和可能な画像処理装置を提供することを目的とする。   Another object of the present invention is to provide an image processing apparatus in which the density of an image in a binding portion of a subject and the density of other portions can be harmonized with each other.

上記課題を解決するため、請求項1記載の発明は、原稿積載面に積載された原稿の画像を読み取る画像読取部と、前記原稿と前記原稿積載面との離間領域を検出する離間領域検出部と、前記原稿と前記原稿積載面との原稿距離を検出する原稿距離検出部と、前記画像読取部における前記原稿との焦点距離を調整する焦点距離調整部と、前記離間領域検出部が検出した領域を、前記焦点距離調整部により焦点を調整して読み取る読取制御部とを備える。   In order to solve the above problems, an invention according to claim 1 is an image reading unit that reads an image of a document stacked on a document stacking surface, and a separation region detection unit that detects a separation region between the document and the document stacking surface. And a document distance detection unit that detects a document distance between the document and the document stacking surface, a focal length adjustment unit that adjusts a focal distance between the document and the document in the image reading unit, and a separation area detection unit. A reading control unit that reads the region by adjusting the focal point by the focal length adjustment unit;

この構成によれば、読取制御部が、離間領域検出部が検出した領域を、焦点距離調整部により焦点を調整して読み取るので、読み取り速度の高速化の要求に応えることができる。   According to this configuration, since the reading control unit reads the region detected by the separated region detection unit by adjusting the focal point by the focal length adjustment unit, it is possible to meet the demand for higher reading speed.

以上、本発明によれば、被写体に有する綴じ部以外の箇所でラインセンサと被写体との間の距離を予め測定するという無駄な処理を行う必要性をなくし、読み取り速度の高速化の要求に応えることができる。   As described above, according to the present invention, there is no need to perform a wasteful process of previously measuring the distance between the line sensor and the subject at a place other than the binding portion of the subject, and the demand for higher reading speed is met. be able to.

また、本発明によれば、被写体に有する綴じ部における画像の濃度とそれ以外の部分の濃度を互いに調和させることができる。   Further, according to the present invention, it is possible to harmonize the image density of the binding portion of the subject with the density of other portions.

次に、本発明を実施するための最良の形態を説明する。   Next, the best mode for carrying out the present invention will be described.

図1は、本発明に係る画像処理装置の実施例1の構成を示すブロック図である。図に示すように、この画像処理装置は、原稿20を読み取るスキャナ等の装置であって、制御部100と、ガラス板120と、キャリッジ130と、キャリッジ駆動部140とを備えて構成されている。   FIG. 1 is a block diagram showing the configuration of the first embodiment of the image processing apparatus according to the present invention. As shown in the figure, this image processing apparatus is an apparatus such as a scanner for reading an original 20, and includes a control unit 100, a glass plate 120, a carriage 130, and a carriage driving unit 140. .

制御部100は、図2に示すように、主制御部101c、濃度補正部102、記憶部103、綴じ部位置検出部104、原稿距離検出部105、焦点距離制御部106、画像処理部107、I/F108、A/D変換器109、及び画像合成部110を備える。   As shown in FIG. 2, the control unit 100 includes a main control unit 101c, a density correction unit 102, a storage unit 103, a binding unit position detection unit 104, a document distance detection unit 105, a focal length control unit 106, an image processing unit 107, An I / F 108, an A / D converter 109, and an image composition unit 110 are provided.

主制御部101cは、CCDラインセンサ(後述する)、光源(後述する)、キャリッジ駆動部140を制御するものであって、ガンマ補正部101a、下地除去部101b、及び主制御部101cを有している。   The main control unit 101c controls a CCD line sensor (described later), a light source (described later), and a carriage driving unit 140, and includes a gamma correction unit 101a, a background removal unit 101b, and a main control unit 101c. ing.

ガンマ補正部101aは、入力された光量から濃度を変換するγテーブルを備え、このγテーブルを参照し、A/D変換器109から入力されたデジタル画像信号に示された光量から濃度を示す画像データを生成する。   The gamma correction unit 101a includes a γ table that converts the density from the input light amount, and refers to the γ table, and an image that indicates the density from the light amount indicated in the digital image signal input from the A / D converter 109. Generate data.

下地除去部101bは、原稿の読取開始後、数ラインの中で最低の濃度値でなる下地濃度を検出し、この下地濃度を記憶部103に記憶する。そして、下地除去部101bは、下記の式に従って、下地除去濃度値を算出し、この下地除去濃度値を濃度補正部102に出力する。
下地除去濃度値=(読取り濃度値−下地濃度値)/(255−下地濃度値)*255 ・・・式1
ここで、読取り濃度値は、ガンマ補正部から出力された画像データの濃度値である。
The background removal unit 101 b detects the background density that is the lowest density value among several lines after starting the reading of the document, and stores the background density in the storage unit 103. Then, the background removal unit 101 b calculates a background removal density value according to the following formula, and outputs the background removal density value to the density correction unit 102.
Background removal density value = (read density value−background density value) / (255−background density value) * 255 Expression 1
Here, the read density value is the density value of the image data output from the gamma correction unit.

濃度補正部102は、後で述べる原稿距離検出部105の検出結果である原稿想定距離Dに対応する濃度補正量Denを使用し、主制御部101cから入力された原稿の画像データの濃度値(下記の式1において入力画像濃度値として記述されている)を下記に示す式1を用いて補正し、この補正画像濃度値を有する画像データを記憶部103に書き込む。
補正画像濃度値=(下地除去濃度値−濃度補正量Den)/(255−濃度補正量Den)×255 ・・・式2
The density correction unit 102 uses the density correction amount Den corresponding to the assumed original distance D, which is a detection result of the original distance detection unit 105 described later, and uses the density value of the original image data input from the main control unit 101c ( (Described as the input image density value in the following expression 1) is corrected using the following expression 1, and the image data having the corrected image density value is written in the storage unit 103.
Corrected image density value = (background removal density value−density correction amount Den) / (255−density correction amount Den) × 255 Formula 2

原稿想定距離Dに対応する濃度補正量Denは、式1により補正画像濃度値を算出する際に使用されるものであって、記憶部103に登録されている図3(a)に示す原稿想定距離D―濃度補正量Denテーブル103aに記述されている。   The density correction amount Den corresponding to the assumed original distance D is used when the corrected image density value is calculated by Equation 1, and the original assumption shown in FIG. 3A registered in the storage unit 103 is used. The distance D-density correction amount Den table 103a is described.

記憶部103は、RAM、ハードディスク装置等のメモリ装置であって、原稿想定距離D―濃度補正量Denテーブル103aと、下地濃度値範囲―原稿距離テーブル103bと、副走査座標―原稿距離情報d(Y)テーブル103cと、原稿画像データ記憶領域103dと、綴じ部画像データ記憶領域103eとを有している。   The storage unit 103 is a memory device such as a RAM or a hard disk device, and includes an assumed original distance D-density correction amount Den table 103a, a background density value range-original distance table 103b, sub-scanning coordinates-original distance information d ( Y) It has a table 103c, a document image data storage area 103d, and a binding part image data storage area 103e.

原稿想定距離D―濃度補正量Denテーブル103aは、図3(a)に示すように、原稿想定距離Dと濃度補正量Denとの関係を示すテーブルであって、例えば、原稿想定距離Dが0の場合には、原稿20とガラス板120とが密着しており濃度補正を行う必要がないため濃度補正量Denが0である。また、原稿想定距離D=2の場合には、原稿20とガラス板120との間に隙間があり濃度補正を行う必要があるため、濃度補正量Denが64である。なお、原稿想定距離Dが0以外のときの濃度補正量Denは、実験により求めた値である。   As shown in FIG. 3A, the assumed original distance D-density correction amount Den table 103a is a table showing the relationship between the assumed original distance D and the density correction amount Den. For example, the assumed original distance D is 0. In this case, since the original 20 and the glass plate 120 are in close contact with each other and it is not necessary to perform density correction, the density correction amount Den is zero. When the assumed original distance D = 2, there is a gap between the original 20 and the glass plate 120, and it is necessary to perform density correction, so the density correction amount Den is 64. Note that the density correction amount Den when the assumed original distance D is other than 0 is a value obtained through experiments.

下地下地濃度値範囲―原稿距離テーブル103bは、図3(b)に示すように、読み取った原稿画像データの濃度値の範囲と、原稿20とガラス板120との間の隙間距離(以下、原稿距離という)の関係を示すテーブルであって、例えば、濃度値の範囲が0〜31の場合には原稿20がガラス板120と密着していることを示す原稿距離が0であり、濃度値の範囲が64〜95の場合には原稿距離が2である。なお、濃度値と原稿距離との関係は予め実験で求めた値である。なお、ここでいう下地濃度とは、読み取りライン毎に検出される最低濃度をさす。   As shown in FIG. 3B, the background / background density value range-document distance table 103b includes a range of density values of the read document image data and a gap distance between the document 20 and the glass plate 120 (hereinafter, referred to as a distance value). For example, when the density value range is 0 to 31, the document distance indicating that the document 20 is in close contact with the glass plate 120 is 0, and the density value is Is 64 to 95, the document distance is 2. The relationship between the density value and the document distance is a value obtained in advance by experiments. Here, the background density refers to the minimum density detected for each reading line.

副走査座標―原稿距離情報d(Y)テーブル103cは、図3(c)に示すように、綴じ部位置を示す副走査座標を有する主走査方向の各ラインにおける原稿20の綴じ部とガラス板120との距離を示す原稿距離情報d(Y)とが記述された副走査座標―原稿距離情報d(Y)データを記憶する。図3(c)により、綴じ部の中心ほど濃度値が高くなり、原稿20がガラス板120より浮いていることが示される。   As shown in FIG. 3C, the sub-scanning coordinate-original distance information d (Y) table 103c includes a binding portion and a glass plate of the original 20 in each line in the main scanning direction having a sub-scanning coordinate indicating a binding portion position. The sub-scanning coordinate-document distance information d (Y) data in which document distance information d (Y) indicating the distance to 120 is described is stored. FIG. 3C shows that the density value increases toward the center of the binding portion, and the document 20 is lifted from the glass plate 120.

原稿画像データ記憶領域103dは、原稿想定距離Dが0の場合における原稿20の未だ修正されていない原稿画像データを記憶する。   The original image data storage area 103d stores original image data of the original 20 that has not been corrected when the assumed original distance D is zero.

綴じ部画像データ記憶領域103eは、原稿画像データ記憶領域103dに記憶されている原稿画像データを修正するための綴じ部の画像データ(以下、綴じ部画像データという)を記憶する。綴じ部画像データには、原稿想定距離Dが0以外のもので読み取られた原稿20の画像データを記憶する。   The binding portion image data storage area 103e stores binding portion image data (hereinafter referred to as binding portion image data) for correcting the document image data stored in the document image data storage region 103d. In the binding portion image data, image data of the document 20 read with a document original distance D other than 0 is stored.

綴じ部位置検出部104は、読み込まれた原稿20の原稿画像データを記憶部103に有する原稿画像データ記憶領域103dから読み出し、この原稿画像データを従来から知られているエッジ検出処理を行い、原稿端の歪みを検出する。そして、綴じ部位置検出部104は、原稿端の歪みから綴じ部の開始位置を示す副走査座標Ystart、綴じ部の終了位置を示す副走査座標Yendを検出し、これらの副走査座標Ystart及び副走査座標Yendを主制御部101c及び原稿距離検出部105に出力する。   The binding portion position detection unit 104 reads the original image data of the read original 20 from the original image data storage area 103d in the storage unit 103, performs a conventionally known edge detection process on the original image data, and outputs the original document data. Detect edge distortion. Then, the binding portion position detection unit 104 detects the sub-scanning coordinate Ystart indicating the start position of the binding portion and the sub-scanning coordinate Yend indicating the end position of the binding portion from the distortion of the document edge. The scanning coordinate Yend is output to the main control unit 101 c and the document distance detection unit 105.

図4(a)を用いて綴じ部位置を検出する方法をより具体的に説明すると、綴じ部位置検出部104は、まず、左側のラインlineLの変化開始点を示す副走査方向の座標Lstart、及び、変化終了点を示す副走査方向の座標Lendを求め、更に、右側のラインlineRの変化開始点を示す副走査方向の座標RstartとRend、及び、右側のラインlineRの変化終了点を示す副走査方向の座標Rendを検出する。ここで、Lstart、Lend、Rstart、及びRendは、綴じ部位置検出部104により算出された、1ライン毎のエッジ画像の主走査方向についての差分が予め設定された値を超えたときのものである。   The method for detecting the binding portion position will be described in more detail with reference to FIG. 4A. First, the binding portion position detection unit 104 first includes a coordinate Lstart in the sub-scanning direction indicating a change start point of the left line L. Then, the sub-scanning direction coordinate Lend indicating the change end point is obtained, and further, the sub-scanning direction coordinates Rstart and Rend indicating the change start point of the right line lineR and the change end point of the right line lineR are indicated. A coordinate Rend in the scanning direction is detected. Here, Lstart, Lend, Rstart, and Rend are obtained when the difference in the main scanning direction of the edge image for each line calculated by the binding position detection unit 104 exceeds a preset value. is there.

また、綴じ部位置検出部104は、検出したLstart、Lend、Rstart、及びRendから、Lstart、Rstartの小さい方の副走査座標を、綴じ部開始位置を示す副走査座標Ystartと決定し、LendとRendの大きい方の副走査座標を、綴じ部終了位置を示す副走査座標Yendと決定する。   Further, the binding portion position detection unit 104 determines the sub-scanning coordinate of the smaller Lstart and Rstart as the sub-scanning coordinate Ystart indicating the binding portion start position based on the detected Lstart, Lend, Rstart, and Rend. The sub-scanning coordinate having the larger Rend is determined as the sub-scanning coordinate Yend indicating the binding end position.

原稿距離検出部105は、入力された1ライン分の画素の濃度値G(X、Y)から最低濃度値を検出するピークホールド回路を有している。原稿距離検出部105は、綴じ部開始位置を示す副走査座標Ystart、及び、綴じ部終了位置を示す副走査座標Yendを綴じ部位置検出部104から読み出す。そして、原稿距離検出部105は、まず始めに、綴じ部開始位置を示す副走査座標Ystartを有する主走査方向1ライン分の原稿画像データを記憶部103から読み出し、この読み出した画像データの全ての画素の濃度値G(X、Y)をピークホールド回路に入力し、最低濃度値を検出する。   The document distance detection unit 105 includes a peak hold circuit that detects the minimum density value from the input density values G (X, Y) of pixels for one line. The document distance detection unit 105 reads the sub-scanning coordinate Ystart indicating the binding unit start position and the sub-scanning coordinate Yend indicating the binding unit end position from the binding unit position detection unit 104. The document distance detection unit 105 first reads out the document image data for one line in the main scanning direction having the sub-scanning coordinate Ystart indicating the binding unit start position from the storage unit 103, and all of the read image data. The pixel density value G (X, Y) is input to the peak hold circuit, and the lowest density value is detected.

また、原稿距離検出部105は、綴じ部開始位置を示す副走査座標Ystartを有する主走査方向1ライン分の原稿画像データにおける最低濃度値を検出したのち、記憶部103に記憶されている図3(b)に示す下地濃度値範囲―原稿距離テーブル103bを参照し、この下地濃度値範囲―原稿距離テーブル103bから先に検出した最低濃度に対応する原稿距離を読み出し、この読み出した原稿距離を、副走査座標Ystartを有する主走査方向1ラインにおける原稿20とガラス板120との間の原稿距離と特定する。   Further, the document distance detection unit 105 detects the minimum density value in the document image data for one line in the main scanning direction having the sub-scanning coordinate Ystart indicating the binding unit start position, and then stored in the storage unit 103 in FIG. With reference to the background density value range-document distance table 103b shown in (b), the document distance corresponding to the lowest density previously detected is read from the background density value range-document distance table 103b, and the read document distance is The document distance between the document 20 and the glass plate 120 in one line in the main scanning direction having the sub-scanning coordinate Ystart is specified.

また、原稿距離検出部105は、先に特定した原稿距離を原稿距離情報d(Y)としたとき、綴じ部開始位置を示す副走査座標Ystartと原稿距離情報d(Y)とが記述された副走査座標―原稿距離情報データを生成し、このデータを記憶部103に生成された副走査座標―原稿距離情報d(Y)テーブル103cに記憶する。   Further, the document distance detection unit 105 describes the sub-scanning coordinate Ystart indicating the binding portion start position and the document distance information d (Y), where the previously specified document distance is the document distance information d (Y). Sub-scanning coordinate-document distance information data is generated, and this data is stored in the generated sub-scanning coordinate-document distance information d (Y) table 103 c in the storage unit 103.

また、原稿距離検出部105は、同様にして、副走査座標Ystart+1を有する主走査方向のラインから、副走査座標Yendを有する主走査方向のラインについての副走査座標―原稿距離情報データを生成し、このデータを記憶部103に生成された副走査座標―原稿距離情報d(Y)テーブル103cに記憶する。   Similarly, the document distance detection unit 105 generates sub-scanning coordinate-document distance information data for a line in the main scanning direction having the sub-scanning coordinate Yend from the line in the main scanning direction having the sub-scanning coordinate Ystart + 1. The data is stored in the sub-scanning coordinate-document distance information d (Y) table 103c generated in the storage unit 103.

焦点距離制御部106は、主制御部101cから入力された原稿想定距離Dに従って焦点レンズを副走査方向に移動される制御信号をレンズ駆動部138に出力する。   The focal length control unit 106 outputs to the lens driving unit 138 a control signal for moving the focal lens in the sub-scanning direction in accordance with the estimated original distance D input from the main control unit 101c.

図5に示されるように、CCDラインセンサ上に焦点を合わせて結像させるためには、 11/a+1/b=1/f ・・・式3
を満足させる必要がある。従って、焦点距離制御部106は、以下の式が満足する焦点レンズ移動距離L(D)だけレンズを移動させるようにレンズ駆動部138に制御信号を出力する。
1/(a+D(原稿距離)+L(D))+1/(b−L(D))=1/f ・・・式4
As shown in FIG. 5, in order to focus and form an image on the CCD line sensor, 11 / a + 1 / b = 1 / f Equation 3
It is necessary to satisfy. Accordingly, the focal length control unit 106 outputs a control signal to the lens driving unit 138 so as to move the lens by a focal lens moving distance L (D) that satisfies the following expression.
1 / (a + D (document distance) + L (D)) + 1 / (b−L (D)) = 1 / f Equation 4

画像処理部107は、綴じ部部分の画像データが補正された原稿画像データを記憶部103から読出し、二値化処理、画像圧縮し、この画像データをI/F部108に出力する。   The image processing unit 107 reads document image data in which the image data of the binding portion is corrected from the storage unit 103, binarization processing, image compression, and outputs the image data to the I / F unit 108.

I/F部108は、画像処理部107から入力された画像データをパーソナルコンピュータやプリンタ部などに出力する。   The I / F unit 108 outputs the image data input from the image processing unit 107 to a personal computer, a printer unit, or the like.

A/D変換器109は、CCDラインセンサから出力されたアナログ信号でなる画像信号を、8ビットのデジタル信号からなる画像データに変換し、この画像データを主制御部101cに順次出力する。   The A / D converter 109 converts the image signal that is an analog signal output from the CCD line sensor into image data that is an 8-bit digital signal, and sequentially outputs the image data to the main control unit 101c.

画像合成部110は、濃度補正部102からの要求により、綴じ部画像データ記憶領域103eから綴じ部画像データを読み出し、記憶部103に有する原稿画像データ記憶領域103dに記憶されている原稿画像データに上書きし、その後、上書きした旨を主制御部101cに出力する。   In response to a request from the density correction unit 102, the image composition unit 110 reads the binding portion image data from the binding portion image data storage area 103e, and converts it into the original image data stored in the original image data storage area 103d included in the storage unit 103. Overwriting is performed, and then the effect of overwriting is output to the main control unit 101c.

図1に示すガラス板120は、読み取る原稿20を設置する箇所である。キャリッジ130は、移動しながら原稿20をライン単位で読み取り、読み取ったデータを主制御部101cに送信する。キャリッジ130は、図6に示すように、ミラー131、ミラー132、ミラー133、レンズ134、光源135、CCDラインセンサ136、レール137、及びレンズ駆動部138を備える。   A glass plate 120 shown in FIG. 1 is a place where a document 20 to be read is placed. The carriage 130 reads the document 20 in units of lines while moving, and transmits the read data to the main control unit 101c. As shown in FIG. 6, the carriage 130 includes a mirror 131, a mirror 132, a mirror 133, a lens 134, a light source 135, a CCD line sensor 136, a rail 137, and a lens driving unit 138.

ミラー131、ミラー132、及びミラー133は、原稿20から反射した原稿20の像をレンズ134に出射する。レンズ134は、レンズ駆動部138と結合されており、入射された原稿20の像をCCD136に結像する。光源135は、蛍光管等からなり、原稿20に光を照射する。CCDラインセンサ136は、原稿20の画像を読み取り、アナログ信号でなる画像信号を制御部100のA/D変換器109に出力する。レール137は、レンズ駆動部138を副走査方向に移動させるためのガイドとしてのレールである。レンズ駆動部138は、制御部100から制御されてレール137の上を副走査方向に移動する。   The mirror 131, the mirror 132, and the mirror 133 emit the image of the document 20 reflected from the document 20 to the lens 134. The lens 134 is coupled to the lens driving unit 138 and forms an incident image of the original 20 on the CCD 136. The light source 135 is made of a fluorescent tube or the like, and irradiates the original 20 with light. The CCD line sensor 136 reads an image of the document 20 and outputs an image signal composed of an analog signal to the A / D converter 109 of the control unit 100. The rail 137 is a rail as a guide for moving the lens driving unit 138 in the sub-scanning direction. The lens driving unit 138 is controlled by the control unit 100 and moves on the rail 137 in the sub-scanning direction.

キャリッジ駆動部140は、モータとベルトで構成され、レール139上のキャリッジ130を副走査方向に移動させる。   The carriage driving unit 140 includes a motor and a belt, and moves the carriage 130 on the rail 139 in the sub scanning direction.

操作部150は、画像を読み取る際にユーザが各種設定を行うために使用される操作キー、並びに、操作案内及び処理結果を表示する液晶パネルを有している。   The operation unit 150 includes operation keys used for the user to perform various settings when reading an image, and a liquid crystal panel that displays operation guidance and processing results.

次に、本発明に係る実施例1の画像処理装置の動作を説明する。   Next, the operation of the image processing apparatus according to the first embodiment of the present invention will be described.

図7及び図8は、本発明に係る実施例1の画像処理装置の動作を示すフローチャートである。まず、ユーザにより操作部150に有する所定の操作キーが押下されると、制御部100の主制御部101cは、記憶部103のワーク領域に記憶されている数値情報i及びkに0を書き込む(ステップS1)。   7 and 8 are flowcharts showing the operation of the image processing apparatus according to the first embodiment of the present invention. First, when a predetermined operation key on the operation unit 150 is pressed by the user, the main control unit 101c of the control unit 100 writes 0 in the numerical information i and k stored in the work area of the storage unit 103 ( Step S1).

次に、ガンマ補正部101aは、ガンマ変換テーブルに記述されているγ値を用いて、A/D変換器109から入力された原稿20の画像データの明るさを濃度値からなる画像データに変換し、このデータを下地除去部101bに出力する。   Next, the gamma correction unit 101a uses the γ value described in the gamma conversion table to convert the brightness of the image data of the document 20 input from the A / D converter 109 into image data composed of density values. This data is then output to the background removal unit 101b.

下地除去部101bは、ガンマ補正部101aから入力された数ラインの中で最低の濃度値でなる下地濃度を検出し、この下地濃度を記憶部103に記憶する。その後、下地除去部101bは、上述した式1に従って、下地除去濃度値を算出し、この下地除去濃度値を濃度補正部102に出力する。   The background removal unit 101 b detects the background density having the lowest density value among several lines input from the gamma correction unit 101 a and stores the background density in the storage unit 103. Thereafter, the background removal unit 101 b calculates the background removal density value according to the above-described equation 1, and outputs the background removal density value to the density correction unit 102.

原稿20が最初に読み取られたときには原稿想定距離D=0として、濃度補正部102は、下地除去部101bから入力された原稿画像データの濃度を補正することなく、この原稿画像データを記憶部103に有する原稿画像データ記憶領域103dに書き込む(ステップS2)。   When the original 20 is read for the first time, the assumed original distance D = 0 is set, and the density correction unit 102 stores the original image data in the storage unit 103 without correcting the density of the original image data input from the background removing unit 101b. Is written in the original image data storage area 103d (step S2).

綴じ部位置検出部104は、原稿画像データ記憶領域103dに記憶されている原稿画像データを順次読み出し、これら読み出した原稿画像データを基にして原稿20の外郭形状を検出するエッジ検出処理を行う。次に、綴じ部位置検出部104は、エッジ検出処理により検出された原稿20の外郭形状から原稿端の歪みを検出し、この原稿端の歪みから綴じ部の開始位置を示す副走査座標Ystart、及び綴じ部終了位置を示す副走査座標Yendを検出し、これら副走査座標Ystart及び副走査座標Yendを主制御部101c及び原稿距離検出部105に出力する(ステップS3)。   The binding portion position detection unit 104 sequentially reads the document image data stored in the document image data storage area 103d, and performs edge detection processing for detecting the outer shape of the document 20 based on the read document image data. Next, the binding portion position detection unit 104 detects the distortion of the document edge from the outline shape of the document 20 detected by the edge detection process, and the sub-scanning coordinate Ystart indicating the start position of the binding portion from the distortion of the document edge. Then, the sub-scanning coordinate Yend indicating the binding portion end position is detected, and the sub-scanning coordinate Ystart and the sub-scanning coordinate Yend are output to the main control unit 101c and the document distance detection unit 105 (step S3).

原稿距離検出部105は、綴じ部開始位置を示す副走査座標Ystart、及び、綴じ部終了位置を示す副走査座標Yendが綴じ部位置検出部104から入力されると、副走査座標Ystart+kが副走査座標Yend以下であるか否かを判定する(ステップS4)。   When the sub-scanning coordinate Ystart indicating the binding unit start position and the sub-scanning coordinate Yend indicating the binding unit end position are input from the binding unit position detection unit 104, the document distance detection unit 105 performs sub-scanning of the sub-scanning coordinate Ystart + k. It is determined whether it is below the coordinate Yend (step S4).

原稿距離検出部105は、副走査座標Ystart+kが副走査座標Yendを超えたと判定した場合には(ステップS4;N)、ステップS9に処理を移行させる。一方、原稿距離検出部105は、副走査座標Ystart+kが副走査座標Yend以下であると判定した場合には(ステップS4;Y)、記憶部103の原稿画像データ記憶領域103dに記憶されている原稿画像データの中から、副走査座標Ystart+kに位置する主走査方向1ライン分の原稿画像データを読み出し、この読み出した原稿画像データの全画素の濃度値G(X、Y)をピークホールド回路に入力し、最低濃度値を検出する(ステップS5)。   If it is determined that the sub-scanning coordinate Ystart + k exceeds the sub-scanning coordinate Yend (step S4; N), the document distance detection unit 105 shifts the process to step S9. On the other hand, when the document distance detection unit 105 determines that the sub-scanning coordinate Ystart + k is equal to or less than the sub-scanning coordinate Yend (step S4; Y), the document stored in the document image data storage area 103d of the storage unit 103 is stored. From the image data, the original image data for one line in the main scanning direction located at the sub-scanning coordinate Ystart + k is read, and the density values G (X, Y) of all the pixels of the read original image data are input to the peak hold circuit. Then, the lowest density value is detected (step S5).

その後、原稿距離検出部105は、副走査座標Ystart+kに位置する主走査方向1ライン分の最低濃度値を検出したのち、記憶部103に記憶されている図3(b)に示す下地濃度値範囲―原稿距離テーブル103bを参照し、先に検出した最低濃度値に対応する原稿距離を読み出す(ステップS6)。   Thereafter, the document distance detection unit 105 detects the minimum density value for one line in the main scanning direction located at the sub-scanning coordinate Ystart + k, and then stores the background density value range shown in FIG. -The document distance table 103b is referred to, and the document distance corresponding to the previously detected minimum density value is read (step S6).

原稿距離検出部105は、下地濃度値範囲―原稿距離テーブル103bから先に検出した最低濃度値に対応する原稿距離を読み出すと、綴じ部開始位置を示す副走査座標Ystart+kと、読み出した原稿距離からなる原稿距離情報d(Y)とが記述された副走査座標―原稿距離情報データを生成し、このデータを記憶部103に生成された副走査座標―原稿距離情報d(Y)テーブル103cに記憶する(ステップS7)。   When the document distance detection unit 105 reads the document distance corresponding to the lowest density value detected earlier from the background density value range-document distance table 103b, the document distance detection unit 105 calculates the sub-scanning coordinate Ystart + k indicating the binding portion start position and the read document distance. Sub-scanning coordinate-document distance information data in which the document distance information d (Y) is described is generated, and this data is stored in the sub-scanning coordinate-document distance information d (Y) table 103c generated in the storage unit 103. (Step S7).

その後、原稿距離検出部105は、記憶部103のワーク領域に記憶されている数値情報kに1を加算し(ステップS8)、ステップS4に処理を移行させ、上述したものと同様な処理を続行させる。   Thereafter, the document distance detection unit 105 adds 1 to the numerical information k stored in the work area of the storage unit 103 (step S8), shifts the process to step S4, and continues the same process as described above. Let

ステップS4において、原稿距離検出部105が、副走査座標Ystart+kが副走査座標Yenを超えたと判定した場合には(ステップS4;N)、その旨を主制御部101cに出力する。   In step S4, when the document distance detection unit 105 determines that the sub-scanning coordinate Ystart + k exceeds the sub-scanning coordinate Yen (step S4; N), the fact is output to the main control unit 101c.

すると、主制御部101cは、副走査座標Ystart+i*nの位置にキャリッジ130に設定する制御信号をキャリッジ駆動部140に出力する(ステップS9)。nは焦点レンズを移動させて読み取りを行う開始ラインの移動単位ライン数である。   Then, the main control unit 101c outputs a control signal for setting the carriage 130 at the position of the sub-scanning coordinate Ystart + i * n to the carriage driving unit 140 (step S9). n is the number of moving unit lines of the start line for reading by moving the focal lens.

キャリッジ駆動部140は、副走査座標Ystart+i*nの位置にキャリッジ130に設定する制御信号を主制御部101cから入力されると、この位置にキャリッジ130を設定する(ステップS10)。   When a control signal for setting the carriage 130 is input from the main control unit 101c to the position of the sub-scanning coordinate Ystart + i * n, the carriage driving unit 140 sets the carriage 130 to this position (step S10).

その後、主制御部101cは、記憶部103に有する副走査座標―原稿距離情報d(Y)テーブル103cを参照し、副走査座標がYstart+i*n(nは正数)が記述されている副走査座標−原稿距離情報d(Y)データから原稿距離情報d(Y)を読出す。次に主制御部101cは、読み出した原稿距離情報d(Y)を原稿想定距離Dとし、この原稿想定距離Dを焦点距離制御部106に出力する(ステップS11)。   Thereafter, the main control unit 101c refers to the sub-scanning coordinate-document distance information d (Y) table 103c stored in the storage unit 103, and the sub-scanning in which the sub-scanning coordinate is described as Ystart + i * n (n is a positive number). Document distance information d (Y) is read from the coordinate-document distance information d (Y) data. Next, the main control unit 101c sets the read document distance information d (Y) as the assumed document distance D, and outputs this estimated document distance D to the focal length control unit 106 (step S11).

焦点距離制御部106は、主制御部101cから入力された原稿想定距離Dに基づき、焦点レンズ移動量を算出する上述した式4に従って焦点レンズ移動量Ld(D)を算出し(ステップS12)、この焦点レンズ移動量Ld(D)分だけ焦点レンズ134を移動させる制御信号をキャリッジ130に有するレンズ駆動部138に出力する。   The focal distance control unit 106 calculates the focal lens movement amount Ld (D) according to the above-described equation 4 that calculates the focal lens movement amount based on the assumed original distance D input from the main control unit 101c (step S12). A control signal for moving the focal lens 134 by the focal lens movement amount Ld (D) is output to the lens driving unit 138 included in the carriage 130.

すると、キャリッジ130のレンズ駆動部138は、焦点距離制御部106から入力された制御信号に基づき、焦点レンズ移動量Ld(D)分だけ焦点レンズ134を移動させる(ステップS13)。   Then, the lens driving unit 138 of the carriage 130 moves the focal lens 134 by the focal lens movement amount Ld (D) based on the control signal input from the focal distance control unit 106 (step S13).


その後、主制御部101cは、原稿想定距離Dを濃度補正部102に出力する。
)
Thereafter, the main control unit 101 c outputs the estimated original distance D to the density correction unit 102.

濃度補正部102は、記憶部103に有する原稿想定距離D―濃度補正量Denテーブル103aを参照し、入力された原稿想定距離Dに対応する濃度補正量Denを原稿想定距離D―濃度補正量Denテーブル103aから読出す。次に、濃度補正部102は、補正画像濃度値を算出する式2に記述されている濃度補正量Denの箇所に読出しが濃度補正量Denを設定し(ステップS14)、この濃度補正量Denを設定した旨を主制御部101cに出力する。   The density correction unit 102 refers to the assumed original distance D-density correction amount Den table 103a in the storage unit 103, and sets the assumed density correction Den corresponding to the input original assumed distance D to the assumed original distance D-density correction amount Den. Read from table 103a. Next, the density correction unit 102 sets the density correction amount Den to be read at the location of the density correction amount Den described in Equation 2 for calculating the corrected image density value (step S14), and this density correction amount Den is set. The setting is output to the main control unit 101c.

すると、主制御部101cは、Ystart+i*nに示されたラインからYendに示されたラインまでのYend−(Ystart+i*n)+1ライン分の綴じ部画像データをA/D変換器209から読み取り(ステップS15)、この読み取った綴じ部画像データを濃度補正部102に出力する。   Then, the main control unit 101c reads Yend− (Ystart + i * n) +1 line binding portion image data from the line indicated by Ystart + i * n to the line indicated by Yend from the A / D converter 209 ( In step S15, the read binding portion image data is output to the density correction unit 102.

濃度補正部102は、先に設定した濃度補正量Denが記述された式2を使用し、主制御部101cから入力された綴じ部画像データの濃度値を補正した綴じ部画像データを、記憶部103に有する綴じ部画像データ記憶領域103eに書き込む(ステップS16)。次に、主制御部101cは、綴じ部画像データ記憶領域103eに記憶されている綴じ部画像データを原稿画像データ記憶領域103dに記憶されている原稿画像データに上書きする要求を画像合成部210に出力する。   The density correction unit 102 stores the binding unit image data obtained by correcting the density value of the binding unit image data input from the main control unit 101c using Expression 2 in which the previously set density correction amount Den is described. The data is written in the binding portion image data storage area 103e in 103 (step S16). Next, the main control unit 101c requests the image composition unit 210 to overwrite the original image data stored in the original image data storage area 103d with the binding part image data stored in the binding part image data storage area 103e. Output.

すると、画像合成部210は、綴じ部画像データ記憶領域103eから綴じ部画像データを読み出し、記憶部103に記憶されているYstart+i*nに示されたラインからYendに示されたラインまでの原稿画像データに上書きし(ステップS17)、上書きした旨を主制御部101cに出力する。   Then, the image composition unit 210 reads the binding part image data from the binding part image data storage area 103e, and the original image from the line indicated by Ystart + i * n stored in the storage part 103 to the line indicated by Yend. The data is overwritten (step S17), and the overwriting is output to the main control unit 101c.

その後、主制御部101cは、記憶部103のワーク領域に記憶されている数値情報iに1を加算する(ステップS18)。次に、主制御部101cは、副走査座標Ystart+i*nがYend以下であるか否かを判定し(ステップS19)、副走査座標Ystart+i*nがYend以下であると判定した場合には(ステップS19;Y)、ステップ9に処理を移行させ、上述したとものと同様な処理を続行させる。一方、主制御部101cは、副走査座標Ystart+i*nがYend以下でないと判定した場合には(ステップS19;N)、例えば2値化処理、画像圧縮処理等の画像処理を実行させる要求を画像処理部107に出力する。   Thereafter, the main control unit 101c adds 1 to the numerical information i stored in the work area of the storage unit 103 (step S18). Next, the main control unit 101c determines whether or not the sub-scanning coordinate Ystart + i * n is equal to or less than Yend (step S19), and determines that the sub-scanning coordinate Ystart + i * n is equal to or less than Yend (step S19). S19; Y), the process proceeds to step 9, and the same process as described above is continued. On the other hand, if the main control unit 101c determines that the sub-scanning coordinate Ystart + i * n is not less than Yend (step S19; N), for example, a request for executing image processing such as binarization processing and image compression processing is performed on the image. The data is output to the processing unit 107.

画像処理部107は、主制御部101cからの上記要求が入力されると、この要求に基づき、記憶部103の原稿画像データ記憶領域103dに記憶されている原稿画像データを随時読み出し、2値化処理、画像圧縮処理等の画像処理を行い(ステップS20)、画像処理した原稿画像データをI/F部108に出力する。   When the above request is input from the main control unit 101c, the image processing unit 107 reads out the original image data stored in the original image data storage area 103d of the storage unit 103 based on this request, and binarizes it. Image processing such as processing and image compression processing is performed (step S20), and the document image data subjected to the image processing is output to the I / F unit 108.

I/F部108は、画像処理部107から入力された原稿画像データをホストに送信し(ステップS21)、処理を終了する。   The I / F unit 108 transmits the document image data input from the image processing unit 107 to the host (step S21), and ends the process.

図9は、ステップS9からステップS21の動作を繰り返して記憶部103の原稿画像データ記憶領域103dに記憶されている原稿画像データが、綴じ部画像データに上書きされる内容を説明する図である。   FIG. 9 is a diagram for explaining the content of the original image data stored in the original image data storage area 103d of the storage unit 103 being overwritten on the binding portion image data by repeating the operations from step S9 to step S21.

図9(a)に示すように、iが0である場合、記憶部103に有する原稿画像データ記憶領域103dに記憶されている原稿画像データのうち、副走査座標Ystartに示されるラインから副走査座標Yendに示されるラインのYend−Ystart+1ライン分の原稿画像データは、ステップS15の処理で読み読み取られた副走査座標Ystartに示されるラインから副走査座標Yendに示されるラインのYend―Ystart+1ライン分の綴じ部画像データで、ステップS17において上書きされる。   As shown in FIG. 9A, when i is 0, sub-scanning starts from the line indicated by the sub-scanning coordinate Ystart in the original image data stored in the original image data storage area 103d in the storage unit 103. The document image data for Yend-Ystart + 1 line of the line indicated by the coordinate Yend is Yend-Ystart + 1 line of the line indicated by the sub-scanning coordinate Yend from the line indicated by the sub-scanning coordinate Ystart read and read in the process of step S15. Is overwritten in step S17.

図9(b)に示すように、iが1である場合、記憶部103に有する原稿画像データ記憶領域103dに記憶されている原稿画像データのうち、副走査座標Ystart+1*nに示されるラインから副走査座標Yendに示されるラインのYend−(Ystart+1*n)+1ライン分の原稿画像データは、ステップS15の処理で読み読み取られた副走査座標Ystart+1*nに示されるラインから副走査座標Yendに示されるラインのYend−(Ystart+1*n)+1ライン分の綴じ部画像データで、ステップS17において上書きされる。   As shown in FIG. 9B, when i is 1, from the line indicated by the sub-scanning coordinate Ystart + 1 * n in the document image data stored in the document image data storage area 103d of the storage unit 103. The original image data for Yend− (Ystart + 1 * n) +1 line of the line indicated by the sub-scanning coordinate Yend is changed from the line indicated by the sub-scanning coordinate Ystart + 1 * n read and read in the process of step S15 to the sub-scanning coordinate Yend. The Yend− (Ystart + 1 * n) +1 line binding portion image data of the indicated line is overwritten in step S17.

図9(c)に示すように、iが2である場合、記憶部103に有する原稿画像データ記憶領域103dに記憶されている原稿画像データのうち、副走査座標Ystart+2*nに示されるラインから副走査座標Yendに示されるラインのYend−(Ystart+2*n)+1ライン分の原稿画像データは、ステップS15の処理で読み読み取られた副走査座標Ystart+2*nに示されるラインから副走査座標Yendに示されるラインのYend−(Ystart+2*n)+1ライン分の綴じ部画像データで、ステップS17において上書きされる。   As shown in FIG. 9C, when i is 2, from the line indicated by the sub-scanning coordinate Ystart + 2 * n in the document image data stored in the document image data storage area 103d of the storage unit 103. The original image data for Yend− (Ystart + 2 * n) +1 line of the line indicated by the sub-scanning coordinate Yend is changed to the sub-scanning coordinate Yend from the line indicated by the sub-scanning coordinate Ystart + 2 * n read and read in step S15. The Yend− (Ystart + 2 * n) +1 line binding portion image data of the indicated line is overwritten in step S17.

図9(d)に示すように、iがmである場合、記憶部103に有する原稿画像データ記憶領域103dに記憶されている原稿画像データのうち、副走査座標Ystart+m*nに示されるラインから副走査座標Yendに示されるラインのYend−(Ystart+m*n)+1ライン分の原稿画像データは、ステップS15の処理で読み読み取られた副走査座標Ystart+m*nに示されるラインから副走査座標Yendに示されるラインのYend−(Ystart+m*n)+1ライン分の綴じ部画像データで、ステップS17において上書きされる。   As shown in FIG. 9D, when i is m, from the line indicated by the sub-scanning coordinate Ystart + m * n in the document image data stored in the document image data storage area 103d in the storage unit 103. The original image data for Yend− (Ystart + m * n) +1 line of the line indicated by the sub-scanning coordinate Yend is changed to the sub-scanning coordinate Yend from the line indicated by the sub-scanning coordinate Ystart + m * n read and read in step S15. The Yend− (Ystart + m * n) +1 line binding portion image data of the indicated line is overwritten in step S17.

上記副走査座標Ystart+i*nに記述されているnは1でも良いが、1ラインごとに原稿距離が変っている可能性が低いので、高速に処理をするためには、nを画像がぼけない程度の複数ラインを示す大きな数にしても良い。   N described in the sub-scanning coordinate Ystart + i * n may be 1. However, since it is unlikely that the document distance is changed for each line, the image of n is not blurred for high-speed processing. A large number indicating a plurality of lines may be used.

この実施例1によれば、主制御部101cにより読み取られた、綴じ部画像データ記憶領域103eに記憶されている副走査座標Ystart+i*nから綴じ部終了位置を示す副走査座標Yendの画像データを、画像合成部110が、原稿画像データ記憶領域103dに記憶されている原稿画像データに上書きするので、原稿20の綴じ部以外の箇所でラインセンサと被写体との間の距離を予め測定するという従来の装置で行っていた無駄な処理を行う必要性をなくし、読み取り速度の高速化の要求に応えることができる。   According to the first embodiment, the image data of the sub-scanning coordinate Yend indicating the binding portion end position is read from the sub-scanning coordinate Ystart + i * n stored in the binding portion image data storage area 103e, which is read by the main control unit 101c. Since the image composition unit 110 overwrites the document image data stored in the document image data storage area 103d, the distance between the line sensor and the subject is measured in advance at a location other than the binding portion of the document 20. This eliminates the need for unnecessary processing that has been performed by this apparatus, and can meet the demand for higher reading speed.

また、この実施例1によれば、濃度補正部102により、記憶部103に有する原稿想定距離D―濃度補正量Denテーブル103aを参照し、検出した綴じ部の画像データの濃度値が原稿距離分補正されるので、原稿20に有する綴じ部における画像の濃度とそれ以外の部分の濃度とが互いに調和させることができる。   Further, according to the first embodiment, the density correction unit 102 refers to the assumed original distance D-density correction amount Den table 103a stored in the storage unit 103, and the detected density value of the image data of the binding portion corresponds to the original distance. Since the correction is performed, the density of the image in the binding portion of the document 20 and the density of other portions can be harmonized with each other.

なお、実施例1では画像の輪郭画像を検出し、この輪郭画像の形状から原稿の綴じ部領域を算出したが、これ以外として、例えば綴じ部に発生する影の画像(原稿の他の部分に比較して下地濃度値の高い部分)を検出し、原稿綴じ部領域(原稿積載面との離間領域)として検出するようにしてもよい。   In the first embodiment, the contour image of the image is detected, and the binding portion area of the document is calculated from the shape of the contour image. However, other than this, for example, an image of a shadow generated in the binding portion (in other parts of the document) In comparison, a portion having a high background density value) may be detected and detected as a document binding portion region (a region separated from the document stacking surface).

図10は本発明に係る実施例2の画像処理装置に有する制御部の構成を示すブロック図である。
本発明に係る実施例2の画像処理装置は、実施例1の画像処理装置と同様、原稿を読み取るスキャナ等の装置であって、図10に示す制御部200と、ガラス板と、キャリッジと、キャリッジ駆動部とを備えて構成されている。ここで、ガラス板、キャリッジ、及びキャリッジ駆動部は、実施例1のものと同様な構成であるので、これらの構成についての説明を省略するとともに参照符号も付さない。
FIG. 10 is a block diagram illustrating a configuration of a control unit included in the image processing apparatus according to the second embodiment of the present invention.
The image processing apparatus according to the second embodiment of the present invention is an apparatus such as a scanner for reading a document, like the image processing apparatus according to the first embodiment, and includes a control unit 200, a glass plate, a carriage, and the like illustrated in FIG. And a carriage drive unit. Here, since the glass plate, the carriage, and the carriage drive unit have the same configuration as that of the first embodiment, description of these configurations is omitted and reference numerals are not attached.

図10に示すように、制御部200は、主制御部201cと、濃度補正部202と、記憶部203と、綴じ部位置検出部204と、原稿距離検出部205と、焦点距離制御部206と、画像処理部207と、I/F208と、A/D変換器209と、画像合成部210とを備える。ここで、濃度補正部202、焦点距離制御部206、画像処理部207、I/F208、及びA/D変換器209は、実施例1の画像処理装置のものと同様な機能を有する。従ってこれらのものの説明を省略する。   As shown in FIG. 10, the control unit 200 includes a main control unit 201c, a density correction unit 202, a storage unit 203, a binding unit position detection unit 204, a document distance detection unit 205, and a focal length control unit 206. An image processing unit 207, an I / F 208, an A / D converter 209, and an image synthesis unit 210. Here, the density correction unit 202, the focal length control unit 206, the image processing unit 207, the I / F 208, and the A / D converter 209 have functions similar to those of the image processing apparatus of the first embodiment. Therefore, explanation of these is omitted.

読取制御部201は、ガンマ補正部201a、下地除去部201b、及び主制御部201cを有している。ガンマ補正部201a及び下地除去部201bは、実施例1の画像処理装置のものと同一な構成を有している。   The reading control unit 201 includes a gamma correction unit 201a, a background removal unit 201b, and a main control unit 201c. The gamma correction unit 201a and the background removal unit 201b have the same configuration as that of the image processing apparatus according to the first embodiment.

実施例1に加え、主制御部201cは、原稿距離検出部205から入力された原稿画像データの綴じ部の主走査方向についての各画素における、画素の位置G(X、Y)及びこの画像の位置G(X、Y)の原稿距離情報d(X、Y)の対でなる原稿距離情報が入力されると、入力された原稿距離情報に記述されている原稿距離情報d(X、Y)のうち最も小さいものを最小原稿距離d_mindと特定し、また、最も大きいものを最大原稿距離d_maxと特定する。   In addition to the first embodiment, the main control unit 201c includes a pixel position G (X, Y) and a pixel position of each image in the main scanning direction of the binding unit of the document image data input from the document distance detection unit 205. When document distance information consisting of a pair of document distance information d (X, Y) at position G (X, Y) is input, document distance information d (X, Y) described in the input document distance information. Among them, the smallest one is specified as the minimum document distance d_mind, and the largest one is specified as the maximum document distance d_max.

また、主制御部201cは、綴じ部開始位置を示す副走査座標YLstart、綴じ部終了位置を示す副走査座標YLendの間の全ラインを複数回読み取るごとに、前回と異なる原稿想定距離Dを焦点距離制御部206に出力する。ここで、原稿想定距離Dは、最小原稿距離d_minと最大原稿距離d_max間の値である。   In addition, the main control unit 201c focuses on the estimated original distance D different from the previous time every time all the lines between the sub-scanning coordinate YLstart indicating the binding unit start position and the sub-scanning coordinate YLend indicating the binding unit end position are read a plurality of times. The data is output to the distance control unit 206. Here, the assumed original distance D is a value between the minimum original distance d_min and the maximum original distance d_max.

記憶部203は、RAM、ハードディスク装置等のメモリ装置であって、読み取られた原稿20の原稿画像データ及び綴じ部画像データの濃度値を補正した補正画像濃度値を有する原稿画像データ及び綴じ部画像データが濃度補正部202から入力されると、これらの原稿画像データ及び綴じ部画像データを一時記憶する。また、記憶部203は、原稿想定距離D―濃度補正量Denテーブル203a、下地濃度値範囲−原稿距離テーブル203b及び副走査座標―主走査座標テーブル203cを記憶する。   The storage unit 203 is a memory device such as a RAM or a hard disk device, and the original image data and the binding portion image having corrected image density values obtained by correcting the density values of the original image data and binding portion image data of the read original 20. When data is input from the density correction unit 202, these document image data and binding portion image data are temporarily stored. The storage unit 203 also stores an assumed original distance D-density correction amount Den table 203a, a background density value range-original distance table 203b, and a sub-scanning coordinate-main scanning coordinate table 203c.

原稿想定距離D―濃度補正量Denテーブル203a及び下地濃度値範囲―原稿距離テーブル103bは、実施例1のものと同一な構成を有するテーブルである。   The assumed original distance D-density correction amount Den table 203a and the background density value range-original distance table 103b are tables having the same configuration as that of the first embodiment.

副走査座標―主走査座標テーブル203cは、図11に示すように、原稿画像データに関する主走査方向の各ライン上の画素における原稿20の綴じ部とガラス板との距離を示す原稿距離情報d(X、Y)を示す副走査座標―主走査座標データを記憶する。   As shown in FIG. 11, the sub-scanning coordinate-main scanning coordinate table 203c includes document distance information d (the distance between the binding portion of the document 20 and the glass plate in the pixels on each line in the main scanning direction regarding the document image data. The sub-scanning coordinate-main scanning coordinate data indicating X, Y) is stored.

綴じ部位置検出部204は、実施例1の画像処理装置のものと同様、読み込まれた原稿の原稿画像データを記憶部203から読み出し、この原稿画像データを従来から知られているエッジ検出処理を行い、原稿端の歪みを検出する。そして、綴じ部位置検出部204は、原稿端の歪みから綴じ部の開始位置P(X、Ystart)、綴じ部の終了位置P(X、Yend)を検出し、これらの綴じ部の開始位置P(X、Ystart)及び綴じ部の終了位置P(X、Yend)を主制御部101c及び原稿距離検出部105に出力する。ここで、Xは、主走査方向の座標であり、Ystartは、副走査方向の座標である。   As in the image processing apparatus according to the first exemplary embodiment, the binding unit position detection unit 204 reads the document image data of the read document from the storage unit 203, and performs a conventionally known edge detection process on the document image data. To detect document edge distortion. Then, the binding portion position detection unit 204 detects the binding portion start position P (X, Ystart) and the binding portion end position P (X, Yend) from the distortion of the document edge, and starts the binding portion start position P. (X, Ystart) and the binding end position P (X, Yend) are output to the main control unit 101c and the document distance detection unit 105. Here, X is a coordinate in the main scanning direction, and Ystart is a coordinate in the sub-scanning direction.

ここで、図12に示すように、ガラス台に置かれた原稿20の綴じ部左端の原稿距離HLが、右端の原稿距離HRよりよい大きい場合において、綴じ部位置検出部204が検出する綴じ部位置検出方法を具体的に説明する。まず、綴じ部位置検出部204は、エッジ検出処理を行い、図13(a)に示すようなエッジ画像の場合を生成する。因みに、図13(b)に示すように、綴じ部の左端における副走査方向の濃度値は、左端の方が右端における副走査方向の濃度値より高い。また、図13(c)に示すように、綴じ部の左端から右端にいたる主走査方向の濃度値は、左端の濃度値が最も高く、右端にいくに従って濃度値が低くなる。   Here, as shown in FIG. 12, when the document distance HL at the left end of the binding portion of the document 20 placed on the glass table is larger than the document distance HR at the right end, the binding portion detected by the binding portion position detection unit 204 is detected. The position detection method will be specifically described. First, the binding position detection unit 204 performs edge detection processing to generate a case of an edge image as shown in FIG. Incidentally, as shown in FIG. 13B, the density value in the sub-scanning direction at the left end of the binding portion is higher than the density value in the sub-scanning direction at the left end. Further, as shown in FIG. 13C, the density value in the main scanning direction from the left end to the right end of the binding portion has the highest density value at the left end and decreases toward the right end.

綴じ部位置検出部204は、まず、左側のラインlineLの変化開始点を示す副走査方向の座標YLstart、及び、変化終了点を示す副走査方向の座標YLendを求め、更に、右側のラインlineRの変化開始点を示す副走査方向の座標YRstart、及び、右側のラインlineRの変化終了点を示す副走査方向の座標YRendを検出する。ここで、YLstart、YLend、YRstart、及びYRendは、綴じ部位置検出部204により算出された、エッジ画像の1ライン毎の主走査方向についての差分が予め設定された値を超えたときのものである。   The binding portion position detection unit 204 first obtains a sub-scanning direction coordinate YLstart indicating the change start point of the left line lineL and a sub-scanning direction coordinate YLend indicating the change end point, and further calculates the right line lineR. The sub-scanning direction coordinate YRstart indicating the change start point and the sub-scanning direction coordinate YRend indicating the change end point of the right line lineR are detected. Here, YLstart, YLend, YRstart, and YRend are obtained when the difference in the main scanning direction for each line of the edge image calculated by the binding position detection unit 204 exceeds a preset value. is there.

そして、綴じ部位置検出部204は、YLstartとYRstartとについて、副走査方向の座標が小さい方を綴じ部の開始位置を示す副走査座標Ystartと特定し、また、YLendとYRendとについて、副走査方向の座標が大きい方を綴じ部の終了位置を示す副走査座標Yendと特定する。ここで、副走査座標YLstartと副走査座標YLendとの間の距離は、副走査座標YRstart副走査座標YRendとの間の距離より大きい。   Then, the binding part position detection unit 204 specifies the sub-scanning coordinate Ystart indicating the start position of the binding part for YLstart and YRstart, which has a smaller coordinate in the sub-scanning direction, and performs sub-scanning for YLend and YRend. The one with the larger direction coordinate is specified as the sub-scanning coordinate Yend indicating the end position of the binding portion. Here, the distance between the sub-scanning coordinate YLstart and the sub-scanning coordinate YLend is larger than the distance between the sub-scanning coordinate YRstart and the sub-scanning coordinate YRend.

原稿距離検出部205は、綴じ部開始位置P(X、Ystart)における主走査方向1ライン分の原稿画像データを記憶部103から読み出し、読み出した原稿画像データについて画素単位(主走査方向の画素単位)で濃度値G(X、Y)を検出し、この検出した濃度値から原稿距離を特定するための濃度値を決定する。   The document distance detection unit 205 reads the document image data for one line in the main scanning direction at the binding unit start position P (X, Ystart) from the storage unit 103, and reads the document image data in pixel units (pixel units in the main scanning direction). ) To detect the density value G (X, Y), and determine the density value for specifying the document distance from the detected density value.

なお、原稿距離検出部205に入力される濃度値は、そのままでは、綴じ部の原稿の画像データが含まれてしまうため、これを排除した濃度値を検出する必要がある。そこで、原稿距離検出部205は、画像入力部に空間周波数成分の高い画像データの影響を除去可能なローパスフィルタを備えている。これにより、原稿の文字等、高い周波数成分の画像データを除去し、綴じ部の影による濃度のみを検出可能に構成されている。また、原稿距離検出部205は、綴じ部開始位置の副走査座標Ystartにおける主走査方向1ライン分の原稿画像データを形成する各画素の濃度値を検出したのち、記憶部103に記憶されている、図13(b)に示す濃度値範囲−原稿距離テーブル203bを参照し、この下地濃度値範囲―原稿距離テーブル203bから検出した濃度値に対応する原稿距離を読み出し、この読み出した原稿距離を、上記各画素における原稿20とガラス板120との間の距離と推定する。   Note that the density value input to the document distance detection unit 205 does not include the image data of the binding portion of the document as it is, so it is necessary to detect the density value excluding this. Therefore, the document distance detection unit 205 includes a low-pass filter that can remove the influence of image data having a high spatial frequency component in the image input unit. Thereby, image data of high frequency components such as characters of a document are removed, and only the density due to the shadow of the binding portion can be detected. The document distance detection unit 205 detects the density value of each pixel forming document image data for one line in the main scanning direction at the sub-scanning coordinate Ystart at the binding unit start position, and then stores the density value in the storage unit 103. Referring to the density value range-document distance table 203b shown in FIG. 13B, the document distance corresponding to the detected density value is read from the background density value range-document distance table 203b. The distance between the document 20 and the glass plate 120 at each pixel is estimated.

また、原稿距離検出部205は、画素の位置と上述した原稿距離を原稿距離情報d(X、Y)とが記述されえた副走査座標―主走査座標データを生成し、このデータを記憶部203に生成された副走査座標―主走査座標テーブル203cに記憶する。   Further, the document distance detection unit 205 generates sub-scanning coordinate-main scanning coordinate data in which the document position information d (X, Y) can be described with the pixel position and the document distance described above, and this data is stored in the storage unit 203. Are stored in the sub-scanning coordinate-main scanning coordinate table 203c.

画像合成部210は、主制御部201cから原稿想定距離Dが入力されると、この入力された原稿想定距離Dで読み取られた原稿の綴じ部画像データを記憶部203の原稿画像データ記憶領域203dから読出す。そして、画像合成部210は、記憶部203に有する副走査座標―主走査座標テーブル203cに記憶されている副走査座標―主走査座標データを参照し、この副走査座標―主走査座標データに記述されている原稿距離情報d(X、Y)と入力された原稿想定距離Dとが一致する綴じ部画像データの画素についての画像データを、原稿画像データ記憶領域203dに記憶されている原稿画像データの画素について上書きする。   When the assumed document distance D is input from the main control unit 201c, the image composition unit 210 receives the document binding portion image data read at the input document assumed distance D and stores the document image data storage area 203d in the storage unit 203. Read from. Then, the image composition unit 210 refers to the sub-scanning coordinate-main scanning coordinate data stored in the sub-scanning coordinate-main scanning coordinate table 203c in the storage unit 203, and describes the sub-scanning coordinate-main scanning coordinate data. The original image data stored in the original image data storage area 203d is image data of pixels of the binding portion image data in which the original original distance information d (X, Y) matches the input original original distance D. Overwrite the pixels of.

次に、本発明に係る実施例2の画像処理装置の動作を説明する。   Next, the operation of the image processing apparatus according to the second embodiment of the present invention will be described.

図14及び図15は、本発明に係る実施例2の画像処理装置の動作を示すフローチャートである。まず、ユーザにより操作部に有する所定の操作キーが押下されると、制御部200の主制御部201cは、記憶部203のワーク領域に記憶されている数値情報d、数値情報j及びkに0を書き込む(ステップS31)。   14 and 15 are flowcharts showing the operation of the image processing apparatus according to the second embodiment of the present invention. First, when a predetermined operation key on the operation unit is pressed by the user, the main control unit 201c of the control unit 200 sets the numerical information d, the numerical information j, and k stored in the work area of the storage unit 203 to 0. Is written (step S31).

次に、ガンマ補正部201aは、ガンマ変換テーブルに記述されているγ値を用いて、A/D変換器209から入力された原稿20の画像データの明るさを濃度値からなる画像データに変換し、このデータを下地除去部201bに出力する。   Next, the gamma correction unit 201a converts the brightness of the image data of the document 20 input from the A / D converter 209 into image data composed of density values using the γ value described in the gamma conversion table. This data is then output to the background removal unit 201b.

下地除去部201bは、ガンマ補正部201aから入力された数ラインの中で最低の濃度値でなる下地濃度を検出し、この下地濃度を記憶部203に記憶する。その後、下地除去部201bは、上述した式1に従って、下地除去濃度値を算出し、この下地除去濃度値を濃度補正部202に出力する。   The background removal unit 201 b detects the background density having the lowest density value among several lines input from the gamma correction unit 201 a and stores the background density in the storage unit 203. Thereafter, the background removal unit 201 b calculates a background removal density value according to the above-described equation 1, and outputs the background removal density value to the density correction unit 202.

原稿20が最初に読み取られたときには原稿想定距離D=0として、濃度補正部202は、補正主制御部201cから入力された原稿画像データの濃度を補正することなく記憶部203の原稿画像データ記憶領域203dに書き込む(ステップ32)。   When the original 20 is first read, the assumed original distance D = 0 is set, and the density correction unit 202 stores the original image data in the storage unit 203 without correcting the density of the original image data input from the correction main control unit 201c. Write to the area 203d (step 32).

綴じ部位置検出部204は、記憶部203に有する原稿画像データ記憶領域203dから原稿画像データを読み出し、この読み出した原稿画像データについてのエッジ検出処理を行い、原稿端の歪みを検出する。その後、綴じ部位置検出部204は、検出した原稿端の歪みから綴じ部の開始位置P(X、Ystart)、及び綴じ部終了位置P(X、Yend)を検出し、綴じ部の開始位置P(X、Ystart)、及び綴じ部終了位置P(X、Yend)を主制御部201cに出力する(ステップS33)。   The binding portion position detection unit 204 reads document image data from the document image data storage area 203d in the storage unit 203, performs edge detection processing on the read document image data, and detects document edge distortion. Thereafter, the binding portion position detection unit 204 detects the binding portion start position P (X, Ystart) and the binding portion end position P (X, Yend) from the detected document edge distortion, and the binding portion start position P. (X, Ystart) and the binding end position P (X, Yend) are output to the main control unit 201c (step S33).

原稿距離検出部205は、綴じ部の開始位置P(X、Ystart)、及び綴じ部終了位置P(X、YLend)を読出す。次に、原稿距離検出部205は、副走査座標YLstart+kが副走査座標YLen以下であるか否かを判定する(ステップS34)。   The document distance detection unit 205 reads the binding portion start position P (X, Ystart) and the binding portion end position P (X, YLend). Next, the document distance detection unit 205 determines whether or not the sub-scanning coordinate YLstart + k is equal to or smaller than the sub-scanning coordinate YLen (step S34).

原稿距離検出部205は、副走査座標Ystart+kが副走査座標Yendを超えたと判定した場合には(ステップS34;N)、ステップS41に処理を移行させる。一方、原稿距離検出部205は、副走査座標Ystart+kが副走査座標Yend以下であると判定した場合には(ステップS34;Y)、副走査座標Ystart+kを有する主走査方向1ライン分の原稿画像データを記憶部103から読み出す。その後、原稿距離検出部205は、読み出した原稿画像データ中のP(X+j、Ystart+k(一定))に位置する画素についての濃度値G(X、Y)を検出する。   When the document distance detection unit 205 determines that the sub-scanning coordinate Ystart + k exceeds the sub-scanning coordinate Yend (step S34; N), the process proceeds to step S41. On the other hand, when the document distance detection unit 205 determines that the sub-scanning coordinate Ystart + k is equal to or smaller than the sub-scanning coordinate Yend (step S34; Y), the document image data for one line in the main scanning direction having the sub-scanning coordinate Ystart + k. Is read from the storage unit 103. Thereafter, the document distance detection unit 205 detects the density value G (X, Y) for the pixel located at P (X + j, Ystart + k (constant)) in the read document image data.

原稿距離検出部205は、P(X+j、Ystart+k(一定))の位置に有する画素の濃度値G(X+j、YLstart+k)を検出すると、記憶部203に記憶されている、図13(b)に示す濃度値範囲−原稿距離テーブル203bを参照し、この濃度値範囲−原稿距離テーブル203bから検出した濃度値G(X+j、YLstart+k)に対応する原稿距離を読み出し、この読み出した原稿距離をこの画素について、原稿20とガラス板との間の原稿距離d(X+j、YLstart+k)として検出し(ステップS36)、記憶部203のワーク領域に記憶する。   When the document distance detection unit 205 detects the density value G (X + j, YLstart + k) of the pixel at the position of P (X + j, Ystart + k (constant)), the document distance detection unit 205 is stored in the storage unit 203 as shown in FIG. With reference to the density value range-document distance table 203b, the document distance corresponding to the density value G (X + j, YLstart + k) detected from the density value range-document distance table 203b is read, and the read document distance is read for this pixel. The document distance d (X + j, YLstart + k) between the document 20 and the glass plate is detected (step S36) and stored in the work area of the storage unit 203.

次に、原稿距離検出部205は、P(X+j、Ystart+k(一定))に位置する画素がライン上の最後の画素であるか否かを判定する(ステップS37)。原稿距離検出部205は、P(X+j、Ystart+k(一定))に位置する画素がライン上の最後の画素でないと判定した場合には(ステップS37;N)、記憶部203のワーク領域に記憶されている数値情報jに1を加算し(ステップS38)、ステップS35に処理を移行させ、上述したと同様な処理を続行させる。   Next, the document distance detection unit 205 determines whether or not the pixel located at P (X + j, Ystart + k (constant)) is the last pixel on the line (step S37). If the document distance detection unit 205 determines that the pixel located at P (X + j, Ystart + k (constant)) is not the last pixel on the line (step S37; N), it is stored in the work area of the storage unit 203. 1 is added to the numerical information j (step S38), the process proceeds to step S35, and the same process as described above is continued.

一方、原稿距離検出部205は、P(X+j、Ystart+k(一定))に位置する画素がライン上の最後の画素であると判定した場合には(ステップS37;Y)、記憶部203に記憶されている全ての原稿距離d(X+j、Ystart+k)(l=0、1、2、3、・・・)を順次読出し、副走査座標Ystart+kに関する主走査方向における副走査座標―主走査座標データを生成し、このデータを記憶部203に生成された副走査座標ー主走査座標テーブル203cに記憶する(ステップS39)。   On the other hand, when the document distance detection unit 205 determines that the pixel located at P (X + j, Ystart + k (constant)) is the last pixel on the line (step S37; Y), it is stored in the storage unit 203. All the original document distances d (X + j, Ystart + k) (l = 0, 1, 2, 3,...) Are sequentially read out to generate sub-scanning coordinate-main scanning coordinate data in the main scanning direction with respect to the sub-scanning coordinate Ystart + k. Then, this data is stored in the sub-scanning coordinate / main scanning coordinate table 203c generated in the storage unit 203 (step S39).

次に、原稿距離検出部205は、記憶部203のワーク領域に記憶されている数値情報kに1を加算し、更に数値情報jに0を代入(ステップS40)、ステップS35に処理を移行させ、上述したと同様な処理を続行ッさせる。   Next, the document distance detection unit 205 adds 1 to the numerical information k stored in the work area of the storage unit 203, further substitutes 0 for the numerical information j (step S40), and shifts the processing to step S35. Then, the same processing as described above is continued.

ステップS34において、原稿距離検出部205は、副走査座標Ystart+kが副走査座標YLenを超えたと判定した場合には(ステップS34;N)、これを超えた旨を主制御部201cに出力する。   In step S34, when the document distance detection unit 205 determines that the sub-scanning coordinate Ystart + k has exceeded the sub-scanning coordinate YLen (step S34; N), the document distance detection unit 205 outputs a message indicating that the sub-scanning coordinate Ystart + k has exceeded this to the main control unit 201c.

すると、主制御部201cは、CCDラインセンサ136の綴じ部を再度読み取る位置としてYstartの位置にキャリッジを設定する制御信号をキャリッジ駆動部に出力する。   Then, the main control unit 201c outputs a control signal for setting the carriage to the Ystart position as a position for reading the binding unit of the CCD line sensor 136 again to the carriage driving unit.

キャリッジ駆動部は、この信号を受け取り、この位置にキャリッジを設定する(ステップS41)。   The carriage drive unit receives this signal and sets the carriage at this position (step S41).

その後、主制御部201cは、記憶部203のワーク領域に記憶されている数値情報dに1を加算する(ステップS42)。次に、主制御部201cは、加算した数値情報dが最も大きい原稿距離情報d_max以下であるか否かを判定する(ステップS43)。主制御部201cは、加算した数値情報dが原稿距離情報d_max以下でないと判定した場合には(ステップS43;N)、ステップS53に処理を移行する。一方、主制御部201cは、加算した数値情報dが原稿距離情報d_max以下であると判定した場合には(ステップS43;Y)、数値情報dに示された値の原稿想定距離Dを焦点距離制御部106に出力する(ステップS44)。   Thereafter, the main control unit 201c adds 1 to the numerical information d stored in the work area of the storage unit 203 (step S42). Next, the main control unit 201c determines whether or not the added numerical information d is equal to or less than the largest document distance information d_max (step S43). If the main control unit 201c determines that the added numerical information d is not equal to or less than the document distance information d_max (step S43; N), the process proceeds to step S53. On the other hand, when the main control unit 201c determines that the added numerical information d is equal to or less than the original distance information d_max (step S43; Y), the main original distance D of the value indicated in the numerical information d is set to the focal distance. It outputs to the control part 106 (step S44).

焦点距離制御部106は、主制御部101cから入力された原稿想定距離Dに基づき、焦点レンズ移動量を算出する上述した式4に従って焦点レンズ移動量Ld(D)を算出し(ステップS45)、この焦点レンズ移動量Ld(D)分だけ焦点レンズを移動させる制御信号をキャリッジに有するレンズ駆動部に出力する。   The focal length control unit 106 calculates the focal lens movement amount Ld (D) according to the above-described equation 4 that calculates the focal lens movement amount based on the assumed original distance D input from the main control unit 101c (step S45). A control signal for moving the focal lens by the focal lens movement amount Ld (D) is output to a lens driving unit having the carriage.

すると、キャリッジのレンズ駆動部は、焦点距離制御部から入力された制御信号に基づき、焦点レンズ移動量Ld(D)分だけ焦点レンズを移動させる(ステップS46)。   Then, the lens driving unit of the carriage moves the focal lens by the focal lens movement amount Ld (D) based on the control signal input from the focal distance control unit (step S46).

その後、主制御部201cは、原稿想定距離Dを濃度補正部202に出力する。   Thereafter, the main control unit 201 c outputs the estimated original distance D to the density correction unit 202.

濃度補正部202は、記憶部203に有する原稿想定距離D―濃度補正量Denテーブル203aを参照し、入力された原稿想定距離Dに対応する濃度補正量Denを読出し、
濃度補正値を算出する上述した式2に記述されている濃度補正量Denを、読み出した濃度補正量Denに設定し(ステップS47)、設定し直した旨を主制御部201cに出力する。
The density correction unit 202 refers to the assumed original distance D-density correction amount Den table 203a stored in the storage unit 203, reads the density correction amount Den corresponding to the input assumed original distance D,
The density correction amount Den described in the above-described equation 2 for calculating the density correction value is set to the read density correction amount Den (step S47), and the fact that the setting has been reset is output to the main control unit 201c.

すると、主制御部201cは、再び原稿20の修正用の画像データ(以下、綴じ部画像データという)をYstartからYendまで読み取り(ステップS48)、この読み取った綴じ部画像データを濃度補正部102に出力する。   Then, the main control unit 201c reads again the image data for correction of the document 20 (hereinafter referred to as binding portion image data) from Ystart to Yend (step S48), and the read binding portion image data is read by the density correction unit 102. Output.

濃度補正部202は、先に設定した濃度補正量Denと濃度補正するための上述した式2を使用して、主制御部201cから入力された綴じ部画像データの濃度値を補正し、補正した綴じ部画像データを記憶部203の綴じ部画像データ記憶領域203eに記憶する(ステップS49)。   The density correction unit 202 corrects and corrects the density value of the binding part image data input from the main control unit 201c by using the previously set density correction amount Den and the above-described equation 2 for density correction. The binding portion image data is stored in the binding portion image data storage area 203e of the storage unit 203 (step S49).

その後、主制御部201cは、画像合成部210に対して、綴じ部画像データ記憶領域203eに記憶されている綴じ部画像データを原稿画像データ記憶領域203dに記憶されている原稿画像データに上書きする要求を出力する。   After that, the main control unit 201c overwrites the original image data stored in the original image data storage area 203d with the binding part image data stored in the binding part image data storage area 203e. Output the request.

すると、画像合成部210は、入力された原稿想定距離Dで読み取られた綴じ部画像データを記憶部203の綴じ部画像データ記憶領域203eから読出す。次に、画像合成部210は、記憶部203に有する副走査座標―主走査座標テーブル203(c)に記憶されている副走査座標―主走査座標データを参照し、この副走査座標―主走査座標データに記述されている原稿距離情報d(X、Y)と入力された原稿想定距離Dとが一致する綴じ部画像データの画素データを、原稿画像データ記憶領域203dに記憶されている原稿画像データの画素についての画像データに上書する(ステップ50)。その後、画像合成部210は、ステップS42に処理を移行させ上述したと同様な処理を続行させる。   Then, the image composition unit 210 reads the binding portion image data read at the input original document assumed distance D from the binding portion image data storage area 203e of the storage unit 203. Next, the image composition unit 210 refers to the sub-scanning coordinate-main scanning coordinate data stored in the sub-scanning coordinate-main scanning coordinate table 203 (c) in the storage unit 203, and this sub-scanning coordinate-main scanning. The original image data stored in the original image data storage area 203d is the pixel data of the binding portion image data in which the original distance information d (X, Y) described in the coordinate data matches the input original expected distance D. The image data for the data pixel is overwritten (step 50). Thereafter, the image composition unit 210 shifts the process to step S42 and continues the same process as described above.

ステップS43において、主制御部201cは、加算した数値情報dが原稿距離情報d_max以下でないと判定した場合には(ステップS43;N)、画像処理部207に対して、記憶部203に有する原稿画像データ記憶ファイル202dに記憶されている修正された原稿画像データの画像処理を実行させる要求を出力する。   In step S43, when the main control unit 201c determines that the added numerical information d is not equal to or less than the document distance information d_max (step S43; N), the document image stored in the storage unit 203 is compared with the image processing unit 207. A request for executing image processing of the corrected document image data stored in the data storage file 202d is output.

画像処理部207は、主制御部201cから入力された要求に基づき、原稿画像データ記憶領域203dに記憶されている原稿画像データを随時読み出し、2値化処理、画像圧縮処理等の画像処理を行い(ステップS51)、画像処理した画像データをI/F部208に出力する。   Based on the request input from the main control unit 201c, the image processing unit 207 reads the document image data stored in the document image data storage area 203d as needed, and performs image processing such as binarization processing and image compression processing. (Step S51), the image processed image data is output to the I / F unit 208.

I/F部208は、画像処理部207から入力された画像データをホストに送信し(ステップS52)、処理を終了する。   The I / F unit 208 transmits the image data input from the image processing unit 207 to the host (step S52), and ends the process.

図16は、ステップS43からステップS51の動作を繰り返して記憶部203に記憶されている原稿画像データが、綴じ部画像データを用いて上書きされる内容を説明する図である。   FIG. 16 is a diagram for explaining the contents over which the document image data stored in the storage unit 203 is overwritten using the binding portion image data by repeating the operations from step S43 to step S51.

図16(a)に示すように、原稿想定距離Dを1として綴じ部の画像読取りを行った場合、記憶部203に有する原稿画像データ記憶領域203dに記憶されている原稿距離1とする原稿画像データ中の画素の画像データが、原稿想定距離Dを1として読み出した綴じ部画像データの当該画素の画像データに上書きされる。ここで、図に示されている0、1、2、3、4、5は、原稿画像データの各画素における原稿距離情報を示しており、この場合においては1に示されている画素の画像データのみが、綴じ部画像データにより上書きされる。   As shown in FIG. 16A, when the image of the binding portion is read with the assumed original distance D being 1, the original image having the original distance 1 stored in the original image data storage area 203d in the storage unit 203. The image data of the pixel in the data is overwritten on the image data of the pixel of the binding portion image data read with the assumed original distance D as 1. Here, 0, 1, 2, 3, 4, and 5 shown in the figure indicate document distance information in each pixel of the document image data. In this case, the image of the pixel indicated by 1 is displayed. Only the data is overwritten with the binding portion image data.

図16(b)に示すように、原稿想定距離Dを2として綴じ部の画像読取りを行った場合、記憶部203に有する原稿画像データ記憶領域203dに記憶されている原稿距離2とする原稿画像データ中の画素の画像データが、原稿想定距離Dを2として読み出した綴じ部画像データの当該画素の画像データにより上書きされる。この場合においては2に示されている画素の画像データのみが、綴じ部画像データにより上書きされる。   As shown in FIG. 16B, when reading the binding portion image with the assumed original distance D being 2, the original image having the original distance 2 stored in the original image data storage area 203 d in the storage unit 203. The image data of the pixel in the data is overwritten with the image data of the pixel of the binding portion image data read out with the assumed original distance D as 2. In this case, only the image data of the pixel indicated by 2 is overwritten by the binding portion image data.

図16(c)に示すように、原稿想定距離Dを3として綴じ部の画像読取りを行った場合、記憶部203に有する原稿画像データ記憶領域203dに記憶されている原稿距離3とする原稿画像データ中の画素の画像データが、原稿想定距離Dを3として読み出した綴じ部画像データの当該画素の画像データにより上書きされる。この場合においては3に示されている画素の画像データのみが、綴じ部画像データにより上書きされる。   As shown in FIG. 16C, when the image of the binding portion is read with the assumed original distance D being 3, the original image having the original distance 3 stored in the original image data storage area 203d in the storage unit 203. The image data of the pixel in the data is overwritten by the image data of the pixel of the binding portion image data read out with the assumed original distance D as 3. In this case, only the image data of the pixel indicated by 3 is overwritten by the binding portion image data.

この実施例2によれば、原稿想定距離D=1mm〜d_maxmmに対応して焦点が合うようにレンズを移動させて綴じ部を複数回読取り、レンズ位置が制御される都度、読み取られた綴じ部の画像データの全画素のうち、原稿画像データ記憶領域203dに記憶されている綴じ部の各画素位置における綴じ部距離と想定距離とが同じ画素の画像データを、原稿画像データ記憶領域203dに記憶されている原稿20の画像データ中の画素の画像データに上書きするので、原稿20の綴じ部以外の箇所でラインセンサと被写体との間の距離を予め測定するという無駄な処理を行う必要性がなく、読み取り速度の高速化の要求に応えることができる。   According to the second embodiment, the binding unit is read a plurality of times by moving the lens so that the focal point is in accordance with the assumed original distance D = 1 mm to d_max mm, and the read binding unit is controlled each time the lens position is controlled. Image data of pixels having the same binding portion distance and assumed distance at each pixel position of the binding portion stored in the document image data storage region 203d among all the pixels of the image data of the image data is stored in the document image data storage region 203d. Since the image data of the pixels in the image data of the original 20 being overwritten is overwritten, there is a need to perform a useless process of measuring in advance the distance between the line sensor and the subject at a place other than the binding portion of the original 20. And can meet the demand for higher reading speed.

また、原稿距離を画素単位で検出し、画素単位で最適な焦点距離で読み取った画像とすることができるので、焦点ぼけのない画像を得ることができるとともに、原稿の綴じ部における右端と左端の原稿距離が均一でない場合でも、歪みや濃度ムラの無い画像を得ることができる。   In addition, since the original distance can be detected in units of pixels and an image read at an optimum focal length in units of pixels can be obtained, an image without blur can be obtained, and the right and left edges of the binding portion of the original can be obtained. Even when the document distance is not uniform, an image free from distortion and density unevenness can be obtained.

この実施例2によれば、濃度補正部202により、記憶部203に有する原稿想定距離D―濃度補正量Denテーブル203aを参照し、検出した綴じ部の画像データの濃度値が原稿距離分補正されるので、原稿20に有する綴じ部における画像の濃度とそれ以外の部分の濃度とが互いに調和させることができる。   According to the second embodiment, the density correction unit 202 refers to the estimated original distance D-density correction amount Den table 203a in the storage unit 203, and the detected density value of the image data of the binding portion is corrected by the original distance. Therefore, the image density in the binding portion of the document 20 and the density of other portions can be harmonized with each other.

図17は、本発明に係る実施例3の画像処理装置に有する制御部の構成を示すブロック図である。本発明に係る実施例3の画像処理装置は、実施例2の画像処理装置と同様、原稿を読み取るスキャナ等の装置であって、図17に示す制御部300と、ガラス板と、キャリッジと、キャリッジ駆動部とを備えて構成されている。ここで、ガラス板、キャリッジ、及びキャリッジ駆動部は、実施例2のものと同様な構成であるので、これらの構成についての説明を省略する。なお、動作の説明中にこれらのものが記述された場合には、参照符号を付さずに説明する。   FIG. 17 is a block diagram illustrating a configuration of a control unit included in the image processing apparatus according to the third embodiment of the present invention. The image processing apparatus according to the third embodiment of the present invention is an apparatus such as a scanner for reading a document, like the image processing apparatus according to the second embodiment, and includes a control unit 300, a glass plate, a carriage, and the like illustrated in FIG. And a carriage drive unit. Here, since the glass plate, the carriage, and the carriage driving unit have the same configuration as that of the second embodiment, description of these configurations is omitted. In addition, when these things are described in description of operation | movement, it demonstrates without attaching | subjecting a reference code.

図17に示すように、制御部300は、読取制御部301と、濃度補正部302と、記憶部303と、綴じ部位置検出部304と、原稿距離検出部305と、焦点距離制御部306と、画像処理部307と、I/F308と、A/D変換機309と、画像合成部310とを備える。ここで、濃度補正部302、記憶部303、原稿距離検出部305と、焦点距離制御部306、画像処理部307、I/FI/F308、A/D変換器209、及び画像合成部310は、実施例2の画像処理装置のものと同様な機能を有する。従ってこれらのものの説明を省略する。   As illustrated in FIG. 17, the control unit 300 includes a reading control unit 301, a density correction unit 302, a storage unit 303, a binding unit position detection unit 304, a document distance detection unit 305, and a focal length control unit 306. An image processing unit 307, an I / F 308, an A / D converter 309, and an image composition unit 310. Here, the density correction unit 302, the storage unit 303, the document distance detection unit 305, the focal length control unit 306, the image processing unit 307, the I / FI / F 308, the A / D converter 209, and the image composition unit 310 are It has the same function as that of the image processing apparatus of the second embodiment. Therefore, explanation of these is omitted.

読取制御部301は、ガンマ補正部301a、下地除去部301b、及び主制御部301cを有しており、これらは、実施例2の画像処理装置のものと同一な構成を有している。   The reading control unit 301 includes a gamma correction unit 301a, a background removal unit 301b, and a main control unit 301c, which have the same configuration as that of the image processing apparatus according to the second embodiment.

綴じ部位置検出部304は、実施例2の綴じ部位置検出部204と同様な機能を有し、更に原稿20の設置向きを検出する。ここで、綴じ部位置検出部304が原稿20の綴じ部の向きを検出する機能を具体的に説明する。   The binding unit position detection unit 304 has the same function as the binding unit position detection unit 204 of the second embodiment, and further detects the installation direction of the document 20. Here, the function of the binding portion position detection unit 304 detecting the direction of the binding portion of the document 20 will be specifically described.

綴じ部位置検出部304がエッジ検出処理を行い、例えば図18に示すようなエッジ画像の場合を生成した場合、綴じ部位置検出部304は、lineTOP上の副走査方向の最小座標と最大座標の差分△Yと、lineL上の主走査方向の最大座標お最小座標の差分△Xの大きいほうを求める。そして、綴じ部位置検出部304は、△Yと△Xとの大小を比較し、△Y>△Xであると判定した場合には、綴じ部は副走査方向と平行であると判定し、一方、△Y<△Xであると判定した場合には、綴じ部の方向が主走査方向の向きであると判定する。   When the binding part position detection unit 304 performs edge detection processing and generates a case of an edge image as shown in FIG. 18, for example, the binding part position detection unit 304 sets the minimum and maximum coordinates in the sub-scanning direction on the line TOP. The greater of the difference ΔY and the difference ΔX between the maximum coordinate and the minimum coordinate in the main scanning direction on line L is obtained. Then, the binding portion position detection unit 304 compares ΔY and ΔX, and if it is determined that ΔY> ΔX, it determines that the binding portion is parallel to the sub-scanning direction, On the other hand, if it is determined that ΔY <ΔX, it is determined that the direction of the binding portion is the main scanning direction.

また、綴じ部位置検出部304は、記憶部303から原稿画像データを再び読み出し、この読み出した原稿画像データについてのエッジ検出処理を行い、原稿端の歪みを検出する。そして、綴じ部位置検出部304は、検出した原稿端の歪みから綴じ部の開始位置、及び綴じ部終了位置を検出し、これら綴じ部開始位置及び綴じ部終了位置を主制御部301c及び原稿距離検出部305に出力する。ここで、綴じ部の方向が副走査方向の場合には、綴じ部の開始位置は、例えばP1(Xstart、Ystart)であり、綴じ部の終了位置はP2(Xend、Yend)である。   Further, the binding portion position detection unit 304 reads the document image data from the storage unit 303 again, performs edge detection processing on the read document image data, and detects document edge distortion. Then, the binding portion position detection unit 304 detects the binding portion start position and the binding portion end position from the detected document edge distortion, and sets the binding portion start position and binding portion end position to the main control unit 301c and the document distance. Output to the detection unit 305. Here, when the direction of the binding portion is the sub-scanning direction, the start position of the binding portion is, for example, P1 (Xstart, Ystart), and the end position of the binding portion is P2 (Xend, Yend).

次に、本発明に係る実施例3の画像処理装置の動作を説明する。   Next, the operation of the image processing apparatus according to the third embodiment of the present invention will be described.

図19及び図20は、本発明に係る実施例3の画像処理装置の動作を示すフローチャートである。まず、ユーザにより操作部に有する所定の操作キーが押下されると、制御部300の主制御部301cは、記憶部303のワーク領域中の数値情報d、数値情報i、数値情報l、数値情報m、及び数値情報nに0を書き込む(ステップS61)。   19 and 20 are flowcharts showing the operation of the image processing apparatus according to the third embodiment of the present invention. First, when a predetermined operation key on the operation unit is pressed by the user, the main control unit 301c of the control unit 300 causes the numerical information d, numerical information i, numerical information l, numerical information in the work area of the storage unit 303 to be displayed. 0 is written in m and numerical information n (step S61).

次に、ガンマ補正部301aは、ガンマ変換テーブルに記述されているγ値を用いて、A/D変換器309から入力された原稿20の画像データの明るさを濃度値からなる画像データに変換し、この画像データを下地除去部301bに出力する。   Next, the gamma correction unit 301a converts the brightness of the image data of the document 20 input from the A / D converter 309 into image data composed of density values using the γ value described in the gamma conversion table. The image data is output to the background removal unit 301b.

下地除去部301bは、ガンマ補正部201aから入力された数ラインの中で最低の濃度値でなる下地濃度を検出し、この下地濃度を記憶部303に記憶する。その後、下地除去部301bは、上述した式1に従って、下地除去濃度値を算出し、この下地除去濃度値を濃度補正部302に出力する。   The background removal unit 301 b detects the background density having the lowest density value among several lines input from the gamma correction unit 201 a and stores the background density in the storage unit 303. Thereafter, the background removal unit 301 b calculates the background removal density value according to the above-described equation 1 and outputs the background removal density value to the density correction unit 302.

最初に原稿20が読み読み取られたときには原稿想定距離D=0なので、濃度補正部302は、主制御部301cから入力された原稿画像データの濃度を補正することなく修正前データとして記憶部303の原稿画像データ記憶領域303dに書き込む(ステップ62)。   Since the assumed original distance D = 0 when the original 20 is first read and read, the density correction unit 302 does not correct the density of the original image data input from the main control unit 301c and stores it as data before correction in the storage unit 303. The data is written in the document image data storage area 303d (step 62).

綴じ部位置検出部304は、記憶部303から読み出した修正前データから原稿20の端を検出するエッジ検出処理を行う。次に、綴じ部位置検出部304は、エッジ画像の副走査方向を基準とした場合、副走査座標が小さい方のエッジ部分について、副走査方向の最小座標と最大座標の差分△Yを求めるとともに、エッジ画像の主走査方向を基準とした場合、主走査座標が小さい方のエッジ部分について、主走査方向の最小座標と最大座標の差分△Xを求める。   The binding portion position detection unit 304 performs edge detection processing for detecting the edge of the document 20 from the pre-correction data read from the storage unit 303. Next, the binding portion position detection unit 304 obtains a difference ΔY between the minimum coordinate and the maximum coordinate in the sub-scanning direction for the edge portion having a smaller sub-scanning coordinate when the sub-scanning direction of the edge image is used as a reference. When the main scanning direction of the edge image is used as a reference, the difference ΔX between the minimum coordinate and the maximum coordinate in the main scanning direction is obtained for the edge portion having the smaller main scanning coordinate.

次に、綴じ部位置検出部304は、△Yと△Xとの大小を比較し、綴じ部の方向を検出する(ステップS63)。その後、綴じ部位置検出部304は、綴じ部の方向が主走査方向であるかまたは副走査方向であるかを判定する(ステップS64)。   Next, the binding portion position detection unit 304 compares ΔY and ΔX, and detects the direction of the binding portion (step S63). Thereafter, the binding portion position detection unit 304 determines whether the direction of the binding portion is the main scanning direction or the sub-scanning direction (step S64).

綴じ部位置検出部304は、綴じ部の方向が主走査方向であると判定した場合には(ステップS64;主走査方向)、実施例2と同様な処理が行われる。すなわち、記憶部303から原稿画像データを再び読み出し、この読み出した原稿画像データについてのエッジ検出処理を行い、原稿端の歪みを検出する。その後、綴じ部位置検出部304は、検出した原稿端の歪みから綴じ部の開始位置P(X、Ystart)、及び綴じ部終了位置P(X、Yend)を検出し、綴じ部の開始位置P(X、Ystart)、及び綴じ部終了位置P(X、Yend)を主制御部301cに出力する(ステップS65)。   When the binding unit position detection unit 304 determines that the direction of the binding unit is the main scanning direction (step S64; main scanning direction), the same processing as in the second embodiment is performed. That is, the document image data is read again from the storage unit 303, edge detection processing is performed on the read document image data, and distortion of the document edge is detected. Thereafter, the binding portion position detection unit 304 detects the binding portion start position P (X, Ystart) and the binding portion end position P (X, Yend) from the detected document edge distortion, and the binding portion start position P. (X, Ystart) and the binding end position P (X, Yend) are output to the main control unit 301c (step S65).

原稿距離検出部305は、綴じ部の開始位置P(X、Ystart)、及び綴じ部終了位置P(X、Yend)を綴じ部位置検出部304から読出す。次に、原稿距離検出部305は、副走査座標Ystart+mが副走査座標Yend以下(Ystart+m<=Yend)であるか否かを判定する(ステップS66)。   The document distance detection unit 305 reads the binding portion start position P (X, Ystart) and the binding portion end position P (X, Yend) from the binding portion position detection unit 304. Next, the document distance detection unit 305 determines whether or not the sub-scanning coordinate Ystart + m is equal to or smaller than the sub-scanning coordinate Yend (Ystart + m <= Yend) (step S66).

原稿距離検出部305は、副走査座標Ystart+mが副走査座標Yendを超えたと判定した場合には(ステップS66;N)、ステップS74に処理を移行させる。一方、原稿距離検出部305は、副走査座標Ystart+mが副走査座標Yen以下であると判定した場合には(ステップS66;Y)、副走査座標Ystart+mを有する主走査方向1ライン分の原稿画像データを記憶部303から読み出す。   If the document distance detection unit 305 determines that the sub-scanning coordinate Ystart + m exceeds the sub-scanning coordinate Yend (step S66; N), the document distance detection unit 305 shifts the process to step S74. On the other hand, when the document distance detection unit 305 determines that the sub-scanning coordinate Ystart + m is equal to or less than the sub-scanning coordinate Yen (step S66; Y), document image data for one line in the main scanning direction having the sub-scanning coordinate Ystart + m. Are read from the storage unit 303.

その後、原稿距離検出部305は、読み出した原稿画像データ中のP(X+i、Ystart+m(一定))に位置する画素についての濃度値Gを検出する(ステップS67)。次に、原稿距離検出部305は、濃度値G(X+i、Ystart+m)を検出すると、記憶部203に記憶されている、図17に示す濃度値範囲−原稿距離テーブル303bを参照し、この濃度値範囲−原稿距離テーブル303bから検出した濃度値G(X+i、Ystart+m)に対応する原稿距離を読み出し、この読み出した原稿距離をこの画素について、原稿20とガラス板との間の原稿距離d(X+i、Ystart+m)として検出し(ステップS68)、この原稿距離d(X+i、Ystart+m)を記憶部203のワーク領域に記憶する。   Thereafter, the document distance detection unit 305 detects the density value G for the pixel located at P (X + i, Ystart + m (constant)) in the read document image data (step S67). Next, when the document distance detection unit 305 detects the density value G (X + i, Ystart + m), the density value range-document distance table 303b shown in FIG. The document distance corresponding to the density value G (X + i, Ystart + m) detected from the range-document distance table 303b is read out, and the read document distance is read as the document distance d (X + i, Ystart + m) is detected (step S68), and the document distance d (X + i, Ystart + m) is stored in the work area of the storage unit 203.

次に、原稿距離検出部305は、P(X+i、Ystart+m(一定))に位置する画素がライン上の最後の画素であるか否かを判定する(ステップS69)。原稿距離検出部305は、P(X+i、Ystart+m(一定))に位置する画素がライン上の最後の画素でないと判定した場合には(ステップS69;N)、記憶部303のワーク領域に記憶されている数値情報iに1を加算し(ステップS70)、ステップS67に処理を移行し、上述したものと同様な処理を続行させる。   Next, the document distance detection unit 305 determines whether or not the pixel located at P (X + i, Ystart + m (constant)) is the last pixel on the line (step S69). If the document distance detection unit 305 determines that the pixel located at P (X + i, Ystart + m (constant)) is not the last pixel on the line (step S69; N), it is stored in the work area of the storage unit 303. 1 is added to the current numerical information i (step S70), the process proceeds to step S67, and the same process as described above is continued.

一方、原稿距離検出部305は、P(X+i、Ystart+m(一定))に位置する画素がライン上の最後の画素であると判定した場合には(ステップS69;Y)、記憶部303に記憶されている全ての原稿距離d(X+i、Ystart+m)(l=0、1、2、3、・・・)を順次読出し、副走査座標Ystart+mに関する主走査方向における副走査座標―主走査座標データを生成し、このデータを記憶部303に生成された副走査座標―主走査座標テーブル303cに記憶する(ステップS71)。   On the other hand, when the document distance detection unit 305 determines that the pixel located at P (X + i, Ystart + m (constant)) is the last pixel on the line (step S69; Y), it is stored in the storage unit 303. Sequentially read all document distances d (X + i, Ystart + m) (l = 0, 1, 2, 3,...), And generates sub-scanning coordinate-main scanning coordinate data in the main scanning direction with respect to the sub-scanning coordinate Ystart + m. Then, this data is stored in the sub-scanning coordinate-main scanning coordinate table 303c generated in the storage unit 303 (step S71).

次に、原稿距離検出部305は、記憶部303のワーク領域に記憶されている数値情報mに1を加算し、更に数値情報iに0を代入(ステップS72)、ステップS67に処理を移行させ、上述したものと同様な処理を続行させる。   Next, the document distance detection unit 305 adds 1 to the numerical information m stored in the work area of the storage unit 303, further substitutes 0 for the numerical information i (step S72), and shifts the processing to step S67. Then, the same processing as described above is continued.

ステップS66において、原稿距離検出部305が、副走査座標Ystart+kが副走査座標Yendを超えたと判定した場合には(ステップS66;N)、その旨を主制御部301cに出力する。   In step S66, when the document distance detection unit 305 determines that the sub-scanning coordinate Ystart + k exceeds the sub-scanning coordinate Yend (step S66; N), the fact is output to the main control unit 301c.

すると、主制御部301cは、CCDラインセンサが綴じ部を再度読み取る位置であるYstartの位置にキャリッジを設定する制御信号をキャリッジ駆動部に出力する。   Then, the main control unit 301c outputs to the carriage drive unit a control signal for setting the carriage to the Ystart position where the CCD line sensor reads the binding unit again.

キャリッジ駆動部は、この信号を受け取り、Ystartの位置にキャリッジを設定する(ステップS73)。   The carriage drive unit receives this signal and sets the carriage at the Ystart position (step S73).

その後、主制御部301cは、記憶部303のワーク領域に記憶されている数値情報dに1を加算する(ステップS74)。次に、主制御部301cは、加算した数値情報dが最も大きい原稿距離情報d_max以下であるか否かを判定する(ステップS75)。主制御部301cは、加算した数値情報dが原稿距離情報d_max以下でないと判定した場合には(ステップS75;N)、ステップS83に処理を移行する。一方、主制御部301cは、加算した数値情報dが原稿距離情報d_max以下であると判定した場合には(ステップS75;Y)、数値情報dに示された値の原稿想定距離Dを焦点距離制御部306に出力する(ステップS76)。   Thereafter, the main control unit 301c adds 1 to the numerical information d stored in the work area of the storage unit 303 (step S74). Next, the main control unit 301c determines whether or not the added numerical information d is equal to or less than the largest document distance information d_max (step S75). When the main control unit 301c determines that the added numerical information d is not less than or equal to the original distance information d_max (step S75; N), the process proceeds to step S83. On the other hand, when the main controller 301c determines that the added numerical information d is equal to or smaller than the original distance information d_max (step S75; Y), the main original distance D of the value indicated in the numerical information d is set to the focal distance. It outputs to the control part 306 (step S76).

焦点距離制御部306は、主制御部301cから入力された原稿想定距離Dに基づき、焦点レンズ移動量を算出する上述した式4に従って焦点レンズ移動量Ld(D)を算出し(ステップS77)、この焦点レンズ移動量Ld(D)分だけ焦点レンズを移動させる制御信号をキャリッジに有するレンズ駆動部に出力する。   The focal distance control unit 306 calculates the focal lens movement amount Ld (D) according to the above-described equation 4 that calculates the focal lens movement amount based on the assumed original distance D input from the main control unit 301c (step S77). A control signal for moving the focal lens by the focal lens movement amount Ld (D) is output to a lens driving unit having the carriage.

すると、キャリッジのレンズ駆動部は、焦点距離制御部から入力された制御信号に基づき、焦点レンズ移動量Ld(D)分だけ焦点レンズを移動させる(ステップS78)。   Then, the lens driving unit of the carriage moves the focal lens by the focal lens movement amount Ld (D) based on the control signal input from the focal distance control unit (step S78).

その後、主制御部301cは、原稿想定距離Dを濃度補正部102に出力する。   Thereafter, the main control unit 301 c outputs the estimated original distance D to the density correction unit 102.

濃度補正部302は、記憶部303に有する図17に示す原稿想定距離D―濃度補正量Denテーブル303aを参照し、入力された原稿想定距離Dに対応する濃度補正量Denを読出し、濃度補正値を算出する上述した式2に記述されている濃度補正量Denを、読み出した濃度補正量Denに設定し(ステップS79)、設定し直した旨を主制御部301cに出力する。   The density correction unit 302 refers to the assumed original distance D-density correction amount Den table 303a shown in FIG. 17 in the storage unit 303, reads the density correction amount Den corresponding to the input assumed original distance D, and sets the density correction value. The density correction amount Den described in the above-described equation 2 for calculating the value is set to the read density correction amount Den (step S79), and the fact that it has been reset is output to the main control unit 301c.

すると、主制御部301cは、再び原稿20の綴じ部画像データをA/D変換器309から読み取り(ステップS80)、この読み取った綴じ部画像データを濃度補正部302に出力する。   Then, the main control unit 301 c reads the binding portion image data of the document 20 from the A / D converter 309 again (step S 80), and outputs the read binding portion image data to the density correction unit 302.

濃度補正部302は、先に設定した濃度補正量Denと濃度補正するための上述した式2を使用して、主制御部301cから入力された綴じ部画像データの濃度値を補正し、これを記憶部303の綴じ部画像データ記憶領域303eに記憶する(ステップS81)。   The density correction unit 302 corrects the density value of the binding portion image data input from the main control unit 301c by using the previously set density correction amount Den and the above-described equation 2 for density correction. The data is stored in the binding portion image data storage area 303e of the storage unit 303 (step S81).

その後、濃度補正部302は、画像合成部310に対して、綴じ部画像データ記憶領域303eに記憶されている綴じ部画像データを原稿画像データ記憶領域303dに記憶されている原稿画像データに上書きする要求を出力する。   After that, the density correction unit 302 overwrites the original image data stored in the original image data storage region 303d with the binding unit image data stored in the original image data storage region 303d, with respect to the image composition unit 310. Output the request.

すると、画像合成部310は、入力された原稿想定距離Dで読み取られた原稿の綴じ部画像データを記憶部303の綴じ部画像データ記憶領域303eから読出す。次に、画像合成部310は、記憶部303に有する副走査座標―主走査座標ファイル303cに記憶されている副走査座標―主走査座標データを参照し、この副走査座標―主走査座標データに記述されている原稿距離情報d(X、Y)と入力された原稿想定距離Dとが一致する綴じ部画像データの画素データを、記憶部303に記憶されている原稿画像データの画素についての画像データに上書し(ステップS82)、ステップS74に処理を移行させ、上述したものと同様な処理を続行させる。   Then, the image composition unit 310 reads the binding portion image data of the original read at the input original assumed distance D from the binding portion image data storage area 303e of the storage unit 303. Next, the image composition unit 310 refers to the sub-scanning coordinate-main scanning coordinate data stored in the sub-scanning coordinate-main scanning coordinate file 303c in the storage unit 303, and uses this sub-scanning coordinate-main scanning coordinate data. The pixel data of the binding portion image data in which the described document distance information d (X, Y) matches the input document assumed distance D is converted into an image of the pixels of the document image data stored in the storage unit 303. The data is overwritten (step S82), the process proceeds to step S74, and the same process as described above is continued.

ステップS75において、主制御部301cは、加算した数値情報dが原稿距離情報d_max以下でないと判定した場合には(ステップS75;N)、画像処理部307に対して、記憶部303に記憶されている修正された原稿画像データの画像処理を実行させる要求を出力する。   In step S75, when the main control unit 301c determines that the added numerical information d is not less than or equal to the original distance information d_max (step S75; N), the main control unit 301c stores the image processing unit 307 in the storage unit 303. A request for executing image processing of the corrected original image data is output.

画像処理部307は、主制御部301cから入力された要求に基づき、記憶部303に記憶されている修正された原稿画像データを随時読み出し、2値化処理、画像圧縮処理等の画像処理を行い(ステップS83)、画像処理した画像データをI/F部308に出力する。   Based on the request input from the main control unit 301c, the image processing unit 307 reads the corrected document image data stored in the storage unit 303 as needed, and performs image processing such as binarization processing and image compression processing. (Step S83), the image processed image data is output to the I / F unit 308.

I/F部308は、画像処理部307から入力された画像データをホストに送信し(ステップS84)、処理を終了する。   The I / F unit 308 transmits the image data input from the image processing unit 307 to the host (step S84), and ends the process.

ステップS64において、綴じ部位置検出部304は、綴じ部の方向が副走査方向であると判定した場合には(ステップS64;副走査方向)、綴じ部が副走査方向でスキャンに長時間かかる旨の表示を表示部(図示せず)に表示させる(ステップS85)。   In step S64, when the binding unit position detection unit 304 determines that the direction of the binding unit is the sub-scanning direction (step S64; sub-scanning direction), the binding unit takes a long time to scan in the sub-scanning direction. Is displayed on a display unit (not shown) (step S85).

その後、綴じ部位置検出部304は、ユーザの操作により操作部150に有するキャンセルキーが押下された旨の信号が入力されたか否かを判定する(ステップS87)。綴じ部位置検出部304は、キャンセルキーが押下された旨の信号が入力されたと判定した場合には(ステップS86;Y)、処理を終了する。一方、綴じ部位置検出部304は、キャンセルキーが押下された旨の信号が入力されていないと判定した場合には(ステップS86;N)、操作部150に有するスタートキーが押下されたか否かを判定する(ステップS87)。   Thereafter, the binding unit position detection unit 304 determines whether or not a signal indicating that the cancel key included in the operation unit 150 has been pressed by a user operation is input (step S87). If the binding unit position detection unit 304 determines that a signal indicating that the cancel key has been pressed has been input (step S86; Y), the process ends. On the other hand, if the binding unit position detection unit 304 determines that a signal indicating that the cancel key has been pressed is not input (step S86; N), whether or not the start key included in the operation unit 150 has been pressed. Is determined (step S87).

綴じ部位置検出部304は、スタートキーが押下されていないと判定した場合には(ステップS87;N)、ステップS86に処理を移行し、上述したと同様な処理を続行させる。一方、綴じ部位置検出部304は、スタートキーが押下されたと判定した場合には(ステップS87;Y)、Ystartが原稿載置の副走査方向の最小値(図18のLineTOP)に設定されるとともに、Yendが原稿載置の副走査方向の最大値(図18のLineBTM)に設定されてステップS73に処理を移行する。   If it is determined that the start key has not been pressed (step S87; N), the binding position detection unit 304 proceeds to step S86 and continues the same process as described above. On the other hand, when the binding portion position detection unit 304 determines that the start key has been pressed (step S87; Y), Ystart is set to the minimum value in the sub-scanning direction of document placement (Line TOP in FIG. 18). At the same time, Yend is set to the maximum value in the sub-scanning direction of document placement (Line BTM in FIG. 18), and the process proceeds to step S73.

このことは、原稿の全面が綴じ部と同じに扱われることを意味し、レンズの焦点が変更されるたびに、全ての原稿面の読取りが行われることになる。そして、綴じ部画像データ記憶領域303eに原稿全面の画像が記憶され、そのときの原稿想定距離Dと、原稿距離情報d(X、Y)が一致する画素データが画像合成部310によって、原稿画像データ記憶領域303dに記憶されている原稿画像データ上に上書きされることとなる。従って、焦点距離のあった画像を取得するためには、全面読み取りが行われ、処理時間がかかる。   This means that the entire surface of the document is handled in the same manner as the binding portion, and every time the focal point of the lens is changed, the entire document surface is read. Then, an image of the entire surface of the original is stored in the binding portion image data storage area 303e, and pixel data in which the estimated original distance D and the original distance information d (X, Y) coincide with each other is generated by the image composition unit 310. The document image data stored in the data storage area 303d is overwritten. Therefore, in order to acquire an image with a focal length, full-face reading is performed and processing time is required.

実施例3によれば、綴じ部の方向が主走査方向と同じである場合には、実施例2のものと同様、原稿想定距離D=1mm〜d_maxmmに対応して焦点が合うようにレンズを移動させて綴じ部を複数回読取り、レンズ位置が制御される都度、読み取られた綴じ部の画像データの全画素のうち、原稿画像データ記憶ファイル303dに記憶されている綴じ部の各画素位置における綴じ部距離と想定距離とが同じ画素の画像データを、原稿画像データ記憶ファイル303dに記憶されている原稿20の画像データ中の画素の画像データに上書きするので、原稿20の綴じ部以外の箇所でラインセンサと被写体との間の距離を予め測定するという無駄な処理を行う必要性がなく、読み取り速度の高速化の要求に応えることができる。   According to the third embodiment, when the direction of the binding portion is the same as the main scanning direction, as in the second embodiment, the lens is adjusted so as to be in focus corresponding to the assumed original distance D = 1 mm to d_max mm. Each time the binding portion is moved and read, and the lens position is controlled, out of all the pixels of the read binding portion image data, at each pixel position of the binding portion stored in the document image data storage file 303d. Since the image data of the pixels having the same binding portion distance and the assumed distance is overwritten on the pixel image data in the image data of the document 20 stored in the document image data storage file 303d, a portion other than the binding portion of the document 20 Thus, there is no need to perform a wasteful process of measuring the distance between the line sensor and the subject in advance, and it is possible to meet the demand for higher reading speed.

また、実施例3によれば、綴じ部の方向が主走査方向と同じである場合には、実施例2のものと同様、原稿距離を画素単位で検出し、画素単位で最適な焦点距離で読み取った画像をすることができるので、焦点ぼけのない画像を得ることができるとともに、原稿の綴じ部における右端と左端の原稿距離が均一でない場合でも、歪みや濃度ムラの無い画像を得ることができる。   Further, according to the third embodiment, when the direction of the binding portion is the same as the main scanning direction, the document distance is detected in units of pixels as in the second embodiment, and the optimum focal length is determined in units of pixels. Since the scanned image can be obtained, an image without defocus can be obtained, and an image free from distortion and density unevenness can be obtained even when the document distance between the right end and the left end in the binding portion of the document is not uniform. it can.

また、この実施例3によれば、綴じ部の方向が主走査方向と同じである場合には、実施例2のものと同様、濃度補正部302により、記憶部303に有する原稿想定距離D―濃度補正量Denテーブル303aを参照し、検出した綴じ部の画像データの濃度値が原稿距離分補正されるので、原稿20に有する綴じ部における画像の濃度とそれ以外の部分の濃度とが互いに調和させることができる。   Further, according to the third embodiment, when the direction of the binding portion is the same as the main scanning direction, as in the second embodiment, the density correction unit 302 causes the estimated original distance D- With reference to the density correction amount Den table 303a, the detected density value of the image data of the binding portion is corrected by the document distance, so that the density of the image in the binding portion of the document 20 and the density of the other portions are in harmony with each other. Can be made.

また、この実施例3によれば、綴じ部位置検出部304により、原稿画像データ記憶ファイル303dに記憶されている原稿の画像データから綴じ部の方向が主走査方向であるか、または、副走査方向であるかが検出され、ユーザに原稿の向を変えるようにうながすことで原稿の全面を焦点距離を変更して複数回読に取る処理を回避することができる。   Further, according to the third embodiment, the binding unit position detection unit 304 determines that the direction of the binding unit from the document image data stored in the document image data storage file 303d is the main scanning direction or the sub scanning. By detecting whether the direction is the direction and prompting the user to change the direction of the document, it is possible to avoid the process of changing the focal length of the entire surface of the document and reading it multiple times.

実施例1乃至3の画像処理装置は、原稿距離の検出を濃度値から検出したが、これ以外として距離測定センサを用いても良い。また、実施例1乃至3の画像処理装置は、処理する画像の色としてモノクロスの場合であったが、カラーであってもよいことはいうまでもない。   In the image processing apparatuses according to the first to third embodiments, the detection of the document distance is detected from the density value, but a distance measurement sensor may be used instead. In the image processing apparatuses according to the first to third embodiments, the color of the image to be processed is monochrome, but it is needless to say that the color may be a color.

また、実施例3の画像処理装置では、綴じ部位置検出部304が原稿の綴じ部の向きを自動的に検出するようにしているが、これ以外に、原稿読み取る前に、操作部が原稿の綴じ部の方向を指定する情報をユーザから予め入力されていてもよい。   In the image processing apparatus according to the third exemplary embodiment, the binding unit position detection unit 304 automatically detects the orientation of the binding unit of the document. Information for specifying the direction of the binding portion may be input in advance by the user.

本発明に係る実施例1の画像処理装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an image processing apparatus according to a first embodiment of the present invention. 図1中の制御部の構成を示すブロック図である。It is a block diagram which shows the structure of the control part in FIG. (a)原稿想定距離D―濃度補正量Denテーブルの一例を示す図であり、(b)濃度値範囲―原稿距離テーブルの一例を示す図であり、(c)副走査座標―原稿距離情報d(Y)ファイルの一例を示す図である。(A) An example of an assumed original distance D-density correction amount Den table, (b) an example of a density value range-original distance table, and (c) sub-scanning coordinates-original distance information d. (Y) It is a figure which shows an example of a file. (a)綴じ部開始位置及び綴じ部終了位置を説明する説明図であり、(b)綴じ部における濃度値変化を示す図である。(A) It is explanatory drawing explaining the binding part start position and the binding part end position, (b) It is a figure which shows the density value change in a binding part. 焦点レンズ移動量Ld(D)を得るために使用される図である。It is a figure used in order to obtain the focal lens movement amount Ld (D). 図1中のキャリッジの概略構成図である。It is a schematic block diagram of the carriage in FIG. 本発明に係る実施例1の画像処理装置の動作を示すフローチャート(その1)である。5 is a flowchart (part 1) illustrating an operation of the image processing apparatus according to the first exemplary embodiment of the present invention. 本発明に係る実施例1の画像処理装置の動作を示すフローチャート(その2)である。6 is a flowchart (part 2) illustrating an operation of the image processing apparatus according to the first exemplary embodiment of the present invention. 記憶部に記憶されている画像データが上書きされる内容を説明する図である。It is a figure explaining the content by which the image data memorize | stored in the memory | storage part is overwritten. 本発明に係る実施例2の画像処理装置に有する制御部の構成を示すブロック図である。It is a block diagram which shows the structure of the control part which has in the image processing apparatus of Example 2 which concerns on this invention. 図10中の副走査座標―主走査座標テーブルの一例を示す図である。FIG. 11 is a diagram illustrating an example of a sub-scanning coordinate-main scanning coordinate table in FIG. 10. 読み取られた原稿の綴じ部の状態を示す図である。It is a figure which shows the state of the binding part of the read original. (a)綴じ部開始位置及び綴じ部終了位置を説明する説明図であり、(b)主走査方向における綴じ部における濃度値変化を示す図であり、(c)副走査方向における綴じ部の左端の濃度値と右端の濃度値とを示すグラフである。(A) It is explanatory drawing explaining the binding part start position and the binding part end position, (b) It is a figure which shows the density value change in the binding part in the main scanning direction, (c) The left end of the binding part in the sub-scanning direction It is a graph which shows the density value and density value of the right end. 本発明に係る実施例2の画像処理装置の動作を示すフローチャート(その1)である。It is a flowchart (the 1) which shows operation | movement of the image processing apparatus of Example 2 which concerns on this invention. 本発明に係る実施例2の画像処理装置の動作を示すフローチャート(その2)である。It is a flowchart (the 2) which shows operation | movement of the image processing apparatus of Example 2 which concerns on this invention. 画像データが上書きされる内容を説明する図である。It is a figure explaining the content by which image data is overwritten. 本発明に係る実施例3の画像処理装置に有する制御部の構成を示すブロック図である。It is a block diagram which shows the structure of the control part which has in the image processing apparatus of Example 3 which concerns on this invention. 綴じ部の方向を検出する方法を説明するための説明図である。It is explanatory drawing for demonstrating the method to detect the direction of a binding part. 本発明に係る実施例3の画像処理装置の動作を示すフローチャート(その1)である。It is a flowchart (the 1) which shows operation | movement of the image processing apparatus of Example 3 which concerns on this invention. 本発明に係る実施例3の画像処理装置の動作を示すフローチャート(その2)である。It is a flowchart (the 2) which shows operation | movement of the image processing apparatus of Example 3 which concerns on this invention.

符号の説明Explanation of symbols

100、200、300制御部
101、201、301 読取制御部
101a、201、301 ガンマ補正部
101b、201b、301b 下地除去部
101c、201c、301c 主制御部
102、202、302 濃度補正部
103、203、303 記憶部
103a、203a、303a 原稿想定距離D―濃度補正量テーブル
103b、203b、303b 下地濃度値範囲―原稿距離テーブル
103c 副走査座標―原稿距離情報d(Y)テーブル
203c、303c 副走査座標―主走査座標テーブル
103d、203d、303d 原稿画像データ記憶領域
103e、203e、303e 綴じ部画像データ記憶領域
104、204、304 綴じ部検出部
105、205、305 原稿距離検出部
106、206、306 焦点距離制御部
107、207、307 画像処理部
108、208、308 I/F部
109、209、309 A/D変換器
210、310 画像合成部
120 ガラス板
130 キャリッジ
131、132、133 ミラー
134 焦点レンズ
135 光源
136 CCDラインセンサ
137 レール
138 レンズ駆動部
139 レール
140 キャリッジ駆動部
150 操作部
100, 200, 300 Control unit 101, 201, 301 Reading control unit 101a, 201, 301 Gamma correction unit 101b, 201b, 301b Background removal unit 101c, 201c, 301c Main control unit 102, 202, 302 Density correction unit 103, 203 303 Storage units 103a, 203a, 303a Estimated original distance D—Density correction amount tables 103b, 203b, 303b Background density value range—Original distance table 103c Sub-scanning coordinates—Original distance information d (Y) tables 203c, 303c Sub-scanning coordinates Main scanning coordinate table 103d, 203d, 303d Document image data storage area 103e, 203e, 303e Binding section image data storage area 104, 204, 304 Binding section detection section 105, 205, 305 Document distance detection section 106, 206, 306 Focus Separation control unit 107, 207, 307 Image processing unit 108, 208, 308 I / F unit 109, 209, 309 A / D converter 210, 310 Image composition unit 120 Glass plate 130 Carriage 131, 132, 133 Mirror 134 Focus lens 135 Light source 136 CCD line sensor 137 Rail 138 Lens drive unit 139 Rail 140 Carriage drive unit 150 Operation unit

Claims (8)

原稿積載面に積載された原稿の画像を読み取る画像読取部と、
前記原稿と前記原稿積載面との離間領域を検出する離間領域検出部と、
前記原稿と前記原稿積載面との原稿距離を検出する原稿距離検出部と、
前記画像読取部における前記原稿との焦点距離を調整する焦点距離調整部と、
前記離間領域検出部が検出した領域を、前記焦点距離調整部により焦点を調整して読み取る読取制御部と、
を備えることを特徴とする画像処理装置。
An image reading unit that reads an image of a document loaded on the document loading surface;
A separation area detector for detecting a separation area between the document and the document stacking surface;
A document distance detector for detecting a document distance between the document and the document stacking surface;
A focal length adjustment unit for adjusting a focal length with the original in the image reading unit;
A reading control unit that reads the region detected by the separation region detection unit by adjusting the focal point by the focal length adjustment unit;
An image processing apparatus comprising:
前記画像読取部により読み取られた前記画像に基づき、前記原稿の輪郭を検出する輪郭検出部
を更に備え、
前記離間領域検出部は、前記輪郭検出部により検出された前記原稿の輪郭に基づき、該原稿と前記原稿積載面との離間領域を検出することを特徴とする請求項1記載の画像処理装置。
A contour detecting unit for detecting a contour of the document based on the image read by the image reading unit;
The image processing apparatus according to claim 1, wherein the separation area detection unit detects a separation area between the document and the document stacking surface based on a contour of the document detected by the contour detection unit.
前記離間領域検出部により検出された前記離間領域から前記原稿の画像の綴じ部方向を検出する綴じ部方向検出部、
を更に備え、
前記原稿距離検出部は、
前記綴じ部方向検出部により検出された綴じ部方向に従い前記原稿距離を検出することを特徴とする請求項1または2に記載の画像処理装置。
A binding portion direction detection unit that detects a binding portion direction of the image of the document from the separation region detected by the separation region detection unit;
Further comprising
The document distance detection unit
The image processing apparatus according to claim 1, wherein the document distance is detected according to a binding portion direction detected by the binding portion direction detection unit.
前記焦点距離調整部により調整された前記焦点で前記画像読取部が読み取った前記離間領域における原稿の画像を前記最初の原稿の画像の離間領域部分に合成する画像合成部を更に備えることを特徴とする請求項1乃至3のいずれかに記載の画像処理装置。   The image processing apparatus further includes an image composition unit configured to combine an image of the document in the separated area read by the image reading unit at the focal point adjusted by the focal length adjustment unit with the separated area portion of the image of the first document. The image processing apparatus according to claim 1. 前記画像読取部により読み取られた前記画像の濃度値を検出する濃度値検出部と、
前記濃度値検出部により検出された前記濃度値のうち前記離間領域の濃度値を、前記原稿距離検出部により検出された前記原稿距離により補正する濃度値補正部と、
を更に備え、
前記画像合成部は、
前記焦点距離調整部により調整された前記焦点で前記画像読取部が読み取った前記離間領域における原稿の画像を、前記濃度値補正部により補正された濃度値で前記最初の原稿の画像の離間領域に合成することを特徴する請求項4記載の画像処理装置。
A density value detection unit for detecting a density value of the image read by the image reading unit;
A density value correction unit that corrects the density value of the separated area among the density values detected by the density value detection unit based on the document distance detected by the document distance detection unit;
Further comprising
The image composition unit
The document image in the separated area read by the image reading unit at the focal point adjusted by the focal length adjusting unit is transferred to the separated area of the first document image with the density value corrected by the density value correcting unit. The image processing apparatus according to claim 4, wherein the images are synthesized.
前記画像合成部により合成された前離間距領域内の合成領域を、該画像合成部で合成される合成領域が存在するか否かを判定する合成領域存在判定部と、
を更に備え、
前記画像合成部は、
前記合成領域存在判定部により前記合成領域が存在するものと判定された場合には、前記焦点距離調整部により調整された前記焦点で前記画像読取部が読み取った該合成領域における原稿の画像を、前記合成領域存在判定部で該合成領域の判定対象となった前記合成領域に合成することを特徴とする請求項4または5に記載の画像処理装置。
A synthesis region existence determination unit that determines whether or not there is a synthesis region to be synthesized by the image synthesis unit within the previous separation distance region synthesized by the image synthesis unit;
Further comprising
The image composition unit
When the composite region presence determination unit determines that the composite region is present, an image of the document in the composite region read by the image reading unit at the focal point adjusted by the focal length adjustment unit, The image processing apparatus according to claim 4, wherein the composite region presence determination unit combines the composite region that is a determination target of the composite region.
前記合成領域存在判定部は、前記画像合成部により合成された前離間距領域内の合成領域を、該画像合成部で合成される合成領域が存在するか否かを判定する以外に、前記画像合成部により合成された前離間距領域内を該画像合成部で合成される合成領域が存在するか否かを判定する請求項6記載の画像処理装置。   The composite region presence determination unit determines whether the composite region within the previous separation distance region synthesized by the image synthesis unit is a composite region synthesized by the image synthesis unit or not. The image processing apparatus according to claim 6, wherein the image processing apparatus determines whether or not there is a composite area to be combined by the image combining section in the previous separation distance area combined by the combining section. 前記原稿距離検出部は、前記原稿距離を前記画像を形成する画素ごとに検出し、
前記焦点距離調整部は、前記原稿距離検出部により検出された前記原稿距離に基づいて、該画像読取部における前記原稿との焦点を調整し、
前記画像合成部は、前記焦点距離調整部により調整された前記焦点距離で前記画像読取部が読み取った前記離間領域における原稿の画像を形成する画素のうち原稿距離が同一な前記最初の原稿の画像を形成する画素を有する画像を、前記最初の原稿の画像の離間領域部分に合成することを特徴とする請求項4乃至7のいずれかに記載の画像処理装置。
The document distance detection unit detects the document distance for each pixel forming the image,
The focal length adjustment unit adjusts a focal point of the image reading unit with the document based on the document distance detected by the document distance detection unit;
The image synthesizing unit includes the first original image having the same original distance among the pixels forming the original image in the separated area read by the image reading unit at the focal length adjusted by the focal length adjusting unit. The image processing apparatus according to claim 4, wherein an image having pixels forming the image is combined with a separated area portion of the image of the first document.
JP2007000221A 2007-01-04 2007-01-04 Image processing device Expired - Fee Related JP4883574B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007000221A JP4883574B2 (en) 2007-01-04 2007-01-04 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007000221A JP4883574B2 (en) 2007-01-04 2007-01-04 Image processing device

Publications (2)

Publication Number Publication Date
JP2008167352A true JP2008167352A (en) 2008-07-17
JP4883574B2 JP4883574B2 (en) 2012-02-22

Family

ID=39696139

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007000221A Expired - Fee Related JP4883574B2 (en) 2007-01-04 2007-01-04 Image processing device

Country Status (1)

Country Link
JP (1) JP4883574B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010109448A (en) * 2008-10-28 2010-05-13 Canon Inc Image processing method and image reading apparatus
CN102075658A (en) * 2009-11-23 2011-05-25 株式会社东芝 Image reading apparatus, control method for the same, and image forming apparatus

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05284288A (en) * 1992-04-03 1993-10-29 Fuji Xerox Co Ltd Picture reader
JPH05328042A (en) * 1992-05-20 1993-12-10 Matsushita Graphic Commun Syst Inc Image reader
JP2000022932A (en) * 1998-07-01 2000-01-21 Ricoh Co Ltd Image processor
JP2004320538A (en) * 2003-04-17 2004-11-11 Ricoh Co Ltd Image reading apparatus and image forming apparatus
JP2005051383A (en) * 2003-07-31 2005-02-24 Ricoh Co Ltd Image distortion corrector, image reader, image forming apparatus, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05284288A (en) * 1992-04-03 1993-10-29 Fuji Xerox Co Ltd Picture reader
JPH05328042A (en) * 1992-05-20 1993-12-10 Matsushita Graphic Commun Syst Inc Image reader
JP2000022932A (en) * 1998-07-01 2000-01-21 Ricoh Co Ltd Image processor
JP2004320538A (en) * 2003-04-17 2004-11-11 Ricoh Co Ltd Image reading apparatus and image forming apparatus
JP2005051383A (en) * 2003-07-31 2005-02-24 Ricoh Co Ltd Image distortion corrector, image reader, image forming apparatus, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010109448A (en) * 2008-10-28 2010-05-13 Canon Inc Image processing method and image reading apparatus
US8390896B2 (en) 2008-10-28 2013-03-05 Canon Kabushiki Kaisha Image reading method, image reading apparatus, and program recording medium
CN102075658A (en) * 2009-11-23 2011-05-25 株式会社东芝 Image reading apparatus, control method for the same, and image forming apparatus

Also Published As

Publication number Publication date
JP4883574B2 (en) 2012-02-22

Similar Documents

Publication Publication Date Title
JP5493438B2 (en) Projector and projected image correction program
JP4784678B2 (en) Imaging apparatus, imaging method, and program
JP2006277315A (en) Pattern recognition device, pattern recognition method, and electronic equipment provided with the pattern recognition device
JP2015171099A (en) Image processing apparatus and image processing method
JP5358384B2 (en) Optical information reading apparatus and imaging condition setting method thereof
JP2009177475A (en) Image reading apparatus, and image processing method
JP4883574B2 (en) Image processing device
KR20080046548A (en) Image forming apparatus and image forming method and image processor
US6525764B2 (en) Image read method for performing image signal processes complying with the color of a reference portion of a recording medium, and image read apparatus adopting the method
JP5273008B2 (en) Projector and projected image correction program
JP2017059879A (en) Image reader and image formation apparatus
JP2005079731A (en) Photographed picture projection device, picture processing method therefor and program
JP5857485B2 (en) Image processing apparatus and control method thereof
JP2003051944A (en) Image processing method, image processing system, program and storage medium
JP2005217618A (en) Image processing method, image processing apparatus, and image processing program
JP4753828B2 (en) Image processing apparatus and image forming apparatus
JP2007274702A (en) Image photographing system
JP4735649B2 (en) Image projection device
JP5025380B2 (en) Image reading apparatus and program
JP2001298614A (en) Image reader
EP1435727A1 (en) Method for controlling image reader
JP2007165946A (en) Apparatus and method of correcting object image
JP2006229644A (en) Image reading apparatus
JP2021082967A (en) Document reading device, control method of the same, and program
JP2022012832A (en) Image processing apparatus, image processing method, imaging device, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110401

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111101

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111129

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111130

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141216

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4883574

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees