JP6447006B2 - Image processing apparatus, image reading apparatus, image processing method, and image processing program - Google Patents

Image processing apparatus, image reading apparatus, image processing method, and image processing program Download PDF

Info

Publication number
JP6447006B2
JP6447006B2 JP2014219922A JP2014219922A JP6447006B2 JP 6447006 B2 JP6447006 B2 JP 6447006B2 JP 2014219922 A JP2014219922 A JP 2014219922A JP 2014219922 A JP2014219922 A JP 2014219922A JP 6447006 B2 JP6447006 B2 JP 6447006B2
Authority
JP
Japan
Prior art keywords
inclination
document
electronic
optical
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014219922A
Other languages
Japanese (ja)
Other versions
JP2016086376A (en
Inventor
馬場 裕行
裕行 馬場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2014219922A priority Critical patent/JP6447006B2/en
Publication of JP2016086376A publication Critical patent/JP2016086376A/en
Application granted granted Critical
Publication of JP6447006B2 publication Critical patent/JP6447006B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Facsimile Scanning Arrangements (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Description

本発明は、画像処理装置、画像読取装置、画像処理方法及び画像処理プログラムに関し、詳細には、原稿の傾きを検出する画像処理装置、画像読取装置、画像処理方法及び画像処理プログラに関する。 The present invention relates to an image processing apparatus, image reading apparatus, an image processing method and image processing program, in particular, an image processing device for detecting an inclination of a document, the image reading apparatus, an image processing method and image processing program.

近年、情報のデジタル化に伴って、原稿の画像をスキャナ等の画像読取装置で読み取って画像データを取得し、デジタルの画像データを管理することが行われるようになってきている。   In recent years, along with the digitization of information, it has been performed to read an image of a document with an image reading device such as a scanner, acquire image data, and manage the digital image data.

ところが、画像読取装置で原稿の画像データを読み取る場合、自動原稿搬送装置を画像読取装置に取り付けて、原稿を複数枚順次搬送して読み取ると、原稿スキューによって読取画像が傾いた画像となることがある。   However, when reading image data of a document with an image reading device, if an automatic document feeder is attached to the image reading device and a plurality of documents are sequentially conveyed and read, the read image may be tilted due to document skew. is there.

そこで、従来から、自動原稿搬送装置で搬送される原稿の傾きを機械的に補正することが行われている。   Therefore, conventionally, the inclination of the document conveyed by the automatic document conveying device is mechanically corrected.

ところが、機械的に原稿の傾きを補正する機構を自動原稿搬送装置に組み込むと、機械音が大きく、近年の装置に要求される静音性を満たすことができなくなってきている。   However, when a mechanism for mechanically correcting the inclination of a document is incorporated in an automatic document feeder, the mechanical noise is large and it has become impossible to satisfy the quietness required for recent devices.

そこで、近年では、読み取った画像データの傾きを検出して、画像処理によって傾きを補正することが行われるようになってきている。   Therefore, in recent years, it has been performed to detect the inclination of the read image data and correct the inclination by image processing.

そして、従来、原稿のサイズを検知する検知部と、原稿の読取位置に光を照射しその反射光から読取画像を読み取る画像読取部と、前記検知部が読み取った前記原稿のサイズに基づく範囲内で、前記読取画像から前記原稿に対応する原稿画像と前記原稿以外の領域に対応する背景画像との境界を読み取り、前記境界と前記原稿の搬送方向とのなす角度に基づいて前記読取画像中の前記原稿画像の傾きを補正する傾き補正手段とを有する画像読取装置が提案されている(特許文献1参照)。   Conventionally, a detection unit that detects the size of the document, an image reading unit that irradiates light to the reading position of the document and reads a read image from the reflected light, and a range based on the size of the document read by the detection unit The boundary between the document image corresponding to the document and the background image corresponding to the area other than the document is read from the scanned image, and the boundary between the boundary and the document transport direction is An image reading apparatus having an inclination correction unit for correcting the inclination of the original image has been proposed (see Patent Document 1).

すなわち、この従来技術は、原稿サイズを検出して、該原稿サイズの範囲内で、読取画像から原稿に対応する原稿画像と原稿以外の領域に対応する背景画像との境界を読み取って、傾き角度を検出している。   That is, this conventional technique detects the document size, reads the boundary between the document image corresponding to the document and the background image corresponding to the area other than the document from the scanned image within the document size range, Is detected.

しかしながら、上記従来技術にあっては、原稿サイズを検出して原稿傾きを検出しているため、原稿傾き角度の検出精度を向上させる上で、改良の必要があった。   However, in the above prior art, since the original size is detected by detecting the original size, it is necessary to improve the accuracy of detecting the original inclination angle.

すなわち、原稿サイズの検知を間違った場合や、検知ゴミや縦スジ以外の要因による原稿画像と原稿以外の領域に対する背景画像との境界の検出における検出誤りを防止することができず、原稿傾き角度の検出誤りが発生するおそれがあった。   In other words, if the document size is detected incorrectly, or a detection error in detecting the boundary between the document image and the background image with respect to a region other than the document due to factors other than detection dust or vertical stripes cannot be prevented, the document tilt angle There was a risk that a detection error would occur.

そこで、本発明は、原稿傾きを正確に判定することを目的としている。   Accordingly, an object of the present invention is to accurately determine the document inclination.

上記目的を達成するために、請求項1記載の画像処理装置は、搬送される原稿の画像を読み取って画像データを出力する画像読取手段と、前記画像読取手段の出力する画像データに基づいて、搬送される前記原稿の搬送方向の先端部を電子式端部として検出する電子式端部検出手段と、搬送される前記原稿の搬送方向先端部を光学的に光学式端部として検出する光学式端部検出手段と、前記電子式端部に基づいて、前記原稿の搬送方向先端部の傾きを電子式傾きとして抽出する電子式傾き抽出手段と、前記光学式端部に基づいて、前記原稿の搬送方向先端部の傾きを光学式傾きとして抽出する光学式傾き抽出手段と、前記電子式傾きと前記光学式傾きから前記原稿の最終傾きを抽出する最終傾き抽出手段と、を備え、前記最終傾き抽出手段は前記電子式傾きが、前記光学式傾きに対して所定の判定閾値内にあるか否かを判定して、該判定閾値内に存在すると、該電子式傾きに基づいて前記最終傾きを抽出し、該判定閾値外にあると、該光学式傾きに基づいて該最終傾きを抽出することを特徴としている。 In order to achieve the above object, an image processing apparatus according to claim 1 is based on an image reading unit that reads an image of a conveyed document and outputs image data, and image data output by the image reading unit. An electronic end detecting means for detecting a leading end in the transport direction of the document to be transported as an electronic end, and an optical type for optically detecting a leading end in the transport direction of the transported document as an optical end. An edge detection means; an electronic inclination extraction means for extracting the inclination of the leading edge of the document in the transport direction as an electronic inclination based on the electronic edge; and an optical edge of the original based on the optical edge. An optical inclination extraction means for extracting the inclination of the leading end in the conveying direction as an optical inclination; and a final inclination extraction means for extracting the final inclination of the document from the electronic inclination and the optical inclination, and the final inclination. extraction means The electronic inclination, it is determined whether within a predetermined determination threshold value with respect to the optical slope, when present in said determination threshold, and extracts the final slope on the basis of the electronic formula inclination, If it is outside the determination threshold, the final inclination is extracted based on the optical inclination .

本発明によれば、原稿傾きを正確に判定することができる。   According to the present invention, it is possible to accurately determine the document inclination.

本発明の一実施例を適用したカラー複合装置の画像読取部の正面概略構成図。1 is a schematic front view of an image reading unit of a color composite apparatus to which an embodiment of the present invention is applied. SDFユニットの正面概略拡大図。Front schematic enlarged view of the SDF unit. フォトセンサの配置位置の説明図。Explanatory drawing of the arrangement position of a photosensor. フォトセンサの副走査方向取付精度の説明図。Explanatory drawing of the subscanning direction mounting accuracy of a photosensor. フォトセンサの副走査方向における検知精度の説明図。Explanatory drawing of the detection accuracy in the subscanning direction of a photosensor. 画像読取部の走査光学系の正面概略拡大図。The front schematic enlarged view of the scanning optical system of an image reading part. カラー複合装置の要部ブロック構成図。The principal part block block diagram of a color compound apparatus. 読取信号処理部のブロック構成図。FIG. 3 is a block configuration diagram of a read signal processing unit. 読取信号処理部の詳細なブロック構成図。FIG. 3 is a detailed block diagram of a read signal processing unit. 画像処理部の機能ブロック構成図。The functional block block diagram of an image process part. フォトセンサの検知信号における時間差算出処理の説明図。Explanatory drawing of the time difference calculation process in the detection signal of a photosensor. バッファメモリ内の画像領域と原稿画像データの関係を示す図。The figure which shows the relationship between the image area in a buffer memory, and original image data. エッジ抽出に基づく原稿端部検出処理の説明図。Explanatory drawing of the document edge part detection process based on edge extraction. 輝度に基づく原稿端部検出処理の説明図。Explanatory drawing of the document edge part detection process based on a brightness | luminance. 色差に基づく原稿端部検出処理の説明図。Explanatory drawing of the document edge part detection process based on a color difference. 画像データ傾き検出・補正処理の説明図。Explanatory drawing of an image data inclination detection and correction process. 原稿傾き検出処理を示すフローチャート。6 is a flowchart illustrating document skew detection processing. 2次原稿傾き算出処理を示すフローチャート。10 is a flowchart showing secondary document skew calculation processing.

以下、本発明の好適な実施例を添付図面に基づいて詳細に説明する。なお、以下に述べる実施例は、本発明の好適な実施例であるので、技術的に好ましい種々の限定が付されているが、本発明の範囲は、以下の説明によって不当に限定されるものではなく、また、本実施の形態で説明される構成の全てが本発明の必須の構成要件ではない。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In addition, since the Example described below is a suitable Example of this invention, various technically preferable restrictions are attached | subjected, However, The range of this invention is unduly limited by the following description. However, not all the configurations described in the present embodiment are essential constituent elements of the present invention.

図1〜図18は、本発明の画像処理装置、画像読取装置、画像処理方法及び画像処理プログラムの一実施例を示す図である。図1は、本発明の画像処理装置、画像読取装置、画像処理方法及び画像処理プログラムの一実施例を適用したカラー複合装置1の画像読取部10の正面概略構成図である。   1 to 18 are diagrams showing an embodiment of an image processing apparatus, an image reading apparatus, an image processing method, and an image processing program according to the present invention. FIG. 1 is a front schematic configuration diagram of an image reading unit 10 of a color composite apparatus 1 to which an embodiment of an image processing apparatus, an image reading apparatus, an image processing method, and an image processing program of the present invention is applied.

図1において、画像読取部(画像読取装置)10は、筐体11の上部に原稿読取台(原稿台)12が設けられており、原稿読取台12には、通常、コンタクトガラスが配設されている。原稿読取台12の上部は、開閉可能な原稿押さえ板13が設けられており、原稿押さえ板13は、原稿読取台12上にセットされた原稿Gを原稿読取台12のコンタクトガラスに密着させるように押さえつける。   In FIG. 1, an image reading unit (image reading apparatus) 10 is provided with a document reading table (document table) 12 on an upper portion of a casing 11. The document reading table 12 is usually provided with a contact glass. ing. An openable / closable document pressing plate 13 is provided on the upper portion of the document reading table 12, and the document pressing plate 13 is configured to bring the document G set on the document reading table 12 into close contact with the contact glass of the document reading table 12. Press down on.

図1の筐体11の右側上部には、原稿搬送部14が配設されており、原稿搬送部14は、SDF(シートスルー・ドキュメント・フィーダ)ユニット15と原稿トレイ16とを備えている。SDFユニット15内には原稿搬送ステッピングモータ17が備えられており、原稿トレイ16上には、複数枚の原稿Gが読取面を上にして重ねて載置される。   A document transport unit 14 is disposed on the upper right side of the housing 11 of FIG. 1, and the document transport unit 14 includes an SDF (sheet through document feeder) unit 15 and a document tray 16. A document conveying stepping motor 17 is provided in the SDF unit 15, and a plurality of documents G are stacked on the document tray 16 with the reading surface facing up.

原稿搬送部14は、図2に示すように、原稿搬送ステッピングモータ17により、SDFユニット15内に配設されている分離ローラ18と搬送ローラ19を回転駆動させる。SDFユニット15は、回転駆動される分離ローラ18により、原稿トレイ16上の原稿Gを1枚ずつ分離して、搬送ローラ19により、SDFユニット15内の原稿搬送経路を通過させて、原稿読取台12上へ送って、さらに、図示しない排紙トレイ上に搬送する。SDFユニット15は、原稿搬送経路に沿って、CIS(Contact Image Sensor:密着イメージセンサ)15a、1対のフォトセンサ15b及び白板15c等が配設されている。   As shown in FIG. 2, the document conveying unit 14 rotates a separation roller 18 and a conveying roller 19 disposed in the SDF unit 15 by a document conveying stepping motor 17. The SDF unit 15 separates the originals G on the original tray 16 one by one by a rotationally driven separation roller 18, and passes through the original conveyance path in the SDF unit 15 by a conveyance roller 19, thereby reading the original reading table. 12 is further conveyed onto a paper discharge tray (not shown). The SDF unit 15 is provided with a CIS (Contact Image Sensor) 15a, a pair of photo sensors 15b, a white plate 15c, and the like along the document conveyance path.

CIS15aは、原稿搬送経路上を搬送される原稿Gの裏面の画像を読み取る。   The CIS 15a reads an image on the back side of the document G conveyed on the document conveyance path.

フォトセンサ15bは、主走査方向(原稿搬送方向に対して直交する方向)に所定距離離れて1対配設されており、それぞれ、原稿搬送経路上を搬送される原稿Gの先端を検出する。   The photosensors 15b are arranged in a pair at a predetermined distance in the main scanning direction (a direction orthogonal to the document conveyance direction), and each detects the leading edge of the document G conveyed on the document conveyance path.

この1対のフォトセンサ15bは、例えば、図3に示すように、カラー複合装置1が処理可能な最小幅サイズの原稿Gの先端2箇所を検出可能なように、距離を開けて配設されている。図3の場合、B6原稿で、SEF(Short Edge Feed)方向を最小幅サイズとした場合が示されている。具体的には、例えば、フォトセンサ15bは、原稿Gの読取原点から主走査方向に10mmの位置(以下、第1検知位置P1という。)と、第1検知位置P1から100mm間隔を置いた位置(以下、第2検知位置P2という。)と、にそれぞれ配設されている。   For example, as shown in FIG. 3, the pair of photosensors 15b are arranged at a distance so as to be able to detect two leading edges of a document G having a minimum width size that can be processed by the color composite apparatus 1. ing. In the case of FIG. 3, the case where the B6 document has the SEF (Short Edge Feed) direction as the minimum width size is shown. Specifically, for example, the photosensor 15b is located at a position 10 mm from the reading origin of the original G in the main scanning direction (hereinafter, referred to as a first detection position P1) and a position at an interval of 100 mm from the first detection position P1. (Hereinafter, referred to as a second detection position P2).

図3に示したようにフォトセンサ15bを配置して取り付ける場合、取付位置精度は、1つの取付位置精度が、通常、図4に示すように、副走査方向に対して、±1.5mmである。したがって、2つのフォトセンサ15bにおける取付位置の最大誤差は、3mm/100mmとなる。ところが、この程度の取付位置精度による誤差は、フォトセンサ15bの信号の発生タイミングを調整することで、補正することができ、カラー複合装置1の工場出荷時に、1台毎にキャリブレートすることで、誤差を「0」とすることができる。   When the photosensor 15b is arranged and mounted as shown in FIG. 3, the mounting position accuracy is usually ± 1.5 mm with respect to the sub-scanning direction as shown in FIG. is there. Therefore, the maximum error of the mounting position in the two photosensors 15b is 3 mm / 100 mm. However, this error due to the mounting position accuracy can be corrected by adjusting the signal generation timing of the photo sensor 15b, and by calibrating each unit at the time of shipment of the color composite apparatus 1 from the factory, The error can be set to “0”.

また、フォトセンサ15bは、その検知精度において、誤差を含んでいる。例えば、フォトセンサ15bは、図5に示すように、上述のようにしてセンサ取付誤差を「0」に調整した場合であっても、原稿端部が目標検知位置を通過するときの検知精度が、最大約0.6mmの誤差を含んでいる。   The photosensor 15b includes an error in its detection accuracy. For example, as shown in FIG. 5, the photosensor 15b has a detection accuracy when the document edge passes the target detection position even when the sensor mounting error is adjusted to “0” as described above. The maximum error is about 0.6mm.

したがって、2つのフォトセンサ15bによる原稿Gの傾きの絶対値は、最大|1.2mm/100mm|の誤差を含んでいることになる。例えば、原稿Gが傾きのない状態でフォトセンサ15bを通過したとしても、フォトセンサ15bの検知結果としては、原稿Gが傾いているという検知結果になるおそれがある。   Therefore, the absolute value of the inclination of the original G by the two photosensors 15b includes an error of maximum | 1.2 mm / 100 mm |. For example, even if the document G passes through the photo sensor 15b with no tilt, the detection result of the photo sensor 15b may be a detection result that the document G is tilted.

いま、SDFユニット15のスキューの規格が|±0.75mm/100mm|であったとすると、フォトセンサ15bの検知誤差が、以下のように、この規格を大きく上回ることになる。   Assuming that the skew standard of the SDF unit 15 is | ± 0.75 mm / 100 mm |, the detection error of the photosensor 15b greatly exceeds this standard as follows.

傾き検知誤差|±1.2mm/100mm|
>スキュー規格|±0.75mm/100mm|
したがって、フォトセンサ15bを単独に用いて原稿Gの傾きを高精度に検出することはできない。フォトセンサ方式による原稿端の検知は、検知精度自体は高くはないが、後述する画像処理による電子方式に比較して、原稿Gの画像特性に依存して大きく端部の検出を間違えることはない。
Tilt detection error | ± 1.2mm / 100mm |
> Skew standard | ± 0.75mm / 100mm |
Therefore, the inclination of the original G cannot be detected with high accuracy by using the photosensor 15b alone. Although the detection accuracy of the document edge by the photosensor method is not high, the detection of the edge portion is not greatly mistaken depending on the image characteristics of the document G, as compared with the electronic method by image processing described later. .

白板15cは、SDFユニット15の原稿読取台12に対向する位置に形成されているSDF窓15dに対応するSDFユニット15内の位置に配設されている。白板15cは、SDF窓15d及び透過ガラス15eを通した光路上、特に、透明ガラス15eにゴミ等が付着しているか否かを検出する際に読み取られる。すなわち、カラー複合装置1は、SDFユニット15を利用した原稿Gの読み取りにおいては、透明ガラス15eの位置を、固定の原稿読取位置として、原稿Gの読み取りを行ない、この読取時における光路上のゴミ等の有無を検出するのに白板15cを用いる。   The white plate 15 c is disposed at a position in the SDF unit 15 corresponding to the SDF window 15 d formed at a position facing the document reading table 12 of the SDF unit 15. The white plate 15c is read when detecting whether dust or the like is attached to the optical path through the SDF window 15d and the transmission glass 15e, in particular, the transparent glass 15e. That is, when reading the original G using the SDF unit 15, the color composite apparatus 1 reads the original G with the position of the transparent glass 15e as a fixed original reading position, and the dust on the optical path at the time of reading is read. The white plate 15c is used to detect the presence / absence or the like.

また、原稿搬送部14は、原稿読取台12のSDFユニット15側の端部に、シェーディング補正用の白基準板20が配設されている。また、原稿搬送部14は、原稿押さえ板13と一体構造となっており、原稿押さえ板13を開く際、原稿搬送部14も一緒に開閉動作される。   Further, the document transport unit 14 is provided with a white reference plate 20 for shading correction at the end of the document reading table 12 on the SDF unit 15 side. The document transport unit 14 is integrated with the document pressing plate 13, and when the document pressing plate 13 is opened, the document transport unit 14 is also opened and closed together.

再び、図1において、筐体11の内部には、第1走行体21、第2走行体22、レンズ23、CCD(Charge Coupled Device )24及び走行体ステッピングモータ25等からなる走査光学系(画像読取手段)26が配設されており、第1走行体21は、光源21aとミラー21bを、また、第2走行体22は、ミラー22a、22bを、それぞれ搭載している。   In FIG. 1 again, inside the housing 11, a scanning optical system (image) comprising a first traveling body 21, a second traveling body 22, a lens 23, a CCD (Charge Coupled Device) 24, a traveling body stepping motor 25, and the like. Reading means) 26, the first traveling body 21 is mounted with a light source 21a and a mirror 21b, and the second traveling body 22 is mounted with mirrors 22a and 22b.

走査光学系26は、第1走行体21と第2走行体22が走行体ステッピングモータ25により水平方向(副走査方向)に移動させる。走査光学系26は、第1走行体21上の光源21a、例えば、蛍光灯等から原稿読取台12上に載置された原稿Gに光を照射して、該原稿Gで反射された光の反射光を第1走行体21上のミラー21bで第2走行体22方向に反射する。走査光学系26は、第2走行体22上のミラー22a及びミラー22bで第1走行体21から入射される光を順次反射して、レンズ23方向に出射させる。走査光学系26は、レンズ23で、第2走行体22から入射される光をCCD24に集光して照射させる。CCD24は、1次元に複数の光電変換素子として1ライン分のCCD素子が主走査方向にライン状に配列されており、レンズ23から入射される入射光を光電変換して、アナログの画像データ(画像信号)を出力する。また、走査光学系26は、白基準板20に光を照射して、該白基準板20からの反射光を上記同様にCCD24に入射し、CCD24からシェーディング補正用の基準データとして出力する。   The scanning optical system 26 moves the first traveling body 21 and the second traveling body 22 in the horizontal direction (sub-scanning direction) by the traveling body stepping motor 25. The scanning optical system 26 irradiates light from the light source 21 a on the first traveling body 21, for example, a fluorescent lamp, to the original G placed on the original reading table 12, and reflects the light reflected by the original G. The reflected light is reflected in the direction of the second traveling body 22 by the mirror 21 b on the first traveling body 21. The scanning optical system 26 sequentially reflects the light incident from the first traveling body 21 by the mirror 22 a and the mirror 22 b on the second traveling body 22 and emits the light in the direction of the lens 23. The scanning optical system 26 condenses and irradiates the light incident from the second traveling body 22 on the CCD 24 with the lens 23. The CCD 24 has one line of CCD elements arranged in a line in the main scanning direction as a plurality of photoelectric conversion elements in one dimension, and photoelectrically converts incident light incident from the lens 23 to obtain analog image data ( Image signal). Further, the scanning optical system 26 irradiates the white reference plate 20 with light, and the reflected light from the white reference plate 20 enters the CCD 24 in the same manner as described above, and outputs from the CCD 24 as reference data for shading correction.

そして、画像読取部10は、原稿読取モードとして、ブックモードとSDFモードを有している。ブックモードは、図6に示すように、原稿押さえ板13を開いて原稿読取台12上に載置された原稿Gの画像を、第1走行体21と第2走行体22を移動させながら読み取るモードである。SDFモードは、図2に示したように、原稿搬送部14のSDFユニット15を用いて搬送される原稿Gの画像を第1走行体21と第2走行体22を静止させた状態で読み取るモードである。   The image reading unit 10 has a book mode and an SDF mode as document reading modes. In the book mode, as shown in FIG. 6, the image of the document G placed on the document reading table 12 with the document pressing plate 13 opened is read while moving the first traveling body 21 and the second traveling body 22. Mode. In the SDF mode, as shown in FIG. 2, the image of the document G conveyed using the SDF unit 15 of the document conveying unit 14 is read in a state where the first traveling body 21 and the second traveling body 22 are stationary. It is.

画像読取部10は、ブックモードでは、図6に示したように、原稿押さえ板13を開いて原稿読取台12上に原稿Gがセットされると、光源21aを点灯させて、まず、白基準板20の読み取りを行って、シェーディング補正用の基準データを取得する。画像読取部10は、その後、走行体ステッピングモータ25を駆動させて、第1走行体21及び第2走行体22を、原稿GからCCD24までの光路長が一定となる状態で副走査方向に移動して、原稿サイズを検出した後、原稿読取台12上の原稿Gの画像を読み取る。   In the book mode, as shown in FIG. 6, the image reading unit 10 opens the document pressing plate 13 and sets the document G on the document reading table 12. The plate 20 is read to obtain reference data for shading correction. Thereafter, the image reading unit 10 drives the traveling body stepping motor 25 to move the first traveling body 21 and the second traveling body 22 in the sub-scanning direction with the optical path length from the document G to the CCD 24 being constant. Then, after detecting the document size, the image of the document G on the document reading table 12 is read.

また、画像読取部10は、SDFモードでは、図2に示したように、原稿トレイ16上に複数枚の原稿Gがセットされると、まず、光源21aを点灯させて、白基準板20の読み取りを行った後、原稿搬送ステッピングモータ17を駆動させる。画像読取部10は、第1走行体21をSDF窓15dの読取位置まで移動させて停止させる。次に、画像読取部10は、原稿搬送ステッピングモータ17を駆動させて、原稿トレイ16にセットされた原稿Gを分離ローラ18で1枚ずつ分離して、搬送ローラ19で搬送して、CIS15aによって原稿Gの裏面画像を読み取らせる。画像読取部10は、裏面の読み取りを行った原稿Gを第1走行体21の所定の読取位置であるSDF窓15dの位置まで搬送する。画像読取部10は、原稿Gを一定速度で搬送させ、第1走行体21及び第2走行体22を読取位置に停止させた状態で、第1走行体21上の光源21aからSDF窓15dを通して搬送される原稿Gに光を照射させる。画像読取部10は、原稿Gで反射された反射光を、再度、SDF窓15dを通して、ミラー21b及び第2走行体22上のミラー22a、22bで反射させて、レンズ23を通してCCD24に入射させ、CCD24で光電変換して、原稿Gの表面の画像を読み取る。   In the SDF mode, as shown in FIG. 2, when a plurality of documents G are set on the document tray 16, the image reading unit 10 first turns on the light source 21 a and turns on the white reference plate 20. After reading, the document conveying stepping motor 17 is driven. The image reading unit 10 moves the first traveling body 21 to the reading position of the SDF window 15d and stops it. Next, the image reading unit 10 drives the document conveyance stepping motor 17 to separate the documents G set on the document tray 16 one by one by the separation roller 18 and conveys the document G by the conveyance roller 19, and by the CIS 15 a. The back side image of the original G is read. The image reading unit 10 conveys the original G from which the back side has been read to the position of the SDF window 15 d that is a predetermined reading position of the first traveling body 21. The image reading unit 10 conveys the document G at a constant speed and stops the first traveling body 21 and the second traveling body 22 at the reading position from the light source 21a on the first traveling body 21 through the SDF window 15d. Light is applied to the conveyed document G. The image reading unit 10 reflects the reflected light reflected by the original G again through the SDF window 15d by the mirror 21b and the mirrors 22a and 22b on the second traveling body 22, and enters the CCD 24 through the lens 23. Photoelectric conversion is performed by the CCD 24 to read an image on the surface of the original G.

カラー複合装置1は、図7に示すように回路ブロック構成されており、CPU(Central Processing Unit )31、メモリ32、メモリコントローラ33、読取信号処理部34、画像処理部35、書込信号処理部36、LD(Laser Diode:半導体レーザ)37、LD駆動部38、上記CIS15a、上記CCD24、CCD駆動部39、上記光源21a、光源ドライバ40、上記原稿搬送用の原稿搬送ステッピングモータ17、原稿搬送モータドライバ41、上記走行体駆動用の走行体ステッピングモータ25、走行体モータドライバ42、バッファメモリ43及びバッファメモリコントローラ44等を備えている。   The color composite apparatus 1 is configured as a circuit block as shown in FIG. 7, and includes a CPU (Central Processing Unit) 31, a memory 32, a memory controller 33, a read signal processing unit 34, an image processing unit 35, and a write signal processing unit. 36, LD (Laser Diode) 37, LD driving unit 38, CIS 15a, CCD 24, CCD driving unit 39, light source 21a, light source driver 40, document conveying stepping motor 17 for document conveyance, document conveying motor A driver 41, a traveling body stepping motor 25 for driving the traveling body, a traveling body motor driver 42, a buffer memory 43, a buffer memory controller 44, and the like are provided.

メモリ32は、画像読取部10としての基本処理プログラムや本発明の画像処理プログラム等の各種プログラム及びこれらの各種プログラムを実行するのに必要な各種データが格納されている。また、メモリ32は、CPU31のワークメモリとして利用される。   The memory 32 stores various programs such as a basic processing program as the image reading unit 10 and the image processing program of the present invention, and various data necessary for executing these various programs. The memory 32 is used as a work memory for the CPU 31.

CPU31は、メモリ32内のプログラムに基づいて、メモリ32をワークメモリとして利用しつつ、カラー複合装置1の各部を制御して、カラー複合装置1としての処理を実行するとともに、本発明の画像処理方法を実行する。   The CPU 31 uses the memory 32 as a work memory based on a program in the memory 32, controls each part of the color composite device 1 to execute processing as the color composite device 1, and performs image processing of the present invention. Run the method.

上記光源21aは、CPU31の制御下で、光源ドライバ40により点灯・消灯制御され、CCD24は、CPU31の制御下で、CCD駆動部39により駆動されて、光電変換した画像データを読取信号処理部34に出力する。   The light source 21a is controlled to be turned on / off by the light source driver 40 under the control of the CPU 31, and the CCD 24 is driven by the CCD drive unit 39 under the control of the CPU 31 to read the photoelectrically converted image data into the read signal processing unit 34. Output to.

上記原稿搬送ステッピングモータ17は、CPU31の制御下で、原稿搬送モータドライバ41により駆動され、走行体ステッピングモータ25は、CPU31の制御下で、走行体モータドライバ42により駆動される。   The document conveying stepping motor 17 is driven by the document conveying motor driver 41 under the control of the CPU 31, and the traveling body stepping motor 25 is driven by the traveling body motor driver 42 under the control of the CPU 31.

読取信号処理部34は、図8に示すように、アナログビデオ処理部51とシェーディング補正処理部52を備えている。   As shown in FIG. 8, the read signal processing unit 34 includes an analog video processing unit 51 and a shading correction processing unit 52.

アナログビデオ処理部51には、CCD24の出力するアナログのカラー画像信号(アナログの読取データ)が入力される。アナログビデオ処理部51は、アナログのカラー画像信号をデジタル変換してデジタルのカラー画像データ(デジタル読取データ)としてシェーディング補正処理部52に出力する。   An analog color image signal (analog read data) output from the CCD 24 is input to the analog video processing unit 51. The analog video processing unit 51 digitally converts an analog color image signal and outputs the digital color image data to the shading correction processing unit 52 as digital color image data (digital read data).

シェーディング補正処理部52は、白基準板20を読み取った際のカラー画像データを内部RAM等で構成されるラインバッファ52c(図9参照)にシェーディング補正用の基準データとして記憶する。シェーディング補正処理部52は、原稿Gを読み取った際のアナログビデオ処理部51でデジタル変換されたデジタルカラー画像データに対して、該基準データに基づいてシェーディング補正を施す。シェーディング補正処理部52は、シェーディング補正後のデジタルカラー画像データを、バッファメモリコントローラ44を通して、バッファメモリ43に保管させる。   The shading correction processing unit 52 stores the color image data when the white reference plate 20 is read as reference data for shading correction in a line buffer 52c (see FIG. 9) configured by an internal RAM or the like. The shading correction processing unit 52 performs shading correction on the digital color image data digitally converted by the analog video processing unit 51 when the original G is read based on the reference data. The shading correction processing unit 52 stores the digital color image data after the shading correction in the buffer memory 43 through the buffer memory controller 44.

バッファメモリコントローラ44は、バッファメモリ43へのデータの記憶及び読み出しを制御し、バッファメモリ43は、例えば、RAM等が用いられている。   The buffer memory controller 44 controls storage and reading of data to and from the buffer memory 43, and for example, a RAM or the like is used as the buffer memory 43.

バッファメモリコントローラ44は、上記読取信号処理部34からデジタルカラー画像データが入力されるとともに、CIS15aから原稿Gの裏面の画像データが同時に入力され、2ページ分の画像データをバッファメモリ43に格納する。   The buffer memory controller 44 receives the digital color image data from the read signal processing unit 34 and the image data on the back side of the document G from the CIS 15 a at the same time, and stores the image data for two pages in the buffer memory 43. .

バッファメモリコントローラ44は、バッファメモリ43に格納されているCCD24からの原稿Gの表面の画像データとCIS15aからの裏面の画像データを交互に1ページの画像データとして、画像処理部35へ出力する。   The buffer memory controller 44 alternately outputs the image data of the front surface of the document G from the CCD 24 stored in the buffer memory 43 and the image data of the back surface from the CIS 15 a to the image processing unit 35 as one page of image data.

画像処理部35は、バッファメモリコントローラ44から送られてくる1ページの画像データ毎に、各種画像処理を行い、画像処理後の画像データをメモリコントローラ33を介してメモリ32に一旦保管した後、書込信号処理部36へ出力する。   The image processing unit 35 performs various types of image processing for each page of image data sent from the buffer memory controller 44 and temporarily stores the image data after image processing in the memory 32 via the memory controller 33. The data is output to the write signal processing unit 36.

そして、上記読取信号処理部34のアナログビデオ処理部51及びシェーディング補正処理部52は、詳細には、図9に示すようにブロック構成されている。   The analog video processing unit 51 and the shading correction processing unit 52 of the read signal processing unit 34 are configured in detail as shown in FIG.

すなわち、アナログビデオ処理部51は、図9に示すように、プリアンプ回路51a、可変増幅回路51b、A/Dコンバータ51c等を備えている。また、シェーディング補正処理部52は、黒演算回路52a、シェーディング補正演算回路52b及びラインバッファ52c等を備えている。   That is, as shown in FIG. 9, the analog video processing unit 51 includes a preamplifier circuit 51a, a variable amplifier circuit 51b, an A / D converter 51c, and the like. The shading correction processing unit 52 includes a black arithmetic circuit 52a, a shading correction arithmetic circuit 52b, a line buffer 52c, and the like.

画像読取部10は、原稿読取台12上の原稿Gに光源21aから照射した読取光の反射光を、白基準板20を通して、レンズ23によってCCD24に集光して結像する。なお、図9では、説明を簡単化するために、反射光を折り返すためのミラーは省略している。また、白基準板20は、CCD24の中央部と端部での反射光量の差を無くすための光量調整の役割を果たすものである。すなわち、シェーディング演算処理において、CCD24の中央部と端部で反射光量の差がありすぎると、歪を多く含んだ演算結果しか得られないため、白基準板20で、予め反射光量の差を無くした後に、シェーディング演算処理を行う。   The image reading unit 10 focuses the reflected light of the reading light irradiated from the light source 21 a onto the original G on the original reading table 12 through the white reference plate 20 and is focused on the CCD 24 by the lens 23 to form an image. In FIG. 9, a mirror for folding the reflected light is omitted for the sake of simplicity. The white reference plate 20 plays a role of adjusting the amount of light so as to eliminate the difference in the amount of reflected light between the central portion and the end portion of the CCD 24. That is, in the shading calculation process, if there is an excessive difference in the amount of reflected light between the central portion and the end portion of the CCD 24, only a calculation result including a large amount of distortion can be obtained. After that, shading calculation processing is performed.

アナログビデオ処理部51は、CCD24から入力されるアナログのカラー画像信号をプリアンプ回路51aと可変増幅回路51bで増幅して、A/Dコンバータ51cに入力させる。アナログビデオ処理部51は、増幅されたカラー画像信号を、A/D変換部51cで、デジタル変換してデジタルのカラー画像データとしてシェーディング補正処理部52の黒演算回路52aに出力する。   The analog video processing unit 51 amplifies the analog color image signal input from the CCD 24 by the preamplifier circuit 51a and the variable amplifier circuit 51b, and inputs the amplified signal to the A / D converter 51c. The analog video processing unit 51 digitally converts the amplified color image signal by the A / D conversion unit 51c and outputs the digital color image data to the black arithmetic circuit 52a of the shading correction processing unit 52.

黒演算回路52aは、アナログビデオ処理部51からのデジタルカラー画像データに対して、CCD24のチップ間、画素間の黒レベル(光量が少ない場合の電気信号)のばらつきを低減させて、画像の黒部にスジやムラが生じることを防止する。黒演算回路52aは、演算処理したカラー画像データを、シェーディング補正演算回路52bに出力する。シェーディング補正演算回路52bは、ラインバッファ52cの保持している基準データに基づいて、照射系、光学系やCCD24の感度ばらつきを補正するシェーディング補正を施してデジタルカラー画像データをバッファメモリ43に保管する。   The black arithmetic circuit 52a reduces the variation in the black level (electric signal when the amount of light is small) between the chips of the CCD 24 and between the pixels of the digital color image data from the analog video processing unit 51, so that the black portion of the image. To prevent streaks and unevenness. The black arithmetic circuit 52a outputs the color image data subjected to the arithmetic processing to the shading correction arithmetic circuit 52b. The shading correction arithmetic circuit 52b performs shading correction for correcting sensitivity variations of the irradiation system, the optical system, and the CCD 24 based on the reference data held in the line buffer 52c, and stores the digital color image data in the buffer memory 43. .

CPU31は、バッファメモリコントローラ44を介して、バッファメモリ43に保管されたカラー画像データを、画像処理部35に送り、画像処理部35に、メモリ32を使用して、傾き補正及びその他の必要な画像処理を行わせる。   The CPU 31 sends the color image data stored in the buffer memory 43 to the image processing unit 35 via the buffer memory controller 44, and the image processing unit 35 uses the memory 32 to perform tilt correction and other necessary corrections. Perform image processing.

画像処理部35は、CPU31の制御下で、バッファメモリ43からの画像データに対して各種画像処理を施して書込信号処理部36に出力する。特に、画像処理部35は、CPU31の制御下で、原稿傾きを検出して補正する画像処理を実行する。すなわち、CPU31は、メモリ32内の本発明の画像処理プログラムに基づいて、バッファメモリ43に格納されている原稿Gの画像データとフォトセンサ15bの検知結果を利用して、原稿Gの傾きを正確に検出し、また、補正する画像処理を実行する。したがって、CPU31、メモリ32、メモリコントローラ33、画像処理部35は、全体として、画像処理装置50として機能している。    The image processing unit 35 performs various image processing on the image data from the buffer memory 43 under the control of the CPU 31 and outputs the processed image data to the write signal processing unit 36. In particular, the image processing unit 35 executes image processing for detecting and correcting the document inclination under the control of the CPU 31. That is, the CPU 31 uses the image data of the original G stored in the buffer memory 43 and the detection result of the photosensor 15b based on the image processing program of the present invention in the memory 32 to accurately determine the inclination of the original G. The image processing to detect and correct is executed. Accordingly, the CPU 31, the memory 32, the memory controller 33, and the image processing unit 35 function as an image processing device 50 as a whole.

そして、画像処理部35は、 ASIC(Application Specific Integrated Circuit)等で構築されるが、本発明の画像処理プログラムが導入されることで、図10に示すような機能ブロックが構築される。すなわち、画像処理部35は、検知時間差算出部61、副走査距離生成部62、光学式1次原稿傾き算出部63、検出用データ生成部64a、64b、64c、電子式1次原稿傾き算出部65a、65b、65c、2次原稿傾き算出部66及び傾き補正処理部67等が構築される。   The image processing unit 35 is constructed by an ASIC (Application Specific Integrated Circuit) or the like, but a functional block as shown in FIG. 10 is constructed by introducing the image processing program of the present invention. That is, the image processing unit 35 includes a detection time difference calculation unit 61, a sub-scanning distance generation unit 62, an optical primary document inclination calculation unit 63, detection data generation units 64a, 64b, and 64c, and an electronic primary document inclination calculation unit. 65a, 65b, 65c, a secondary document inclination calculation unit 66, an inclination correction processing unit 67, and the like are constructed.

検知時間差算出部61は、2つのフォトセンサ15bから原稿先端の検知信号が入力され、これら2つの検知信号の時間差Δtを算出して、副走査距離生成部62へ出力する。なお、2つのフォトセンサ15bは、それぞれ原稿Gの先端が通過したタイミングで、検知信号をCPU31へ出力し、CPU31が画像処理部15bへ出力する。このフォトセンサ15bは、本実施例では、検知信号をCPU31に出力しているが、直接、画像処理部15bへ出力してもよい。   The detection time difference calculation unit 61 receives the detection signal at the leading edge of the document from the two photosensors 15 b, calculates the time difference Δt between these two detection signals, and outputs it to the sub-scanning distance generation unit 62. The two photosensors 15b each output a detection signal to the CPU 31 at the timing when the leading edge of the document G passes, and the CPU 31 outputs the detection signal to the image processing unit 15b. In this embodiment, the photosensor 15b outputs a detection signal to the CPU 31, but may output it directly to the image processing unit 15b.

フォトセンサ15bからの検知信号は、図4に示した第1検知位置P1と第2検知位置P2それぞれで独立に発生する。いま、図11に示すように、検知時間差算出部61が、周波数20MHzのクロックCLKで動作して、フォトセンサ15bからの検知信号S1、S2の有無を検出し、一方の検知信号S1、S2から他方の検知信号S1、S2までの時間差Δtを算出する。この検知信号S1、S2は、ローアクティブであり、検知信号S1が、第1検知位置P1のフォトセンサ15bからの信号、検知信号S2が、第2検知位置P2のフォトセンサ15bからの信号である。いま、原稿Gの搬送速度Vが、200mm/sであるとする。検知時間差算出部61は、一方の検知信号S1、S2がアサートすると、クロックカウンタによるカウントを開始し、他方の検知信号S1、S2がアサートすると、カウントを停止する。検知時間差算出部61は、いま、カウンタ値が61500であるとすると、次式(1)により、時間差Δtを算出する。   The detection signal from the photosensor 15b is generated independently at each of the first detection position P1 and the second detection position P2 shown in FIG. Now, as shown in FIG. 11, the detection time difference calculation unit 61 operates with a clock CLK having a frequency of 20 MHz, detects the presence or absence of the detection signals S1 and S2 from the photosensor 15b, and from one of the detection signals S1 and S2. A time difference Δt between the other detection signals S1 and S2 is calculated. The detection signals S1 and S2 are low active, the detection signal S1 is a signal from the photosensor 15b at the first detection position P1, and the detection signal S2 is a signal from the photosensor 15b at the second detection position P2. . Now, it is assumed that the conveyance speed V of the original G is 200 mm / s. The detection time difference calculation unit 61 starts counting by the clock counter when one of the detection signals S1 and S2 is asserted, and stops counting when the other detection signals S1 and S2 are asserted. Assuming that the counter value is 61500, the detection time difference calculation unit 61 calculates the time difference Δt according to the following equation (1).

時間差Δt=61500/(20×1000000)=−3.075m秒・・・(1)
なお、式(1)において、マイナス符号が付いているのは、図11において、第1検知位置のフォトセンサ15bが先にアサートし、第2検知位置のフォトセンサ15bが後でアサートしていることに対応している。したがって、第2検知位置のフォトセンサ15bが先にアサートし、第1検知位置のフォトセンサ15bが後でアサートする場合には、時間差Δtの符号は、(+)となる。
Time difference Δt = 61500 / (20 × 1000000) = − 3.075 msec (1)
In FIG. 11, the minus sign is attached in Expression (1). In FIG. 11, the photosensor 15 b at the first detection position is asserted first, and the photosensor 15 b at the second detection position is asserted later. It corresponds to that. Therefore, when the photosensor 15b at the second detection position is asserted first and the photosensor 15b at the first detection position is asserted later, the sign of the time difference Δt is (+).

副走査距離生成部62は、検知時間差算出部61の算出した時間差Δtに基づいて、一方のフォトセンサ15bが検出した原稿Gの先端位置から他方のフォトセンサ15bが検出した原稿Gの先端位置までの距離Δyを、次式(2)により算出する。   Based on the time difference Δt calculated by the detection time difference calculation unit 61, the sub-scanning distance generation unit 62 extends from the leading edge position of the document G detected by one photosensor 15b to the leading edge position of the document G detected by the other photosensor 15b. Is calculated by the following equation (2).

Δy[mm]=V[mm/s]×Δt[s]・・・(2)
いま、図11において、第2検知位置P2を基準として、第1検知位置P1の副走査方向の距離を、式(2)に当てはめると、次式のようにして、距離Δyを算出することができる。
Δy [mm] = V [mm / s] × Δt [s] (2)
In FIG. 11, when the distance in the sub-scanning direction of the first detection position P1 is applied to the expression (2) with the second detection position P2 as a reference, the distance Δy can be calculated as in the following expression. it can.

Δy=V×Δt=200[mm/s]×(−0.003075)=−0.615[mm]
副走査距離生成部62は、算出した距離Δyを、光学式1次原稿傾き算出部63へ出力する。したがって、上記フォトセンサ15b、検知時間差算出部61及び副走査距離生成部62は、全体として、光学式端部検出手段として機能している。
Δy = V × Δt = 200 [mm / s] × (−0.003075) = − 0.615 [mm]
The sub-scanning distance generation unit 62 outputs the calculated distance Δy to the optical primary document inclination calculation unit 63. Therefore, the photosensor 15b, the detection time difference calculation unit 61, and the sub-scanning distance generation unit 62 function as an optical end detection unit as a whole.

光学式1次原稿傾き算出部(光学式傾き抽出手段)63は、副走査距離生成部62の算出した距離Δyに基づいて、原稿Gの傾きd0(以下、適宜、光学式傾きd0という。)を、次式(3)により算出(抽出)する。   The optical primary document inclination calculation unit (optical inclination extraction means) 63 determines the inclination d0 of the original G based on the distance Δy calculated by the sub-scanning distance generation unit 62 (hereinafter referred to as an optical inclination d0 as appropriate). Is calculated (extracted) by the following equation (3).

d0=Δy/Δx・・・(3)
ここで、Δxは、2つのフォトセンサ15b間の距離、すなわち、第1検知位置P1と第2検知位置P2の距離である。この式(3)に、上記例を適用すると、次式のようになって、約−0.352度となる。
d0 = Δy / Δx (3)
Here, Δx is the distance between the two photosensors 15b, that is, the distance between the first detection position P1 and the second detection position P2. When the above example is applied to this equation (3), the following equation is obtained, which is about −0.352 degrees.

d0=−0.615/100=arctan(−0.615/100)=約−0.352度
光学式1次原稿傾き算出部63は、算出した光学式傾きd0を、2次原稿傾き算出部66へ出力する。
d0 = −0.615 / 100 = arctan (−0.615 / 100) = about −0.352 degrees The optical primary document inclination calculation unit 63 uses the calculated optical inclination d0 as the secondary document inclination calculation unit. 66.

一方、検出用データ生成部64a、64b、64cは、CCD24から出力されて読取信号処理部34で処理され、バッファメモリ43に保管されている画像データのうち、傾きを検出するための画像データを所定タイミングに取得する。この傾き検出用の画像データは、必ずしも原稿G全体の画像データである必要はなく、例えば、図12においてハッチング部(CからDの範囲)を施した傾き検出に必要な先端部分のみの画像データでよい。すなわち、バッファメモリ43の先端アドレスから原稿Gの先端部分を所定量含む画像領域の画像データの存在するアドレスまでを検出対象画像領域Grとして、該検出対象画像領域Grの画像データを原稿Gの傾きを検出するための検出対象画像データとする。   On the other hand, the detection data generation units 64 a, 64 b, 64 c output image data for detecting the inclination among the image data output from the CCD 24 and processed by the read signal processing unit 34 and stored in the buffer memory 43. Acquired at a predetermined timing. The image data for tilt detection is not necessarily image data of the entire document G. For example, image data of only the front end portion necessary for tilt detection with hatched portions (range from C to D) in FIG. It's okay. That is, from the leading edge address of the buffer memory 43 to the address where the image data of the image area including a predetermined amount of the leading edge portion of the document G is set as the detection target image region Gr, the image data of the detection target image region Gr is inclined to the document G It is set as detection target image data for detecting.

検出用データ生成部64a、64b、64cは、検出対象画像データに適宜の画像処理を施して、それぞれ後続の電子式1次原稿傾き算出部65a、65b、65cが原稿Gの傾きを算出するのに用いる種類のデータを生成する。したがって、検出用データ生成部64a、64b、64cは、電子式端部検出手段として機能している。   The detection data generation units 64a, 64b, and 64c perform appropriate image processing on the detection target image data, and the subsequent electronic primary document inclination calculation units 65a, 65b, and 65c calculate the inclination of the document G, respectively. Generate the type of data used for. Therefore, the detection data generation units 64a, 64b, and 64c function as electronic end detection means.

なお、電子式1次原稿傾き算出部65a、65b、65cは、画像処理した画像データを用いて原稿Gの先端を正確に検出することのできる種類のデータであれば、適宜の種類のデータを用いることができる。本実施例では、電子式1次原稿傾き算出部65aが、エッジ検出データ、電子式1次原稿傾き算出部65bが、輝度データ、電子式1次原稿傾き算出部65cが、色差データを、それぞれ用いて原稿傾きを算出するものとして説明する。   The electronic primary document inclination calculation units 65a, 65b, and 65c may use appropriate types of data as long as the types of data can accurately detect the leading edge of the document G using image data that has undergone image processing. Can be used. In this embodiment, the electronic primary document inclination calculation unit 65a receives edge detection data, the electronic primary document inclination calculation unit 65b brightness data, and the electronic primary document inclination calculation unit 65c outputs color difference data. In the following description, it is assumed that the document inclination is calculated.

そこで、電子式1次原稿傾き算出部65aに対応する検出用データ生成部64aは、バッファメモリ43から取得したR(レッド)、G(グリーン)、B(ブルー)の画像データから既知の変換方式に基づいて、まず、Labデータ(輝度データ)を生成する。このLabデータ(輝度データ)は、L(明度:lightness)、a(規格に基づく色の領域:aが+であると赤、−であると補色の緑)、b(規格に基づく色の領域:bが+であると黄色、−であると補色の青)で示される。なお、輝度データは、Labデータに限るものではなく、グレー情報であってもよく、色変換されたLデータである。   Therefore, the detection data generation unit 64a corresponding to the electronic primary document inclination calculation unit 65a uses a known conversion method from R (red), G (green), and B (blue) image data acquired from the buffer memory 43. First, Lab data (luminance data) is generated. The Lab data (luminance data) includes L (brightness: lightness), a (color area based on the standard: red if a is +, and green complementary color if a is-), b (color area based on the standard). : b is yellow when it is +, and complementary blue when it is-. The luminance data is not limited to Lab data, but may be gray information, and is L data that has undergone color conversion.

検出用データ生成部64aは、輝度データに対して、例えば、ソーベルフィルタ等のエッジ抽出フィルタでフィルタ処理することで、原稿端であるエッジ部を抽出し、エッジ抽出データを、エッジ検出閾値を用いて、エッジ検出データを生成する。   The detection data generation unit 64a filters the luminance data with, for example, an edge extraction filter such as a Sobel filter, thereby extracting the edge portion that is the document edge, and using the edge extraction data as the edge detection threshold value. To generate edge detection data.

すなわち、検出用データ生成部64aは、図13に示すように、原稿を読み取った読取画像データ(スキャン画像)のうち、輝度データは、図13(a)に示すように、上記検出位置A(P1)と検出位置B(P2)における副走査方向においてデータ変化する。ここで、図13に示す対向板領域とは、白板15cを読み取っている領域である。白板15cは、通常、白色に施されているが、浮游ゴミや汚れ等によって読取画像データに小さいデータ変化として現れる。そして、検出用データ生成部64aは、検出位置A及び検出位置Bに対応する画像データから生成した輝度データの変化を調べて、図13(b)に示すように、原稿端部の影の部分をエッジ成分として抽出する。検出用データ生成部64aは、例えば、このエッジ検出を、ソーベルフィルタ等のエッジ抽出フィルタ処理を行うことで、エッジ検出を行ない、そのデータに対して2値化処理してエッジ抽出結果とする。さらに、検出用データ生成部64aは、2値化処理後のエッジ抽出結果を、所定の閾値(例えば、「80」)と比較して、図13(c)に示すように、閾値(「80」)以下の部分をエッジ部分とし、「0」から「80」に変化するところの変化点を原稿端と判定する。検出用データ生成部64aは、判定結果を、エッジ検出結果信号(「0」から「255」に変化する信号)として、電子式1次原稿傾き算出部65aへ出力する。例えば、検出用データ生成部64aは、検出位置Aと検出位置Bのそれぞれにおいて、画像の先頭からエッジ変化点までのライン数を、検出位置Aの原稿端部y1を、y1=100ライン目、検出位置Bの原稿端部y2を、y2=116ライン目としてカウントし、カウント結果を、原稿端部位置として電子式1次原稿傾き算出部65aへ出力する。   That is, as shown in FIG. 13, the detection data generation unit 64a includes luminance data in the detected position A (shown in FIG. 13A) in the read image data (scanned image) obtained by reading the document. Data changes in the sub-scanning direction at P1) and detection position B (P2). Here, the counter plate region shown in FIG. 13 is a region where the white plate 15c is read. The white plate 15c is usually white, but appears as a small data change in the read image data due to floating dust or dirt. Then, the detection data generation unit 64a checks changes in luminance data generated from the image data corresponding to the detection position A and the detection position B, and as shown in FIG. Are extracted as edge components. For example, the detection data generation unit 64a performs edge detection by performing edge extraction filter processing such as a Sobel filter, and performs binarization processing on the data to obtain an edge extraction result. . Further, the detection data generation unit 64a compares the edge extraction result after the binarization processing with a predetermined threshold (for example, “80”), and as shown in FIG. ]) The following part is defined as an edge part, and a change point where “0” is changed to “80” is determined as the document edge. The detection data generation unit 64a outputs the determination result to the electronic primary document inclination calculation unit 65a as an edge detection result signal (a signal that changes from “0” to “255”). For example, the detection data generation unit 64a determines the number of lines from the head of the image to the edge change point at each of the detection position A and the detection position B, the document end y1 at the detection position A, y1 = 100th line, The document end y2 at the detection position B is counted as y2 = 116th line, and the count result is output to the electronic primary document inclination calculation unit 65a as the document end position.

そして、電子式1次原稿傾き算出部65aは、検出用データ生成部64aからの検出位置Aと検出位置Bにおける原稿端部位置y1、y2及び(検出位置A−B間の画素数ABs)から次式(1)により第1原稿傾きd1を算出する。   Then, the electronic primary document inclination calculation unit 65a is based on the detection position A from the detection data generation unit 64a and the document end positions y1 and y2 at the detection position B and (the number of pixels ABs between the detection positions A and B). The first document inclination d1 is calculated by the following equation (1).

いま、y1=100、y2=116、ABs=2362(100mm)とすると、次式(4)より、第1原稿傾きd1は、約0.39度となる。なお、本実施例では、読取解像度は、主走査方向及び副走査方向共に、600dpiとする。   Assuming that y1 = 100, y2 = 116, and ABs = 2362 (100 mm), the first document inclination d1 is about 0.39 degrees according to the following equation (4). In this embodiment, the reading resolution is 600 dpi in both the main scanning direction and the sub-scanning direction.

第1原稿傾きd1=(y1−y2)/ABs
=(100−116)/2362=約0.39度・・・(4)
電子式1次原稿傾き算出部65aは、算出した第1原稿傾きd1を2次原稿傾き算出部66へ出力する。
First document inclination d1 = (y1-y2) / ABs
= (100-116) / 2362 = about 0.39 degrees (4)
The electronic primary document inclination calculation unit 65a outputs the calculated first document inclination d1 to the secondary document inclination calculation unit 66.

次に、電子式1次原稿傾き補正部65bに対応する検出用データ生成部64bは、バッファメモリ43から取得したRGBの画像データから既知の変換方式に基づいて、まず、Labデータ(輝度データ)を生成する。この輝度データは、上記同様に、RGBの画像データに対して既知の変換方式で生成されるLabデータまたはグレー情報に色変換されたLデータである。   Next, the detection data generation unit 64b corresponding to the electronic primary document inclination correction unit 65b first performs Lab data (luminance data) based on a known conversion method from the RGB image data acquired from the buffer memory 43. Is generated. As described above, the luminance data is Lab data generated by a known conversion method for RGB image data or L data that has been color-converted into gray information.

検出用データ生成部64bは、生成した輝度データから輝度差を求めて、読取画像データの端部位置、特に、上端2箇所の検知位置P1、P2における端部位置を検出する。   The detection data generation unit 64b obtains a luminance difference from the generated luminance data, and detects end positions of the read image data, in particular, end positions at the detection positions P1 and P2 at the two upper ends.

具体的には、検出用データ生成部64bは、輝度データに基づいて、図14に示すように、画像データにおける原稿端部位置を検出する。すなわち、原稿を読み取った画像データから生成された輝度データは、図14(a)に示すように、上記検出位置A(P1)と検出位置B(P2)における副走査方向においてデータ変化する。検出用データ生成部64bは、原稿部分が読み取られる前の対向板である白板15cの輝度データと、原稿地肌部の輝度データの変化点を、原稿端部として検出する。カラー複合装置1は、検出用データ生成部64bにおける輝度差算出の基準となる白板15cの輝度を、工場出荷時等のゴミや汚れが付着していない状態でスキャンしたデータを、例えば、平均した値(平均値)から生成し、予め基準輝度として保管している。いま、図14(a)では、対向板である白板15cの輝度が、「253」としている。検出用データ生成部64bは、原稿領域の輝度については、後述する変化点以降の画素データを平均して算出する。   Specifically, the detection data generation unit 64b detects the document edge position in the image data as shown in FIG. 14 based on the luminance data. That is, luminance data generated from image data obtained by reading a document changes in the sub-scanning direction at the detection position A (P1) and the detection position B (P2) as shown in FIG. The detection data generation unit 64b detects the luminance data of the white plate 15c, which is a counter plate before the document portion is read, and the change point of the luminance data of the document background portion as the document edge. The color composite apparatus 1 averages, for example, data obtained by scanning the brightness of the white plate 15c, which is a reference for calculating the brightness difference in the detection data generation unit 64b, in a state in which no dust or dirt adheres at the time of factory shipment. It is generated from the value (average value) and stored in advance as a reference luminance. In FIG. 14A, the brightness of the white plate 15c, which is the opposing plate, is “253”. The detection data generation unit 64b calculates the luminance of the document area by averaging pixel data after a change point described later.

ここで、原稿領域部の輝度は、図14(a)の場合、検出位置Aで、「210」、検出位置Bで、「205」である。そして、検出用データ生成部64bは、変化点を、画像データの輝度情報を、変化点検出閾値(本実施例では、「230」としている。)で、2値化処理することで求める。   Here, the luminance of the document area is “210” at the detection position A and “205” at the detection position B in the case of FIG. Then, the detection data generation unit 64b obtains the change point by binarizing the luminance information of the image data with the change point detection threshold (“230” in this embodiment).

すなわち、検出用データ生成部64bは、図14(b)に示すように、上記2値化後の「0」から「255」に変化する変化点を原稿端として検出して変化点検出結果とする。図14(b)の場合、検出用データ生成部64bは、検出位置Aについては、y1=105ライン目、検出位置Bについては、y2=120ライン目を変化点としてとして検出して、変化点検出結果を電子式1次原稿傾き算出部65bへ出力する。   That is, as shown in FIG. 14B, the detection data generation unit 64b detects a change point that changes from “0” to “255” after binarization as a document edge, and displays the change point detection result. To do. In the case of FIG. 14B, the detection data generation unit 64b detects the detection position A as the change point at y1 = 105th line and the detection position B as the change point y2 = 120, and checks the change. The output result is output to the electronic primary document inclination calculation unit 65b.

電子式1次原稿傾き算出部65bは、第2原稿傾きd2を、検出用データ生成部64bの検出した検出位置Aと検出位置Bにおける原稿端部位置y1、y2及び(検出位置A−B間の画素数ABs)から次式(5)により算出する。いま、y1=105、y2=120、ABs=2362とすると、次式(5)より、第2原稿傾きd2は、約0.36度となる。   The electronic primary document inclination calculation unit 65b determines the second document inclination d2 from the detection position A detected by the detection data generation unit 64b and the document end positions y1 and y2 at the detection position B (between the detection positions A and B). The number of pixels (ABs) is calculated by the following equation (5). Assuming that y1 = 105, y2 = 120, and ABs = 2362, the second document inclination d2 is about 0.36 degrees from the following equation (5).

第2原稿傾きd2=(y1−y2)/ABs
=(105−120)/2362=約0.36度・・・(5)
電子式1次原稿傾き算出部65bは、算出した第2原稿傾きd2を、2次原稿傾き算出部66へ出力する。
Second document inclination d2 = (y1-y2) / ABs
= (105-120) / 2362 = about 0.36 degrees (5)
The electronic primary document inclination calculation unit 65 b outputs the calculated second document inclination d 2 to the secondary document inclination calculation unit 66.

そして、検出用データ生成部64cは、バッファメモリ43から取得したRGBの画像データをLab空間に変換したLabデータを生成し、Labデータを用いて色差データを生成する。検出用データ生成部64cは、生成した色差データに基づいて、画像データの端部位置、特に、上端2箇所の位置(検出位置A(P1)と検出位置B(P2))を検出し、原稿端部位置を検出する。   The detection data generation unit 64c generates Lab data obtained by converting the RGB image data acquired from the buffer memory 43 into Lab space, and generates color difference data using the Lab data. Based on the generated color difference data, the detection data generation unit 64c detects the end positions of the image data, particularly the positions of the two upper ends (detection position A (P1) and detection position B (P2)), and the document. The end position is detected.

すなわち、検出用データ生成部64cは、上述のように、画像データのRGBをLabに色変換して色差データを生成するが、この色差データは、検出位置A(P1)の色差データと検出位置B(P2)色差データの変換点は、図15のように示される。   That is, as described above, the detection data generation unit 64c generates color difference data by converting RGB of the image data into Lab, and the color difference data includes the color difference data at the detection position A (P1) and the detection position. The conversion point of B (P2) color difference data is shown as in FIG.

検出用データ生成部64cは、生成した色差データに基づいて、図15に示すように、読取画像データにおける原稿端部位置を検出する。すなわち、原稿を読み取った画像データのうち、検出用データ生成部64cで生成された色差データは、図15(a)に示すように、上記検出位置Aと検出位置Bにおける副走査方向においてデータ変化する。検出用データ生成部64cは、原稿部分が読み取られる前の対向版である白板15cの色差データと、原稿地肌部の色差データの変化点を、原稿端部として検出する。カラー複合装置1は、検出用データ生成部64cにおける色差算出の基準となる白板15cの色情報を、工場出荷時等のゴミや汚れが付着していない状態でスキャンしたデータ、例えば、平均した値(平均値)から生成し、予め基準色情報として保管している。いま、図15(a)では、対向板(白板15c)の色情報(RGBをLabに変換したデータ)が、L=92、a=2、b=−12である。また、検出用データ生成部64cは、原稿領域の色情報を、変化点以降の画素データを平均して算出する。   Based on the generated color difference data, the detection data generation unit 64c detects the document edge position in the read image data as shown in FIG. That is, among the image data obtained by reading the original, the color difference data generated by the detection data generation unit 64c is changed in the sub-scanning direction at the detection position A and the detection position B as shown in FIG. To do. The detection data generation unit 64c detects the color difference data of the white plate 15c, which is the opposite plate before the document portion is read, and the change point of the color difference data of the document background portion as the document edge. The color composite apparatus 1 scans the color information of the white plate 15c, which is a reference for calculating the color difference in the detection data generation unit 64c, in a state where dust and dirt are not attached at the time of factory shipment, for example, an average value (Average value) is generated and stored in advance as reference color information. In FIG. 15A, the color information (data obtained by converting RGB into Lab) of the counter plate (white plate 15c) is L = 92, a = 2, and b = -12. The detection data generation unit 64c calculates the color information of the document area by averaging the pixel data after the change point.

いま、検出用データ生成部64cは、検出位置A(P1)の色情報を、L=88、a=−1、b=3としたとき、検出位置Aの原稿領域部の色差ΔEaを、色差ΔEの算出式である次式(6)に適用して、「15」と算出する。   Now, when the color information at the detection position A (P1) is L = 88, a = −1, and b = 3, the detection data generation unit 64c determines the color difference ΔEa of the document area at the detection position A as the color difference. Applying to the following formula (6) which is a calculation formula of ΔE, “15” is calculated.

Figure 0006447006
また、検出用データ生成部64cは、検出位置Bの色情報を、L=87、a=−2、b=3としたとき、検出位置Bの原稿領域部の色差ΔEbを、式(6)を適用して、「16」と算出する。
Figure 0006447006
Further, the detection data generation unit 64c calculates the color difference ΔEb of the document area portion at the detection position B using the equation (6) when the color information at the detection position B is L = 87, a = −2, and b = 3. Is applied to calculate “16”.

Figure 0006447006
そして、検出用データ生成部64cは、画像データの色情報を、変化点検出閾値(本実施例では、「10」としている。)で、2値化処理することで、変化点を求める。
Figure 0006447006
Then, the detection data generation unit 64c obtains a change point by binarizing the color information of the image data with a change point detection threshold (in this embodiment, “10”).

すなわち、検出用データ生成部64cは、図15(b)に示すように、上記2値化後の「0」から「255」に変化する変化点を、検出位置A、検出位置Bにおける原稿端部位置y1、y2として検出して、電子式1次原稿傾き算出部65cへ出力する。   That is, as shown in FIG. 15B, the detection data generating unit 64c uses the binarized “0” to “255” as the change point at the detection position A and the detection position B. Detected as the part positions y1 and y2, and outputs them to the electronic primary document inclination calculator 65c.

電子式1次原稿傾き算出部65cは、第3原稿傾きd3を、検出用データ生成部64cの検出した検出位置Aと検出位置Bにおける原稿端部位置y1、y2及び(検出位置A−B間の画素数ABs)から次式(7)により算出する。いま、y1=111、y2=125、ABs=2362(100mm)とすると、次式(7)より、第3原稿傾きd3は、約0.34度となる。   The electronic primary document inclination calculation unit 65c calculates the third document inclination d3 by using the detection position A detected by the detection data generation unit 64c and the document end positions y1 and y2 at the detection position B (between the detection positions A and B). (The number of pixels ABs) is calculated by the following equation (7). If y1 = 111, y2 = 125, and ABs = 2362 (100 mm), the third document inclination d3 is about 0.34 degrees according to the following equation (7).

第3原稿傾きd3=(y1−y2)/ABs・・・(7)
d3=(111−125)/2362=約0.34度
電子式1次原稿傾き算出部65cは、算出した第3原稿傾きd3を、2次原稿傾き算出部66へ出力する。
Third document inclination d3 = (y1-y2) / ABs (7)
d3 = (111-125) / 2362 = about 0.34 degrees The electronic primary document inclination calculation unit 65c outputs the calculated third document inclination d3 to the secondary document inclination calculation unit 66.

したがって、電子式1次原稿傾き算出部65a、65b、65cは、電子式傾き抽出手段として機能している。   Therefore, the electronic primary document inclination calculation units 65a, 65b, and 65c function as electronic inclination extraction means.

2次原稿傾き算出部66は、3つの電子式1次原稿傾き算出部64a、64b、64cの算出した原稿傾きd1、d2、d3のうち、フォトセンサ15bの検出結果から光学式1次原稿傾き算出部63が算出した原稿傾きd0から大きく離れていない原稿傾きd1、d2、d3を抽出する。2次原稿傾き算出部66は、抽出した原稿傾きd1、d2、d3に基づいて、最終的な原稿傾きを算出して、算出した最終原稿傾きを傾き補正処理部67へ出力する。したがって、2次原稿傾き算出部66は、最終傾き抽出手段として機能している。   The secondary document inclination calculation unit 66 calculates the optical primary document inclination from the detection results of the photosensor 15b among the document inclinations d1, d2, and d3 calculated by the three electronic primary document inclination calculation units 64a, 64b, and 64c. Document inclinations d1, d2, and d3 that are not far from the document inclination d0 calculated by the calculation unit 63 are extracted. The secondary document inclination calculation unit 66 calculates a final document inclination based on the extracted document inclinations d1, d2, and d3, and outputs the calculated final document inclination to the inclination correction processing unit 67. Therefore, the secondary document inclination calculation unit 66 functions as final inclination extraction means.

傾き補正処理部67は、2次原稿傾き算出部66の算出した最終原稿傾きに基づいて、原稿G、すなわち、画像データの傾きを補正する。傾き補正処理部67は、この画像データの傾き補正を、例えば、画像データに対して既知のアフィン変換処理を施すことで実行する。   The inclination correction processing unit 67 corrects the inclination of the original G, that is, the image data, based on the final original inclination calculated by the secondary original inclination calculating unit 66. The inclination correction processing unit 67 executes the inclination correction of the image data by performing a known affine transformation process on the image data, for example.

なお、上記説明においては、カラー複合装置1は、電子式原稿傾きを算出するのに、原稿Gの表面画像を読み取るCCD24からの画像データを用いているが、原稿Gに裏面画像がある場合には、裏面画像を読み取るCIS15aからの画像データを用いてもよい。また、カラー複合装置1は、CCD24とCIS15aの双方、または、いずれか一方を用いて、原稿傾きを算出してもよい。   In the above description, the color multifunction apparatus 1 uses the image data from the CCD 24 that reads the front image of the original G to calculate the electronic original inclination. May use image data from the CIS 15a that reads the back image. In addition, the color multifunction apparatus 1 may calculate the document inclination using both or either of the CCD 24 and the CIS 15a.

また、CIS15aからの画像データは、CCD24からの画像データに対して読取信号処理部34で行う処理と同等の処理がすでに行われている画像データである。したがって、カラー複合装置1は、CIS15aからの画像データに対しては、アナログビデオ処理やシェーディング補正処理を行うことなく、バッファメモリ43へ入力している。   The image data from the CIS 15a is image data that has already undergone processing equivalent to the processing performed by the read signal processing unit 34 on the image data from the CCD 24. Therefore, the color multifunction apparatus 1 inputs the image data from the CIS 15a to the buffer memory 43 without performing analog video processing or shading correction processing.

そして、カラー複合装置1は、ROM、EEPROM(Electrically Erasable and Programmable Read Only Memory )、EPROM、フラッシュメモリ、フレキシブルディスク、CD−ROM(Compact Disc Read Only Memory )、CD−RW(Compact Disc Rewritable )、DVD(Digital Versatile Disk)、USB(Universal Serial Bus)メモリ、SD(Secure Digital)カード、MO(Magneto-Optical Disc)等のコンピュータが読み取り可能な記録媒体に記録されている本発明の原稿傾きを正確に判定する画像処理方法を実行する画像処理プログラムを読み込んでメモリ32等に導入することで、後述する原稿傾きを正確に判定する画像処理方法を実行する画像読取部(画像読取装置)10を備えた画像処理装置として構築されている。この情報識別プログラムは、アセンブラ、C、C++、C#、Java(登録商標)等のレガシープログラミング言語やオブジェクト指向プログラミング言語等で記述されたコンピュータ実行可能なプログラムであり、上記記録媒体に格納して頒布することができる。   The color composite apparatus 1 includes a ROM, an EEPROM (Electrically Erasable and Programmable Read Only Memory), an EPROM, a flash memory, a flexible disk, a CD-ROM (Compact Disc Read Only Memory), a CD-RW (Compact Disc Rewritable), and a DVD. The document inclination of the present invention recorded on a computer-readable recording medium such as (Digital Versatile Disk), USB (Universal Serial Bus) memory, SD (Secure Digital) card, MO (Magneto-Optical Disc) or the like is accurately determined. An image reading unit (image reading device) 10 for executing an image processing method for accurately determining a document inclination, which will be described later, is provided by reading an image processing program for executing an image processing method for determination and introducing it into the memory 32 or the like. It is constructed as an image processing device. This information identification program is a computer-executable program written in a legacy programming language such as assembler, C, C ++, C #, Java (registered trademark) or an object-oriented programming language, and is stored in the recording medium. Can be distributed.

次に、本実施例の作用を説明する。本実施例のカラー複合装置1は、原稿傾きを正確に判定する。   Next, the operation of this embodiment will be described. The color composite apparatus 1 of this embodiment accurately determines the document inclination.

カラー複合装置1は、画像読取部10において、図16(a)に示すように、原稿Gが、スキャン方向に対して、ある傾きを持ってスキャンされた(読み取られた)ものとする。カラー複合装置1は、画像読取部10で、スキャン方向に対して所定の傾きを有する状態で読み取られた原稿Gの画像データを、適宜に画像処理してバッファメモリコントローラ44の制御下で、バッファメモリ43に、ページ毎に蓄積する。   In the color composite apparatus 1, it is assumed that the document G is scanned (read) with a certain inclination with respect to the scanning direction, as shown in FIG. The color multifunction apparatus 1 appropriately processes the image data of the document G read by the image reading unit 10 with a predetermined inclination with respect to the scanning direction, and performs buffer processing under the control of the buffer memory controller 44. The data is stored in the memory 43 for each page.

カラー複合装置1は、読み取った画像データが傾きを有しているため、図16(b)に示すように、バッファメモリ43に対して、画像データの画像領域である原稿領域Grよりも大きな蓄積画像領域Arに該原稿領域Grで示す画像データを蓄積することとなる。   Since the read image data has a tilt, the color composite apparatus 1 stores larger data in the buffer memory 43 than the document area Gr, which is the image area of the image data, as shown in FIG. The image data indicated by the document area Gr is stored in the image area Ar.

カラー複合装置1は、この蓄積画像領域Arに蓄積された画像データ(原稿領域Gr)の傾きを検出し、図16(c)に示すように、検出した傾きに基づいて画像データ(原稿領域Gr)を、蓄積画像領域Arに対して補正する。   The color composite apparatus 1 detects the inclination of the image data (original area Gr) accumulated in the accumulated image area Ar, and as shown in FIG. 16C, the image data (original area Gr) is detected based on the detected inclination. ) Is corrected for the accumulated image area Ar.

カラー複合装置1は、図16(d)に示すように、蓄積画像領域Arの原稿領域Grの画像データを切り出して、印刷出力や転送出力等の出力を行う。   As shown in FIG. 16D, the color multifunction apparatus 1 cuts out the image data of the document area Gr in the accumulated image area Ar and performs output such as print output and transfer output.

そして、カラー複合装置1は、画像データの傾きをより一層正確に検出するために、図17に示すように、フォトセンサ15cによる原稿先端部の検出結果をも利用して、画像データに対する複数種類の画像処理から原稿傾きを検出する。   Then, in order to detect the inclination of the image data more accurately, the color composite apparatus 1 also uses a result of detecting the leading edge of the document by the photosensor 15c as shown in FIG. The document inclination is detected from the image processing.

すなわち、カラー複合装置1は、SDFユニット15の原稿トレイ16上に原稿Gがセットされて読み取りの開始が指示操作されると、SDFユニット15により原稿Gを搬送して、原稿Gのスキャンを行う(ステップS101)。   In other words, when the original G is set on the original tray 16 of the SDF unit 15 and the start of reading is instructed, the color composite apparatus 1 transports the original G by the SDF unit 15 and scans the original G. (Step S101).

カラー複合装置1は、原稿スキャンを開始すると、検知時間差算出部61が、1対のフォトセンサ15bが検出した原稿Gの先端の検知信号S1、S2に基づいて、上述のように検知時間差Δtを算出する検知時間差算出処理を行う(ステップS102)。   When the color multifunction apparatus 1 starts scanning the document, the detection time difference calculation unit 61 sets the detection time difference Δt as described above based on the detection signals S1 and S2 at the leading edge of the document G detected by the pair of photosensors 15b. A detection time difference calculation process is performed (step S102).

一方、カラー複合装置1は、CCD24が読み取った原稿Gの画像データを、読取信号処理部34で必要な画像処理を施した後、バッファメモリ43に蓄積する(ステップS103)。   On the other hand, the color composite apparatus 1 stores the image data of the original G read by the CCD 24 in the buffer memory 43 after performing the necessary image processing by the read signal processing unit 34 (step S103).

カラー複合装置1は、副走査距離生成部62が、時間差Δtから、一方のフォトセンサ15bが検出した原稿Gの先端位置から他方のフォトセンサ15bが検出した原稿Gの先端位置までの距離Δyを算出する副走査距離生成処理を行う(ステップS104)。   In the color composite apparatus 1, the sub-scanning distance generation unit 62 calculates the distance Δy from the time difference Δt to the leading edge position of the document G detected by the other photosensor 15b from the leading edge position of the document G detected by the one photosensor 15b. A sub-scanning distance generation process to be calculated is performed (step S104).

カラー複合装置1は、バッファメモリ43に蓄積した画像データを、検出用データ生成部64a、64b、64cが、それぞれ読み出す。各検出用データ生成部64a、64b、64cは、それぞれ、エッジ検出データ、輝度データ及び色差データに基づいて、原稿端部位置y1、y2をそれぞれ算出する(ステップS105a、S105b、S105c)。   In the color composite apparatus 1, the detection data generation units 64a, 64b, and 64c read the image data stored in the buffer memory 43, respectively. Each of the detection data generation units 64a, 64b, and 64c calculates the document edge positions y1 and y2 based on the edge detection data, luminance data, and color difference data, respectively (steps S105a, S105b, and S105c).

カラー複合装置1は、光学式1次原稿傾き算出部63が、副走査距離生成処理で求められた距離Δyに基づいて、原稿Gの光学式傾きd0を、上述のように算出する光学式1次原稿傾き算出処理を行う(ステップS106)。   In the color composite apparatus 1, the optical primary document inclination calculation unit 63 calculates the optical inclination d0 of the original G as described above based on the distance Δy obtained in the sub-scanning distance generation process. Next document skew calculation processing is performed (step S106).

さらに、カラー複合装置1は、電子式1次原稿傾き算出部65a、65b、65cが、対応する検出用データ生成部64a、64b、64cが算出した原稿端部位置y1、y2及び検出位置間の画素数ABsに基づいて、それぞれ電子式第1原稿傾きd1、d2、d3を算出する(ステップS107a、107b、107c)。   Further, the color composite apparatus 1 includes an electronic primary document inclination calculation unit 65a, 65b, 65c between the document edge positions y1, y2 and the detection positions calculated by the corresponding detection data generation units 64a, 64b, 64c. Based on the number of pixels ABs, electronic first document inclinations d1, d2, and d3 are respectively calculated (steps S107a, 107b, and 107c).

次に、カラー複合装置1は、2次原稿傾き算出部66が、電子式1次原稿傾き算出部64a、64b、64cの算出した原稿傾きd1、d2、d3のうち、フォトセンサ15bの検出結果から光学式1次原稿傾き算出部63が算出した原稿傾きd0から大きく離れていない原稿傾きd1、d2、d3を抽出する。2次原稿傾き算出部66は、抽出した原稿傾きd1、d2、d3に基づいて、最終的な原稿傾きを算出する2次原稿傾き算出処理を行う(ステップS108)。   Next, in the color composite apparatus 1, the detection result of the photosensor 15b is detected by the secondary document inclination calculation unit 66 among the document inclinations d1, d2, and d3 calculated by the electronic primary document inclination calculation units 64a, 64b, and 64c. Are extracted from the document inclinations d1, d2, and d3 that are not significantly different from the document inclination d0 calculated by the optical primary document inclination calculation unit 63. The secondary document inclination calculation unit 66 performs a secondary document inclination calculation process for calculating a final document inclination based on the extracted document inclinations d1, d2, and d3 (step S108).

カラー複合装置1は、傾き補正処理部67が、最終原稿傾きに基づいて、原稿G、すなわち、画像データの傾きを補正する傾き補正処理を行って、原稿傾き検出処理を終了する(ステップS109)。   In the color multifunction apparatus 1, the inclination correction processing unit 67 performs an inclination correction process for correcting the inclination of the original G, that is, the image data, based on the final original inclination, and the original inclination detection process ends (step S109). .

そして、カラー複合装置1は、2次原稿傾き算出部66による2次原稿傾き算出処理を、図18に示すように実行する。2次原稿傾き算出部66は、まず、計算フラグであるSumとCntを、初期化(Sum=0、Cnt=0)する(ステップS201)。なお、ここで、Sumは、傾きの総和を計算するための傾き総和を示す変数であり、Cntは、カウンタである。   Then, the color composite apparatus 1 executes the secondary document inclination calculation processing by the secondary document inclination calculation unit 66 as shown in FIG. The secondary document skew calculation unit 66 first initializes Sum and Cnt, which are calculation flags (Sum = 0, Cnt = 0) (step S201). Here, Sum is a variable indicating the sum of the slopes for calculating the sum of the slopes, and Cnt is a counter.

次に、2次原稿傾き算出部66は、原稿傾きd1が、光学式傾きd0に、予め設定されている判定閾値αを加減算した値を判定条件(d0−α<d1<d0+α)として、該判定条件を満たしているかチェックする(ステップS202)。この判定閾値αは、処理対象の原稿傾きを、平均値算出に利用するか否かを判断するための閾値であり、例えば、α=0.02/100が設定されている。したがって、2次原稿傾き算出部66は、原稿傾きd1が、判定条件であるd0−0.02/100<d1<d0+0.02/100を満たしているか判定する。   Next, the secondary document inclination calculation unit 66 uses the value obtained by adding or subtracting the preset determination threshold value α to the optical inclination d0 as the determination condition (d0−α <d1 <d0 + α). It is checked whether the determination condition is satisfied (step S202). This determination threshold value α is a threshold value for determining whether or not the document inclination to be processed is used for calculating the average value. For example, α = 0.02 / 100 is set. Therefore, the secondary document inclination calculation unit 66 determines whether the document inclination d1 satisfies the determination condition d0−0.02 / 100 <d1 <d0 + 0.02 / 100.

ステップS202で、原稿傾きd1が、上記判定条件を満たしていると(ステップS202で、YESのとき)、2次原稿傾き算出部66は、傾き総和Sumに、原稿傾きd1を加算し、加算数を示すカウンタCntを「1」だけインクリメント(+1)する(ステップS203)。   If the document inclination d1 satisfies the determination condition in step S202 (YES in step S202), the secondary document inclination calculation unit 66 adds the document inclination d1 to the total inclination Sum, and the number of additions Is incremented (+1) by “1” (step S203).

次に、2次原稿傾き算出部66は、原稿傾きd2が、判定条件(d0−α<d2<d0+α)を満たしているかチェックする(ステップS204)。   Next, the secondary document skew calculation unit 66 checks whether the document skew d2 satisfies the determination condition (d0−α <d2 <d0 + α) (step S204).

また、ステップS202で、原稿傾きd1が判定条件を満たしていないと(ステップS202で、NOのとき)、2次原稿傾き算出部66は、傾き総和Sum及びカウンタCntの加算を行うことなく、原稿傾きd2が、判定条件を満たしているかチェックする(ステップS204)。   In step S202, if the document inclination d1 does not satisfy the determination condition (NO in step S202), the secondary document inclination calculation unit 66 does not add the total inclination Sum and the counter Cnt, and does not add the document. It is checked whether the inclination d2 satisfies the determination condition (step S204).

ステップS204で、原稿傾きd2が判定条件を満たしていると(ステップS204で、YESのとき)、2次原稿傾き算出部66は、傾き総和Sumに、原稿傾きd2を加算し、カウンタCntを「1」だけインクリメントする(ステップS205)。   If the document inclination d2 satisfies the determination condition in step S204 (YES in step S204), the secondary document inclination calculation unit 66 adds the document inclination d2 to the total inclination Sum, and sets the counter Cnt to “ 1 "is incremented (step S205).

次に、2次原稿傾き算出部66は、原稿傾きd3が、判定条件(d0−α<d3<d0+α)を満たしているかチェックする(ステップS206)。   Next, the secondary document skew calculation unit 66 checks whether the document skew d3 satisfies the determination condition (d0−α <d3 <d0 + α) (step S206).

ステップS204で、原稿傾きd2が判定条件を満たしていないと(ステップS204で、NOのとき)、2次原稿傾き算出部66は、傾き総和Sum及びカウンタCntの加算を行うことなく、原稿傾きd3が、判定条件を満たしているかチェックする(ステップS206)。   In step S204, if the document inclination d2 does not satisfy the determination condition (NO in step S204), the secondary document inclination calculation unit 66 does not add the inclination total Sum and the counter Cnt, and the document inclination d3. Checks whether the determination condition is satisfied (step S206).

ステップS206で、原稿傾きd3が判定条件を満たしていると(ステップS206で、YESのとき)、2次原稿傾き算出部66は、傾き総和Sumに、原稿傾きd3を加算し、カウンタCntを「1」だけインクリメントする(ステップS207)。   If the document inclination d3 satisfies the determination condition in step S206 (YES in step S206), the secondary document inclination calculation unit 66 adds the document inclination d3 to the total inclination Sum, and sets the counter Cnt to “ 1 "is incremented (step S207).

次に、2次原稿傾き算出部66は、カウンタCntの値が「1」以上の値であるか、すなわち、電子式に算出した原稿傾きのうち、1つ以上が判定条件を満たしていたかをチェックする(ステップS208)。   Next, the secondary document skew calculation unit 66 determines whether the value of the counter Cnt is “1” or more, that is, whether one or more document skews calculated electronically satisfy the determination condition. A check is made (step S208).

ステップS206で、原稿傾きd3が判定条件を満たしていると(ステップS206で、YESのとき)、2次原稿傾き算出部66は、傾き総和Sum及びカウンタCntの加算を行うことなく、カウンタCntの値が「1」以上の値であるかチェックする(ステップS208)。   If the document inclination d3 satisfies the determination condition in step S206 (YES in step S206), the secondary document inclination calculation unit 66 does not add the total inclination Sum and the counter Cnt, and the counter Cnt It is checked whether the value is equal to or greater than “1” (step S208).

ステップS208で、カウンタCntの値が「1」以上であると(ステップS208で、YESのとき)、2次原稿傾き算出部66は、原稿傾きaを、次式(8)により算出して、2次原稿傾き算出処理を終了する。   If the value of the counter Cnt is “1” or more in step S208 (YES in step S208), the secondary document inclination calculation unit 66 calculates the document inclination a by the following equation (8), The secondary document skew calculation process ends.

a=Sum/Cnt・・・(8)
ステップS208で、カウンタCntの値が「0」であると(ステップS208で、NOのとき)、2次原稿傾き算出部66は、フォトセンサ傾き採用有無変数Corが、「ON」であるか否かチェックする(ステップS210)。
a = Sum / Cnt (8)
If the value of the counter Cnt is “0” in step S208 (NO in step S208), the secondary document inclination calculation unit 66 determines whether the photosensor inclination adoption presence / absence variable Cor is “ON”. Is checked (step S210).

このフォトセンサ傾き採用有無変数Corは、全ての電子式原稿傾きd1、d2、d3が、判定条件を満たさない場合に、フォトセンサ15bを利用した光学式原稿傾きd0を、原稿傾きとして採用するか否かを示す変数であり、予めユーザが適宜設定することができる。   Whether the photo sensor tilt adoption variable Cor corresponds to the optical document tilt d0 using the photo sensor 15b as the document tilt when all the electronic document tilts d1, d2, and d3 do not satisfy the determination condition. This is a variable indicating whether or not, and can be appropriately set by the user in advance.

ステップS210で、フォトセンサ傾き採用有無変数Corが「ON」であると(ステップS210で、YESのとき)、2次原稿傾き算出部66は、原稿傾き精度が悪い旨の報知を行う(ステップS211)。2次原稿傾き算出部66は、原稿傾き精度が悪い旨の報知を、例えば、操作表示部のディスプレイへのその旨のメッセージの表示出力等により行う。なお、2次原稿傾き算出部66は、この原稿傾き精度が悪い旨の報知出力した時点で、光学式原稿傾きd0を原稿傾きaとして採用するか否かを選択可能としてもよい。この場合、2次原稿傾き算出部66は、光学式原稿傾きd0を、原稿傾きaとして採用するか否かの選択画面を、ディスプレイに表示し、ユーザが光学式原稿傾きd0を原稿傾きaとして採用するか否かを選択可能とする。   In step S210, if the photosensor tilt adoption presence / absence variable Cor is “ON” (YES in step S210), the secondary document tilt calculation unit 66 notifies that the document tilt accuracy is poor (step S211). ). The secondary document tilt calculation unit 66 notifies that the document tilt accuracy is poor, for example, by displaying a message to that effect on the display of the operation display unit. Note that the secondary document skew calculation unit 66 may select whether or not to adopt the optical document skew d0 as the document skew a when the notification that the document skew accuracy is poor is output. In this case, the secondary document inclination calculation unit 66 displays a selection screen as to whether or not to adopt the optical original inclination d0 as the original inclination a on the display, and the user sets the optical original inclination d0 as the original inclination a. Whether to adopt or not can be selected.

2次原稿傾き算出部66は、原稿傾きaとして、光学式原稿傾きd0を採用し、2次原稿傾き算出処理を終了する(ステップS212)。   The secondary document skew calculation unit 66 adopts the optical document skew d0 as the document skew a, and ends the secondary document skew calculation process (step S212).

ステップS210で、フォトセンサ傾き採用有無変数Corが「OFF」であると(ステップS210で、NOのとき)、2次原稿傾き算出部66は、原稿傾きの検出ができなかった旨の報知を行う(ステップS213)。2次原稿傾き算出部66は、原稿傾きの検出ができなかった旨の報知を、例えば、操作表示部のディスプレイへの、「原稿スキュー補正を行いませんでした」等のメッセージの表示出力等により行う。なお、2次原稿傾き算出部66は、この原稿傾き検出ができなかった旨を報知出力した時点で、光学式原稿傾きd0を原稿傾きaとして採用するか否かを選択可能としてもよい。   If the photosensor tilt adoption variable Cor is “OFF” in step S210 (NO in step S210), the secondary document tilt calculation unit 66 notifies that the document tilt cannot be detected. (Step S213). The secondary document skew calculation unit 66 notifies the fact that the document skew cannot be detected, for example, by displaying a message such as “Document skew correction not performed” on the display of the operation display unit. Do. Note that the secondary document tilt calculation unit 66 may select whether or not to adopt the optical document tilt d0 as the document tilt a at the time when the notification that the document tilt detection could not be performed is output.

2次原稿傾き算出部66は、原稿傾きaを「0」に設定し、2次原稿傾き算出処理を終了する(ステップS214)。   The secondary document skew calculation unit 66 sets the document skew a to “0” and ends the secondary document skew calculation process (step S214).

図18の2次原稿傾き算出処理においては、2次原稿傾き算出部66は、具体的には、以下のように処理する。   In the secondary document inclination calculation process of FIG. 18, the secondary document inclination calculation unit 66 specifically processes as follows.

いま、フォトセンサ15bによる原稿傾きd0が、上述のように、d0=−0.615mm/100mm(約−0.352度)であるとする。また、各電子式原稿傾きd1、d2、d3が、上述のように、d1=−16/2362(約−0.39度)=−0.6773mm/100mm、d2=−15/2362(約−0.36度)=−0.6351mm/100mm、d3=−14/2362(約−0.34度)=−0.593mm/100mmとする。また、上記電子式原稿傾きd1、d2、d3を平均値算出に用いるか否かの判定閾値αは、上記α=0.02/100とする。   Now, it is assumed that the document inclination d0 by the photosensor 15b is d0 = −0.615 mm / 100 mm (about −0.352 degrees) as described above. Further, as described above, the electronic document inclinations d1, d2, and d3 are determined as follows: d1 = −16 / 2362 (approximately −0.39 degrees) = − 0.6773 mm / 100 mm, d2 = −15 / 2362 (approximately − 0.36 degrees) = − 0.6351 mm / 100 mm, d3 = −14 / 2362 (about −0.34 degrees) = − 0.593 mm / 100 mm. The determination threshold value α for determining whether or not the electronic document inclinations d1, d2, and d3 are used for calculating the average value is set to α = 0.02 / 100.

そして、2次原稿傾き算出部66は、ステップS201で、傾き総和SumとカウンタCntを初期化し、原稿傾きd1から原稿傾きd3までを、順次、判定条件を満たしているかチェックする(ステップS202〜S207)。2次原稿傾き算出部66は、判定条件を満たしていると、傾き総和Sumに該原稿傾きd1、d2、d3を加算し、カウンタCntに「1」を加算するが、判定条件を満たしていないときには、傾き総和SumとカウンタCntの加算を行わない。   Then, in step S201, the secondary document inclination calculation unit 66 initializes the total inclination Sum and the counter Cnt, and sequentially checks whether the original inclination d1 to the original inclination d3 satisfy the determination condition (steps S202 to S207). ). When the determination condition is satisfied, the secondary document inclination calculation unit 66 adds the document inclinations d1, d2, and d3 to the total inclination Sum, and adds “1” to the counter Cnt, but does not satisfy the determination condition. In some cases, the sum of the slopes Sum and the counter Cnt are not added.

いま、原稿傾きd1に対しては、上記条件では、(−0.615/100−0.02/100)<−0.6773/100<(−0.615/100+0.02/100)が成り立たない。したがって、2次原稿傾き算出部66は、傾き総和SumとカウンタCntの加算処理を行わない。ところが、原稿傾きd1が、上記値ではなく、判定条件を満たしているときには、Sum=Sum+d1、Cnt=Cnt+1を実行する。   Now, with respect to the document inclination d1, (−0.615 / 100−0.02 / 100) <− 0.6773 / 100 <(− 0.615 / 100 + 0.02 / 100) holds under the above conditions. Absent. Therefore, the secondary document inclination calculation unit 66 does not add the total inclination Sum and the counter Cnt. However, when the document inclination d1 is not the above value but satisfies the determination condition, Sum = Sum + d1 and Cnt = Cnt + 1 are executed.

また、原稿傾きd2及び原稿傾きd3は、判定条件を満たしている。したがって、2次原稿傾き算出部66は、Sum=d2+d3=(−0.6351mm/100mm)+(−0.593mm/100mm)=−0.6141/100(=約−0.352度)、Cnt=2を算出する。   The document inclination d2 and the document inclination d3 satisfy the determination conditions. Accordingly, the secondary document inclination calculation unit 66 calculates Sum = d2 + d3 = (− 0.6351 mm / 100 mm) + (− 0.593 mm / 100 mm) = − 0.61411 / 100 (= about −0.352 degrees), Cnt = 2 is calculated.

そして、2次原稿傾き算出部66は、判定条件を満たした原稿傾きd1、d2、d3が1つも存在しないときには、操作表示部のディスプレイに、情報報知を行って、原稿傾きaを、光学式原稿傾きd0または「0」に設定する(ステップS210〜S214)。   Then, when there are no document inclinations d1, d2, and d3 satisfying the determination condition, the secondary document inclination calculation unit 66 performs information notification on the display of the operation display unit, and determines the document inclination a as an optical type. The document inclination d0 or “0” is set (steps S210 to S214).

この情報通知の方法は、ディスプレイへの情報表示だけでなく、警告灯、警告音、電子メール送付等の方法であってもよい。   This information notification method is not limited to displaying information on the display, but may be a warning light, warning sound, e-mail transmission, or the like.

このように、本実施例のカラー複合装置1は、搬送される原稿Gの画像を読み取って画像データを出力する走査光学系(画像読取手段)26と、走査光学系26の出力する画像データに基づいて、搬送される前記原稿Gの搬送方向の先端部を電子式端部として検出する検出用データ生成部(電子式端部検出手段)64a、64b、64cと、搬送される前記原稿Gの搬送方向先端部を光学的に光学式端部として検出するフォトセンサ15b、検知時間差算出部61及び副走査距離生成部62からなる光学式端部検出手段と、前記電子式端部に基づいて、前記原稿Gの搬送方向先端部の傾きを電子式傾きとして抽出する電子式1次原稿傾き算出部(電子式傾き抽出手段)65a〜65cと、前記光学式端部に基づいて、前記原稿Gの搬送方向先端部の傾きを光学式傾きとして抽出する光学式1次原稿傾き算出部(光学式傾き抽出手段)63と、前記電子式傾きと前記光学式傾きから前記原稿Gの最終傾きである原稿傾きaを抽出する2次原稿傾き算出部(最終傾き抽出手段)66と、を備えている。   As described above, the color composite apparatus 1 according to the present exemplary embodiment uses the scanning optical system (image reading unit) 26 that reads an image of the conveyed original G and outputs image data, and the image data output from the scanning optical system 26. Based on the detection data generation units (electronic end detection means) 64a, 64b, 64c for detecting the leading end of the transported original G in the transport direction as an electronic end, and the transport of the original G to be transported Based on the optical end detection means comprising a photo sensor 15b that optically detects the front end in the transport direction as an optical end, a detection time difference calculation unit 61, and a sub-scanning distance generation unit 62, and the electronic end, An electronic primary document inclination calculation unit (electronic inclination extraction means) 65a to 65c that extracts the inclination of the leading edge of the document G in the conveyance direction as an electronic inclination, and the optical edge of the original G Transport direction destination An optical primary document inclination calculation unit (optical inclination extraction means) 63 for extracting the inclination of the part as an optical inclination, and an original inclination a which is a final inclination of the original G from the electronic inclination and the optical inclination. And a secondary document inclination calculation unit (final inclination extraction means) 66 for extraction.

したがって、光学式端部に基づく光学式傾きと電子式端部に基づく電子式傾きに基づいて、高精度に原稿Gの最終傾きを求めることができ、原稿傾きaを正確に判定することができる。   Therefore, the final inclination of the original G can be obtained with high accuracy based on the optical inclination based on the optical end and the electronic inclination based on the electronic end, and the original inclination a can be accurately determined. .

また、本実施例のカラー複合装置1は、搬送される原稿Gの画像を読み取って画像データを出力する画像読取処理ステップと、前記画像読取処理ステップの出力する画像データに基づいて、搬送される前記原稿Gの搬送方向の先端部を電子式端部として検出する電子式端部検出処理ステップと、搬送される前記原稿Gの搬送方向先端部を光学的に光学式端部として検出する光学式端部検出処理ステップと、前記電子式端部に基づいて、前記原稿Gの搬送方向先端部の傾きを電子式傾きとして抽出する電子式傾き抽出処理ステップと、前記光学式端部に基づいて、前記原稿Gの搬送方向先端部の傾きを光学式傾きとして抽出する光学式傾き抽出処理ステップと、前記電子式傾きと前記光学式傾きから前記原稿Gの最終傾きである原稿傾きaを抽出する最終傾き抽出処理ステップと、を有する画像処理方法を実行する。   Further, the color composite apparatus 1 according to the present embodiment is transported based on an image reading processing step for reading an image of a transported original G and outputting image data, and image data output from the image reading processing step. An electronic end detection step for detecting the leading end in the transport direction of the document G as an electronic end, and an optical type for optically detecting the leading end in the transport direction of the transported document G as an optical end. Based on the edge detection processing step, on the basis of the electronic edge, an electronic inclination extraction processing step for extracting the inclination of the leading edge in the conveyance direction of the document G as an electronic inclination, and on the basis of the optical edge, An optical tilt extraction process step for extracting the tilt of the leading end of the document G in the transport direction as an optical tilt, and the document tilt a which is the final tilt of the document G is extracted from the electronic tilt and the optical tilt. And a final slope extraction processing step of, performing an image processing method having.

したがって、光学式端部に基づく光学式傾きと電子式端部に基づく電子式傾きに基づいて、高精度に原稿Gの最終傾きを求めることができ、原稿傾きaを正確に判定することができる。   Therefore, the final inclination of the original G can be obtained with high accuracy based on the optical inclination based on the optical end and the electronic inclination based on the electronic end, and the original inclination a can be accurately determined. .

さらに、本実施例のカラー複合装置1は、CPU31等の制御プロセッサに、搬送される原稿Gの画像を読み取って画像データを出力する画像読取処理と、前記画像読取処理の出力する画像データに基づいて、搬送される前記原稿Gの搬送方向の先端部を電子式端部として検出する電子式端部検出処理と、搬送される前記原稿Gの搬送方向先端部を光学的に光学式端部として検出する光学式端部検出処理と、前記電子式端部に基づいて、前記原稿Gの搬送方向先端部の傾きを電子式傾きとして抽出する電子式傾き抽出処理と、前記光学式端部に基づいて、前記原稿Gの搬送方向先端部の傾きを光学式傾きとして抽出する光学式傾き抽出処理と、前記電子式傾きと前記光学式傾きから前記原稿Gの最終傾きである原稿傾きaを抽出する最終傾き抽出処理と、を実行させる画像処理プログラムを搭載している。   Further, the color composite apparatus 1 according to the present embodiment is based on an image reading process for reading an image of a conveyed document G and outputting image data to a control processor such as a CPU 31 and image data output by the image reading process. An electronic edge detection process for detecting the leading edge of the conveyed document G in the conveying direction as an electronic edge, and an optically edge of the conveyed document G in the conveying direction as an optical edge. Based on the optical edge detection process to detect, the electronic inclination extraction process to extract the inclination of the leading edge in the transport direction of the document G as the electronic inclination based on the electronic edge, and the optical edge Then, an optical tilt extraction process for extracting the tilt of the leading end of the document G in the transport direction as an optical tilt, and a document tilt a which is the final tilt of the document G is extracted from the electronic tilt and the optical tilt. Final tilt And the image processing program to be executed and output process, the.

したがって、光学式端部に基づく光学式傾きと電子式端部に基づく電子式傾きに基づいて、高精度に原稿Gの最終傾きを求めることができ、原稿傾きaを正確に判定することができる。   Therefore, the final inclination of the original G can be obtained with high accuracy based on the optical inclination based on the optical end and the electronic inclination based on the electronic end, and the original inclination a can be accurately determined. .

また、本実施例のカラー複合装置1は、前記2次原稿傾き算出部66が、前記電子式傾きが、前記光学式傾きに対して所定の判定閾値α内にあるか否かを判定して、該判定閾値α内に存在すると、該電子式傾きに基づいて前記最終傾きである原稿傾きaを抽出し、該判定閾値α外にあると、該光学式傾きに基づいて該最終傾きである原稿傾きaを抽出する。   In the color composite apparatus 1 of the present embodiment, the secondary document inclination calculation unit 66 determines whether the electronic inclination is within a predetermined determination threshold α with respect to the optical inclination. If it is within the determination threshold α, the original inclination a which is the final inclination is extracted based on the electronic inclination, and if it is outside the determination threshold α, it is the final inclination based on the optical inclination. Document skew a is extracted.

したがって、光学式傾きから離れた電子式傾きを省いた電子式傾きから原稿傾きaを求めることができ、原稿傾きaをより一層正確に判定することができる。   Therefore, the original inclination a can be obtained from the electronic inclination obtained by omitting the electronic inclination away from the optical inclination, and the original inclination a can be determined more accurately.

さらに、本実施例のカラー複合装置1は、前記検出用データ生成部(電子式端部検出手段)64a、64b、64cが、前記走査光学系(画像読取手段)26の読み取った前記画像データに対して、所定の画像処理を施して、該画像処理後の画像データに基づいて、前記電子式端部を検出する。   Further, in the color composite apparatus 1 of the present embodiment, the detection data generation unit (electronic end detection unit) 64a, 64b, 64c applies the image data read by the scanning optical system (image reading unit) 26 to the image data. On the other hand, predetermined image processing is performed, and the electronic end portion is detected based on the image data after the image processing.

したがって、原稿Gの端部を検出するのに適した画像処理を施した画像データに基づいて原稿Gの端部を検出して原稿Gの傾きを求めることができ、原稿傾きaをより一層正確に判定することができる。   Accordingly, it is possible to detect the edge of the document G based on the image data that has been subjected to image processing suitable for detecting the edge of the document G, and to determine the inclination of the document G, thereby further accurately determining the document inclination a. Can be determined.

また、本実施例のカラー複合装置1は、前記検出用データ生成部(電子式端部検出手段)64a、64b、64cが、前記走査光学系(画像読取手段)26の読み取った前記画像データに対して、複数の異なる画像処理を並列的に施して、該画像処理後の各画像データに基づいて、それぞれ前記電子式端部を検出し、前記電子式1次原稿傾き算出部(電子式傾き抽出手段)65a〜65cが、複数の前記電子式端部に基づいて、それぞれ前記電子式傾きを抽出する。   Further, in the color composite apparatus 1 of the present embodiment, the detection data generation unit (electronic end detection unit) 64a, 64b, 64c applies the image data read by the scanning optical system (image reading unit) 26 to the image data. On the other hand, a plurality of different image processes are performed in parallel, and the electronic end portions are detected based on the respective image data after the image processing, and the electronic primary document inclination calculation unit (electronic inclination is calculated). (Extracting means) 65a to 65c each extract the electronic inclination based on the plurality of electronic end portions.

したがって、原稿Gの端部を検出するのに適した異なる画像処理を施した複数の画像データに基づいて、それぞれ原稿Gの端部を検出して、それぞれ原稿Gの傾きを求めることができ、該複数の原稿傾きから原稿傾きaをより一層正確に判定することができる。   Therefore, based on a plurality of image data subjected to different image processing suitable for detecting the edge of the document G, the edge of the document G can be detected and the inclination of the document G can be obtained. The document inclination a can be more accurately determined from the plurality of document inclinations.

さらに、本実施例のカラー複合装置1は、2次原稿傾き算出部(最終傾き抽出手段)66が、複数の前記電子式傾きのうち、前記判定閾値内に存在する該電子式傾きの平均値に基づいて、前記最終傾きを抽出する。   Further, in the color composite apparatus 1 of the present embodiment, the secondary document inclination calculation unit (final inclination extraction means) 66 has an average value of the electronic inclinations existing within the determination threshold among the plurality of electronic inclinations. Based on the above, the final inclination is extracted.

したがって、原稿Gの端部を検出するのに適した異なる画像処理を施した複数の画像データに基づいて、それぞれ原稿Gの端部を検出して、それぞれ原稿Gの傾きを求めることができ、該複数の原稿傾きから原稿傾きaをより一層正確に判定することができる。   Therefore, based on a plurality of image data subjected to different image processing suitable for detecting the edge of the document G, the edge of the document G can be detected and the inclination of the document G can be obtained. The document inclination a can be more accurately determined from the plurality of document inclinations.

また、本実施例のカラー複合装置1は、2次原稿傾き算出部(最終傾き抽出手段)66が、前記判定閾値α内に存在する前記電子式傾きが非存在であると、前記光学式傾きに基づいて前記最終傾きを抽出する。   In the color composite apparatus 1 of the present embodiment, when the secondary document inclination calculation unit (final inclination extraction unit) 66 does not have the electronic inclination existing within the determination threshold value α, the optical inclination is calculated. Based on the above, the final inclination is extracted.

したがって、電子式傾きが判定閾値α内に存在しない場合であっても、光学式傾きに基づいて、原稿傾きaを求めることができる。   Therefore, even when the electronic tilt does not exist within the determination threshold α, the document tilt a can be obtained based on the optical tilt.

さらに、本実施例のカラー複合装置1は、情報を報知出力する報知手段(操作表示部等)を、さらに備え、2次原稿傾き算出部(最終傾き抽出手段)66が、前記判定閾値α内に存在する前記電子式傾きが非存在であると、前記原稿Gの前記最終傾きの抽出精度が低い旨の情報を前記操作表示部等の報知手段に報知出力させる。   Further, the color composite apparatus 1 of the present embodiment further includes notifying means (operation display section or the like) for notifying and outputting information, and a secondary document inclination calculating section (final inclination extracting means) 66 is within the determination threshold α. If the electronic tilt present in the document is absent, information indicating that the accuracy of extracting the final tilt of the document G is low is output to a notification means such as the operation display unit.

したがって、求めた最終的な原稿傾きaの精度が低い場合に、その旨をユーザに分かるようにすることができ、利用性を向上させることができる。   Therefore, when the accuracy of the obtained final document inclination a is low, the user can be made aware of this fact, and the usability can be improved.

また、本実施例のカラー複合装置1は、前記判定閾値α内に存在する前記電子式傾きが非存在であると、前記最終傾きを、前記光学式傾きに基づいて抽出するか否かを設定する設定手段(操作表示部等)を、さらに備え、2次原稿傾き算出部(最終傾き抽出手段)が、前記判定閾値α内に存在する前記電子式傾きが非存在のときに、前記設定手段で前記最終傾きを前記光学式傾きに基づいて抽出することが設定されていると、該最終傾きを該光学式傾きに基づいて抽出し、該設定手段で、該最終傾きを該光学式傾きに基づいて抽出することが非設定であると、原稿傾きが非存在であることを該最終傾きとする。   Further, the color multifunction apparatus 1 according to the present embodiment sets whether or not to extract the final inclination based on the optical inclination when the electronic inclination existing within the determination threshold α is absent. Setting means (operation display unit or the like) for performing a second document inclination calculation unit (final inclination extraction means) when the electronic inclination existing within the determination threshold α is absent. If the final inclination is set to be extracted based on the optical inclination, the final inclination is extracted based on the optical inclination, and the setting means converts the final inclination to the optical inclination. If the extraction based on the non-setting is not set, the final inclination is that there is no document inclination.

したがって、求めた最終的な原稿傾きaの精度が低い場合に、その旨をユーザの指示に応じて、最終傾きである原稿傾きaを求めることができ、利用状況に応じた原稿傾きaを用いて、利用性を向上させることができる。   Accordingly, when the accuracy of the obtained final document inclination a is low, the original inclination a which is the final inclination can be obtained according to the user's instruction, and the original inclination a corresponding to the use situation is used. Thus, usability can be improved.

以上、本発明者によってなされた発明を好適な実施例に基づき具体的に説明したが、本発明は上記実施例で説明したものに限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることはいうまでもない。   The invention made by the present inventor has been specifically described based on the preferred embodiments. However, the present invention is not limited to that described in the above embodiments, and various modifications can be made without departing from the scope of the invention. It goes without saying that it is possible.

1 カラー複合装置
10 画像読取部(画像読取装置)
11 筐体
12 稿読取台(原稿台)
13 原稿押さえ板
14 原稿搬送部
15 SDFユニット
15a CIS
15b フォトセンサ
15c 白板
15d SDF窓
15e 透過ガラス
16 原稿トレイ
17 原稿搬送ステッピングモータ
18 分離ローラ
19 搬送ローラ
20 白基準板
21 第1走行体
21a 光源
21b ミラー
22 第2走行体
22a、22b ミラー
23 レンズ
24 CCD
25 走行体ステッピングモータ
26 走査光学系(画像読取手段)
G 原稿
P1(A) 第1検知位置
P2(B) 第2検知位置
31 CPU
32 メモリ
33 メモリコントローラ
34 読取信号処理部
35 画像処理部
36 書込信号処理部
37 LD
38 LD駆動部
39 CCD駆動部
40 光源ドライバ
41 原稿搬送モータドライバ
42 走行体モータドライバ
43 バッファメモリ
44 バッファメモリコントローラ
50 画像処理装置
51 アナログビデオ処理部
51a プリアンプ回路
51b 可変増幅回路
51c A/Dコンバータ
52 シェーディング補正処理部
52a 黒演算回路
52b シェーディング補正演算回路
52c ラインバッファ
61 検知時間差算出部
62 副走査距離生成部
63 光学式1次原稿傾き算出部
64a、64b、64c 検出用データ生成部
65a、65b、65c 電子式1次原稿傾き算出部
66 2次原稿傾き算出部
67 傾き補正処理部
S1、S2 検知信号
CLK クロック
DESCRIPTION OF SYMBOLS 1 Color compound apparatus 10 Image reading part (image reading apparatus)
11 Housing 12 Document reading table (document table)
13 Document holding plate 14 Document transport section 15 SDF unit 15a CIS
15b Photosensor 15c White plate 15d SDF window 15e Transmission glass 16 Document tray 17 Document conveyance stepping motor 18 Separation roller 19 Conveyance roller 20 White reference plate 21 First traveling body 21a Light source 21b Mirror 22 Second traveling body 22a, 22b Mirror 23 Lens 24 CCD
25 traveling body stepping motor 26 scanning optical system (image reading means)
G Document P1 (A) First detection position P2 (B) Second detection position 31 CPU
32 Memory 33 Memory Controller 34 Read Signal Processing Unit 35 Image Processing Unit 36 Write Signal Processing Unit 37 LD
38 LD drive unit 39 CCD drive unit 40 Light source driver 41 Document transport motor driver 42 Running body motor driver 43 Buffer memory 44 Buffer memory controller 50 Image processing device 51 Analog video processing unit 51a Preamplifier circuit 51b Variable amplification circuit 51c A / D converter 52 Shading correction processing unit 52a Black arithmetic circuit 52b Shading correction arithmetic circuit 52c Line buffer 61 Detection time difference calculation unit 62 Sub-scanning distance generation unit 63 Optical primary document inclination calculation unit 64a, 64b, 64c Detection data generation units 65a, 65b, 65c Electronic primary document inclination calculation section 66 Secondary document inclination calculation section 67 Inclination correction processing section S1, S2 Detection signal CLK clock

特開2012−244507号公報JP 2012-244507 A

Claims (10)

搬送される原稿の画像を読み取って画像データを出力する画像読取手段と、
前記画像読取手段の出力する画像データに基づいて、搬送される前記原稿の搬送方向の先端部を電子式端部として検出する電子式端部検出手段と、
搬送される前記原稿の搬送方向先端部を光学的に光学式端部として検出する光学式端部検出手段と、
前記電子式端部に基づいて、前記原稿の搬送方向先端部の傾きを電子式傾きとして抽出する電子式傾き抽出手段と、
前記光学式端部に基づいて、前記原稿の搬送方向先端部の傾きを光学式傾きとして抽出する光学式傾き抽出手段と、
前記電子式傾きと前記光学式傾きから前記原稿の最終傾きを抽出する最終傾き抽出手段と、
を備え
前記最終傾き抽出手段は
前記電子式傾きが、前記光学式傾きに対して所定の判定閾値内にあるか否かを判定して、該判定閾値内に存在すると、該電子式傾きに基づいて前記最終傾きを抽出し、該判定閾値外にあると、該光学式傾きに基づいて該最終傾きを抽出することを特徴とする画像処理装置。
Image reading means for reading an image of a conveyed document and outputting image data;
An electronic end detection unit that detects, as an electronic end, a leading end in the transport direction of the document to be transported based on image data output from the image reading unit;
An optical edge detection means for optically detecting the leading edge of the conveyed document in the conveyance direction as an optical edge;
An electronic inclination extracting means for extracting, as an electronic inclination, an inclination of the leading end of the document in the conveyance direction based on the electronic end;
An optical inclination extracting means for extracting the inclination of the leading end of the document in the conveying direction as an optical inclination based on the optical end;
Final inclination extraction means for extracting the final inclination of the document from the electronic inclination and the optical inclination;
Equipped with a,
The final inclination extracting means includes
It is determined whether the electronic tilt is within a predetermined determination threshold with respect to the optical tilt, and if it is within the determination threshold, the final tilt is extracted based on the electronic tilt, An image processing apparatus that extracts the final inclination based on the optical inclination when it is outside the determination threshold .
前記電子式端部検出手段は、
前記画像読取手段の読み取った前記画像データに対して、所定の画像処理を施して、該画像処理後の画像データに基づいて、前記電子式端部を検出することを特徴とする請求項1記載の画像処理装置。
The electronic end detection means is
On the image data read by the image reading means, it performs predetermined image processing, based on the image data after the image processing, according to claim 1 Symbol, characterized by detecting said electronic end The image processing apparatus described.
前記電子式端部検出手段は、
前記画像読取手段の読み取った前記画像データに対して、複数の異なる画像処理を並列的に施して、該画像処理後の各画像データに基づいて、それぞれ前記電子式端部を検出し、
前記電子式傾き抽出手段は、
複数の前記電子式端部に基づいて、それぞれ前記電子式傾きを抽出することを特徴とする請求項1記載の画像処理装置。
The electronic end detection means is
A plurality of different image processes are performed in parallel on the image data read by the image reading unit, and the electronic end portions are detected based on the image data after the image processing,
The electronic tilt extraction means includes
Based on the plurality of the electronic end, respectively and extracting the electronic tilt claim 1 Symbol mounting image processing apparatus.
前記最終傾き抽出手段は、
複数の前記電子式傾きのうち、前記判定閾値内に存在する該電子式傾きの平均値に基づいて、前記最終傾きを抽出することを特徴とする請求項記載の画像処理装置。
The final inclination extracting means includes
The image processing apparatus according to claim 3 , wherein the final inclination is extracted based on an average value of the electronic inclinations existing within the determination threshold among the plurality of electronic inclinations.
前記最終傾き抽出手段は、
前記判定閾値内に存在する前記電子式傾きが非存在であると、前記光学式傾きに基づいて前記最終傾きを抽出することを特徴とする請求項から請求項のいずれかに記載の画
像処理装置。
The final inclination extracting means includes
When the electronic tilt that exists in the determination threshold is absent, the image as claimed in any one of claims 4, wherein the extracting the final slope on the basis of the optical slope Processing equipment.
前記画像処理装置は、
情報を報知出力する報知手段を、
さらに備え、
前記最終傾き抽出手段は、
前記判定閾値内に存在する前記電子式傾きが非存在であると、前記原稿の前記最終傾きの抽出精度が低い旨の情報を前記報知手段に報知出力させることを特徴とする請求項から請求項のいずれかに記載の画像処理装置。
The image processing apparatus includes:
An informing means for informing and outputting information,
In addition,
The final inclination extracting means includes
Wherein when said electronic tilt present in the determination threshold is absent, wherein said final tilt information extraction accuracy is low effect of the document from claim 3, characterized in that broadcast output to the notification means Item 6. The image processing apparatus according to Item 5 .
前記画像処理装置は、
前記判定閾値内に存在する前記電子式傾きが非存在であると、前記最終傾きを、前記光学式傾きに基づいて抽出するか否かを設定する設定手段を、
さらに備え、
前記最終傾き抽出手段は、
前記判定閾値内に存在する前記電子式傾きが非存在のときに、前記設定手段で前記最終傾きを前記光学式傾きに基づいて抽出することが設定されていると、該最終傾きを該光学式傾きに基づいて抽出し、該設定手段で、該最終傾きを該光学式傾きに基づいて抽出することが非設定であると、原稿傾きが非存在であることを該最終傾きとすることを特徴とする請求項から請求項のいずれかに記載の画像処理装置。
The image processing apparatus includes:
Setting means for setting whether or not to extract the final inclination based on the optical inclination when the electronic inclination existing within the determination threshold is nonexistent,
In addition,
The final inclination extracting means includes
If the setting means is configured to extract the final inclination based on the optical inclination when the electronic inclination existing within the determination threshold is not present, the final inclination is calculated based on the optical inclination. Extracting based on the inclination, and extracting the final inclination based on the optical inclination by the setting means is not set, and the final inclination is that there is no document inclination. the image processing apparatus according to any one of claims 1 to 6 to.
原稿の画像を画像読取手段で読み取って、該画像読取手段の読み取った原稿の読取画像データの傾きを検出して補正する画像処理部を備えた画像読取装置であって、
前記画像処理部として、請求項1から請求項のいずれかに記載の画像処理装置を備え
ていることを特徴とする画像読取装置。
An image reading apparatus including an image processing unit that reads an image of a document with an image reading unit and detects and corrects an inclination of read image data of the document read by the image reading unit,
Wherein the image processing unit, an image reading apparatus characterized by comprising an image processing apparatus according to any one of claims 1 to 7.
搬送される原稿の画像を読み取って画像データを出力する画像読取処理ステップと、
前記画像読取処理ステップの出力する画像データに基づいて、搬送される前記原稿の搬送方向の先端部を電子式端部として検出する電子式端部検出処理ステップと、
搬送される前記原稿の搬送方向先端部を光学的に光学式端部として検出する光学式端部検出処理ステップと、
前記電子式端部に基づいて、前記原稿の搬送方向先端部の傾きを電子式傾きとして抽出する電子式傾き抽出処理ステップと、
前記光学式端部に基づいて、前記原稿の搬送方向先端部の傾きを光学式傾きとして抽出する光学式傾き抽出処理ステップと、
前記電子式傾きと前記光学式傾きから前記原稿の最終傾きを抽出する最終傾き抽出処理ステップと、
を有し、
前記最終傾き抽出処理ステップにおいて
前記電子式傾きが、前記光学式傾きに対して所定の判定閾値内にあるか否かを判定して、該判定閾値内に存在すると、該電子式傾きに基づいて前記最終傾きを抽出し、該判定閾値外にあると、該光学式傾きに基づいて該最終傾きを抽出する
ことを特徴とする画像処理方法。
An image reading processing step of reading an image of a conveyed document and outputting image data;
An electronic edge detection processing step for detecting, as an electronic edge, a leading edge in the conveyance direction of the document to be conveyed, based on image data output by the image reading processing step;
An optical end detection processing step for optically detecting the front end in the transport direction of the document to be transported as an optical end;
An electronic inclination extraction processing step for extracting, as an electronic inclination, an inclination of the leading end portion in the transport direction of the document based on the electronic end;
An optical tilt extraction processing step for extracting the tilt of the leading end of the document in the transport direction as an optical tilt based on the optical end;
A final inclination extraction processing step of extracting a final inclination of the document from the electronic inclination and the optical inclination;
I have a,
In the final inclination extraction processing step ,
It is determined whether the electronic tilt is within a predetermined determination threshold with respect to the optical tilt, and if it is within the determination threshold, the final tilt is extracted based on the electronic tilt, When it is outside the determination threshold, the final inclination is extracted based on the optical inclination.
An image processing method.
制御プロセッサに、
搬送される原稿の画像を読み取って画像データを出力する画像読取処理と、
前記画像読取処理の出力する画像データに基づいて、搬送される前記原稿の搬送方向の先端部を電子式端部として検出する電子式端部検出処理と、
搬送される前記原稿の搬送方向先端部を光学的に光学式端部として検出する光学式端部検出処理と、
前記電子式端部に基づいて、前記原稿の搬送方向先端部の傾きを電子式傾きとして抽出する電子式傾き抽出処理と、
前記光学式端部に基づいて、前記原稿の搬送方向先端部の傾きを光学式傾きとして抽出する光学式傾き抽出処理と、
前記電子式傾きと前記光学式傾きから前記原稿の最終傾きを抽出する最終傾き抽出処理と、
前記最終傾き抽出処理において
前記電子式傾きが、前記光学式傾きに対して所定の判定閾値内にあるか否かを判定して、該判定閾値内に存在すると、該電子式傾きに基づいて前記最終傾きを抽出し、該判定閾値外にあると、該光学式傾きに基づいて該最終傾きを抽出する処理と、
を実行させることを特徴とする画像処理プログラム。
To the control processor,
An image reading process for reading an image of a conveyed document and outputting image data;
An electronic edge detection process for detecting, as an electronic edge, a leading edge in the conveyance direction of the document to be conveyed, based on image data output by the image reading process;
An optical end detection process for optically detecting the front end of the transported document in the transport direction as an optical end;
An electronic inclination extraction process for extracting, as an electronic inclination, an inclination of the leading end of the document in the transport direction based on the electronic end;
An optical tilt extraction process for extracting, as the optical tilt, the tilt of the leading end of the document in the transport direction based on the optical end;
Final inclination extraction processing for extracting the final inclination of the document from the electronic inclination and the optical inclination;
In the final inclination extraction process ,
It is determined whether the electronic tilt is within a predetermined determination threshold with respect to the optical tilt, and if it is within the determination threshold, the final tilt is extracted based on the electronic tilt, A process of extracting the final tilt based on the optical tilt if it is outside the determination threshold;
An image processing program for executing
JP2014219922A 2014-10-29 2014-10-29 Image processing apparatus, image reading apparatus, image processing method, and image processing program Active JP6447006B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014219922A JP6447006B2 (en) 2014-10-29 2014-10-29 Image processing apparatus, image reading apparatus, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014219922A JP6447006B2 (en) 2014-10-29 2014-10-29 Image processing apparatus, image reading apparatus, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2016086376A JP2016086376A (en) 2016-05-19
JP6447006B2 true JP6447006B2 (en) 2019-01-09

Family

ID=55973405

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014219922A Active JP6447006B2 (en) 2014-10-29 2014-10-29 Image processing apparatus, image reading apparatus, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP6447006B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018074330A (en) * 2016-10-27 2018-05-10 ▲うぇい▼強科技股▲ふん▼有限公司 Image scanning method and scanner of the same

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2944341B2 (en) * 1992-12-15 1999-09-06 日本電気株式会社 Document detection device and image reading device
JPH08317140A (en) * 1995-05-15 1996-11-29 Canon Inc Original reader
JP2006311293A (en) * 2005-04-28 2006-11-09 Konica Minolta Business Technologies Inc Image processor
JP4420295B2 (en) * 2007-02-07 2010-02-24 株式会社沖データ Image reading device
JP5376907B2 (en) * 2008-11-13 2013-12-25 キヤノン株式会社 Image reading apparatus and image processing method
JP5332912B2 (en) * 2009-05-29 2013-11-06 ブラザー工業株式会社 Image reading apparatus and image forming apparatus

Also Published As

Publication number Publication date
JP2016086376A (en) 2016-05-19

Similar Documents

Publication Publication Date Title
JP5390418B2 (en) Image reading apparatus and image reading system
US8102575B2 (en) Image processing apparatus and method
JP6873074B2 (en) Image processing device, control method and control program
JP6903023B2 (en) Image reader, image processing system and foreign matter detection method
JP2015211446A (en) Image processing device, image reading device, image processing method and image processing program
JP2010136164A (en) Image reading apparatus
US11140295B2 (en) Image reading apparatus and method configured to correct tilt image data
JP6895914B2 (en) Image reader, image processing system, control method and control program
JP2010157916A (en) Image reader, and wrinkle region determination method in the same, and program
US10389911B2 (en) Original reading apparatus
JP2015198327A (en) Image reading device, image reading method, and computer program
US11190658B2 (en) Image reading apparatus
JP6447006B2 (en) Image processing apparatus, image reading apparatus, image processing method, and image processing program
JP4867564B2 (en) Image reading device
JP2008227625A (en) Image processor, image processing method, image processing program and recording medium
JP6917926B2 (en) Image processing device, control method and control program
JP4933402B2 (en) Image reading device
JP6645294B2 (en) Image reading device
JPH10145556A (en) Image reader
US11146709B2 (en) Image reading apparatus, control method for controlling image reading apparatus, and storage medium
JP5910002B2 (en) Image reading apparatus, document size detection method, and document size detection program
JP6905393B2 (en) Image reader
JP6632335B2 (en) Image reading apparatus and image reading method
JP2006005834A (en) Double-sided image reader
JP2007312233A (en) Image processor and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171010

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20171011

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181119

R151 Written notification of patent or utility model registration

Ref document number: 6447006

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151