JP5780064B2 - Image reading device - Google Patents

Image reading device Download PDF

Info

Publication number
JP5780064B2
JP5780064B2 JP2011188749A JP2011188749A JP5780064B2 JP 5780064 B2 JP5780064 B2 JP 5780064B2 JP 2011188749 A JP2011188749 A JP 2011188749A JP 2011188749 A JP2011188749 A JP 2011188749A JP 5780064 B2 JP5780064 B2 JP 5780064B2
Authority
JP
Japan
Prior art keywords
image
edge
document
cpu
reading
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011188749A
Other languages
Japanese (ja)
Other versions
JP2013051563A (en
Inventor
貴文 水野
貴文 水野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2011188749A priority Critical patent/JP5780064B2/en
Publication of JP2013051563A publication Critical patent/JP2013051563A/en
Application granted granted Critical
Publication of JP5780064B2 publication Critical patent/JP5780064B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Input (AREA)
  • Facsimile Scanning Arrangements (AREA)

Description

本明細書によって開示される技術は、原稿を読み取る画像読取装置に用いられる技術に関する。   The technique disclosed in this specification relates to a technique used in an image reading apparatus that reads a document.

従来から、原稿台に載置される原稿や搬送される原稿を読み取る画像読取装置では、原稿が傾いて原稿台にセットされる場合や、原稿の搬送によって原稿が傾く場合がある。その場合、CIS等の読取部は、原稿が傾いた状態で読み取ることになる為、読取部が読み取った読取画像に対して、原稿の傾きを補正する画像読取装置(例えば、特許文献1)が知られている。
特許文献1の画像読取装置では、読み取った原稿の読取画像の端の候補となる点を検出し、その点を最小二乗法を用いて直線近似し、その直線から読取部に対する原稿の傾きを求め、読取部が読み取った読取画像に対して、原稿の傾きを補正する技術が開示されている。
2. Description of the Related Art Conventionally, in an image reading apparatus that reads a document placed on a document table or a document to be conveyed, the document may be inclined and set on the document table, or the document may be inclined by conveying the document. In this case, since the reading unit such as the CIS reads in a state where the document is inclined, an image reading device (for example, Patent Document 1) that corrects the inclination of the document with respect to the read image read by the reading unit. Are known.
In the image reading apparatus of Patent Document 1, a point that is a candidate for the edge of a read image of a read original is detected, the point is approximated by a straight line using the least square method, and the inclination of the original with respect to the reading unit is obtained from the straight line. A technique for correcting the inclination of a document with respect to a read image read by a reading unit is disclosed.

特開2009−164807号公報JP 2009-164807 A

しかし、原稿の端は直線状であるとは限らない。例えば、ユーザにより切断されて整形された原稿では、端の一部が他の部分よりも外側にはみ出していたり、逆に端の一部が他の部分よりも内側にえぐれていたりして、原稿の端が凹凸状であることがある。このような原稿では、原稿の読取画像の端の候補となる点を検出し、その点を最小二乗法を用いて直線近似したとしても、そもそも原稿の端が直線状でない場合は、正しく原稿の傾きを求めることができない。しかし、従来の画像読取装置は、そのような原稿の端が直線状であるか否かに関らず、その点を最小二乗法を用いて直線近似することによって、その直線から読取部に対する原稿の傾きを求めていた。   However, the edge of the document is not always linear. For example, in a document that has been cut and shaped by the user, part of the edge protrudes outward from the other part, or conversely, part of the edge protrudes inward from the other part. The edges of the surface may be uneven. In such a document, even if a point that is a candidate for the edge of the scanned image of the document is detected and the point is linearly approximated using the least square method, if the edge of the document is not linear in the first place, The slope cannot be determined. However, the conventional image reading apparatus, regardless of whether or not the end of such a document is linear, approximates the point using a least square method, and the document from the straight line to the reading unit. I was looking for the slope.

本発明は、原稿を読み取る画像読取装置において、画像読取装置が有する読取部が読み取った読取画像から、読取部に対する原稿の傾きを補正する技術を開示する。   The present invention discloses a technique for correcting an inclination of a document with respect to a reading unit from a read image read by a reading unit included in the image reading device.

本明細書によって開示される画像読取装置は、原稿を読み取った原稿画像範囲を含む読取範囲の画像を、主走査方向に読み取る読取部と、前記読取部によって取得した画像に基づいて、前記原稿画像範囲の1つの辺側のエッジ点を複数検出するエッジ検出部と、前記主走査方向に直交または平行な方向における前記エッジ点の位置のばらつきを取得する間隔取得部と、前記位置のばらつきが基準間隔以下の場合、前記エッジ検出部によって検出された複数のエッジ点から前記読取部に対する原稿の傾きを検出し、前記傾きに応じて前記原稿画像範囲の画像に対して傾き補正する傾き補正部と、前記位置のばらつきが前記基準間隔よりも大きい場合、前記エッジ検出部に前回検出した辺とは異なる辺側のエッジ点を複数検出させて、前記間隔取得部にその異なる辺側のエッジ点の位置のばらつきを取得させる制御部と、を備える。   The image reading apparatus disclosed in this specification includes a reading unit that reads an image in a reading range including a document image range obtained by reading a document in a main scanning direction, and the document image based on an image acquired by the reading unit. An edge detection unit that detects a plurality of edge points on one side of the range, an interval acquisition unit that acquires variation in the position of the edge point in a direction orthogonal or parallel to the main scanning direction, and the variation in the position as a reference An inclination correction unit that detects an inclination of the document with respect to the reading unit from a plurality of edge points detected by the edge detection unit and corrects an inclination with respect to an image in the document image range according to the inclination; When the position variation is larger than the reference interval, the edge detection unit detects a plurality of edge points on the side different from the previously detected side, and the interval detection is performed. And a control unit for obtaining a variation in the position of the edge points of the different sides in section, a.

また、上記の画像読取装置では、更に、搬送経路に沿って原稿を搬送する搬送部を備え、前記読取部は、前記搬送経路上に位置し、前記搬送部によって搬送される原稿を読み取り、前記エッジ検出部は、前記原稿画像範囲の先端の一辺側に対してエッジ点を複数検出し、前記制御部は、前記エッジ点の位置のばらつきが前記基準間隔よりも大きい場合、前記エッジ検出部に前記原稿画像範囲の後端の一辺側のエッジ点を複数検出させる構成としても良い。   The image reading apparatus further includes a transport unit that transports a document along a transport path, and the reading unit is positioned on the transport path and reads a document transported by the transport unit. The edge detection unit detects a plurality of edge points with respect to one side of the leading edge of the document image range, and the control unit causes the edge detection unit to detect when the variation in the position of the edge point is larger than the reference interval. A plurality of edge points on one side of the rear end of the document image range may be detected.

また、上記の画像読取装置では、前記制御部は、前記原稿画像範囲の後端の一辺側に対して検出された複数のエッジ点の位置のばらつきが前記基準間隔よりも大きい場合、前記傾き補正部に前記原稿画像範囲の画像に対して傾き補正させない構成としても良い。   Further, in the above image reading apparatus, the control unit corrects the tilt when a variation in the positions of a plurality of edge points detected with respect to one side of the rear end of the document image range is larger than the reference interval. It is also possible to adopt a configuration in which the inclination is not corrected for the image in the original image range.

また、上記の画像読取装置では、前記エッジ検出部は、前記読取範囲の前記主走査方向における両端部を除いた中央部において読み取られた画像から前記複数の点を検出する構成としても良い。   In the image reading apparatus, the edge detection unit may be configured to detect the plurality of points from an image read at a central portion excluding both ends in the main scanning direction of the reading range.

また、上記の画像読取装置では、前記制御部は、前記位置のばらつきが前記傾き補正部が許容する第2基準間隔より大きい場合、前記傾き補正部に前記原稿画像範囲の画像に対して傾き補正させない構成としても良い。   In the image reading apparatus, the control unit may correct the inclination of the image in the document image range to the inclination correction unit when the variation in position is larger than the second reference interval allowed by the inclination correction unit. It is good also as a structure which is not made to do.

本明細書によって開示される画像読取装置では、原稿画像範囲の一辺側に対してエッジ点を複数検出し、そのエッジ点の位置のばらつきが主走査方向に直交または平行な方向において基準間隔よりも大きくばらついている場合には、原稿画像範囲の画像の別の辺に対してエッジ点を検出する。この画像読取装置によれば、原稿画像範囲の一辺が基準間隔よりも大きくばらついている場合に、他の辺に対してエッジ点を検出し、傾きを検出可能な状態とするので、基準間隔よりも大きくばらついている辺から検出された傾きを用いずに原稿の傾きを補正することができる。   In the image reading apparatus disclosed in this specification, a plurality of edge points are detected with respect to one side of the document image range, and the variation in the position of the edge points is more than the reference interval in a direction perpendicular or parallel to the main scanning direction. If there is a large variation, an edge point is detected for another side of the image in the document image range. According to this image reading apparatus, when one side of the document image range varies more than the reference interval, the edge point is detected with respect to the other side, and the inclination can be detected. It is possible to correct the inclination of the document without using the inclination detected from the side that greatly varies.

画像読取装置の概略的な断面図Schematic sectional view of an image reading device 画像読取装置のブロック図Block diagram of image reader 実施形態1の読取処理を示すフローチャート6 is a flowchart illustrating a reading process according to the first embodiment. 実施形態1の傾き補正処理を示すフローチャートThe flowchart which shows the inclination correction process of Embodiment 1. 実施形態1のエッジ検出処理を示すフローチャートThe flowchart which shows the edge detection process of Embodiment 1. 実施形態1のエッジ検出処理を示すフローチャートThe flowchart which shows the edge detection process of Embodiment 1. 傾き検出処理を示すフローチャートFlow chart showing tilt detection processing 実施形態1のエッジ画像EGを示す図The figure which shows the edge image EG of Embodiment 1. 実施形態2の傾き補正処理を示すフローチャートThe flowchart which shows the inclination correction process of Embodiment 2. 実施形態2の傾き補正処理を示すフローチャートThe flowchart which shows the inclination correction process of Embodiment 2. 実施形態2のエッジ検出処理を示すフローチャートThe flowchart which shows the edge detection process of Embodiment 2. 実施形態2のエッジ検出処理を示すフローチャートThe flowchart which shows the edge detection process of Embodiment 2. 実施形態2のエッジ画像EGを示す図The figure which shows the edge image EG of Embodiment 2.

<実施形態1>
実施形態1を、図1ないし図8を用いて説明する。
<Embodiment 1>
The first embodiment will be described with reference to FIGS. 1 to 8.

1.画像読取装置の機械的構成
図1は、本実施形態の画像読取装置1の概略的な断面図である。画像読取装置1は、給紙トレイ2と、本体部3と、排紙トレイ4と、を含む。画像読取装置1は、ユーザにより給紙トレイ2に載置された複数の原稿Gを排紙トレイ4に搬送するとともに、搬送中の原稿Gを本体部3に含まれるCIS24を用いて読み取るシートフィードスキャナである。
1. FIG. 1 is a schematic cross-sectional view of an image reading apparatus 1 of the present embodiment. The image reading apparatus 1 includes a paper feed tray 2, a main body unit 3, and a paper discharge tray 4. The image reading apparatus 1 conveys a plurality of originals G placed on the paper feed tray 2 by a user to the paper discharge tray 4 and reads the original G being conveyed using the CIS 24 included in the main body 3. It is a scanner.

本体部3には、給紙トレイ2と排紙トレイ4を接続する搬送経路22が設けられており、この搬送経路22の周辺に、給紙ローラ20と、分離パッド21と、搬送ローラ23と、CIS24と、フロントセンサ(以下、Fセンサ)25と、リアセンサ(以下、Rセンサ)26と、を備える。CIS24は、読取部の一例である。   The main body 3 is provided with a conveyance path 22 that connects the paper feed tray 2 and the paper discharge tray 4. Around the conveyance path 22, a paper feed roller 20, a separation pad 21, a conveyance roller 23, and the like are provided. , CIS 24, front sensor (hereinafter referred to as F sensor) 25, and rear sensor (hereinafter referred to as R sensor) 26. The CIS 24 is an example of a reading unit.

給紙ローラ20は、給紙トレイ2に載置された原稿Gに当接しており、摩擦力により、給紙トレイ2に載置された複数枚の原稿Gを本体部3の内部へと引き込む。分離パッド21は、摩擦力により、複数枚の原稿Gを1枚の原稿Gに分離する。給紙トレイ2に載置された複数枚の原稿Gは、これらによって、1枚の原稿Gに分離されて本体部3の内部へと引き込まれる。   The paper feed roller 20 is in contact with the original G placed on the paper feed tray 2, and draws a plurality of originals G placed on the paper feed tray 2 into the main body 3 by frictional force. . The separation pad 21 separates a plurality of documents G into a single document G by a frictional force. The plurality of documents G placed on the sheet feed tray 2 are separated into a single document G and drawn into the main body 3.

搬送ローラ23は、モータM(図2参照)により駆動され、本体部3の内部へと引き込まれた原稿Gを搬送経路22上に搬送する。CIS24は、その読取方向である主走査方向D1が搬送経路22に沿った搬送方向D2に直交する姿勢で搬送経路22上に位置し、搬送経路22内を搬送される原稿Gを読み取る。   The conveyance roller 23 is driven by a motor M (see FIG. 2), and conveys the document G drawn into the main body 3 onto the conveyance path 22. The CIS 24 is located on the transport path 22 in a posture in which the main scanning direction D1 as the reading direction is orthogonal to the transport direction D2 along the transport path 22, and reads the document G transported in the transport path 22.

また、搬送ローラ23は、搬送経路22上に搬送された原稿Gを排紙トレイ4に送り出す。搬送ローラ23により排紙トレイ4に排紙された原稿Gは、排紙トレイ4に積層される。つまり、給紙ローラ20と搬送ローラ23とによって、給紙トレイ2に載置された複数枚の原稿Gを搬送経路22に沿って搬送する搬送部27が形成されている。   Further, the transport roller 23 sends the document G transported on the transport path 22 to the paper discharge tray 4. The original G discharged to the paper discharge tray 4 by the transport roller 23 is stacked on the paper discharge tray 4. That is, the paper feed roller 20 and the transport roller 23 form a transport unit 27 that transports a plurality of documents G placed on the paper feed tray 2 along the transport path 22.

Fセンサ25は、給紙トレイ2に配置され、給紙トレイ2に原稿Gが載置された場合にオンし、給紙トレイ2に原稿Gが載置されていない場合にオフするように設定されている。Rセンサ25は、搬送経路22上のCIS24よりも上流側に配置され、搬送経路22上を原稿Gが通過する場合にオンし、搬送経路22上を原稿Gが通過していない場合にオフするように設定されている。また、本体部3には、この他に、電源スイッチや各種設定ボタンからなり、ユーザからの操作指令等を受け付ける入力部5(図2参照)や、LEDからなり画像読取装置1の状況を表示する表示部6(図2参照)、及び出力装置9等が含まれる。なお、出力装置9は、例えば、USBメモリの接続部等からなり、CIS24を用いて原稿Gを読み取った画像を画像読取装置1外に持ち出すためのものである。   The F sensor 25 is disposed in the paper feed tray 2 and is set to be turned on when the original G is placed on the paper feed tray 2 and turned off when the original G is not placed on the paper feed tray 2. Has been. The R sensor 25 is disposed upstream of the CIS 24 on the transport path 22 and is turned on when the document G passes through the transport path 22 and turned off when the document G does not pass through the transport path 22. Is set to In addition, the main body 3 includes a power switch and various setting buttons. The input unit 5 (see FIG. 2) that receives an operation command from the user and the status of the image reading apparatus 1 includes an LED. The display unit 6 (see FIG. 2) and the output device 9 are included. The output device 9 includes, for example, a USB memory connection unit and the like, and is used to take out an image read from the original G using the CIS 24 to the outside of the image reading device 1.

2.画像読取装置の電気的構成
図2は、画像読取装置1の電気的構成を概略的に示すブロック図である。図2に示すよ
うに、画像読取装置1は、画像読取装置1の各部を制御するASIC(特定用途向け集積
回路)10を含む。ASIC10は、中央処理装置(以下、CPU)11と、ROM12
と、RAM13と、デバイス制御部14と、アナログフロントエンド(以下、AFE)1
5と、駆動回路16、画像処理回路17と、を備え、これらにバス18を介して、Fセン
サ25、Rセンサ26などが接続されている
2. FIG. 2 is a block diagram schematically showing the electrical configuration of the image reading apparatus 1. As shown in FIG. 2, the image reading apparatus 1 includes an ASIC (application-specific integrated circuit) 10 that controls each unit of the image reading apparatus 1. The ASIC 10 includes a central processing unit (hereinafter referred to as CPU) 11 and a ROM 12.
RAM 13, device control unit 14, and analog front end (hereinafter referred to as AFE) 1
5, a drive circuit 16, and an image processing circuit 17, to which an F sensor 25, an R sensor 26, and the like are connected via a bus 18 .

ROM12には、画像読取装置1の動作を制御するための各種のプログラムが記憶されており、CPU11は、ROM26から読み出したプログラムに従って、間隔取得部31、傾き補正部32、制御部33等として機能し、各部の制御を行う。デバイス制御部14は、CIS24に接続されており、CPU11からの命令に基づいて読み取りを制御する信号をCIS24に送信する。CIS24は、デバイス制御部14からの信号に基づいて、読取範囲H(図8参照)に亘って原稿Gを読み取り、読み取った読取データをAFE15に出力する。   Various programs for controlling the operation of the image reading apparatus 1 are stored in the ROM 12. The CPU 11 functions as an interval acquisition unit 31, an inclination correction unit 32, a control unit 33, and the like according to the program read from the ROM 26. Then, each part is controlled. The device control unit 14 is connected to the CIS 24 and transmits a signal for controlling reading based on a command from the CPU 11 to the CIS 24. The CIS 24 reads the document G over the reading range H (see FIG. 8) based on a signal from the device control unit 14, and outputs the read data to the AFE 15.

AFE15は、CIS24に接続されており、CPU11からの命令に基づいて、CIS24から出力されるアナログ信号である読取データをデジタル信号である階調データに変換する。読取データ及び階調データは、画像の一例である。AFE15は、CIS24から出力される読取データを、画像読取装置1内に保存、又は画像読取装置1外に持ち出すことを目的としたスキャン画像SGに変換するとともに、読取データのうち、原稿Gを読み取った原稿画像範囲GH(図8参照)を特定するためのエッジ画像EGに変換する。エッジ画像EGは、予め定められた基準輝度を用いて、当該基準輝度よりも高い輝度を有することを示す第1階調値と、当該基準輝度よりも低い輝度を有することを示す第2階調値とに2値化されている。スキャン画像SG及びエッジ画像EGは、バス18を介してRAM13に記憶される。画像処理回路17は、RAM13に記憶されたエッジ画像EGに基づいて原稿画像範囲GHを特定し、原稿画像範囲GHのスキャン画像SGを生成する。   The AFE 15 is connected to the CIS 24, and converts read data, which is an analog signal output from the CIS 24, into gradation data, which is a digital signal, based on a command from the CPU 11. The read data and the gradation data are examples of images. The AFE 15 converts the read data output from the CIS 24 into a scan image SG intended to be stored in the image reading apparatus 1 or taken out of the image reading apparatus 1, and reads the original G from the read data. The original image range GH (see FIG. 8) is converted into an edge image EG for specifying. The edge image EG uses a predetermined reference luminance, a first gradation value indicating that the edge image EG has a luminance higher than the reference luminance, and a second gradation indicating that the edge image EG has a luminance lower than the reference luminance. The value is binarized. The scan image SG and the edge image EG are stored in the RAM 13 via the bus 18. The image processing circuit 17 specifies the document image range GH based on the edge image EG stored in the RAM 13 and generates a scan image SG of the document image range GH.

駆動回路16は、モータMに接続されており、CPU11からの命令に基づいてパルス信号をモータMに送信する。駆動回路16から入力されるパルス信号に応じてモータMが回転すると、これに従って搬送部27が駆動し、搬送経路22に沿って原稿Gをステップ搬送する。つまり、CPU11は、原稿Gを搬送する際に、駆動回路16を介してパルス信号をモータMに送信し、これに従って搬送部27は、そのパルス信号の送信されたパルスの数に規定距離Lを掛けた距離だけ原稿Gを搬送する。以後、駆動回路16が搬送部27に送信するパルス信号のパルスの数を、ステップ数と呼ぶ。   The drive circuit 16 is connected to the motor M, and transmits a pulse signal to the motor M based on a command from the CPU 11. When the motor M rotates in accordance with the pulse signal input from the drive circuit 16, the conveyance unit 27 is driven in accordance with this, and the original G is step-conveyed along the conveyance path 22. That is, when conveying the document G, the CPU 11 transmits a pulse signal to the motor M via the drive circuit 16, and the conveying unit 27 accordingly sets the specified distance L to the number of pulses transmitted from the pulse signal. The original G is conveyed by the multiplied distance. Hereinafter, the number of pulses of the pulse signal that the drive circuit 16 transmits to the transport unit 27 is referred to as a step number.

3.読取処理
次に、図3ないし図8を参照して、CIS24を用いて原稿Gを読み取る場合の、CPU11における処理について説明する。
3. Reading Processing Next, processing in the CPU 11 when reading the original G using the CIS 24 will be described with reference to FIGS.

図3は、CPU11が所定のプログラムに従って実行する処理のフローチャートを示す。CPU11は、Fセンサ25を用いて給紙トレイ2に原稿Gが載置されたことが確認され、入力部5を介して原稿Gの読取指示が入力されると、処理を開始する。   FIG. 3 shows a flowchart of processing executed by the CPU 11 according to a predetermined program. The CPU 11 starts processing when it is confirmed that the document G is placed on the paper feed tray 2 using the F sensor 25 and an instruction to read the document G is input via the input unit 5.

(基本処理)
CPU11は、処理を開始すると、駆動回路16を用いて搬送部27を駆動し、原稿Gの搬送を開始する(S2)。CPU11は、Rセンサ26を用いて搬送中の原稿Gの位置を検出し(S4:NO)、Rセンサ26がオンすると(S4:YES)、Rセンサ26によってオンしてからCIS24による読み取りを開始するまでの第1ステップ数ST1がカウントされるのを待機する(S6:NO)。第1ステップ数ST1は、搬送方向D2におけるRセンサ26とCIS24との間の距離、及び読取範囲Hに基づいて決定される。
(Basic processing)
When starting the processing, the CPU 11 drives the transport unit 27 using the drive circuit 16 and starts transporting the document G (S2). The CPU 11 detects the position of the document G being conveyed using the R sensor 26 (S4: NO). When the R sensor 26 is turned on (S4: YES), reading by the CIS 24 is started after the R sensor 26 is turned on. It waits until the first step number ST1 until it is counted (S6: NO). The first step number ST1 is determined based on the distance between the R sensor 26 and the CIS 24 in the transport direction D2 and the reading range H.

CPU11は、Rセンサ26によってオンしてから第1ステップ数ST1がカウントされると(S6:YES)、CIS24を用いて原稿Gの読み取りを開始する(S8)。また、CPU11は、Rセンサ26がオフするのを待機しており(S10:NO)、Rセンサ26がオフすると(S10:YES)、Rセンサ26によってオフしてからCIS24による読み取りを終了するまでの第2ステップ数ST2がカウントされる(S12)のを待機するとともに、次の原稿GによってRセンサ26が再びオンする(S22)のを待機する。第2ステップ数ST2は、第1ステップ数ST1と同様に、搬送方向D2におけるRセンサ26とCIS24との間の距離、及び読取範囲Hに基づいて決定される。   When the first step number ST1 is counted after being turned on by the R sensor 26 (S6: YES), the CPU 11 starts reading the document G using the CIS 24 (S8). The CPU 11 waits for the R sensor 26 to turn off (S10: NO). When the R sensor 26 is turned off (S10: YES), the CPU 11 turns off the R sensor 26 and ends reading by the CIS 24. The second step number ST2 is counted (S12) and the R sensor 26 is turned on again by the next original G (S22). Similarly to the first step number ST1, the second step number ST2 is determined based on the distance between the R sensor 26 and the CIS 24 in the transport direction D2 and the reading range H.

CPU11は、Rセンサ26が再びオンする前に第2ステップ数ST2がカウントされた場合(S12:YES、S14:NO)、原稿Gの読取範囲Hに亘る読み取りが完了したことを検知する。CPU11は、原稿Gの読み取りを終了し(S22)、後述する傾き補正処理を実行する(S24)。つまり、本実施形態では、CPU11は、原稿Gの読取範囲Hの全域に亘る読み取りを完了した後に、読取範囲Hの全域に対応するエッジ画像EGを用いて傾き補正処理を実行する。傾き補正処理実行後、CPU11は、Fセンサ25がオンしているか否かを確認し(S26)、Fセンサ25がオフしている場合(S26:NO)、給紙トレイ2に読み取られずに残っている原稿Gは無いと判断し、原稿Gの搬送を停止し、読取処理を終了する。   When the second step number ST2 is counted before the R sensor 26 is turned on again (S12: YES, S14: NO), the CPU 11 detects that the reading of the document G over the reading range H has been completed. The CPU 11 ends the reading of the original G (S22) and executes an inclination correction process described later (S24). In other words, in the present embodiment, the CPU 11 executes the tilt correction process using the edge image EG corresponding to the entire reading range H after completing the reading of the original G over the entire reading range H. After executing the inclination correction process, the CPU 11 checks whether or not the F sensor 25 is turned on (S26). If the F sensor 25 is turned off (S26: NO), the CPU 11 remains unread on the paper feed tray 2. It is determined that there is no original G, the conveyance of the original G is stopped, and the reading process is terminated.

また、CPU11は、Fセンサ25がオンしている場合(S26:YES)、次に搬送される原稿Gに対して処理を実行する。CPU11は、Rセンサ26を用いて次に搬送される原稿Gの位置を検出し(S28:NO)、Rセンサ26がオンすると(S28:YES)、S6からの処理を繰り返す。   Further, when the F sensor 25 is on (S26: YES), the CPU 11 executes processing for the document G to be conveyed next. The CPU 11 detects the position of the next original G to be conveyed using the R sensor 26 (S28: NO), and repeats the processing from S6 when the R sensor 26 is turned on (S28: YES).

一方、CPU11は、第2ステップ数ST2がカウントされる前にRセンサ26が再びオンした場合(S12:NO、S14:YES)、第2ステップ数ST2のカウントを継続する(S16:NO)。CPU11は、第2ステップ数ST2がカウントされると(S16:YES)、原稿Gの読み取りを終了するとともに(S18)、後述する傾き補正処理を実行する(S20)。傾き補正処理実行後、CPU11は、S6に戻り、次に搬送される原稿Gに対して処理を実行する。   On the other hand, if the R sensor 26 is turned on again before the second step number ST2 is counted (S12: NO, S14: YES), the CPU 11 continues to count the second step number ST2 (S16: NO). When the second step number ST2 is counted (S16: YES), the CPU 11 ends the reading of the original G (S18) and executes an inclination correction process described later (S20). After executing the inclination correction process, the CPU 11 returns to S6 and executes the process on the next original G to be conveyed.

(傾き検出処理)
図4を用いて、傾き補正処理を説明する。傾き補正処理において、CPU11は、まずエッジ点検出処理を実行する(S30)。CPU11は、原稿Gを搬送経路22上に搬送させながら読み取る際に、搬送される原稿Gが搬送方向D2に対して傾いた場合でも、画像欠落を生じさせることなく原稿Gを読み取るために、原稿Gよりも広い読取範囲Hを設定している。そのため、図8に示すように、読取範囲Hの全域を読み取ったエッジ画像EGの内に、原稿Gを読み取った原稿画像範囲GHの画像が含まれる。エッジ点検出処理において、CPU11は、画像処理回路17を用いて、RAM13に記憶されたエッジ画像EGから、原稿Gを読み取った原稿画像範囲GHの境界線上の点であるエッジ点Pを検出する処理を実行する。
(Tilt detection processing)
The tilt correction process will be described with reference to FIG. In the inclination correction process, the CPU 11 first executes an edge point detection process (S30). When the CPU 11 reads the document G while transporting it on the transport path 22, even if the transported document G is inclined with respect to the transport direction D <b> 2, the CPU 11 reads the document G without causing image loss. A reading range H wider than G is set. Therefore, as shown in FIG. 8, the image of the original image range GH obtained by reading the original G is included in the edge image EG obtained by reading the entire reading range H. In the edge point detection process, the CPU 11 uses the image processing circuit 17 to detect, from the edge image EG stored in the RAM 13, an edge point P that is a point on the boundary line of the document image range GH from which the document G is read. Execute.

図5、6を用いて、エッジ点検出処理を説明する。CPU11は、エッジ点検出処理を開始すると、読取範囲Hの全域に対応するエッジ画像EGから、主走査方向D1の両端部OBを除いた中央部IBのエッジ画像EGを選出する(S42)。エッジ画像EGの主走査方向D1は、CIS24の主走査方向D1と等しいことから、エッジ画像EGの中央部IBは、CIS24の主走査方向D1における両端部を除いた中央部において読み取られたエッジ画像EGであるということができる。以後のエッジ点検出処理の説明では、選出した中央部IBのエッジ画像EGに対してエッジ点Pを検出する処理を実行する。   The edge point detection process will be described with reference to FIGS. When starting the edge point detection process, the CPU 11 selects an edge image EG of the central portion IB excluding both end portions OB in the main scanning direction D1 from the edge image EG corresponding to the entire reading range H (S42). Since the main scanning direction D1 of the edge image EG is equal to the main scanning direction D1 of the CIS 24, the central portion IB of the edge image EG is an edge image read at the central portion excluding both ends in the main scanning direction D1 of the CIS 24. It can be said that it is EG. In the following description of the edge point detection process, a process of detecting the edge point P is performed on the selected edge image EG of the central portion IB.

次に、CPU11は、エッジ点Pを検出するための各種パラメータを設定する。CPU11は、パラメータとして、Xstart、Ystart、dX、dY、Ypeakmax、Ypeakmin、nの各パラメータを有している。ここで、図8に示すように、(X、Y)はエッジ画像EGにおける座標系を示しており、Xは主走査方向D1と平行な座標軸、Yは搬送方向D2と平行な座標軸を示している。本実施形態では、座標系(X、Y)の原点として、選出された中央部IBのエッジ画像EGのうち、最もX座標及びY座標が小さくなる点を原点とし、この場合に、X座標が最大となる点のX座標をXmaxとし、Y座標が最大となる点のY座標をYmaxとしている。   Next, the CPU 11 sets various parameters for detecting the edge point P. The CPU 11 has parameters of Xstart, Ystart, dX, dY, Ypeakmax, Ypeakmin, and n as parameters. Here, as shown in FIG. 8, (X, Y) represents a coordinate system in the edge image EG, X represents a coordinate axis parallel to the main scanning direction D1, and Y represents a coordinate axis parallel to the transport direction D2. Yes. In the present embodiment, as the origin of the coordinate system (X, Y), the point where the X coordinate and the Y coordinate are the smallest among the selected edge images EG of the central portion IB is used as the origin. In this case, the X coordinate is The X coordinate of the maximum point is Xmax, and the Y coordinate of the point where the Y coordinate is maximum is Ymax.

本実施形態では、CPU11は、エッジ点Pを検出する際に、設定された複数のX座標において搬送方向D2にエッジ点Pの検出を進め、後述するエッジ点Pの条件を満たす位置の各Y座標を検出する。そして、間隔取得部31として機能するCPU11は、複数のX座標に対応する複数のエッジ点Pの位置のばらつきを、Y座標のばらつきとして取得する。Xstartは、複数のX座標のうち最も小さいX座標を示しており、dXは、複数のX座標の間隔を示している。また、Ystartは、搬送方向D2に検出を開始するY座標を示しており、dYは、搬送方向D2に検出を進める際の検出分解能を示している。また、Ypeakmaxは、検出されたエッジ点Pのうち、最もY座標が大きいエッジ点PのY座標を示しており、Ypeakminは、検出されたエッジ点Pのうち、最もY座標が小さいエッジ点PのY座標を示している。   In the present embodiment, when the CPU 11 detects the edge point P, the CPU 11 advances the detection of the edge point P in the transport direction D2 with respect to a plurality of set X coordinates, and each Y at a position that satisfies the condition of the edge point P described later. Detect coordinates. Then, the CPU 11 functioning as the interval acquisition unit 31 acquires variations in the positions of the plurality of edge points P corresponding to the plurality of X coordinates as variations in the Y coordinate. Xstart indicates the smallest X coordinate among the plurality of X coordinates, and dX indicates an interval between the plurality of X coordinates. Ystart indicates a Y coordinate at which detection starts in the transport direction D2, and dY indicates a detection resolution when the detection proceeds in the transport direction D2. Ypeakmax indicates the Y coordinate of the edge point P having the largest Y coordinate among the detected edge points P, and Ypeakmin indicates the edge point P having the smallest Y coordinate among the detected edge points P. The Y coordinate is shown.

CPU11は、エッジ画像EGに対してエッジ点Pを検出する際に、まずエッジ画像EGの先端の一辺側に対してエッジ点P(以後、先端エッジ点P)を複数検出する。CPU11は、先端エッジ点Pを複数検出するためのパラメータを設定する。CPU11は、例えば、Xstart=dX=8、Ystart=0、dY=1と設定する(S44)。また、CPU11は、Ypeakmax=0、Ypeakmin=Ymaxと設定し(S46)、前回のエッジ点検出処理において記憶されたピーク値をリセットする。   When detecting the edge point P from the edge image EG, the CPU 11 first detects a plurality of edge points P (hereinafter referred to as the leading edge point P) from one side of the leading edge of the edge image EG. The CPU 11 sets parameters for detecting a plurality of leading edge points P. For example, the CPU 11 sets Xstart = dX = 8, Ystart = 0, and dY = 1 (S44). The CPU 11 sets Ypeakmax = 0 and Ypeakmin = Ymax (S46), and resets the peak value stored in the previous edge point detection process.

次に、CPU11は、設定されたパラメータを用いて複数のエッジ点Pの検出を開始する。CPU11は、エッジ点Pの検出に用いる検出点E(Xe、Ye)を有しており、Xe=Xstartと設定する(S48)。また、検出された先端エッジ点Pの個数を示すnを、n=0と設定する(S50)。   Next, the CPU 11 starts detecting a plurality of edge points P using the set parameters. The CPU 11 has a detection point E (Xe, Ye) used for detection of the edge point P, and sets Xe = Xstart (S48). Further, n indicating the number of detected leading edge points P is set to n = 0 (S50).

次に、CPU11は、nを「1」増加させ(S52)、Ye=Ystart(=0)と設定し(S54)、検出点Eがエッジ点Pであるか否かを確認する(S56)。具体的には、検出点(Xe、Ye)の階調値が第1階調値となっている場合、検出点(Xe、Ye)がエッジ点Pであると判断する。一方、検出点Eの階調値が第2階調値となっている場合、検出点Eがエッジ点Pでないと判断する。   Next, the CPU 11 increases n by “1” (S52), sets Ye = Ystart (= 0) (S54), and checks whether the detection point E is the edge point P (S56). Specifically, when the gradation value of the detection point (Xe, Ye) is the first gradation value, it is determined that the detection point (Xe, Ye) is the edge point P. On the other hand, when the gradation value of the detection point E is the second gradation value, it is determined that the detection point E is not the edge point P.

CPU11は、検出点Eがエッジ点Pでないと検出すると(S56:NO)、YeをdY増加させ(S58)、増加後のYeがYmaxよりも大きいか、または増加後のYeが「0」よりも小さいかのいずれかの条件を満たすか否かを確認する(S60)。CPU11は、増加後のYeが上記いずれかの条件を満たさない場合(S60:NO)、S56からの処理を繰り返し、搬送方向D2にエッジ画像EGの検出を進める。   When the CPU 11 detects that the detection point E is not the edge point P (S56: NO), it increases Ye by dY (S58), and the increased Ye is greater than Ymax, or the increased Ye is less than “0”. It is confirmed whether or not any of the following conditions is satisfied (S60). When the increased Ye does not satisfy any of the above conditions (S60: NO), the CPU 11 repeats the processing from S56 and advances the detection of the edge image EG in the transport direction D2.

また、CPU11は、増加後のYeが上記いずれかの条件を満たす場合(S60:YES)、XeをdX増加させ(S62)、増加後のXeがXmaxよりも大きいか否かを確認する(S64)。CPU11は、増加後のXeがXmax以下の場合(S64:NO)、S54からの処理を繰り返す。また、CPU11は、増加後のXeがXmaxよりも大きい場合(S64:YES)、エッジ点Pの検出に失敗したと判断する。   If the increased Ye satisfies any of the above conditions (S60: YES), the CPU 11 increases Xe by dX (S62), and confirms whether the increased Xe is greater than Xmax (S64). ). When the increased Xe is equal to or less than Xmax (S64: NO), the CPU 11 repeats the processing from S54. Further, when the increased Xe is larger than Xmax (S64: YES), the CPU 11 determines that the detection of the edge point P has failed.

一方、CPU11は、検出点Eがエッジ点Pであると検出すると(S56:NO)、検出点Eをn番目のエッジ点Pであるエッジ点PnとしてRAM13に記憶する(S66)。CPU11は、更にエッジ点Pnとして記憶した検出点EのYeをYpeakmax及びYpeakminと比較する(S68、S72)。CPU11は、YeがYpeakmaxよりも大きい場合(S68:YES)、Ypeakmaxの値を当該Yeの値に再設定し(S70)、YeがYpeakmax以下の場合(S68:NO)、Ypeakmaxの値を現在の値に維持する。また、CPU11は、YeがYpeakminよりも小さい場合(S72:YES)、Ypeakminの値を当該Yeの値に再設定し(S74)、YeがYpeakmin以上の場合(S72:NO)、Ypeakminの値を現在の値に維持する。   On the other hand, when the CPU 11 detects that the detection point E is the edge point P (S56: NO), the CPU 11 stores the detection point E in the RAM 13 as the edge point Pn which is the nth edge point P (S66). The CPU 11 further compares Ye of the detection point E stored as the edge point Pn with Ypeakmax and Ypeakmin (S68, S72). When Ye is larger than Ypeakmax (S68: YES), the CPU 11 resets the value of Ypeakmax to the value of Ye (S70), and when Ye is equal to or less than Ypeakmax (S68: NO), the value of Ypeakmax is set to the current value. Keep the value. Further, when Ye is smaller than Ypeakmin (S72: YES), the CPU 11 resets the value of Ypeakmin to the value of Ye (S74), and when Ye is equal to or greater than Ypeakmin (S72: NO), the value of Ypeakmin is set. Keep the current value.

次に、CPU11は、YpeakminからYpeakminを引いてエッジ点PのY座標のばらつきを示す差分値ΔYを算出する。上述したように、差分値ΔYは、複数のエッジ点Pの位置のばらつきを示すということができる。そして、CPU11は、この差分値ΔYを予め記憶された基準間隔Kと比較する(S76)。CPU11は、差分値ΔYが基準間隔K以下の場合(S76:NO)、nが後述する傾き検出処理に必要なエッジ点数である必要個数nK以上であるか否かを確認する(S78)。CPU11は、nが必要個数nK以上である場合(S78:YES)、エッジ点Pの検出に成功したと判断する。   Next, the CPU 11 subtracts Ypeakmin from Ypeakmin to calculate a difference value ΔY indicating the variation in the Y coordinate of the edge point P. As described above, the difference value ΔY can be said to indicate variations in the positions of the plurality of edge points P. Then, the CPU 11 compares the difference value ΔY with a reference interval K stored in advance (S76). When the difference value ΔY is equal to or smaller than the reference interval K (S76: NO), the CPU 11 checks whether n is equal to or larger than a necessary number nK, which is the number of edge points necessary for an inclination detection process described later (S78). The CPU 11 determines that the edge point P has been successfully detected when n is equal to or greater than the necessary number nK (S78: YES).

また、CPU11は、nが必要個数nKよりも少ない場合(S78:NO)、XeをdX増加させ(S80)、増加後のXeがXmaxよりも大きいか否かを確認する(S82)。CPU11は、増加後のXeがXmax以下の場合(S82:NO)、S52からの処理を繰り返す。また、CPU11は、増加後のXeがXmaxよりも大きい場合(S82:YES)、エッジ点Pの検出に失敗したと判断する。   When n is smaller than the required number nK (S78: NO), the CPU 11 increases Xe by dX (S80), and checks whether the increased Xe is larger than Xmax (S82). When the increased Xe is equal to or less than Xmax (S82: NO), the CPU 11 repeats the processing from S52. Further, when the increased Xe is larger than Xmax (S82: YES), the CPU 11 determines that the detection of the edge point P has failed.

一方、制御部33として機能するCPU11は、差分値ΔYが基準間隔Kよりも大きい場合(S76:YES)、現在検出しているエッジ点Pが先端エッジ点Pであるかを確認する(S84)。CPU11は、現在設定されているYstart等のパラメータから現在検出しているエッジ点Pが先端エッジ点Pであるかを確認する。CPU11は、現在検出しているエッジ点Pが先端エッジ点Pである場合(S84:YES)、先端エッジ点Pの検出を終了し、次に、エッジ画像EGの後端の一辺側に対してエッジ点P(以後、後端エッジ点P)を複数検出する。   On the other hand, when the difference value ΔY is larger than the reference interval K (S76: YES), the CPU 11 functioning as the control unit 33 confirms whether the edge point P currently detected is the leading edge point P (S84). . The CPU 11 confirms whether the edge point P currently detected from the currently set parameters such as Ystart is the tip edge point P. When the currently detected edge point P is the leading edge point P (S84: YES), the CPU 11 ends the detection of the leading edge point P, and next, with respect to one side of the trailing edge of the edge image EG A plurality of edge points P (hereinafter, rear end edge points P) are detected.

CPU11は、後端エッジ点Pを複数検出するためのパラメータを設定する。CPU11は、例えば、Xstart=dX=8、Ystart=Ymax、dY=−1と設定し(S86)、S46に戻り、後端エッジ点Pに対して差分値ΔYを算出し、基準間隔Kと比較する(S76)等の処理を繰り返す。そして、CPU11は、後端エッジ点Pにおいても算出された差分値ΔYが基準間隔Kよりも大きい場合(S76:YES、S84:NO)、エッジ点Pの検出に失敗したと判断する。   The CPU 11 sets parameters for detecting a plurality of trailing edge points P. For example, the CPU 11 sets Xstart = dX = 8, Ystart = Ymax, dY = −1 (S86), returns to S46, calculates the difference value ΔY for the trailing edge point P, and compares it with the reference interval K. (S76) and the like are repeated. Then, when the difference value ΔY calculated also at the trailing edge point P is larger than the reference interval K (S76: YES, S84: NO), the CPU 11 determines that the detection of the edge point P has failed.

図4に示すように、制御部33として機能するCPU11は、エッジ点検出処理においてエッジ点Pの検出に失敗した場合(S32:NO)、後述する傾き検出処理(S34)、及びスキャン画像回転処理(S38)を実行することなく、図3のS6又はS26の処理に戻る。一方、CPU11は、エッジ点検出処理においてエッジ点Pの検出に成功した場合(S32:YES)、傾き検出処理を実行する(S34)。   As illustrated in FIG. 4, when the CPU 11 functioning as the control unit 33 fails to detect the edge point P in the edge point detection process (S32: NO), an inclination detection process (S34) described later and a scan image rotation process are performed. Without executing (S38), the process returns to S6 or S26 of FIG. On the other hand, when the edge point P is successfully detected in the edge point detection process (S32: YES), the CPU 11 executes the inclination detection process (S34).

図7を用いて、傾き検出処理を説明する。CPU11は、傾き検出処理を開始すると、得られたエッジ点Pを直線近似し、当該直線の主走査方向D1に対する角度である傾きθを算出する(S92)。CPU11は、傾きθが後述するスキャン画像回転処理が可能な上限値である補正可能限界θL以下であるか否かを確認する(S94)。傾きθは、エッジ点Pの位置のばらつきに基づいて決定されることから、補正可能限界θLは、スキャン画像回転処理においてエッジ点Pの位置のばらつきが許容されるものか否かを区分する第2基準間隔の一例ということができる。   The tilt detection process will be described with reference to FIG. When starting the tilt detection process, the CPU 11 linearly approximates the obtained edge point P, and calculates a tilt θ that is an angle of the straight line with respect to the main scanning direction D1 (S92). The CPU 11 confirms whether or not the inclination θ is equal to or smaller than a correctable limit θL that is an upper limit value that allows scanning image rotation processing described later (S94). Since the inclination θ is determined based on the variation in the position of the edge point P, the correctable limit θL is used to classify whether or not the variation in the position of the edge point P is allowed in the scan image rotation process. It can be said to be an example of two reference intervals.

CPU11は、傾きθが補正可能限界θLよりも大きい場合(S94:NO)、傾きθの検出に失敗したと判断する。一方、傾きθが補正可能限界θL以下の場合(S94:YES)、傾きθから傾き補正量θHを算出し(S96)、傾きθの検出に成功したと判断する。本実施形態のように、エッジ点Pとして先端エッジ点P及び後端エッジ点Pを検出している場合、傾き補正量θHは傾きθと一致する。また、主走査方向D1にエッジ点Pの検出を進めエッジ点Pを検出している場合、傾き補正量θHは傾きθから90°を引いた、あるいは90°から傾きθを引いた値となる。   When the inclination θ is larger than the correctable limit θL (S94: NO), the CPU 11 determines that the detection of the inclination θ has failed. On the other hand, when the inclination θ is equal to or less than the correctable limit θL (S94: YES), the inclination correction amount θH is calculated from the inclination θ (S96), and it is determined that the inclination θ is successfully detected. When the leading edge point P and the trailing edge point P are detected as the edge points P as in the present embodiment, the inclination correction amount θH matches the inclination θ. Further, when the edge point P is detected in the main scanning direction D1 and the edge point P is detected, the inclination correction amount θH is a value obtained by subtracting 90 ° from the inclination θ, or subtracting the inclination θ from 90 °. .

図4に示すように、制御部33として機能するCPU11は、傾き検出処理において傾きθの検出に失敗した場合(S36:NO)、後述するスキャン画像回転処理(S38)を実行することなく、図3のS6又はS26の処理に戻る。一方、傾き補正部32として機能するCPU11は、傾き検出処理において傾きθの検出に成功した場合(S36:YES)、スキャン画像回転処理を実行する(S38)。CPU11は、RAM13に記憶された原稿画像範囲GHのスキャン画像SGを、傾き検出処理において算出された傾き補正量θHだけ回転させる。スキャン画像回転処理終了後、CPU11は、図3のS6又はS26の処理に戻る。   As shown in FIG. 4, when the CPU 11 functioning as the control unit 33 fails to detect the inclination θ in the inclination detection process (S36: NO), the CPU 11 does not execute the scan image rotation process (S38) described later. The process returns to S6 or S26. On the other hand, when the CPU 11 functioning as the inclination correction unit 32 succeeds in detecting the inclination θ in the inclination detection process (S36: YES), the CPU 11 executes a scan image rotation process (S38). The CPU 11 rotates the scan image SG in the document image range GH stored in the RAM 13 by the tilt correction amount θH calculated in the tilt detection process. After completing the scan image rotation process, the CPU 11 returns to the process of S6 or S26 of FIG.

4.本実施形態の効果
(1)画像読取装置1では、エッジ画像EGの原稿画像範囲GHの先端の一辺側に対してエッジ点Pを複数検出し、そのエッジ点Pの位置のばらつきを示す差分値ΔYが基準間隔Kよりも大きくばらついている場合には、原稿画像範囲GHの後端の一辺側に対してエッジ点Pを検出する。そのため、差分値ΔYが基準間隔Kよりも大きくばらついているエッジ画像EGの原稿画像範囲GHの先端の一辺から傾きθを算出し、原稿Gの傾きを補正することがなく、原稿画像範囲GHを特定する特定精度の悪化を抑制することができる。
4). Advantages of the present embodiment (1) In the image reading apparatus 1, a plurality of edge points P are detected with respect to one side of the leading edge of the document image range GH of the edge image EG, and a difference value indicating variation in the position of the edge point P is detected. When ΔY is larger than the reference interval K, the edge point P is detected with respect to one side of the rear end of the document image range GH. Therefore, the inclination θ is calculated from one side of the leading edge of the document image range GH of the edge image EG in which the difference value ΔY varies more than the reference interval K, and the document image range GH is corrected without correcting the inclination of the document G. It is possible to suppress the deterioration of the specified specific accuracy.

(2)画像読取装置1では、エッジ画像EGの原稿画像範囲GHの先端及び後端の一辺側に対する差分値ΔYが基準間隔Kよりも大きくばらついている場合に、原稿画像範囲GHに対して傾き検出処理、及びスキャン画像回転処理を実行しない。そのため、不正確にスキャン画像SGの原稿画像範囲GHが回転処理されてしまうことを抑制することができ、原稿画像範囲GHを特定する特定精度の悪化を抑制することができる。 (2) In the image reading apparatus 1, when the difference value ΔY with respect to one side of the leading edge and the trailing edge of the document image range GH of the edge image EG varies more than the reference interval K, the image reading apparatus 1 is inclined with respect to the document image range GH. The detection process and the scan image rotation process are not executed. Therefore, it is possible to prevent the original image range GH of the scan image SG from being rotated inaccurately, and it is possible to suppress the deterioration of the specific accuracy for specifying the original image range GH.

(3)画像読取装置1では、図8に示すように、読取範囲Hの全域に対応するエッジ画像EGから、主走査方向D1の両端部OBを除いた中央部IBのエッジ画像EGを選出し、この中央部IBのエッジ画像EGに対してエッジ点Pを検出する。通常、CIS24で原稿Gを読み取る際に、原稿Gは、CIS24の読取範囲Hの略中央に配置されることが多い。そのため、CIS24の中央部において読み取られたエッジ画像EGである中央部IBのエッジ画像EGには、原稿画像範囲GHの先端及び後端の一辺が含まれているものの、他の辺が含まれていないことが多い。この画像読取装置1によれば、原稿画像範囲GHの先端及び後端の一辺側に対して複数のエッジ点Pを検出する際に、他の辺側に対するエッジ点Pが誤検出されてしまうことが抑制され、誤検出による傾き検出精度の悪化等の問題の発生が抑制される。 (3) In the image reading apparatus 1, as shown in FIG. 8, the edge image EG of the central portion IB excluding both end portions OB in the main scanning direction D1 is selected from the edge images EG corresponding to the entire reading range H. Then, an edge point P is detected for the edge image EG of the central portion IB. Normally, when the original G is read by the CIS 24, the original G is often arranged at the approximate center of the reading range H of the CIS 24. Therefore, the edge image EG of the central portion IB, which is the edge image EG read at the central portion of the CIS 24, includes one side of the document image range GH, but includes other sides. Often not. According to the image reading apparatus 1, when a plurality of edge points P are detected for one side of the leading edge and the trailing edge of the document image range GH, the edge point P for the other side is erroneously detected. And the occurrence of problems such as deterioration in tilt detection accuracy due to erroneous detection is suppressed.

(4)画像読取装置1では、エッジ画像EGの原稿画像範囲GHの先端及び後端の一辺側に対する差分値ΔYが基準間隔Kよりも大きくばらつき、傾き補正部32として機能するCPU11により精度よく傾き補正できない場合に、スキャン画像SGの原稿画像範囲GHに対してスキャン画像回転処理を実行しない。そのため、不正確にスキャン画像SGの原稿画像範囲GHが回転処理されてしまうことを抑制することができ、原稿画像範囲GHを特定する特定精度の悪化を抑制することができる。 (4) In the image reading apparatus 1, the difference value ΔY with respect to one side of the leading edge and the trailing edge of the document image range GH of the edge image EG varies more than the reference interval K, and the CPU 11 functioning as the inclination correcting unit 32 accurately tilts. When the correction cannot be performed, the scan image rotation process is not performed on the document image range GH of the scan image SG. Therefore, it is possible to prevent the original image range GH of the scan image SG from being rotated inaccurately, and it is possible to suppress the deterioration of the specific accuracy for specifying the original image range GH.

<実施形態2>
実施形態2を、図9ないし図13を用いて説明する。本実施形態では、CPU11は、原稿Gの読取範囲Hの全域に亘って読み取りをする際に、読取範囲Hの全域に対応するエッジ画像EGをRAM13に記憶しない点で、実施形態1の画像読取装置1と異なる。本実施形態では、CPU11は、原稿Gの読取範囲Hの全域に亘って読み取りをする際に、図13に示すように、AFE15を用いて、原稿画像範囲GHの先端の一辺が含まれる範囲の先端エッジ画像EG1をRAM13に記憶し、原稿画像範囲GHの後端の一辺が含まれる範囲の後端エッジ画像EG2をRAM13に記憶し、これらのエッジ画像EG1、EG2を用いて傾き補正処理を実行する。以下の説明では、実施形態1と同一の内容については重複した記載を省略する。
<Embodiment 2>
The second embodiment will be described with reference to FIGS. 9 to 13. In the present embodiment, the CPU 11 does not store the edge image EG corresponding to the entire reading range H in the RAM 13 when reading over the entire reading range H of the document G. Different from device 1. In the present embodiment, when the CPU 11 performs reading over the entire reading range H of the document G, as shown in FIG. 13, the CPU 11 uses the AFE 15 to select a range that includes one side of the leading edge of the document image range GH. The leading edge image EG1 is stored in the RAM 13, the trailing edge image EG2 in the range including one side of the trailing edge of the document image range GH is stored in the RAM 13, and the inclination correction process is executed using these edge images EG1 and EG2. To do. In the following description, the same description as that of the first embodiment will not be repeated.

1.読取処理
(基本処理)
図9、10に示すように、CPU11は、処理を開始し、Rセンサ26がオンすると(S4:YES)、傾き補正量θHをクリアする(S102)。そして、CPU11は、Rセンサ26がオンしてから第1ステップ数がカウントされると(S6:YES)、CIS24を用いて原稿Gの読み取りを開始する(S104)。この際、CPU11は、上述したように、AFE15を用いて、原稿Gの読取範囲Hの全域に亘ってスキャン画像SGをRAM13に記憶する一方、エッジ画像EGについては、先端エッジ画像EG1及び後端エッジ画像EG2に限ってRAM13に記憶する。
1. Reading process (basic process)
As shown in FIGS. 9 and 10, the CPU 11 starts the process, and when the R sensor 26 is turned on (S4: YES), the CPU 11 clears the inclination correction amount θH (S102). Then, when the first step number is counted after the R sensor 26 is turned on (S6: YES), the CPU 11 starts reading the original G using the CIS 24 (S104). At this time, as described above, the CPU 11 uses the AFE 15 to store the scan image SG in the RAM 13 over the entire reading range H of the document G, while the edge image EG includes the leading edge image EG1 and the trailing edge. Only the edge image EG2 is stored in the RAM 13.

CPU11は、CIS24の読取開始から先端エッジ画像EG1に相当する第3ステップ数ST3がカウントされているか否かを確認する(S106)。ここで、第3ステップ数ST3は、読取範囲H及び原稿サイズに基づいて決定される。CPU11は、CIS24の読取開始から第3ステップ数ST3がカウントされている場合(S106:YES)、読み取られた先端エッジ画像EG1に対して図4に示す傾き補正処理(S108)を行う。先端エッジ画像EG1に対する傾き補正処理において、傾き補正部32として機能するCPU11は、それまでに読み取られた原稿画像範囲GHのスキャン画像SGを算出された傾き補正量θHだけ回転させるとともに、その後に読み取られる原稿画像範囲GHのスキャン画像SGに対しても順次回転させる処理を実行する。   The CPU 11 checks whether or not the third step number ST3 corresponding to the leading edge image EG1 has been counted since the reading of the CIS 24 was started (S106). Here, the third step number ST3 is determined based on the reading range H and the document size. When the third step number ST3 is counted from the start of reading of the CIS 24 (S106: YES), the CPU 11 performs an inclination correction process (S108) shown in FIG. 4 on the read leading edge image EG1. In the inclination correction processing for the leading edge image EG1, the CPU 11 functioning as the inclination correction unit 32 rotates the scan image SG of the document image range GH read so far by the calculated inclination correction amount θH, and then reads it. A process of sequentially rotating the scanned image SG in the original image range GH is executed.

また、CPU11は、CIS24の読取開始から第3ステップ数ST3がカウントされていない場合(S106:NO)、傾き補正処理を行うことなくS10の処理を実行する。S10の処理において、CPU11は、Rセンサ26がオフしているか否かを確認し(S10)、Rセンサ26がオフしている場合(S10:YES)、第2ステップ数ST2がカウントされる(S12)のを待機するとともに、Rセンサ26が再びオンする(S22)のを待機する。一方、CPU11は、Rセンサ26がオフしていない場合(S10:NO)、S106からの処理を繰り返す。CPU11は、S106からの処理を繰り返す際、それまでの処理において第3ステップ数ST3がカウントされており(S106:YES)、先端エッジ画像EG1に対して傾き補正処理(S108)が行われている場合、再度傾き補正処理(S108)を実行しない。   Further, when the third step number ST3 has not been counted since the reading of the CIS 24 is started (S106: NO), the CPU 11 executes the process of S10 without performing the inclination correction process. In the process of S10, the CPU 11 checks whether or not the R sensor 26 is turned off (S10), and when the R sensor 26 is turned off (S10: YES), the second step number ST2 is counted ( While waiting for S12), it waits for the R sensor 26 to turn on again (S22). On the other hand, when the R sensor 26 is not turned off (S10: NO), the CPU 11 repeats the processing from S106. When the CPU 11 repeats the process from S106, the third step number ST3 is counted in the process so far (S106: YES), and the inclination correction process (S108) is performed on the leading edge image EG1. In this case, the inclination correction process (S108) is not executed again.

次に、CPU11は、Rセンサ26が再びオンする前に第2ステップ数ST2がカウントされた場合(S12:YES、S14:NO)、原稿Gの読取範囲Hの全域に亘るスキャン画像SGの読み取り、及び後端エッジ画像EG2の読み取りが完了したことを検知する。CPU11は、原稿Gの読み取りを終了し(S22)、傾き補正量θHが算出されているか否かを確認する(S116)。   Next, when the second step number ST2 is counted before the R sensor 26 is turned on again (S12: YES, S14: NO), the CPU 11 reads the scanned image SG over the entire reading range H of the document G. And that the reading of the trailing edge image EG2 is completed. The CPU 11 finishes reading the document G (S22), and checks whether or not the inclination correction amount θH has been calculated (S116).

CPU11は、先端エッジ画像EG1に対する傾き補正処理において傾き補正量θHが算出され、傾き補正量θHが既に算出されているている場合(S116:YES)、S26に処理を進める。一方、先端エッジ画像EG1に対する傾き補正処理において傾き補正量θHが算出されておらず、傾き補正量θHが未だ算出されていない場合(S116:NO)、後端エッジ画像EG2に必要なシフト処理を実行し(S118)、読み取られた後端エッジ画像EG2に対して図4に示す傾き補正処理(S120)を行う。ここでシフト処理とは、例えば、後端エッジ画像EG2が先端エッジ画像EG1とRAM13における記憶領域を共有するようにリングバッファとして記憶されている場合に、記憶された後端エッジ画像EG2を読み取られた順に並べ替える処理を示している。   When the inclination correction amount θH is calculated in the inclination correction processing for the leading edge image EG1, and the inclination correction amount θH has already been calculated (S116: YES), the CPU 11 advances the processing to S26. On the other hand, when the inclination correction amount θH has not been calculated in the inclination correction processing for the leading edge image EG1, and the inclination correction amount θH has not yet been calculated (S116: NO), the shift processing necessary for the trailing edge image EG2 is performed. This is executed (S118), and the inclination correction process (S120) shown in FIG. 4 is performed on the read rear edge image EG2. Here, the shift processing is, for example, when the rear end edge image EG2 is stored as a ring buffer so as to share the storage area in the RAM 13 with the front end edge image EG1, and the stored rear end edge image EG2 is read. The process of rearranging in the order shown.

一方、CPU11は、第2ステップ数ST2がカウントされる前にRセンサ26が再びオンした場合(S12:NO、S14:YES)、第2ステップ数ST2のカウントを継続する(S16:NO)。CPU11は、第2ステップ数ST2がカウントされると(S16:YES)、原稿Gの読み取りを終了し(S18)、S116と同様に、傾き補正量θHが算出されているか否かを確認する(S110)。   On the other hand, if the R sensor 26 is turned on again before the second step number ST2 is counted (S12: NO, S14: YES), the CPU 11 continues to count the second step number ST2 (S16: NO). When the second step number ST2 is counted (S16: YES), the CPU 11 ends the reading of the original G (S18), and confirms whether or not the inclination correction amount θH has been calculated as in S116 ( S110).

(傾き検出処理)
本実施形態の傾き検出処理は、実施形態1の傾き検出処理と等しいが、実行するエッジ点検出処理(S30)が異なる。図11、12を用いて、本実施形態のエッジ点検出処理を説明する。CPU11は、エッジ点検出処理を開始すると、図13に示すように、中央部IBの先端エッジ画像EG1又は後端エッジ画像EG2を選出する(S42)。
(Tilt detection processing)
The tilt detection process of this embodiment is the same as the tilt detection process of the first embodiment, but the edge point detection process (S30) to be executed is different. The edge point detection processing of this embodiment will be described with reference to FIGS. When starting the edge point detection process, the CPU 11 selects the leading edge image EG1 or the trailing edge image EG2 of the central portion IB as shown in FIG. 13 (S42).

次に、CPU11は、現在検出しているエッジ点Pが先端エッジ点Pであるか後端エッジ点Pを確認する(S122)。CPU11は、当該処理に先だってシフト処理が行われたか否かによって現在処理しているエッジ画像EGが先端エッジ画像EG1であるか、後端エッジ画像EG2であるかを識別し、現在検出しているエッジ点Pが先端エッジ点Pであるか後端エッジ点Pであるかを確認する。CPU11は、現在検出しているエッジ点Pが先端エッジ点Pである場合(S122:先端)、後端エッジ点Pを複数検出する出ための複数検出するためのパラメータを設定する(S44)。また、CPU11は、現在検出しているエッジ点Pが後端エッジ点Pである場合(S122:後端)、後端エッジ点Pを複数検出する出ための複数検出するためのパラメータを設定する(S86)。   Next, the CPU 11 checks whether the edge point P currently detected is the leading edge point P or the trailing edge point P (S122). The CPU 11 identifies whether the currently processed edge image EG is the leading edge image EG1 or the trailing edge image EG2 depending on whether or not the shift processing has been performed prior to the processing, and currently detects it. It is confirmed whether the edge point P is the leading edge point P or the trailing edge point P. When the edge point P currently detected is the leading edge point P (S122: leading edge), the CPU 11 sets a plurality of detection parameters for detecting a plurality of trailing edge points P (S44). Further, when the edge point P currently detected is the rear end edge point P (S122: rear end), the CPU 11 sets a plurality of detection parameters for detecting a plurality of rear end edge points P. (S86).

そして、CPU11は、先端エッジ点P又は後端エッジ点Pに対して差分値ΔYを算出し、基準間隔Kと比較する(S76)。制御部33として機能するCPU11は、差分値ΔYが基準間隔Kよりも大きい場合(S76:YES)、現在検出しているエッジ点Pが先端エッジ点Pであるかを確認することなく、エッジ点Pの検出に失敗したと判断する。   Then, the CPU 11 calculates a difference value ΔY with respect to the leading edge point P or the trailing edge point P and compares it with the reference interval K (S76). When the difference value ΔY is larger than the reference interval K (S76: YES), the CPU 11 functioning as the control unit 33 does not check whether the edge point P currently detected is the tip edge point P, and the edge point It is determined that detection of P has failed.

2.本実施形態の効果
(1)画像読取装置1では、傾き補正処理を実行する際に、先端エッジ画像EG1又は後端エッジ画像EG2のみを用い、読取範囲Hの全域に対応するエッジ画像EGを必要としない。そのため、エッジ画像EGを記憶しておくためのRAM13の記憶容量を縮小することができ、装置の製造コストを削減することができる。
2. Advantages of the present embodiment (1) In the image reading apparatus 1, when executing the tilt correction process, only the leading edge image EG1 or the trailing edge image EG2 is used, and the edge image EG corresponding to the entire reading range H is required. And not. Therefore, the storage capacity of the RAM 13 for storing the edge image EG can be reduced, and the manufacturing cost of the apparatus can be reduced.

(2)さらに画像読取装置1では、先端エッジ画像EG1において傾き補正量θHが算出された場合には、後端エッジ画像EG2を読み取る必要がない。そのため、読取処理における画像読取装置1の処理負担を軽減することができる。 (2) Further, in the image reading device 1, when the inclination correction amount θH is calculated in the leading edge image EG1, it is not necessary to read the trailing edge image EG2. Therefore, the processing load of the image reading apparatus 1 in the reading process can be reduced.

<他の実施形態>
本発明は上記記述及び図面によって説明した実施形態に限定されるものではなく、例えば次のような種々の態様も本発明の技術的範囲に含まれる。
(1)上記実施形態では、画像読取装置1を用いて説明を行ったが、本発明はこれに限られない。例えば、画像の形成を行うプリンタ機能を、コピー機能、ファクシミリ機能等の少なくとも1つの機能をスキャナ機能と共に有する複合機であっても良い。
<Other embodiments>
The present invention is not limited to the embodiments described with reference to the above description and the drawings, and for example, the following various aspects are also included in the technical scope of the present invention.
(1) Although the above embodiment has been described using the image reading apparatus 1, the present invention is not limited to this. For example, the image forming apparatus may be a multifunction machine having a printer function for forming an image and at least one function such as a copy function and a facsimile function together with a scanner function.

(2)上記実施形態では、画像読取装置1が1つのASIC10を有し、間隔取得部31、傾き補正部32、制御部33として機能する1つのCPU11によって読取処理を実行する例を用いて説明を行ったが、本発明はこれに限られない。例えば、複数のASIC、CPUなどによって読取処理を実行を実行してもよい。 (2) In the above embodiment, the image reading apparatus 1 has one ASIC 10 and will be described using an example in which reading processing is executed by one CPU 11 that functions as the interval acquisition unit 31, the inclination correction unit 32, and the control unit 33. However, the present invention is not limited to this. For example, the reading process may be executed by a plurality of ASICs, CPUs, and the like.

(3)上記実施形態では、エッジ点Pを検出する際に、設定された複数のX座標において搬送方向D2にエッジ点Pの検出を進める例を用いて説明を行ったが、本発明はこれに限られない。例えば、設定された複数のX座標において主走査方向D1にエッジ点Pの検出を進めても良い。また、主走査方向D1へのエッジ点Pの検出と、搬送方向D2へのエッジ点Pの検出を組み合わせて実行してもよい。つまり、原稿画像範囲GHの一辺側に対して差分値ΔYが基準間隔Kよりも大きくばらついている場合に、その隣接する辺に対してエッジ点Pを複数検出し、差分値ΔYを算出しても良い。 (3) In the above embodiment, when the edge point P is detected, the example in which the detection of the edge point P is advanced in the transport direction D2 in the plurality of set X coordinates has been described. Not limited to. For example, the detection of the edge point P may be advanced in the main scanning direction D1 at a plurality of set X coordinates. Further, the detection of the edge point P in the main scanning direction D1 and the detection of the edge point P in the transport direction D2 may be performed in combination. That is, when the difference value ΔY is larger than the reference interval K with respect to one side of the document image range GH, a plurality of edge points P are detected for the adjacent sides, and the difference value ΔY is calculated. Also good.

(4)上記実施形態では、CIS24の主走査方向D1の全域から読み取られた階調データからエッジ画像EGを生成しておき、エッジ点検出処理において、中央部IBのエッジ画像EGを選出する処理を行っていたが、本発明はこれに限られない。例えば、CIS24の主走査方向D1の中央部において読み取られた階調データからエッジ画像EGを生成しておいてもよい。これにより、エッジ画像EGを記憶しておくためのRAM13の記憶容量を縮小することができ、装置の製造コストを削減することができる。 (4) In the above embodiment, the edge image EG is generated from the gradation data read from the entire area in the main scanning direction D1 of the CIS 24, and the edge image EG of the central portion IB is selected in the edge point detection process. However, the present invention is not limited to this. For example, the edge image EG may be generated from the gradation data read in the center portion of the CIS 24 in the main scanning direction D1. Thereby, the storage capacity of the RAM 13 for storing the edge image EG can be reduced, and the manufacturing cost of the apparatus can be reduced.

1:画像読取装置、10:ASIC、11:CPU、14:デバイス制御部、15:AFE、16:駆動回路、17:画像処理回路、22:搬送経路、24:CIS、25:Fセンサ、26:Rセンサ、31:間隔取得部、32:傾き補正部、33:制御部、D1:主走査方向、D2:搬送方向、EG:エッジ画像、SG:スキャン画像、H:読取範囲、GH:原稿画像範囲、P、Pn:エッジ点、ΔY:差分値、θH:補正量、K:基準間隔、nK:必要個数、θL:補正可能限界 1: Image reading apparatus, 10: ASIC, 11: CPU, 14: device control unit, 15: AFE, 16: drive circuit, 17: image processing circuit, 22: transport path, 24: CIS, 25: F sensor, 26 : R sensor, 31: interval acquisition unit, 32: tilt correction unit, 33: control unit, D1: main scanning direction, D2: transport direction, EG: edge image, SG: scanned image, H: reading range, GH: document Image range, P, Pn: Edge point, ΔY: Difference value, θH: Correction amount, K: Reference interval, nK: Required number, θL: Limit for correction

Claims (2)

搬送経路に沿って原稿を搬送する搬送部と、
前記搬送経路上に位置し、前記搬送部によって搬送される前記原稿を主走査方向に読み取り、原稿を読み取った原稿画像範囲を含む読取範囲の画像を、出力する読取部と、
前記読取部によって出力された画像に対して2値化を行い、エッジ画像に変換するエッジ画像変換部と、
CPUと、
を備え、
前記CPUは、
前記エッジ画像変換部によって変換されたエッジ画像から、前記原稿画像範囲の先端の一辺側、及び、前記原稿画像範囲の後端の一辺側のそれぞれに対してエッジ点を複数検出するエッジ点検出処理と、
前記主走査方向に直交する方向における前記エッジ点の位置の最大値と最小値との差分を取得する間隔取得処理と、
前記間隔取得処理によって取得された前記原稿画像範囲の先端の一辺側の前記位置の前記差分が基準間隔以下の場合、前記エッジ点検出処理によって検出された前記原稿画像範囲の先端の一辺側の複数のエッジ点から前記読取部に対する原稿の傾きを検出し、前記傾きに応じて前記原稿画像範囲の画像に対して傾き補正し、
前記間隔取得処理によって取得された前記原稿画像範囲の先端の一辺側の前記位置の前記差分が前記基準間隔よりも大きい場合、前記エッジ点検出処理によって検出された前記原稿画像範囲の後端の一辺側の複数のエッジ点から前記読取部に対する原稿の傾きを検出し、前記傾きに応じて前記原稿画像範囲の画像に対して傾き補正し、
前記原稿画像範囲の後端の一辺側に対して検出された複数のエッジ点の位置の前記差分が前記基準間隔よりも大きい場合、前記原稿画像範囲の画像に対して傾き補正を実行しない、
傾き補正処理と、
を実行する、画像読取装置。
A transport unit that transports a document along a transport path;
A reading unit that is located on the conveyance path, reads the document conveyed by the conveyance unit in a main scanning direction, and outputs an image of a reading range including a document image range obtained by reading the document;
An edge image conversion unit that performs binarization on the image output by the reading unit and converts the image into an edge image;
CPU,
With
The CPU
Edge point detection processing for detecting a plurality of edge points from the edge image converted by the edge image conversion unit to each of one side of the leading edge of the document image range and one side of the trailing edge of the document image range When,
An interval acquisition process for acquiring a difference between a maximum value and a minimum value of the position of the edge point in a direction orthogonal to the main scanning direction;
When the difference between the positions on one side of the leading edge of the document image range acquired by the interval acquiring process is equal to or smaller than a reference interval, a plurality of one side of the leading edge of the document image range detected by the edge point detecting process Detecting the inclination of the document with respect to the reading unit from the edge point, and correcting the inclination of the image in the document image range according to the inclination ,
When the difference in the position on one side of the leading edge of the document image range acquired by the interval acquisition process is larger than the reference interval, one side of the trailing edge of the document image range detected by the edge point detection process Detecting the inclination of the document with respect to the reading unit from a plurality of edge points on the side, and correcting the inclination of the image in the document image range according to the inclination,
When the difference between the positions of a plurality of edge points detected with respect to one side of the rear end of the document image range is larger than the reference interval, tilt correction is not performed on the image in the document image range.
Tilt correction processing,
An image reading apparatus that executes
請求項に記載の画像読取装置であって、
前記エッジ点検出処理は、前記読取範囲の前記主走査方向における両端部を除いた中央部において読み取られた画像から前記複数のエッジ点を検出する、画像読取装置。
The image reading apparatus according to claim 1 ,
The edge point detection processing detects a plurality of edge points from the image read in the central portion excluding both end portions in the main scanning direction of the reading range, the image reading apparatus.
JP2011188749A 2011-08-31 2011-08-31 Image reading device Active JP5780064B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011188749A JP5780064B2 (en) 2011-08-31 2011-08-31 Image reading device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011188749A JP5780064B2 (en) 2011-08-31 2011-08-31 Image reading device

Publications (2)

Publication Number Publication Date
JP2013051563A JP2013051563A (en) 2013-03-14
JP5780064B2 true JP5780064B2 (en) 2015-09-16

Family

ID=48013300

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011188749A Active JP5780064B2 (en) 2011-08-31 2011-08-31 Image reading device

Country Status (1)

Country Link
JP (1) JP5780064B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4574235B2 (en) * 2004-06-04 2010-11-04 キヤノン株式会社 Image processing apparatus, control method therefor, and program
JP4840252B2 (en) * 2007-05-22 2011-12-21 村田機械株式会社 Document reader
JP5376907B2 (en) * 2008-11-13 2013-12-25 キヤノン株式会社 Image reading apparatus and image processing method

Also Published As

Publication number Publication date
JP2013051563A (en) 2013-03-14

Similar Documents

Publication Publication Date Title
US9531897B2 (en) Scanner and scanning method
JP5783418B2 (en) Image processing device
JP5556391B2 (en) Image reading device
US9124746B2 (en) Image-reading device and computer-readable storage medium
JP6459384B2 (en) Image reading apparatus, program, and read image correction method
US20080080024A1 (en) Image scanner and control method thereof
US9706070B2 (en) Image reading apparatus, image reading method, and computer program
JP5811773B2 (en) Image reading device
JP5522140B2 (en) Image reading device
JP5780064B2 (en) Image reading device
US11196898B2 (en) Image reading apparatus, method of controlling image reading apparatus, and storage medium
JP6467845B2 (en) Image reading device
JP6205904B2 (en) Image reading device
JP5757211B2 (en) Processing equipment
JP6015470B2 (en) Image reading device
US20040240001A1 (en) System and method for fast scanning
JP6047984B2 (en) Image reading device
JP5991066B2 (en) Image reading device
JP6201531B2 (en) Image reading device
JP6558660B2 (en) Reader
JP6751308B2 (en) Image processing device
JP7259635B2 (en) Image reading device, image forming device and program
JP6341241B2 (en) Image processing device
JP6343948B2 (en) Reader
JP6260311B2 (en) Reader

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140318

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20140407

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150304

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150324

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150616

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150629

R150 Certificate of patent or registration of utility model

Ref document number: 5780064

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150