JP2013198084A - Image reader, image forming apparatus and original end detecting method - Google Patents

Image reader, image forming apparatus and original end detecting method Download PDF

Info

Publication number
JP2013198084A
JP2013198084A JP2012065835A JP2012065835A JP2013198084A JP 2013198084 A JP2013198084 A JP 2013198084A JP 2012065835 A JP2012065835 A JP 2012065835A JP 2012065835 A JP2012065835 A JP 2012065835A JP 2013198084 A JP2013198084 A JP 2013198084A
Authority
JP
Japan
Prior art keywords
document
pixel
image reading
original
threshold
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012065835A
Other languages
Japanese (ja)
Inventor
Hideaki Suzuki
英明 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2012065835A priority Critical patent/JP2013198084A/en
Publication of JP2013198084A publication Critical patent/JP2013198084A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Input (AREA)
  • Facsimile Scanning Arrangements (AREA)

Abstract

PROBLEM TO BE SOLVED: To precisely detect an original end even in an original having thickness or an original without a background of photograph image quality in image reading for reading an image of the original by moving the original.SOLUTION: An operation section 33: calculates a difference between light volume value data of each pixel when an original readable region of an image sensor 21 reads a white reference board in a state where the white reference board is moved to a prescribed position and an original is not transported between the image sensor 21 and the white reference board, and light volume value data of each pixel when the original readable region of the image sensor 21 reads a part where the original is superposed on the white reference board by transporting the original between the image sensor 21 and the white reference board for each pixel in a corresponding position in a main scanning direction; compares a difference between light volume values for the respective pixels with a first prescribed threshold and a second prescribed threshold; and detects the pixel corresponding to an original end of the original from the light volume value data of the respective pixels when the part where the original is superposed on the white reference board is read in response to comparison results.

Description

この発明は、原稿に光を照射してその反射光によって原稿の画像を読み取る画像読取装置と、その画像読取装置を備えた画像形成装置と、原稿端を検知する原稿端検知方法に関する。   The present invention relates to an image reading apparatus that irradiates a document with light and reads an image of the document with reflected light, an image forming apparatus that includes the image reading apparatus, and a document edge detection method that detects a document edge.

スキャナ装置等の画像読取装置では、原稿サイズが大きい原稿の画像を読み取る場合、原稿に対して読取センサを走査させて読み取る方式では画像読取装置の体積が大きくなってしまう。
そこで、密着イメージセンサ等の読取センサに対して原稿を移動させて原稿の画像を読み取るシートスルー方式の画像読取装置がある。
シートスルー方式の画像読取装置では、普通紙よりも紙厚が厚い原稿(例えば、厚さ数ミリ〜1センチ程度の板状の原稿)の画像を読み取るには、読取センサに対する原稿の搬送路を原稿の厚さ分だけ広げる必要がある。
In an image reading device such as a scanner device, when reading an image of a document having a large document size, the volume of the image reading device becomes large if the document is read by scanning a reading sensor.
Therefore, there is a sheet-through type image reading apparatus that reads an image of a document by moving the document with respect to a reading sensor such as a contact image sensor.
In a sheet-through type image reading apparatus, in order to read an image of an original (for example, a plate-like original having a thickness of several millimeters to 1 cm) thicker than plain paper, an original conveyance path to the reading sensor is used. It is necessary to widen by the thickness of the document.

従来、原稿の挿入側から排出側までの搬送路を直線的に形成し、原稿が所定の厚さよりも厚い場合、手動又は自動で可動ガイド板を厚紙用に開けて原稿の搬送路の隙間を広げ、その搬送路を搬送させた原稿の画像面を読取部によって読み取る画像読取装置(例えば、特許文献1参照)が知られている。   Conventionally, when the conveyance path from the document insertion side to the discharge side is formed linearly, and the document is thicker than a predetermined thickness, the movable guide plate is manually or automatically opened for thick paper so that the gap between the document conveyance paths is reduced. There is known an image reading apparatus (see, for example, Patent Document 1) that reads an image surface of a document that is widened and conveyed along the conveyance path by a reading unit.

また、画像読取装置では、原稿の端部を識別できるようにしたものがあった。
例えば、次のような画像読取装置が知られている。
プラテンガラス上に原稿を載置し、プラテンカバーがプラテンガラス上を覆っていない開状態にして、プラテンガラス側から原稿へ光を照射して原稿領域と原稿外領域の画像を読み取る。そして、画像の輝度が極めて低いピーク値の部分を原稿外領域とし、画像の輝度が極めて高いピーク値の部分を原稿領域の外周とし、極めて低いピーク値と極めて高いピーク値の間の値を、原稿領域と原稿外領域とを区別するための閾値に設定する画像読取装置(例えば、特許文献2参照)。
In addition, some image reading apparatuses can identify an edge portion of a document.
For example, the following image reading apparatus is known.
An original is placed on the platen glass, and the platen cover is opened so that it does not cover the platen glass. The original is irradiated with light from the platen glass side, and images in the original area and the outside area of the original are read. Then, the peak value portion where the luminance of the image is extremely low is set as the outside region of the document, the peak value portion where the luminance of the image is extremely high is set as the outer periphery of the document region, An image reading apparatus that sets a threshold for distinguishing between a document area and a document outside area (see, for example, Patent Document 2).

しかしながら、上述のようなシートスルー方式の画像読取装置では、プラテンカバーを開けたまま原稿の画像を読み取ることができないため、上述した画像読取装置のように原稿の画像の輝度のピーク値を利用して原稿領域と原稿外領域とを区別することはできないという問題があった。
さらに、写真画質のような地肌のない原稿では原稿領域と原稿外領域とを正確に検知できないという問題もあった。
この発明は上記の点に鑑みてなされたものであり、原稿を移動させて原稿の画像を読み取る画像読み取りにおいて、厚みのある原稿でも写真画質のような地肌のない原稿でも原稿端を正確に検知できるようにすることを目的とする。
However, since the sheet-through image reading apparatus as described above cannot read the original image with the platen cover open, the peak value of the luminance of the original image is used as in the above-described image reading apparatus. Therefore, there is a problem that it is impossible to distinguish the document area from the document outside area.
In addition, there is a problem in that an original area and an area outside the original cannot be accurately detected with an original having no background such as a picture quality.
The present invention has been made in view of the above points, and accurately detects the edge of a document, whether it is a thick document or a document having no background such as photographic image quality, by moving the document and reading the image of the document. The purpose is to be able to.

この発明は上記の目的を達成するため、原稿に光を照射する光源と、上記原稿からの反射光によって上記原稿の画像を読み取る画像読取手段と、上記原稿から読み取った画像のシェーディング補正のための画像を取得するために上記画像読取手段に対向して配置した基準部材と、上記画像読取手段と上記基準部材との間を上記原稿の厚さに応じた間隔を空けるために上記基準部材を上記画像読取手段と対向する方向の所定位置まで移動させる基準部材移動手段と、その基準部材移動手段によって上記基準部材を上記所定位置まで移動させた後に、上記原稿を上記画像読取手段とその基準部材との間に搬送させてその原稿に上記光源からその原稿の主走査方向のライン毎に光を照射させて上記画像読取手段がその原稿からの反射光によってその原稿の主走査方向のライン毎の画像を読み取る画像読取装置であって、
上記基準部材移動手段によって上記基準部材を上記所定位置まで移動させた後に、上記原稿を上記画像読取手段とその基準部材との間に搬送しない状態で、上記画像読取手段の主走査方向の少なくとも原稿読取可能領域以上の所定の領域が読み取るその基準部材の領域に上記光源から光を照射して上記画像読取手段が読み取った上記所定の領域における各画素の光量値である第1の光量値データと、上記原稿が上記画像読取手段と上記基準部材との間に搬送されている状態で、上記基準部材および上記原稿の上記所定の領域に対応する領域に上記光源から光を照射して上記画像読取手段が読み取った上記所定の領域における各画素の光量値である第2の光量値データとを保持する光量値保持手段と、その光量値保持手段に保持された上記第1の光量値データと上記第2の光量値データとの差を、主走査方向で対応する位置の画素毎に算出し、その画素毎の光量値データの差を、その光量値データの差について設定された所定の第1の閾値とその第1の閾値よりも小さい所定の第2の閾値とのそれぞれと比較し、その比較結果に基いて上記第2の光量値データから上記原稿端に対応する画素を検知する原稿端検知手段を備えたことを特徴とする。
In order to achieve the above object, the present invention provides a light source for irradiating light on a document, image reading means for reading an image of the document by reflected light from the document, and shading correction of an image read from the document. In order to obtain an interval according to the thickness of the original between the image reading means and the reference member, a reference member arranged opposite to the image reading means for acquiring an image, and the reference member A reference member moving means for moving to a predetermined position in a direction opposite to the image reading means; and after moving the reference member to the predetermined position by the reference member moving means, the document is moved to the image reading means and the reference member. The image reading means is irradiated with light reflected from the document by irradiating the document with light from the light source for each line in the main scanning direction of the document. An image reading apparatus for reading an image in the main scanning direction of each line of the paper,
After the reference member is moved to the predetermined position by the reference member moving means, at least the original in the main scanning direction of the image reading means without conveying the original between the image reading means and the reference member. A first light amount value data which is a light amount value of each pixel in the predetermined region read by the image reading unit by irradiating light from the light source to a region of the reference member read by a predetermined region which is larger than the readable region; In the state where the original is conveyed between the image reading means and the reference member, the image reading is performed by irradiating light from the light source to the reference member and an area corresponding to the predetermined area of the original. A light amount holding unit that holds second light amount value data that is a light amount value of each pixel in the predetermined area read by the unit, and the first light amount held in the light amount holding unit. The difference between the light quantity value data and the second light quantity value data is calculated for each pixel at the corresponding position in the main scanning direction, and the difference between the light quantity value data for each pixel is set for the difference in the light quantity value data. Each of the predetermined first threshold value and a predetermined second threshold value smaller than the first threshold value, and a pixel corresponding to the document edge from the second light quantity value data based on the comparison result. Document edge detection means for detecting the document is provided.

この発明による画像読取装置と画像形成装置と原稿端検知方法は、原稿を移動させて原稿の画像を読み取る画像読み取りにおいて、厚みのある原稿でも写真画質のような地肌のない原稿でも原稿端を正確に検知することができる。   According to the image reading apparatus, the image forming apparatus, and the document edge detection method according to the present invention, in the image reading in which the document is moved and the image of the document is read, the document edge is accurately detected even in a thick document or a document having no background such as photographic quality. Can be detected.

図2に示す画像読取部2の主要部の機能構成を示したブロック図である。FIG. 3 is a block diagram illustrating a functional configuration of a main part of the image reading unit 2 illustrated in FIG. 2. この発明の一実施例である画像形成装置1の全体の概略構成図である。1 is an overall schematic configuration diagram of an image forming apparatus 1 according to an embodiment of the present invention. 図2に示す画像読取部2の画像読み取りと上カバー10の移動に係る部分の概略構成図である。FIG. 3 is a schematic configuration diagram of a portion related to image reading of an image reading unit 2 and movement of an upper cover 10 shown in FIG. 2. 図3に示す下プラテン11とその周囲を上側から見た平面図である。It is the top view which looked at the lower platen 11 shown in FIG. 3 and its periphery from the upper side. 図3に示すストッパ18の側面図である。It is a side view of the stopper 18 shown in FIG. 図2に示す画像読取部2の画像読み取りと上カバー10の移動に係る部分の他の構成例を示す図である。FIG. 6 is a diagram illustrating another configuration example of a portion related to image reading of the image reading unit 2 and movement of the upper cover 10 illustrated in FIG. 2. 図6に示す下プラテン11とその周囲を上側から見た平面図である。It is the top view which looked at the lower platen 11 shown in FIG. 6 and its periphery from the upper side. 図1に示す中央制御部30が行う原稿6の挿入時の上カバー10の移動処理を示すフローチャート図である。FIG. 2 is a flowchart showing a process for moving an upper cover 10 when a document 6 is inserted performed by a central control unit 30 shown in FIG. 1. 図3に示す白基準板15をイメージセンサ21の原稿読取可能領域が読み取ったときに得られる各画素の光量値データと、白基準板15に原稿6を重ねた部分をイメージセンサ21の原稿読取可能領域が読み取ったときに得られる各画素の光量値データとの差の変化の一例を示す波形図である。The amount of light value data of each pixel obtained when the original reading area of the image sensor 21 reads the white reference plate 15 shown in FIG. 3 and the portion where the original 6 is superimposed on the white reference plate 15 are read by the image sensor 21. It is a wave form diagram which shows an example of a change of the difference with the light quantity value data of each pixel obtained when a possible area | region is read. 図1に示す演算部33が原稿端検知処理において原稿端に対応する画素を見つける処理の説明図である。FIG. 3 is an explanatory diagram of processing for finding a pixel corresponding to a document edge in a document edge detection process by the calculation unit 33 shown in FIG. 図1に示す演算部33が原稿端検知処理において原稿端に対応する画素を見つける他の処理の説明図である。FIG. 10 is an explanatory diagram of another process in which the calculation unit 33 shown in FIG. 1 finds a pixel corresponding to the document edge in the document edge detection process. 図1に示す演算部33が原稿端検知処理において原稿端に対応する画素を見つけるさらに他の処理の説明図である。FIG. 11 is an explanatory diagram of still another process in which the calculation unit 33 shown in FIG. 1 finds a pixel corresponding to the document edge in the document edge detection process. 図1に示す演算部33が原稿端検知処理において原稿端に対応する画素を見つけるさらにまた他の処理の説明図である。FIG. 12 is an explanatory diagram of still another process in which the calculation unit 33 shown in FIG. 1 finds a pixel corresponding to the document edge in the document edge detection process. 図1に示す画像読取部2の原稿端検知処理を示すフローチャート図である。FIG. 6 is a flowchart showing document edge detection processing of the image reading unit 2 shown in FIG. 1. 図14の続きの処理を示すフローチャート図である。FIG. 15 is a flowchart showing processing subsequent to FIG. 14. 図14のステップ12で閾値Y1,Y2を固定値で設定する場合の詳細な処理を示すフローチャート図である。It is a flowchart figure which shows the detailed process in the case of setting threshold value Y1, Y2 by a fixed value by step 12 of FIG. 図14のステップ12で閾値Y1,Y2を求めて設定する場合の詳細な処理を示すフローチャート図である。It is a flowchart figure which shows the detailed process in the case of calculating | requiring and setting threshold value Y1, Y2 in step 12 of FIG. 図14のステップ12で閾値Y1,Y2を求めて設定する場合の他の処理例を示すフローチャート図である。It is a flowchart figure which shows the other process example in the case of calculating | requiring and setting threshold value Y1, Y2 in step 12 of FIG. 図3に示す原稿6が斜めに挿入された場合の下プラテン11とその周囲を上側から見た平面図である。FIG. 4 is a plan view of the lower platen 11 and its periphery viewed from above when the document 6 shown in FIG. 3 is inserted obliquely.

以下、この発明を実施するための形態を図面に基づいて具体的に説明する。
図2は、この発明の一実施例である画像形成装置1の全体の概略構成図である。
この画像形成装置1は、画像読取部2と画像形成部3を備えている。
画像読取部2は、画像形成部3の上部に配置され、原稿6上の画像を光学的に読み取る画像読取装置である。
画像形成部3は、作像部4と給紙部5を備えている。
作像部4は、図示を省略した公知の光書き込みユニット、現像ユニット、転写ユニット及び定着ユニットなどの各部を有している。
Hereinafter, embodiments for carrying out the present invention will be specifically described with reference to the drawings.
FIG. 2 is a schematic configuration diagram of the entire image forming apparatus 1 according to an embodiment of the present invention.
The image forming apparatus 1 includes an image reading unit 2 and an image forming unit 3.
The image reading unit 2 is an image reading device that is disposed above the image forming unit 3 and optically reads an image on the document 6.
The image forming unit 3 includes an image forming unit 4 and a paper feeding unit 5.
The image forming unit 4 includes various parts such as a known optical writing unit, a developing unit, a transfer unit, and a fixing unit (not shown).

この作像部4は、上記各ユニットによって、画像読取部2が原稿6から読み取った画像データ、又は図示を省略した外部の情報処理装置からネットワークを介して受信した画像データに基いて、給紙部5から給紙された用紙に対して電子写真方式でトナー画像を印刷(形成)する。
給紙部5は、用紙を収納し、作像部4に用紙を給紙する。
上記電子写真方式の画像形成処理は公知であり、その画像形成処理についての詳細な説明は省略する。
なお、この実施例では、画像形成部3は電子写真方式の作像部4を備えた場合を説明するが、この他に例えばインクジェット方式のような液滴吐出方式の作像部などの他の公知の作像部を設けた場合でもよい。
The image forming unit 4 feeds paper on the basis of image data read from the document 6 by the image reading unit 2 or image data received from an external information processing apparatus (not shown) via a network. A toner image is printed (formed) on the paper fed from the unit 5 by an electrophotographic method.
The paper feeding unit 5 stores paper and feeds the paper to the image forming unit 4.
The electrophotographic image forming process is well known, and a detailed description of the image forming process is omitted.
In this embodiment, the case where the image forming unit 3 includes the electrophotographic image forming unit 4 will be described. However, in addition to this, other image forming units such as a droplet discharge method such as an ink jet method may be used. A known image forming unit may be provided.

次に、画像読取部2の構成を説明する。
図3は、図2に示した画像読取部2の画像読み取りと上カバー10の移動に係る部分の概略構成図である。
図4は、図3に示した下プラテン11とその周囲を上側から見た平面図である。
図5は、図3に示したストッパ18の側面図である。
画像読取部2は、図3に示すように、上カバー10と下プラテン11を備えている。
上カバー10は、原稿6を下プラテン11に抑えつけて搬送するためのカバーである。
この上カバー10は、上部には操作部12を、下部には原稿6の挿入側から排出側に向かって順に距離検知センサ13、前ローラ14a、白基準板15及び後ローラ16aをそれぞれ備えている。
Next, the configuration of the image reading unit 2 will be described.
FIG. 3 is a schematic configuration diagram of a portion related to image reading of the image reading unit 2 and movement of the upper cover 10 shown in FIG.
FIG. 4 is a plan view of the lower platen 11 shown in FIG.
FIG. 5 is a side view of the stopper 18 shown in FIG.
The image reading unit 2 includes an upper cover 10 and a lower platen 11 as shown in FIG.
The upper cover 10 is a cover for transporting the document 6 while holding the document 6 against the lower platen 11.
The upper cover 10 includes an operation unit 12 in the upper part and a distance detection sensor 13, a front roller 14a, a white reference plate 15, and a rear roller 16a in order from the insertion side to the discharge side of the document 6 on the lower part. Yes.

一方、下プラテン11は原稿テーブルである。
この下プラテン11は、上部に原稿6の挿入側から排出側に向かって順に、原稿挿入検知センサ17、前ローラ14b、ストッパ18、コンタクトガラス19及び後ローラ16bをそれぞれ備えている。また、コンタクトガラス19の下側には光源20及びイメージセンサ21を備えている。
さらに、上カバー10と下プラテン11の左端には、上カバー10を下プラテン11に対して上下方向(図3に示すA方向)に移動させる機構として、図4に示すように、フレーム22、ギア23及び上カバー駆動モータ24を備えている。
上カバー10の操作部12は、ユーザが画像形成装置1に対して各種の操作情報を入力するための操作パネルである。
On the other hand, the lower platen 11 is a document table.
The lower platen 11 includes an original insertion detection sensor 17, a front roller 14b, a stopper 18, a contact glass 19, and a rear roller 16b in order from the insertion side to the discharge side of the original 6 on the upper part. A light source 20 and an image sensor 21 are provided below the contact glass 19.
Further, at the left ends of the upper cover 10 and the lower platen 11, as shown in FIG. 4, a frame 22, as a mechanism for moving the upper cover 10 in the vertical direction (A direction shown in FIG. 3) with respect to the lower platen 11, A gear 23 and an upper cover drive motor 24 are provided.
The operation unit 12 of the upper cover 10 is an operation panel for a user to input various operation information to the image forming apparatus 1.

距離検知センサ13は、上カバー10の下部に原稿6が挿入された際、その原稿6と上カバー10との間の距離C1を検知する。
前ローラ14aは、下プラテン11の前ローラ14bと対のローラであり、図示を省略した駆動モータによって回転し、原稿6の画像の読み取りの際に、原稿6を原稿6の副走査方向へ搬送する。
白基準板15は、原稿6から読み取った画像のシェーディング補正のための画像(シェーディング補正データ)を取得するための基準部材であり、イメージセンサ21に対向して配置されている。
後ローラ16aは、下プラテン11の後ローラ16bと対のローラであり、図示を省略した駆動モータによって回転し、原稿6の画像の読み取りの際に原稿6を副走査方向の排出側へ搬送する。
The distance detection sensor 13 detects the distance C <b> 1 between the original 6 and the upper cover 10 when the original 6 is inserted in the lower part of the upper cover 10.
The front roller 14 a is a pair of rollers with the front roller 14 b of the lower platen 11, and is rotated by a drive motor (not shown) to convey the document 6 in the sub-scanning direction of the document 6 when reading the image of the document 6. To do.
The white reference plate 15 is a reference member for acquiring an image (shading correction data) for shading correction of an image read from the document 6, and is disposed to face the image sensor 21.
The rear roller 16a is a pair of rollers with the rear roller 16b of the lower platen 11, and is rotated by a drive motor (not shown) to convey the original 6 to the discharge side in the sub-scanning direction when reading the image of the original 6. .

下プラテン11の原稿挿入検知センサ17は、原稿6が挿入されたか否かを検知する。
前ローラ14bは、上カバー10の前ローラ14aと対のローラであり、図示を省略した駆動モータによって回転し、原稿6の画像の読み取りの際に原稿6を副走査方向へ搬送する。
ストッパ18は、原稿6が挿入された際、原稿6の先端を止めて原稿6の進入を一旦止める機構である。この機構により、読み取り時には原稿6の搬送を妨げないようになっている。
このストッパ18は、原稿6が進みすぎないように一旦止めるためのものであり、ストッパ18を起こしたときの高さは距離C(原稿6の最小厚さ時)より小さいものとする。
The document insertion detection sensor 17 of the lower platen 11 detects whether or not the document 6 has been inserted.
The front roller 14b is a pair of rollers with the front roller 14a of the upper cover 10, and is rotated by a drive motor (not shown) to convey the document 6 in the sub-scanning direction when reading the image of the document 6.
The stopper 18 is a mechanism that stops the leading edge of the document 6 and temporarily stops the entry of the document 6 when the document 6 is inserted. This mechanism prevents the conveyance of the original 6 during reading.
The stopper 18 is used to temporarily stop the document 6 so that the document 6 does not advance too much. The height when the stopper 18 is raised is smaller than the distance C (when the document 6 is at the minimum thickness).

図5に示すように、ストッパ18はストッパ駆動モータ25の駆動によって図中B方向に移動可能であり、原稿6の挿入時は原稿6が進みすぎないようにストッパ駆動モータ25を駆動させてストッパ18を立て(図中実線で示す状態)、原稿6の読み取り時は原稿6が通過できるようにストッパ駆動モータ25を駆動させてストッパ18を倒す(図中破線で示す状態)。
ストッパ駆動モータ25の駆動制御は、図1に示す中央制御部30が行う。
なお、図5に示したストッパ18の構造は一例であり、図3のギア23を介して上下移動させるように構成してもよいし、その他の構成にしてもよい。
さらに、その他、上カバー10と下プラテン11の上下機構は図4では画像読取部2の左側に設けた場合を示しているが、右側に設けるようにしてもよいし、両側に搭載するようにしてもよい。
As shown in FIG. 5, the stopper 18 can be moved in the direction B in the figure by driving a stopper drive motor 25. When the document 6 is inserted, the stopper drive motor 25 is driven so that the document 6 does not advance too much. 18 is set up (indicated by the solid line in the figure), and when reading the original 6, the stopper driving motor 25 is driven so that the original 6 can pass through to tilt the stopper 18 (indicated by the broken line in the figure).
The drive control of the stopper drive motor 25 is performed by the central control unit 30 shown in FIG.
Note that the structure of the stopper 18 shown in FIG. 5 is merely an example, and the stopper 18 may be moved up and down via the gear 23 shown in FIG.
Furthermore, although the upper and lower mechanisms of the upper cover 10 and the lower platen 11 are provided on the left side of the image reading unit 2 in FIG. 4, they may be provided on the right side or mounted on both sides. May be.

ストッパ駆動モータ25は、原稿6の読み取りを開始する前と読み取り終了後に駆動させることでストッパ18を動かすためのモータである。
図4に示すように、コンタクトガラス19は、下側に光源20とイメージセンサ21を備えており、光源20とイメージセンサ21を保護すると共に、光源20から照射された光とその反射光を透過可能な透明カバーである。
後ローラ16bは、上カバー10の後ローラ16aと対のローラであり、図示を省略した駆動モータによって回転し、原稿6の画像の読み取りの際に原稿6を副走査方向の排出側へ搬送する。
The stopper drive motor 25 is a motor for moving the stopper 18 by being driven before the reading of the document 6 is started and after the reading is completed.
As shown in FIG. 4, the contact glass 19 includes a light source 20 and an image sensor 21 on the lower side, protects the light source 20 and the image sensor 21, and transmits light emitted from the light source 20 and its reflected light. Possible transparent cover.
The rear roller 16b is a pair of rollers with the rear roller 16a of the upper cover 10, and is rotated by a drive motor (not shown) to convey the original 6 to the discharge side in the sub-scanning direction when reading the image of the original 6. .

光源20は、例えば、キセノンランプ、蛍光灯、及び発光ダイオード(Light Emitting Diode:LED)等の光源であり、原稿6及び上カバー10に設けた白基準板15に対して原稿6の主走査方向に光を一様に照射する。
イメージセンサ21は、内部に図示を省略する各種のレンズを内包し、原稿6と白基準板15からの反射光を受光し、その反射光を光電変換して原稿6と白基準板15の画像を読み取る。
The light source 20 is, for example, a light source such as a xenon lamp, a fluorescent lamp, and a light emitting diode (LED), and the main scanning direction of the original 6 with respect to the original 6 and the white reference plate 15 provided on the upper cover 10. Irradiate light uniformly.
The image sensor 21 includes various lenses (not shown) inside, receives reflected light from the document 6 and the white reference plate 15, and photoelectrically converts the reflected light to generate an image of the document 6 and the white reference plate 15. Read.

フレーム22は、一部を上カバー10に取り付けており、ギア23の回転によって図3の矢示A方向に移動することにより、白基準板15を設けた上カバー10を図3の図中矢示A方向に移動させる部材である。
ギア23は、フレーム22を図3の図中矢示A方向に移動させるための歯車である。
上カバー駆動モータ24は、ギア23を回転させることによってフレーム22を図3の図中矢示A方向に移動させるためのモータである。
図1に示す中央制御部30の制御によって上カバー駆動モータ24を駆動させることにより、原稿6の読み取り前に上カバー10を下プラテン11に対して所定位置まで上昇させる。さらに、原稿6がストッパ18まで挿入されたことを原稿挿入検知センサ17によって検知すると、上カバー10を下降させて前ローラ14a、14bに原稿6を挟む。
A part of the frame 22 is attached to the upper cover 10, and the upper cover 10 provided with the white reference plate 15 is moved in the direction indicated by the arrow A in FIG. It is a member moved in the A direction.
The gear 23 is a gear for moving the frame 22 in the direction of arrow A in FIG.
The upper cover drive motor 24 is a motor for moving the frame 22 in the direction of arrow A in FIG. 3 by rotating the gear 23.
By driving the upper cover drive motor 24 under the control of the central control unit 30 shown in FIG. 1, the upper cover 10 is raised to a predetermined position with respect to the lower platen 11 before the document 6 is read. Further, when the document insertion detection sensor 17 detects that the document 6 has been inserted up to the stopper 18, the upper cover 10 is lowered and the document 6 is sandwiched between the front rollers 14a and 14b.

このようにして、イメージセンサ21と白基準板15との間を原稿6の厚さに応じた間隔を空けるために、白基準板15をイメージセンサ21と対向する方向の所定位置まで移動させる。
そして、白基準板15を所定位置まで移動させた後に、原稿6をイメージセンサ21と白基準板15との間に搬送させて原稿6に光源20からその原稿6の主走査方向のライン毎に光を照射させてイメージセンサ21が原稿6からの反射光によってその原稿6の主走査方向のライン毎の画像を読み取る。
すなわち、図3のフレーム22、ギア23、図4の上カバー駆動モータ24、及び図1に示す中央制御部30が、基準部材移動手段の機能を果たす。
In this way, the white reference plate 15 is moved to a predetermined position in the direction facing the image sensor 21 in order to leave a space corresponding to the thickness of the document 6 between the image sensor 21 and the white reference plate 15.
Then, after the white reference plate 15 is moved to a predetermined position, the document 6 is conveyed between the image sensor 21 and the white reference plate 15, and is fed from the light source 20 to the document 6 for each line in the main scanning direction of the document 6. By irradiating light, the image sensor 21 reads an image of each line of the document 6 in the main scanning direction by reflected light from the document 6.
That is, the frame 22, the gear 23 in FIG. 3, the upper cover drive motor 24 in FIG. 4, and the central control unit 30 shown in FIG. 1 serve as the reference member moving means.

この実施形態の画像読取部2の上カバー10を手動で動かせる構成にしてもよい。
図6は、図2に示した画像読取部2の画像読み取りと上カバー10に係る部分の他の構成例を示す図である。
図7は、図6に示した下プラテン11とその周囲を上側から見た平面図である。
図6及び図7に示すように、レバー26を取り付けたギア27と、そのギア27の駆動力をギア23と取り回したベルト29を介して伝達するためのギア28を設ける。
ユーザがレバー26を図6で下方向へ押し下げることにより、フレーム22を図6の図中矢示Aの上方向に移動させ、上カバー10を下プラテン11に対して所定位置まで上昇させることができる。
The upper cover 10 of the image reading unit 2 of this embodiment may be configured to be manually movable.
FIG. 6 is a diagram showing another configuration example of the image reading unit 2 shown in FIG. 2 and the portion related to the upper cover 10.
FIG. 7 is a plan view of the lower platen 11 shown in FIG.
As shown in FIGS. 6 and 7, a gear 27 to which a lever 26 is attached and a gear 28 for transmitting a driving force of the gear 27 via a belt 29 around the gear 23 are provided.
When the user depresses the lever 26 downward in FIG. 6, the frame 22 can be moved upward in the direction of arrow A in FIG. 6, and the upper cover 10 can be raised to a predetermined position with respect to the lower platen 11. .

その後、ユーザは手動で原稿6をストッパ18まで挿入し、レバー26を図6で上方向へ押し上げることにより、フレーム22を図6の図中矢示Aの下方向に移動させ、前ローラ14a、14bに原稿6が挟まるまで上カバー10を下プラテン11に対して下降させることができる。
すなわち、この場合は、図6及び図7のフレーム22、ギア23、27、28、レバー26、ベルト29が、基準部材移動手段の機能を果たす。
なお、図6と図7に示した例では、ギアを3つ使用しているが、いくつ使用しても構わない。
このようにして、イメージセンサ21と白基準板15との間を原稿6の厚さに応じた間隔にすることができ、厚みのある原稿6の画像を読み取る場合にも、原稿6の厚さに応じた原稿6の搬送が可能となる。
Thereafter, the user manually inserts the document 6 up to the stopper 18 and pushes the lever 26 upward in FIG. 6 to move the frame 22 downward in the direction indicated by the arrow A in FIG. The upper cover 10 can be lowered with respect to the lower platen 11 until the document 6 is sandwiched between them.
That is, in this case, the frame 22, the gears 23, 27, and 28, the lever 26, and the belt 29 shown in FIGS. 6 and 7 function as a reference member moving unit.
In the example shown in FIGS. 6 and 7, three gears are used, but any number may be used.
In this way, the distance between the image sensor 21 and the white reference plate 15 can be set according to the thickness of the original 6, and the thickness of the original 6 can be read even when an image of the thick original 6 is read. Accordingly, the document 6 can be conveyed in accordance with the above.

次に、画像読取部2の主要部の機能構成を説明する。
図1は、図2に示した画像読取部2の主要部の機能構成を示したブロック図である。
画像読取部2は、CPU、ROM及びRAMを含むマイクロコンピュータによって実現される機能部として、中央制御部30、アナログデジタル(A/D)変換部31、及び信号処理部32を備えている。
その信号処理部32は、演算部33、メモリ34、黒減算部35、シェーディング処理部36及び画像処理部37を備えている。
中央制御部30は、画像読取部2の全体の制御を司る。また、原稿に光を照射する光源20の点灯と消灯の制御と、原稿からの反射光によって原稿の画像を読み取る画像読取手段であるイメージセンサ21の読み取り動作の制御をする。さらに、距離検知センサ13の検知した距離C1を示す信号と、原稿挿入検知センサ17が図3の原稿6の挿入を検知したことを示す信号を入力する。
Next, the functional configuration of the main part of the image reading unit 2 will be described.
FIG. 1 is a block diagram showing a functional configuration of a main part of the image reading unit 2 shown in FIG.
The image reading unit 2 includes a central control unit 30, an analog / digital (A / D) conversion unit 31, and a signal processing unit 32 as functional units realized by a microcomputer including a CPU, a ROM, and a RAM.
The signal processing unit 32 includes a calculation unit 33, a memory 34, a black subtraction unit 35, a shading processing unit 36, and an image processing unit 37.
The central control unit 30 controls the entire image reading unit 2. Further, the light source 20 for irradiating the original with light is controlled to be turned on and off, and the reading operation of the image sensor 21 which is an image reading means for reading the image of the original with reflected light from the original is controlled. Further, a signal indicating the distance C1 detected by the distance detection sensor 13 and a signal indicating that the document insertion detection sensor 17 has detected the insertion of the document 6 in FIG. 3 are input.

さらに、中央制御部30は、上カバー駆動モータ24とストッパ駆動モータ25の駆動も制御する。
A/D変換部31は、イメージセンサ21が読み取って光電変換した読取データをアナログデータからデジタルデータに変換して信号処理部32の黒減算部35へ出力する。
この読取データには、白基準板15を所定位置まで移動させた後にその白基準板15のみを読み取ったときの読取データW(n)と、原稿6を搬送させて白基準板15に原稿6を重ねて読み取ったときの読取データX(n)がある。
すなわち、読取データW(n)は、イメージセンサ21の原稿読取可能領域が白基準板15を読み取ったときに得られる各画素の光量値データ(第1の光量値データに相当する)である。
また、読取データX(n)は、イメージセンサ21の原稿読取可能領域が白基準板15に原稿6を重ねた部分を読み取ったときに得られる各画素の光量値データ(第2の光量値データに相当する)である。
Further, the central control unit 30 also controls driving of the upper cover drive motor 24 and the stopper drive motor 25.
The A / D conversion unit 31 converts the read data read and photoelectrically converted by the image sensor 21 from analog data to digital data, and outputs the converted data to the black subtraction unit 35 of the signal processing unit 32.
The read data includes read data W (n) when only the white reference plate 15 is read after the white reference plate 15 is moved to a predetermined position, and the document 6 is conveyed to the white reference plate 15. Is read data X (n).
That is, the read data W (n) is light amount value data (corresponding to first light amount value data) of each pixel obtained when the original readable area of the image sensor 21 reads the white reference plate 15.
Further, the read data X (n) is the light quantity value data (second light quantity value data) of each pixel obtained when the original readable area of the image sensor 21 reads the portion where the original 6 is superimposed on the white reference plate 15. Equivalent to

信号処理部32の黒減算部35は、A/D変換部31から入力した読取データW(n)、読取データX(n)の黒のノイズ成分を除去して演算部33とシェーディング処理部36へそれぞれ出力する。
シェーディング処理部36は、黒減算部35から入力した読取データW(n)に基いて、読取データX(n)にシェーディング補正をして画像処理部37へ出力する。
シェーディング補正とは、原稿の読み取りに先立って白基準板15を読み取り、各画素の白データである白レベル基準データを取得し、この取得した白レベル基準データに基づいてシェーディング補正データを生成し、このシェーディング補正データを用いて読み取った原稿の読取データX(n)について光源20の光量ムラ、イメージセンサ21の誤差を補正するための処理のことである。
The black subtracting unit 35 of the signal processing unit 32 removes the black noise component of the read data W (n) and the read data X (n) input from the A / D conversion unit 31 to calculate the calculation unit 33 and the shading processing unit 36. To each output.
Based on the read data W (n) input from the black subtractor 35, the shading processor 36 performs shading correction on the read data X (n) and outputs it to the image processor 37.
In the shading correction, the white reference plate 15 is read prior to reading a document, white level reference data that is white data of each pixel is acquired, and shading correction data is generated based on the acquired white level reference data. This is a process for correcting the unevenness of the light amount of the light source 20 and the error of the image sensor 21 for the read data X (n) of the document read using the shading correction data.

演算部33は、黒減算部35から入力した読取データW(n)、読取データX(n)をメモリ34に記憶し、同じく黒減算部35から入力した読取データX(n)とメモリ34に記憶させた読取データW(n)と閾値Y1、閾値Y2に基いて原稿6の副走査方向の左右の原稿端に対応する画素を検知する原稿端検知処理を実行し、その原稿端検知処理によって検知された原稿端の画素の情報(例えば、位置情報)を画像処理部37へ出力する。
メモリ34は、黒減算部35から入力した読取データW(n)、読取データX(n)と原稿端検知処理に使用する閾値Y1、閾値Y2を記憶する。
The arithmetic unit 33 stores the read data W (n) and the read data X (n) input from the black subtractor 35 in the memory 34, and the read data X (n) input from the black subtractor 35 and the memory 34. Based on the stored read data W (n), threshold value Y1, and threshold value Y2, a document edge detection process for detecting pixels corresponding to the left and right document edges in the sub-scanning direction of the document 6 is executed. Information (for example, position information) of the detected pixel at the edge of the document is output to the image processing unit 37.
The memory 34 stores read data W (n) and read data X (n) input from the black subtracting unit 35, and threshold values Y1 and Y2 used for document edge detection processing.

画像処理部37は、演算部33によって検知した原稿端に対応する画素に基いて原稿6及び白基準板15をイメージセンサ21の原稿読取可能領域が読み取って得た各画素の光量値データのうち、原稿端の外部領域の各画素を除去あるいは白色画素にし、その後に公知の各種の処理を実施して印刷する画像データとして出力する。すなわち、この画像処理部37は除去手段の機能を果たす。
この画像処理部37で出力された画像データは、図2の画像形成部3へ入力されて用紙に画像が印刷される。
The image processing unit 37 includes light amount value data of each pixel obtained by reading the document 6 and the white reference plate 15 by the document readable area of the image sensor 21 based on the pixel corresponding to the document edge detected by the calculation unit 33. Then, each pixel in the external area at the edge of the document is removed or whitened, and then various known processes are performed and output as image data to be printed. That is, the image processing unit 37 functions as a removing unit.
The image data output by the image processing unit 37 is input to the image forming unit 3 in FIG. 2 and an image is printed on a sheet.

この実施形態の画像形成装置1の画像読取部2は、予め、上カバー10を移動させることによって白基準板15を所定位置まで移動させた後、原稿6を読み取る前に白基準板15の読取データW(n)(n:主走査位置)を取得し、その後に原稿6から読み取った読取データX(n)を取得し、読取データX(n)−読取データW(n)と閾値Y1及び閾値Y2から原稿6の原稿端に対応する画素を検知する。
そして、その検知した原稿6の原稿端に対応する画素に基いて原稿領域以外の各画素を除去(画像自体をカット)または白色画素にする。白色画素にするには、例えば、画素の信号レベルを255ディジット(digit)にする。
したがって、シートスルー方式で不定形の厚紙の原稿を読み取る際にも、地肌のない原稿でも正確に原稿領域を検知することができる。
The image reading unit 2 of the image forming apparatus 1 according to this embodiment reads the white reference plate 15 before reading the document 6 after moving the white reference plate 15 to a predetermined position by moving the upper cover 10 in advance. The data W (n) (n: main scanning position) is acquired, and then the read data X (n) read from the document 6 is acquired, and the read data X (n) -read data W (n) and the threshold value Y1 Pixels corresponding to the document edge of the document 6 are detected from the threshold Y2.
Then, the pixels other than the document area are removed (the image itself is cut) or white pixels are formed based on the pixels corresponding to the detected document edge of the document 6. In order to obtain a white pixel, for example, the signal level of the pixel is set to 255 digits.
Therefore, even when an irregular thick paper original is read by the sheet-through method, the original area can be accurately detected even if the original has no background.

次に、ユーザが原稿6を原稿挿入側の上カバー10と下プラテン11との間に挿入したとき、画像読取部2が原稿6を搬送可能にするために行う上カバー10の移動処理について説明する。
画像読取部2の構成が図3及び図4に示した構成である場合、画像読取部2は、原稿挿入側の上カバー10と下プラテン11との間に原稿6が挿入されると、原稿6を上カバー10と下プラテン11との間に挟むように上カバー10を移動させる処理を自動的に行う。
Next, when the user inserts the document 6 between the upper cover 10 and the lower platen 11 on the document insertion side, the moving process of the upper cover 10 performed so that the image reading unit 2 can transport the document 6 will be described. To do.
When the configuration of the image reading unit 2 is the configuration shown in FIGS. 3 and 4, the image reading unit 2 is configured such that when the document 6 is inserted between the upper cover 10 and the lower platen 11 on the document insertion side, 6 is automatically performed so that the upper cover 10 is sandwiched between the upper cover 10 and the lower platen 11.

図8は、図1に示した中央制御部30が行う原稿6の挿入時の上カバー10の移動処理を示すフローチャート図である。
図1の中央制御部30は、初期状態として、上カバー10と下プラテン11との間の距離Cを最も大きくするように上カバー10を上昇させた状態にしている。
図8のステップ(図中「S」で示す)1で、原稿挿入検知センサ17がオンか否かを判断し、オンではないと判断した場合(Nの場合)はこの判断処理を繰り返し、オンと判断した場合(Yの場合)はステップ2へ進む。
ユーザ操作によって原稿挿入側の上カバー10と下プラテン11との間に原稿6が挿入されると、原稿挿入検知センサ17がオンになって原稿6の挿入が検知される。
このとき、原稿6はストッパ18により先端が止められるので、原稿6が前ローラ14a、14bによって搬送可能になる前に原稿6が挿入され過ぎないように進路を妨げられている。
FIG. 8 is a flowchart showing the moving process of the upper cover 10 when the document 6 is inserted by the central control unit 30 shown in FIG.
The central control unit 30 in FIG. 1 is in a state where the upper cover 10 is raised so that the distance C between the upper cover 10 and the lower platen 11 is maximized as an initial state.
In step (indicated by “S” in FIG. 8) 1 in FIG. 8, it is determined whether or not the document insertion detection sensor 17 is on. If it is determined that the document insertion detection sensor 17 is not on (in the case of N), this determination processing is repeated. If it is determined (in the case of Y), the process proceeds to Step 2.
When the document 6 is inserted between the upper cover 10 and the lower platen 11 by the user operation, the document insertion detection sensor 17 is turned on and the insertion of the document 6 is detected.
At this time, since the leading edge of the document 6 is stopped by the stopper 18, the path is prevented so that the document 6 is not inserted too much before the document 6 can be conveyed by the front rollers 14a and 14b.

ステップ2で、距離検知センサ13によって上カバー10と原稿6との間の距離C1を検知し、ステップ3へ進む。
ステップ3で、上カバー駆動モータ24を駆動させることにより上カバー10を移動させ、原稿6が前ローラ14a、14bに挟まるまで上カバー10と下プラテン11との間の距離Cを変更し、ステップ4へ進む。
このステップ3の処理では、上記距離C1に応じて上カバー駆動モータ24を駆動させて、原稿6が前ローラ14a、14bによって挟まれる距離まで上カバー10を下プラテン11に対して下方向へ下降移動させる。
In step 2, the distance C1 between the upper cover 10 and the original 6 is detected by the distance detection sensor 13, and the process proceeds to step 3.
In step 3, the upper cover 10 is moved by driving the upper cover drive motor 24, and the distance C between the upper cover 10 and the lower platen 11 is changed until the document 6 is sandwiched between the front rollers 14a and 14b. Go to 4.
In the process of step 3, the upper cover drive motor 24 is driven in accordance with the distance C1, and the upper cover 10 is lowered downward with respect to the lower platen 11 until the document 6 is sandwiched between the front rollers 14a and 14b. Move.

ステップ4で、ストッパ駆動モータ25を駆動させてストッパ18を解除し、この処理を終了する。
ステップ4の処理により、原稿6の先端の進路が開き、前ローラ14a、14bを回転させることにより原稿6をコンタクトガラス19の方向へ搬送させ、原稿6の画像の読み取りを可能にする。
In step 4, the stopper drive motor 25 is driven to release the stopper 18, and this process is terminated.
By the process of step 4, the path of the leading edge of the document 6 is opened, and the documents 6 are conveyed toward the contact glass 19 by rotating the front rollers 14a and 14b, so that the image of the document 6 can be read.

次に、画像読取部2が上カバー10の移動処理をユーザが全て手動で行う場合について説明する。
画像読取部2の構成が図6及び図7に示した構成である場合、上カバー10の移動処理をユーザが手動で行うことになる。
ユーザは、レバー26を図6の下方向に倒すことにより、ギア27、28、ベルト29、ギア23を介してフレーム22を図6の上方向に移動させ、原稿挿入側の上カバー10と下プラテン11との間を原稿6の厚さ以上に広げる。
その後、原稿6を原稿挿入側の上カバー10と下プラテン11との間に挿入する。
Next, a case where the user manually performs all the movement processing of the upper cover 10 by the image reading unit 2 will be described.
When the configuration of the image reading unit 2 is the configuration shown in FIGS. 6 and 7, the user manually moves the upper cover 10.
The user tilts the lever 26 downward in FIG. 6 to move the frame 22 upward in FIG. 6 via the gears 27, 28, the belt 29, and the gear 23. The space between the platen 11 and the platen 11 is increased beyond the thickness of the original 6.
Thereafter, the document 6 is inserted between the upper cover 10 and the lower platen 11 on the document insertion side.

このとき、上述と同様に、原稿6はストッパ18により先端が止められるので、原稿6が前ローラ14a、14bによって搬送可能になる前に原稿6が挿入され過ぎないように進路を妨げられている。
次に、ユーザは、レバー26を図6の上方向に起こすことにより、ギア27、28、ベルト29、ギア23を介してフレーム22を図6の下方向に移動させ、上カバー10と下プラテン11の前ローラ14a、14bの間に原稿6が挟まる位置まで上カバー10を移動させる。
At this time, as described above, since the leading edge of the document 6 is stopped by the stopper 18, the path is prevented so that the document 6 is not inserted too much before the document 6 can be conveyed by the front rollers 14a and 14b. .
Next, the user raises the lever 26 upward in FIG. 6 to move the frame 22 downward through the gears 27 and 28, the belt 29, and the gear 23 in FIG. The upper cover 10 is moved to a position where the document 6 is sandwiched between the 11 front rollers 14a and 14b.

そして、ユーザが操作部12により画像読み取りを開始する指示を入力すると、図1の中央制御部30がストッパ駆動モータ25を駆動させてストッパ18を解除し、原稿6の画像の読み取りを開始する。
上カバー10の移動処理については、原稿6の読み取り終了時に、再び上カバー10と下プラテン11との間の距離Cを最も大きくするように上カバー10を自動で上昇させるようにするとよい。
このようにすれば、次に読み取る原稿が読み取りの済んだ前の原稿よりも厚い場合に、原稿を挿入するためにユーザが上カバー10を動かす必要がなくなるメリットがある。
When the user inputs an instruction to start image reading through the operation unit 12, the central control unit 30 in FIG. 1 drives the stopper driving motor 25 to release the stopper 18 and starts reading the image of the document 6.
As for the movement process of the upper cover 10, it is preferable to automatically raise the upper cover 10 so that the distance C between the upper cover 10 and the lower platen 11 is maximized again at the end of reading the document 6.
In this way, when the original to be read next is thicker than the original before reading, there is an advantage that the user does not need to move the upper cover 10 to insert the original.

また、原稿6の読み取り終了時に上カバー10をそのままの位置に保持するようにしてもよい。
このようにすれば、次に読み取る原稿が読み取りの済んだ前の原稿と同等の厚さ、または厚みが小さい場合に次の読み取り開始が早くなる。
さらに、原稿6の読み取り終了時は上カバー10と下プラテン11との間の距離Cを最も大きくするように自動で動かす場合と、読み取り時のままにする場合とを操作部12によってユーザが設定可能にするとよい。
また、原稿6の読み取り終了時はストッパ駆動モータ25を駆動してストッパ18を立たせるようにして、次の原稿の挿入に備える。
Alternatively, the upper cover 10 may be held in the same position when the reading of the document 6 is completed.
In this way, when the next document to be read has the same thickness as the previous document that has been read, or when the thickness is small, the next reading starts earlier.
Further, when reading of the document 6 is completed, the operation unit 12 sets the user to automatically move the distance C between the upper cover 10 and the lower platen 11 so as to maximize the distance C and to leave the document 6 at the time of reading. It should be possible.
When the reading of the document 6 is completed, the stopper driving motor 25 is driven to raise the stopper 18 so that the next document can be inserted.

次に、原稿端検知処理の処理の概要を説明する。
ここでは、図3の原稿6の地肌濃度が白基準板15よりも明るい(白い)場合を示す。
まず最初に、上カバー10が原稿6を通紙するために移動した後、読取データW(n)を取得する。
このとき、読取データW(n)は複数回読み取った平均値を用いた方がより精度よく原稿端を検知できる。
Next, an outline of the document edge detection process will be described.
Here, a case where the background density of the document 6 in FIG. 3 is brighter (white) than the white reference plate 15 is shown.
First, after the upper cover 10 moves to pass the document 6, the read data W (n) is acquired.
At this time, as the read data W (n), it is possible to detect the document edge more accurately by using the average value read a plurality of times.

次に、原稿6を搬送し、原稿6がイメージセンサ21上を通過しているときの全主走査方向の読取データX(n)を取得する。この読取データX(n)は白基準板15に原稿6を重ねた部分をイメージセンサ21の原稿読取可能領域が読み取ったときに得られる各画素の光量値データ(第2の光量値データに相当する)である。
図9は、図3の白基準板15をイメージセンサ21の原稿読取可能領域が読み取ったときに得られる各画素の光量値データと、白基準板15に原稿6を重ねた部分をイメージセンサ21の原稿読取可能領域が読み取ったときに得られる各画素の光量値データとの差の変化の一例を示す波形図である。
図9の波形40は、読取データX(n)−読取データW(n)の変化を示す波形である。読取データW(n)に関して、白基準板15は上カバー10が移動した後であるため、その移動量に応じてシェーディング補正データの取得時よりも暗い方に出力される。
Next, the document 6 is conveyed, and reading data X (n) in all main scanning directions when the document 6 passes over the image sensor 21 is acquired. This read data X (n) corresponds to the light quantity value data of each pixel (corresponding to the second light quantity value data) obtained when the original readable area of the image sensor 21 reads the portion where the original 6 is superimposed on the white reference plate 15. ).
FIG. 9 shows the light amount value data of each pixel obtained when the white readable plate 15 of FIG. 3 is read by the original readable area of the image sensor 21 and the portion where the original 6 is superimposed on the white reference plate 15. It is a wave form diagram which shows an example of a change of the difference with the light quantity value data of each pixel obtained when the original readable area of this is read.
A waveform 40 in FIG. 9 is a waveform showing a change in read data X (n) −read data W (n). Regarding the read data W (n), since the white reference plate 15 is after the upper cover 10 has moved, the white reference plate 15 is output darker than when the shading correction data is acquired according to the amount of movement.

また、読取データX(n)に関して、原稿6の主走査方向に原稿6がない領域に関しては白基準板15を読み取っているため、読取データW(n)とほぼ一致(差が0)する。
そして、原稿6の領域では原稿濃度分の出力になるので読取データW(n)との差が大きくなる(波形40の図中E〜Fの部分)。
そのため、全主走査方向の両側から数えて読取データW(n)と読取データX(n)との差が閾値Y1以上、あるいは閾値Y2以下となった画素を検知することで原稿端に対応する画素を検知することができる。
図9では、画素Eと画素Fが読取データX(n)−読取データW(n)が閾値Y1以上の最初と最後の画素であるため、この画素Eと画素Fの間を原稿6の領域とし、それ以外は領域外と判断することができる。
Further, regarding the read data X (n), the white reference plate 15 is read in the area where the original 6 does not exist in the main scanning direction of the original 6, and therefore substantially coincides with the read data W (n) (the difference is 0).
In the area of the original 6, the output corresponding to the original density is output, so that the difference from the read data W (n) becomes large (portions E to F in the waveform 40).
Therefore, by detecting a pixel in which the difference between the read data W (n) and the read data X (n) counted from both sides in the entire main scanning direction is equal to or greater than the threshold value Y1 or less than the threshold value Y2, it corresponds to the document edge. Pixels can be detected.
In FIG. 9, since the pixel E and the pixel F are the first and last pixels whose read data X (n) -read data W (n) is equal to or greater than the threshold value Y1, the area of the document 6 is between the pixel E and the pixel F. Other than that, it can be determined to be out of the area.

しかし、原稿6の厚みにより、主走査方向の原稿端では影がでる場合もある。
その影の部分で閾値Y1以上、あるいは閾値Y2以下になる可能性がある。
そのため、単純に読取データX(n)−読取データW(n)が閾値Y1以上、あるいは閾値Y2以下によって最初と最後の画素を原稿端とすると上記影の部分も原稿領域とみなす可能性がある。
以上より、原稿端検知処理において原稿端に対応する画素を見つける処理は以下の図10〜図13によって説明する処理を行うようにすれば、原稿6の原稿端に対応する画素を正しく検知することができる。
However, depending on the thickness of the document 6, there may be a shadow at the document edge in the main scanning direction.
There is a possibility that the shadow portion is equal to or higher than the threshold Y1 or lower than the threshold Y2.
Therefore, if the read data X (n) −read data W (n) is not less than the threshold value Y1 or not more than the threshold value Y2 and the first and last pixels are regarded as the document edge, the shadow portion may be regarded as the document region. .
As described above, in the document edge detection process, the pixel corresponding to the document edge of the document 6 can be detected correctly if the process described with reference to FIGS. Can do.

次に、原稿端検知処理において原稿端に対応する画素を見つける処理を説明する。
図10は、図1に示した演算部33が原稿端検知処理において原稿端に対応する画素を見つける処理の説明図である。
図10の波形41は、図3の原稿6の地肌濃度が白基準板15よりも明るい場合、その読取データX(n)−読取データW(n)の光量値の変化を示す波形である。
この場合、原稿6の外領域では読取データX(n)−読取データW(n)は0(ほぼ0、ランダムノイズ成分は未考慮)となるため、閾値Y1以上と閾値Y2以下にはならないが、原稿6の領域内になると、原稿6の地肌が明るいために読取データX(n)−読取データW(n)は閾値Y1以上になる。
Next, a process for finding a pixel corresponding to the document edge in the document edge detection process will be described.
FIG. 10 is an explanatory diagram of a process in which the arithmetic unit 33 shown in FIG. 1 finds a pixel corresponding to the document edge in the document edge detection process.
A waveform 41 in FIG. 10 is a waveform showing a change in the light amount value of the read data X (n) −read data W (n) when the background density of the document 6 in FIG. 3 is brighter than that of the white reference plate 15.
In this case, since the read data X (n) -read data W (n) is 0 (almost 0, random noise components are not considered) in the outer area of the document 6, it does not fall below the threshold Y1 and below the threshold Y2. In the area of the document 6, the background of the document 6 is bright, so that the read data X (n) -read data W (n) is equal to or greater than the threshold Y1.

そこで、図1の演算部33は、光量値の差が最初に閾値Y1以上になるまで閾値Y2以下にならなかった各画素のうち、光量値の差が最初に閾値Y1以上になった画素を原稿6の原稿端に対応する画素として検知する。すなわち、原稿6の副走査方向の左端の画素Eと右端の画素Fをそれぞれ検知する。
このようにして、地肌濃度が白基準板15よりも明るい原稿6の両端の画素を正しく検知することができる。
Therefore, the calculation unit 33 in FIG. 1 selects pixels whose light amount difference is initially equal to or greater than the threshold Y1 among the pixels that have not been decreased to the threshold value Y2 or less until the light amount value difference is initially equal to or greater than the threshold value Y1. It is detected as a pixel corresponding to the document edge of the document 6. That is, the leftmost pixel E and the rightmost pixel F of the document 6 in the sub-scanning direction are detected.
In this way, pixels at both ends of the document 6 having a background density brighter than the white reference plate 15 can be detected correctly.

図11は、図1に示した演算部33が原稿端検知処理において原稿端に対応する画素を見つける他の処理の説明図である。
図11の波形42は、図3の原稿6の地肌濃度が白基準板15よりも暗い場合、その読取データX(n)−読取データW(n)の光量値の変化を示す波形である。
この場合、原稿6の地肌濃度が暗いために、原稿6の領域内で読取データX(n)−読取データW(n)の光量値が閾値Y2以下になった画素から所定画素数G1以上が閾値Y2以上にならない。
上記所定画素数G1は、原稿読み取りの実験によって予め求めた値であり、図1のメモリ34に記憶しておき、演算部33が読み出して使用するとよい。
FIG. 11 is an explanatory diagram of another process in which the calculation unit 33 shown in FIG. 1 finds a pixel corresponding to the document edge in the document edge detection process.
A waveform 42 in FIG. 11 is a waveform showing a change in the light amount value of the read data X (n) −read data W (n) when the background density of the document 6 in FIG. 3 is darker than that of the white reference plate 15.
In this case, since the background density of the document 6 is dark, a predetermined number of pixels G1 or more from the pixel in which the light amount value of the read data X (n) −read data W (n) is equal to or less than the threshold Y2 in the region of the document 6 The threshold value Y2 is not exceeded.
The predetermined pixel number G1 is a value obtained in advance by an original reading experiment, and is preferably stored in the memory 34 of FIG.

そこで、図1の演算部33は、光量値の差が最初に閾値Y2以下になった画素から所定画素数G1以上が閾値Y2以上にならなかった各画素のうち、光量値の差が最初に閾値Y2以下になった画素を原稿6の原稿端に対応する画素として検知する。すなわち、原稿6の副走査方向の左端の画素E1と右端の画素F1をそれぞれ検知する。
このようにして、地肌濃度が白基準板15よりも暗い原稿6の両端の画素も正しく検知することができる。
Therefore, the calculation unit 33 in FIG. 1 first calculates the difference in light amount value among the pixels in which the predetermined number of pixels G1 or more does not become greater than or equal to the threshold value Y2 from the pixel in which the difference in light amount value initially becomes less than or equal to the threshold value Y2. Pixels that are equal to or less than the threshold Y2 are detected as pixels corresponding to the document edge of the document 6. That is, the leftmost pixel E1 and the rightmost pixel F1 of the document 6 in the sub-scanning direction are detected.
In this way, the pixels at both ends of the document 6 whose background density is darker than the white reference plate 15 can also be detected correctly.

図12は、図1に示した演算部33が原稿端検知処理において原稿端に対応する画素を見つけるさらに他の処理の説明図である。
図12の波形43は、図3の原稿6の地肌濃度が白基準板15よりも明るく、原稿6の端部で影ができる場合、その読取データX(n)−読取データW(n)の光量値の変化を示す波形である。
この場合、原稿6の外領域では読取データX(n)−読取データW(n)は0(ほぼ0、ランダムノイズ成分は未考慮)となるため、閾値Y1以上と閾値Y2以下にはならないが、原稿6の端部に影が生じた場合、読取データX(n)−読取データW(n)は閾値Y2以下になる部分が生じるので、この画素E1と画素F1をそれぞれ検知する。
FIG. 12 is an explanatory diagram of still another process in which the calculation unit 33 shown in FIG. 1 finds a pixel corresponding to the document edge in the document edge detection process.
A waveform 43 in FIG. 12 indicates that when the background density of the document 6 in FIG. 3 is brighter than the white reference plate 15 and a shadow is formed at the edge of the document 6, the read data X (n) −read data W (n). It is a waveform which shows the change of a light quantity value.
In this case, since the read data X (n) -read data W (n) is 0 (almost 0, random noise components are not considered) in the outer area of the document 6, it does not fall below the threshold Y1 and below the threshold Y2. When a shadow is generated at the edge of the document 6, the read data X (n) -read data W (n) has a portion where the threshold value Y2 or less occurs, so that the pixel E1 and the pixel F1 are detected.

さらに、画素E1と画素F1が影によるものである場合、所定画素数G1以内に読取データX(n)−読取データW(n)は閾値Y2以上になるので、この画素E2と画素F2をそれぞれ検知する。
そして、原稿6の領域内になると、原稿6の地肌が明るいために読取データX(n)−読取データW(n)は閾値Y1以上になるので、この閾値Y1以上になった画素Eと画素Fを原稿端に対応する画素として検知する。
Further, when the pixel E1 and the pixel F1 are shadowed, the read data X (n) -read data W (n) is equal to or greater than the threshold value Y2 within the predetermined number of pixels G1, so that the pixel E2 and the pixel F2 are Detect.
Then, since the background of the document 6 is bright within the area of the document 6, the read data X (n) −read data W (n) is equal to or greater than the threshold value Y 1. F is detected as a pixel corresponding to the document edge.

すなわち、図1の演算部33は、光量値の差が最初に閾値Y2以下になった画素から所定画素数G1以内に閾値Y2以上になり、さらに所定画素数G2以内に閾値Y1以上になった各画素のうち、所定画素数G2以内に閾値Y1以上になった最初の画素を原稿6の原稿端に対応する画素として検知する。すなわち、原稿6の副走査方向の左端の画素Eと右端の画素Fをそれぞれ検知する。
上記所定画素数G2も、原稿読み取りの実験によって予め求めた値であり、図1のメモリ34に記憶しておき、演算部33が読み出して使用するとよい。
このようにして、原稿6の両端に影の部分が生じても原稿6の両端の画素を正しく検知することができる。
That is, the calculation unit 33 in FIG. 1 has the threshold Y2 or more within the predetermined number of pixels G1 from the pixel where the difference in the light amount value first becomes the threshold Y2 or less, and further exceeds the threshold Y1 within the predetermined number of pixels G2. Among the pixels, the first pixel that is equal to or greater than the threshold Y1 within the predetermined number of pixels G2 is detected as a pixel corresponding to the document edge of the document 6. That is, the leftmost pixel E and the rightmost pixel F of the document 6 in the sub-scanning direction are detected.
The predetermined pixel number G2 is also a value obtained in advance by an original reading experiment, and is preferably stored in the memory 34 of FIG.
In this manner, pixels at both ends of the document 6 can be correctly detected even if shadow portions occur at both ends of the document 6.

図13は、図1に示した演算部33が原稿端検知処理において原稿端に対応する画素を見つけるさらにまた他の処理の説明図である。
図13の波形44は、図3の原稿6の地肌濃度が読取データW(n)近傍の濃度になった場合、その読取データX(n)−読取データW(n)の光量値の変化を示す波形である。
この場合、原稿6の端部に影が生じた場合の画素E1と画素E2、画素F1と画素F2のそれぞれの検知は、上述と同様にして検知するが、原稿6の地肌濃度が読取データW(n)近傍の濃度であるため、所定画素数G2以内には読取データX(n)−読取データW(n)が閾値Y1以上にならない。
FIG. 13 is an explanatory diagram of still another process in which the calculation unit 33 shown in FIG. 1 finds a pixel corresponding to the document edge in the document edge detection process.
A waveform 44 in FIG. 13 shows a change in the light amount value of the read data X (n) −read data W (n) when the background density of the document 6 in FIG. 3 becomes a density near the read data W (n). It is a waveform to show.
In this case, the pixels E1 and E2 and the pixels F1 and F2 are detected in the same manner as described above when a shadow is generated at the edge of the document 6, but the background density of the document 6 is determined based on the read data W. (N) Since the density is in the vicinity, the read data X (n) −read data W (n) does not exceed the threshold Y1 within the predetermined number of pixels G2.

その場合には、画素E2と画素F2を原稿6の原稿端に対応する画素として検知する。
すなわち、図1の演算部33は、光量値の差が最初に閾値Y2以下になった画素から所定画素数G1以内に閾値Y2以上になり、さらに所定画素数G2以内に閾値Y1以上にならなかった各画素のうち、閾値Y2以下になってから最初に閾値Y2以上になった画素を原稿6の原稿端に対応する画素として検知する。すなわち、原稿6の副走査方向の左端の画素E2と右端の画素F2をそれぞれ検知する。
このようにして、原稿6の地肌濃度が読取データW(n)近傍の濃度の場合でも原稿6の両端の画素を正しく検知することができる。
In this case, the pixel E2 and the pixel F2 are detected as pixels corresponding to the document edge of the document 6.
That is, the calculation unit 33 in FIG. 1 does not exceed the threshold Y2 within the predetermined number of pixels G1 within the predetermined number of pixels G1, and does not exceed the threshold Y1 within the predetermined number of pixels G2 from the pixel where the difference in the light amount value first becomes the threshold Y2 or less. Among the pixels, the pixel that first becomes equal to or greater than the threshold Y2 after being equal to or less than the threshold Y2 is detected as a pixel corresponding to the document edge of the document 6. That is, the leftmost pixel E2 and the rightmost pixel F2 of the document 6 in the sub-scanning direction are detected.
In this way, even when the background density of the document 6 is a density near the read data W (n), the pixels at both ends of the document 6 can be correctly detected.

以上、図10〜図13で示した処理によって原稿端検知処理において原稿6の原稿端に対応する画素を検知することができる。
なお、図10〜図13で示した処理では、原稿6の地肌濃度が一定の場合を例としたが、地肌のない原稿6であってもこれらの各処理を行うことによってその原稿端を検知することができる。
As described above, the pixels corresponding to the document edge of the document 6 can be detected in the document edge detection process by the processes shown in FIGS.
10 to 13 exemplify the case where the background density of the document 6 is constant, the edge of the document is detected by performing each of these processes even for the document 6 without the background. can do.

次に、画像読取部2における原稿端検知処理について説明する。
図14及び図15は、図1に示す画像読取部2の原稿端検知処理を示すフローチャート図である。
この原稿端検知処理は、図1の演算部33がメモリ34に読取データW(n)及びX(n)を記憶すると実行する。
図14のステップ(図中「S」で示す)11では、メモリ34から読取データW(n)を取得し、ステップ12へ進む。この読取データW(n)は、白基準板15を所定位置まで移動させた後にその白基準板15を読み取ったときのイメージセンサ21の原稿読取可能領域における各画素の光量値データであり、nは主走査方向の先頭から最後尾の画素を示すための変数であり、1以上の整数である。
Next, document edge detection processing in the image reading unit 2 will be described.
14 and 15 are flowcharts showing the document edge detection process of the image reading unit 2 shown in FIG.
This document edge detection process is executed when the calculation unit 33 in FIG. 1 stores the read data W (n) and X (n) in the memory 34.
In step (indicated by “S” in FIG. 14) 11 in FIG. 14, the read data W (n) is acquired from the memory 34, and the process proceeds to step 12. The read data W (n) is light amount value data of each pixel in the document readable area of the image sensor 21 when the white reference plate 15 is read after the white reference plate 15 is moved to a predetermined position. Is a variable for indicating the pixels from the head to the tail in the main scanning direction, and is an integer of 1 or more.

この読取データW(n)については、図1の中央制御部30の制御により、図3の白基準板15を所定位置まで移動させた後に、イメージセンサ21がその白基準板15を主走査方向に複数回読み取り、演算部33がその複数回分のイメージセンサ21の原稿読取可能領域における各画素の光量値データをメモリ34に記憶した後、その複数回分の光量値データについて、それぞれ主走査方向に対応する各画素の光量値データの平均値を求め、図1の演算部33がその平均値をイメージセンサ21の原稿読取可能領域が白基準板15からの反射光によって得られた各画素の光量値データとしてもよい。
また、白基準板15の読取データW(n)の読み取りを、図3の原稿6の読み取りを開始してから原稿6が白基準板15の下を通過する前までにするようにすれば、原稿6の読み取り完了までの速度が速くなるメリットがある。
For the read data W (n), after the white reference plate 15 in FIG. 3 is moved to a predetermined position under the control of the central control unit 30 in FIG. 1, the image sensor 21 moves the white reference plate 15 in the main scanning direction. The calculation unit 33 stores the light amount value data of each pixel in the document readable area of the image sensor 21 in the memory 34, and then the light amount value data for the multiple times in the main scanning direction. The average value of the light quantity value data of each corresponding pixel is obtained, and the calculation unit 33 in FIG. 1 uses the average value as the light quantity of each pixel obtained by the reflected light from the white reference plate 15 in the document readable area of the image sensor 21. Value data may be used.
If the reading data W (n) of the white reference plate 15 is read from the start of reading the document 6 in FIG. 3 to before the document 6 passes under the white reference plate 15, There is an advantage that the speed until the reading of the document 6 is completed becomes faster.

ステップ12では、閾値Y1、閾値Y2の設定処理をし、ステップ13へ進む。
このステップ12の詳しい処理内容については、図16〜図18を用いて後述する。
ステップ13では、メモリ34から読取データX(n)を取得し、ステップ14へ進む。この読取データX(n)は、白基準板15に原稿6を重ねた部分をイメージセンサ21の原稿読取可能領域が読み取ったときに得られる各画素の光量値データである。
ステップ14では、n=1を設定し、ステップ15へ進む。
このステップ14では、原稿6の主走査方向の先端(読取開始画素)から光量値データの差を比較するため、参照する画素を示す初期値としてn=1とする。
In step 12, threshold Y1 and threshold Y2 are set, and the process proceeds to step 13.
Detailed processing contents of step 12 will be described later with reference to FIGS.
In step 13, read data X (n) is acquired from the memory 34, and the process proceeds to step 14. The read data X (n) is light amount value data of each pixel obtained when the original readable area of the image sensor 21 reads the portion where the original 6 is superimposed on the white reference plate 15.
In step 14, n = 1 is set, and the process proceeds to step 15.
In step 14, n = 1 is set as an initial value indicating a pixel to be referred to in order to compare the difference in light amount value data from the leading end (reading start pixel) of the document 6 in the main scanning direction.

そして、以下のステップ15〜29の処理をn=1(主走査方向の原稿読取可能領域から得られた光量値データの先頭の画素)からN(Nは主走査方向の原稿読取可能領域から得られた光量値データの最後尾の画素)まで繰り返す。
ステップ15では、読取データX(n)−読取データW(n)≧閾値Y1か否かを判断し、読取データX(n)−読取データW(n)≧閾値Y1の場合(Yの場合)はステップ29へ進み、読取データX(n)−読取データW(n)≧閾値Y1ではない場合(Nの場合)はステップ16へ進む。
ステップ29では、原稿6の副走査方向の左端の画素E=nを検知し、図15のステップ31の処理へ進む。
Then, the processing in the following steps 15 to 29 is performed from n = 1 (the first pixel of the light quantity value data obtained from the document readable area in the main scanning direction) to N (N is obtained from the document readable area in the main scanning direction). Repeat until the last pixel of the obtained light quantity value data).
In step 15, it is determined whether read data X (n) −read data W (n) ≧ threshold Y1, and if read data X (n) −read data W (n) ≧ threshold Y1 (in the case of Y). Advances to step 29, and if the read data X (n) −read data W (n) ≧ threshold Y1 is not satisfied (in the case of N), the process advances to step 16.
In step 29, the leftmost pixel E = n in the sub-scanning direction of the document 6 is detected, and the process proceeds to step 31 in FIG.

ステップ16では、読取データX(n)−読取データW(n)≦閾値Y2か否かを判断し、読取データX(n)−読取データW(n)≦閾値Y2の場合(Yの場合)はステップ18へ進み、読取データX(n)−読取データW(n)≦閾値Y2ではない場合(Nの場合)はステップ17へ進む。
ステップ17では、n=n+1とし、ステップ15の処理へ戻る。
こうして、ステップ15〜17の処理を繰り返し、光量値データの差が最初に閾値Y1以上になるまで閾値Y2以下にならなかった各画素のうち、光量値データの差が最初に閾値Y1以上になった画素nを見つける。ここで見つかった画素nを、ステップ29で原稿6の副走査方向の左端の画素E=nとして検知する。この原稿6の副走査方向の左端の画素E=nの検知処理は図10で説明した。
In step 16, it is determined whether or not read data X (n) −read data W (n) ≦ threshold Y2. If read data X (n) −read data W (n) ≦ threshold Y2 (in the case of Y). Advances to step 18, and if read data X (n) −read data W (n) ≦ threshold Y <b> 2 (in the case of N), the process advances to step 17.
In step 17, n = n + 1 is set, and the process returns to step 15.
In this way, the processing of steps 15 to 17 is repeated, and among the pixels that did not become the threshold value Y2 or less until the light quantity value data difference first becomes the threshold value Y1 or more, the light quantity value data difference first becomes the threshold value Y1 or more. Find the pixel n. The pixel n found here is detected in step 29 as the leftmost pixel E = n in the sub-scanning direction of the document 6. The detection processing of the leftmost pixel E = n in the sub-scanning direction of the document 6 has been described with reference to FIG.

ステップ18では、原稿6の副走査方向の画素E1=nを検知し、ステップ19へ進む。このステップ18の処理では、図11から図13で示した画素E1を検知する。
ステップ19では、n=n+1とし、ステップ20へ進む。
ステップ20では、n<画素E1+所定画素数G1か否かを判断し、n<画素E1+所定画素数G1ではない場合(Nの場合)はステップ21へ進み、n<画素E1+所定画素数G1の場合(Yの場合)はステップ22へ進む。
ステップ21では、原稿6の副走査方向の左端の画素E=E1を検知し、図15のステップ31の処理へ進む。
In step 18, the pixel E1 = n in the sub-scanning direction of the document 6 is detected, and the process proceeds to step 19. In the process of step 18, the pixel E1 shown in FIGS. 11 to 13 is detected.
In step 19, n = n + 1 is set, and the process proceeds to step 20.
In step 20, it is determined whether or not n <pixel E1 + predetermined pixel number G1. If n <pixel E1 + predetermined pixel number G1 is not satisfied (in the case of N), the process proceeds to step 21, where n <pixel E1 + predetermined pixel number G1. If yes (Y), go to Step 22.
In step 21, the leftmost pixel E = E1 in the sub-scanning direction of the document 6 is detected, and the process proceeds to step 31 in FIG.

ステップ15,16,20の処理により、光量値データの差が最初に閾値Y2以下になった画素から所定画素数G1以上が閾値Y2以上にならなかった各画素のうち、光量値データの差が最初に閾値Y2以下になった画素E1を見つける。ここで見つかった画素E1を、ステップ21で原稿6の副走査方向の左端の画素E=E1として検知する。この原稿6の副走査方向の左端の画素E=E1の検知処理は図11で説明した。
ステップ22では、読取データX(n)−読取データW(n)≦閾値Y2か否かを判断し、読取データX(n)−読取データW(n)≦閾値Y2の場合(Yの場合)はステップ19へ戻り、読取データX(n)−読取データW(n)≦閾値Y2ではない場合(Nの場合)はステップ23へ進む。
As a result of the processing in steps 15, 16, and 20, the difference in the light quantity value data among the pixels in which the difference in the light quantity value data from the pixel that has initially become the threshold value Y2 or less and the predetermined number of pixels G1 or more does not become the threshold value Y2 or more. First, the pixel E1 that is equal to or less than the threshold Y2 is found. The pixel E1 found here is detected as a pixel E = E1 at the left end in the sub-scanning direction of the document 6 in step 21. The detection processing of the pixel E = E1 at the left end of the original 6 in the sub-scanning direction has been described with reference to FIG.
In step 22, it is determined whether or not read data X (n) −read data W (n) ≦ threshold Y2. If read data X (n) −read data W (n) ≦ threshold Y2 (in the case of Y). Returns to step 19 and proceeds to step 23 if read data X (n) −read data W (n) ≦ threshold Y2 (N).

ステップ23では、原稿6の副走査方向の画素E2=nを検知し、ステップ24へ進む。このステップ23の処理は、図12と図13で示した画素E2を検知する。
ステップ24では、n=n+1とし、ステップ25へ進む。
ステップ25では、n<画素E2+所定画素数G2か否かを判断し、n<画素E2+所定画素数G2ではない場合(Nの場合)はステップ26へ進み、n<画素E2+所定画素数G2の場合(Yの場合)はステップ27へ進む。
ステップ26では、原稿6の副走査方向の左端の画素E=E2を検知し、図15のステップ31の処理へ進む。
In step 23, the pixel E2 = n in the sub-scanning direction of the document 6 is detected, and the process proceeds to step 24. In the process of step 23, the pixel E2 shown in FIGS. 12 and 13 is detected.
In step 24, n = n + 1 is set, and the process proceeds to step 25.
In step 25, it is determined whether or not n <pixel E2 + predetermined pixel number G2. If n <pixel E2 + predetermined pixel number G2 is not satisfied (in the case of N), the process proceeds to step 26, where n <pixel E2 + predetermined pixel number G2. If yes (Y), go to step 27.
In step 26, the leftmost pixel E = E2 in the sub-scanning direction of the document 6 is detected, and the process proceeds to step 31 in FIG.

ステップ15,16,20,22,25の処理により、光量値データの差が最初に閾値Y2以下になった画素から所定画素数G1以内に閾値Y2以上になり、さらに所定画素数G2以内に閾値Y1以上にならなかった各画素のうち、閾値Y2以下になってから最初に閾値Y2以上になった画素E2を見つける。ここで見つかった画素E2を、ステップ26で原稿6の副走査方向の左端の画素E=E2として検知する。この原稿6の副走査方向の左端の画素E=E2の検知処理は図13で説明した。
ステップ27では、読取データX(n)−読取データW(n)≦閾値Y1か否かを判断し、読取データX(n)−読取データW(n)≦閾値Y1の場合(Yの場合)はステップ24へ戻り、読取データX(n)−読取データW(n)≦閾値Y1ではない場合(Nの場合)はステップ28へ進む。
As a result of the processing of steps 15, 16, 20, 22, and 25, the difference in the light quantity value data is equal to or greater than the threshold Y2 within the predetermined number of pixels G1 from the pixel that initially becomes equal to or less than the threshold Y2, and further within the predetermined number of pixels G2. Among the pixels that did not become Y1 or more, the pixel E2 that first became the threshold Y2 or less after the threshold Y2 or less was found. The pixel E2 found here is detected as a pixel E = E2 at the left end in the sub-scanning direction of the document 6 in step 26. The detection process of the pixel E = E2 at the left end of the document 6 in the sub-scanning direction has been described with reference to FIG.
In step 27, it is determined whether or not read data X (n) −read data W (n) ≦ threshold Y1, and if read data X (n) −read data W (n) ≦ threshold Y1 (in the case of Y). Returns to step 24, and proceeds to step 28 if the read data X (n) -read data W (n) ≦ threshold Y1 is not satisfied (in the case of N).

ステップ28では、原稿6の副走査方向の左端の画素E=nを検知し、図15のステップ31の処理へ進む。
ステップ15,16,20,22,25,27の処理により、光量値データの差が最初に閾値Y2以下になった画素から所定画素数G1以内に閾値Y2以上になり、さらに所定画素数G2以内に閾値Y1以上になった各画素のうち、その所定画素数G2以内に閾値Y1以上になった最初の画素Eを見つける。ここで見つかった画素Eを、ステップ28で原稿6の副走査方向の左端の画素E=nとして検知する。この原稿6の副走査方向の左端の画素E=nの検知処理は図12で説明した。
このようにして、原稿6の左端の画素Eを検知する。
In step 28, the leftmost pixel E = n in the sub-scanning direction of the document 6 is detected, and the process proceeds to step 31 in FIG.
As a result of the processing of steps 15, 16, 20, 22, 25, and 27, the difference in the light quantity value data becomes equal to or greater than the threshold Y2 within the predetermined number of pixels G1 from the pixel that initially becomes equal to or less than the threshold Y2, and further within the predetermined number of pixels G2. Among the pixels having the threshold Y1 or more, the first pixel E having the threshold Y1 or more within the predetermined number of pixels G2 is found. The pixel E found here is detected at step 28 as the leftmost pixel E = n in the sub-scanning direction of the document 6. The detection processing of the leftmost pixel E = n in the sub-scanning direction of the document 6 has been described with reference to FIG.
In this way, the pixel E at the left end of the document 6 is detected.

次に、図15に示すフローチャート図の処理によって原稿6の右端の画素Fを検知する。
まず、ステップ31では、n=Nに設定し直し、ステップ32へ進む。このステップ31の処理で主走査方向の原稿読取可能領域から得られた光量値データの各画素の参照順を図14で示した処理の場合とは逆に設定する。
そして、以下のステップ32〜46の処理をn=N(Nは主走査方向の原稿読取可能領域から得られた光量値データの最後尾の画素)からn=1(主走査方向の原稿読取可能領域から得られた光量値データの先頭の画素)まで繰り返す。
Next, the rightmost pixel F of the document 6 is detected by the processing of the flowchart shown in FIG.
First, in step 31, n = N is reset and the process proceeds to step 32. The reference order of each pixel of the light amount value data obtained from the document readable area in the main scanning direction in the process of step 31 is set opposite to the process shown in FIG.
Then, the processing of the following steps 32 to 46 is performed from n = N (N is the last pixel of the light amount value data obtained from the document readable area in the main scanning direction) to n = 1 (document reading in the main scanning direction is possible). Repeat until the first pixel of the light quantity value data obtained from the area).

ステップ32では、読取データX(n)−読取データW(n)≧閾値Y1か否かを判断し、読取データX(n)−読取データW(n)≧閾値Y1の場合(Yの場合)はステップ46へ進み、読取データX(n)−読取データW(n)≧閾値Y1ではない場合(Nの場合)はステップ33へ進む。
ステップ46では、原稿6の副走査方向の右端の画素F=nを検知し、この処理を終了する。
ステップ33では、読取データX(n)−読取データW(n)≦閾値Y2か否かを判断し、読取データX(n)−読取データW(n)≦閾値Y2の場合(Yの場合)はステップ35へ進み、読取データX(n)−読取データW(n)≦閾値Y2ではない場合(Nの場合)はステップ34へ進む。
In step 32, it is determined whether read data X (n) −read data W (n) ≧ threshold Y1, and if read data X (n) −read data W (n) ≧ threshold Y1 (in the case of Y). Advances to step 46, and if read data X (n) −read data W (n) ≧ threshold Y1 is not satisfied (in the case of N), the process advances to step 33.
In step 46, the rightmost pixel F = n in the sub-scanning direction of the document 6 is detected, and this process ends.
In step 33, it is determined whether or not read data X (n) −read data W (n) ≦ threshold Y2, and if read data X (n) −read data W (n) ≦ threshold Y2 (in the case of Y). Advances to step 35, and if the read data X (n) −read data W (n) ≦ threshold Y2 is not satisfied (in the case of N), the process advances to step 34.

こうして、ステップ32〜34の処理を繰り返し、光量値データの差が最初に閾値Y1以上になるまで閾値Y2以下にならなかった各画素のうち、光量値データの差が最初に閾値Y1以上になった画素nを見つける。ここで見つかった画素nを、ステップ46で原稿6の副走査方向の右端の画素F=nとして検知する。この原稿6の副走査方向の右端の画素F=nの検知処理は図10で説明した。
ステップ34では、n=N−1とし、ステップ32の処理へ戻る。
ステップ35では、原稿6の副走査方向の画素F1=nを検知し、ステップ36へ進む。このステップ35の処理では、図11から図13で示した画素F1を検知する。
ステップ36では、n=N−1とし、ステップ37へ進む。
In this way, the processing of steps 32 to 34 is repeated, and among the pixels that did not become the threshold value Y2 or less until the light quantity value data difference first becomes the threshold value Y1 or more, the light quantity value data difference first becomes the threshold value Y1 or more. Find the pixel n. The pixel n found here is detected at step 46 as the rightmost pixel F = n in the sub-scanning direction of the document 6. The detection processing of the rightmost pixel F = n in the sub-scanning direction of the document 6 has been described with reference to FIG.
In step 34, n = N-1 and the process returns to step 32.
In step 35, the pixel F1 = n in the sub-scanning direction of the document 6 is detected, and the process proceeds to step 36. In the process of step 35, the pixel F1 shown in FIGS. 11 to 13 is detected.
In step 36, n = N-1 and the process proceeds to step 37.

ステップ37では、n<画素F1+所定画素数G1か否かを判断し、n<画素F1+所定画素数G1ではない場合(Nの場合)はステップ38へ進み、n<画素F1+所定画素数G1の場合(Yの場合)はステップ39へ進む。
ステップ38では、原稿6の副走査方向の右端の画素F=F1を検知し、この処理を終了する。
ステップ32,33,37の処理により、光量値データの差が最初に閾値Y2以下になった画素から所定画素数G1以上が閾値Y2以上にならなかった各画素のうち、光量値データの差が最初に閾値Y2以下になった画素F1を見つける。ここで見つかった画素F1を、ステップ38で原稿6の副走査方向の右端の画素F=F1として検知する。この原稿6の副走査方向の右端の画素F=F1の検知処理は図11で説明した。
In step 37, it is determined whether or not n <pixel F1 + predetermined pixel number G1. If n <pixel F1 + predetermined pixel number G1 is not satisfied (in the case of N), the process proceeds to step 38, where n <pixel F1 + predetermined pixel number G1. If yes (Y), go to step 39.
In step 38, the rightmost pixel F = F1 in the sub-scanning direction of the document 6 is detected, and this process ends.
As a result of the processing of steps 32, 33, and 37, the difference in the light quantity value data among the pixels in which the predetermined number of pixels G1 or more does not become the threshold value Y2 or more from the pixel in which the difference in the light quantity value data first becomes the threshold value Y2 or less. First, the pixel F1 that is equal to or less than the threshold Y2 is found. The pixel F1 found here is detected as the rightmost pixel F = F1 in the sub-scanning direction of the document 6 in step 38. The detection process for the rightmost pixel F = F1 in the sub-scanning direction of the document 6 has been described with reference to FIG.

ステップ39では、読取データX(n)−読取データW(n)≦閾値Y2か否かを判断し、読取データX(n)−読取データW(n)≦閾値Y2の場合(Yの場合)はステップ36へ戻り、読取データX(n)−読取データW(n)≦閾値Y2ではない場合(Nの場合)はステップ40へ進む。
ステップ40では、原稿6の副走査方向の画素F2=nを検知し、ステップ41へ進む。このステップ40の処理は、図12と図13で示した画素F2を検知する。
ステップ41では、n=N−1とし、ステップ42へ進む。
ステップ42では、n<画素F2+所定画素数G2か否かを判断し、n<画素F2+所定画素数G2ではない場合(Nの場合)はステップ43へ進み、n<画素F2+所定画素数G2の場合(Yの場合)はステップ44へ進む。
In step 39, it is determined whether or not read data X (n) −read data W (n) ≦ threshold Y2. If read data X (n) −read data W (n) ≦ threshold Y2 (in the case of Y). Returns to step 36, and if not the read data X (n) −read data W (n) ≦ threshold Y2, the process proceeds to step 40.
In step 40, the pixel F2 = n in the sub-scanning direction of the document 6 is detected, and the process proceeds to step 41. In step 40, the pixel F2 shown in FIGS. 12 and 13 is detected.
In step 41, n = N−1 and the process proceeds to step.
In step 42, it is determined whether or not n <pixel F2 + predetermined pixel number G2. If n <pixel F2 + predetermined pixel number G2 is not satisfied (in the case of N), the process proceeds to step 43, where n <pixel F2 + predetermined pixel number G2. If yes (Y), go to step 44.

ステップ43では、原稿6の副走査方向の右端の画素F=F2を検知し、この処理を終了する。
ステップ32,33,37,39,42の処理により、光量値データの差が最初に閾値Y2以下になった画素から所定画素数G1以内に閾値Y2以上になり、さらに所定画素数G2以内に閾値Y1以上にならなかった各画素のうち、閾値Y2以下になってから最初に閾値Y2以上になった画素F2を見つける。ここで見つかった画素F2を、ステップ43で原稿6の副走査方向の右端の画素F=F2として検知する。この原稿6の副走査方向の右端の画素F=F2の詳しい検知処理は図13で説明した。
In step 43, the rightmost pixel F = F2 in the sub-scanning direction of the document 6 is detected, and this process ends.
As a result of the processing of steps 32, 33, 37, 39, and 42, the difference in the light quantity value data first becomes equal to or greater than the threshold Y2 within the predetermined number of pixels G1 from the pixel that is initially equal to or less than the threshold Y2, and further within the predetermined number of pixels G2. Among the pixels that did not become Y1 or more, the pixel F2 that first became the threshold Y2 or less after the threshold Y2 or less was found. The pixel F2 found here is detected as a rightmost pixel F = F2 in the sub-scanning direction of the document 6 in step 43. The detailed detection processing of the rightmost pixel F = F2 in the sub-scanning direction of the document 6 has been described with reference to FIG.

ステップ44では、読取データX(n)−読取データW(n)≦閾値Y1か否かを判断し、読取データX(n)−読取データW(n)≦閾値Y1の場合(Yの場合)はステップ41へ戻り、読取データX(n)−読取データW(n)≦閾値Y1ではない場合(Nの場合)はステップ45へ進む。
ステップ45では、原稿6の副走査方向の右端の画素F=nを検知し、この処理を終了する。
In step 44, it is determined whether or not read data X (n) −read data W (n) ≦ threshold Y1, and if read data X (n) −read data W (n) ≦ threshold Y1 (in the case of Y). Returns to step 41, and proceeds to step 45 if read data X (n) −read data W (n) ≦ threshold Y <b> 1 (in the case of N).
In step 45, the rightmost pixel F = n in the sub-scanning direction of the document 6 is detected, and this process ends.

ステップ32,33,37,39,42,44の処理により、光量値データの差が最初に閾値Y2以下になった画素から所定画素数G1以内に閾値Y2以上になり、さらに所定画素数G2以内に閾値Y1以上になった各画素のうち、その所定画素数G2以内に閾値Y1以上になった最初の画素Fを見つける。ここで見つかった画素Fを、ステップ45で原稿6の副走査方向の右端の画素F=nとして検知する。この原稿6の副走査方向の右端の画素F=nの詳しい検知処理は図12で説明した。
このようにして、原稿6の右端の画素Fを検知する。
As a result of the processing of steps 32, 33, 37, 39, 42, and 44, the difference in the light quantity value data becomes equal to or greater than the threshold Y2 within the predetermined number of pixels G1 from the pixel that first becomes the threshold Y2 or less, and further within the predetermined number of pixels G2. Among the pixels having the threshold Y1 or more, the first pixel F having the threshold Y1 or more within the predetermined number of pixels G2 is found. The pixel F found here is detected in step 45 as the rightmost pixel F in the sub-scanning direction of the document 6 = n. Detailed detection processing of the rightmost pixel F = n in the sub-scanning direction of the document 6 has been described with reference to FIG.
In this way, the rightmost pixel F of the document 6 is detected.

次に、図14のステップ12における閾値Y1、閾値Y2の設定処理について詳しく説明する。
図14のステップ12では、次の(1)〜(3)のいずれかの設定処理によって閾値Y1、閾値Y2を設定する。
この(1)〜(3)のいずれかの設定処理の選択は、ユーザが図3の操作部12から切り替えるようにしてもよいし、画像読取部2の製造時にいずれかの設定処理を行うように演算部33の機能を設定するようにしてもよい。
Next, the threshold Y1 and threshold Y2 setting processing in step 12 of FIG. 14 will be described in detail.
In step 12 of FIG. 14, the threshold value Y1 and the threshold value Y2 are set by any one of the following setting processes (1) to (3).
The selection of any one of the setting processes (1) to (3) may be switched by the user from the operation unit 12 in FIG. 3, or any setting process may be performed when the image reading unit 2 is manufactured. Alternatively, the function of the calculation unit 33 may be set.

(1)固定値を設定する設定処理
この設定処理では、図1のメモリ34に予め決められた固定値の閾値Y1、閾値Y2を記憶させておき、それを原稿端検知処理時に読み出して設定する。
この閾値Y1、閾値Y2は、上カバー10の移動によって図3の白基準板15をイメージセンサ21と対向する方向の所定位置まで移動させた際の白基準板15とイメージセンサ21の距離に応じてそれぞれ予め求めた値であり、工場出荷時などにメモリ34に閾値Y1、閾値Y2を記憶させる。
(1) Setting Processing for Setting Fixed Values In this setting processing, predetermined fixed value threshold values Y1 and Y2 are stored in the memory 34 of FIG. 1, and are read and set during document edge detection processing. .
The threshold values Y1 and Y2 correspond to the distance between the white reference plate 15 and the image sensor 21 when the white reference plate 15 in FIG. 3 is moved to a predetermined position in the direction facing the image sensor 21 by the movement of the upper cover 10. The threshold values Y1 and Y2 are stored in the memory 34 at the time of factory shipment.

図16は、図14のステップ12で閾値Y1、閾値Y2を固定値で設定する場合の詳細な処理を示すフローチャート図である。
図1の演算部33は、図16のステップ51でメモリ34から閾値Y1、閾値Y2を読み出し、ステップ52で閾値Y1、閾値Y2を設定し、リターンする。
ステップ51の閾値Y1、閾値Y2の読み出しでは、図3の上カバー10の移動量に対応する閾値Y1、閾値Y2をメモリ34から読み出す。また、ステップ52では、原稿端検知処理に備えて閾値Y1、閾値Y2を設定する。
このようにして、閾値Y1、閾値Y2にメモリ34に予め記憶している固定値を設定するので、その処理が簡単なために原稿端検知処理を高速で処理することができる。
FIG. 16 is a flowchart showing detailed processing when the threshold value Y1 and the threshold value Y2 are set as fixed values in step 12 of FIG.
1 reads the threshold value Y1 and threshold value Y2 from the memory 34 at step 51 in FIG. 16, sets the threshold value Y1 and threshold value Y2 at step 52, and returns.
In the reading of the threshold value Y1 and the threshold value Y2 in step 51, the threshold value Y1 and the threshold value Y2 corresponding to the movement amount of the upper cover 10 in FIG. In step 52, a threshold Y1 and a threshold Y2 are set in preparation for document edge detection processing.
In this way, the fixed values stored in advance in the memory 34 are set in the threshold Y1 and the threshold Y2, and therefore the document edge detection process can be performed at high speed because the process is simple.

(2)最適な閾値Y1、閾値Y2を毎回設定する場合の処理
閾値Y1、閾値Y2は、原稿6の読み取りの度に最適な閾値Y1、閾値Y2を毎回求めて設定するようにしてもよい。
この設定処理では、閾値Y1、閾値Y2を、図3の白基準板15を複数回読み取ったときにイメージセンサ21の原稿読取可能領域が出力した複数の各画素の光量値データの標準偏差にそれぞれ異なる一定値を乗算あるいは加算した値にそれぞれしている。
(2) Processing in the case where the optimum threshold value Y1 and threshold value Y2 are set every time The threshold value Y1 and threshold value Y2 may be determined and set every time the document 6 is read.
In this setting process, the threshold value Y1 and the threshold value Y2 are respectively set to the standard deviations of the light amount value data of the plurality of pixels output from the document readable area of the image sensor 21 when the white reference plate 15 of FIG. Each value is obtained by multiplying or adding different constant values.

図17は、図14のステップ12で閾値Y1、閾値Y2を求めて設定する場合の詳細な処理を示すフローチャート図である。
図1の演算部33は、図17のステップ61で所定位置まで移動させた後の図3の白基準板15の読取データW(n)をm回分取得し(n、mは正の整数)、ステップ62へ進む。
このステップ61の処理では、読取データW(n)を複数回(原稿読取可能領域の読み取りm回分)取得することにより、あるn画素のデータがm回取得できることになる。
FIG. 17 is a flowchart showing detailed processing when the threshold value Y1 and the threshold value Y2 are obtained and set in step 12 of FIG.
1 obtains m times of read data W (n) of the white reference plate 15 in FIG. 3 after being moved to a predetermined position in step 61 in FIG. 17 (n and m are positive integers). , Go to Step 62.
In the process of step 61, by acquiring the read data W (n) a plurality of times (m times of reading of the original readable area), data of a certain n pixel can be acquired m times.

ステップ62で、白基準板15の読取データW(n)の標準偏差δ(n,m)を算出し、ステップ63へ進む。
このステップ62の処理では、m回分の読取データW(n)の標準偏差δ(n,m)を算出する。
ステップ63で、閾値Y1=δ(n,m)×αを算出し(αは予め求められているマージン)、ステップ64へ進む。
ステップ64で、閾値Y2=δ(n,m)×βを算出し(βは予め求められているマージン)、ステップ65へ進む。
このステップ63と64の処理でそれぞれ標準偏差δにマージンα、βを掛けたものを閾値Y1、閾値Y2として算出する。
In step 62, the standard deviation δ (n, m) of the read data W (n) of the white reference plate 15 is calculated, and the process proceeds to step 63.
In the process of step 62, the standard deviation δ (n, m) of the read data W (n) for m times is calculated.
In step 63, threshold value Y1 = δ (n, m) × α is calculated (α is a margin determined in advance), and the process proceeds to step 64.
In step 64, threshold Y2 = δ (n, m) × β is calculated (β is a margin obtained in advance), and the process proceeds to step 65.
In steps 63 and 64, the standard deviation δ multiplied by the margins α and β are calculated as the threshold Y1 and the threshold Y2.

ステップ65で、閾値Y1、閾値Y2を設定し、リターンする。
原稿端検知処理では、読取データX(n)と読取データW(n)の差を比較するが、読取データW(n)を取得するために白基準板15を読み取る際には、光量の安定性、光電変換時のノイズ、信号処理のノイズ等が発生する。
このノイズ分は光量やゲイン等によって経時的に変動するため、図17に示した設定処理により、毎回ノイズ分を算出して最適な閾値Y1、閾値Y2を設定することができる。
このように、図17に示した設定処理によって設定された閾値Y1、閾値Y2によれば、マージンを持たせて誤検知しないようにすることができる。
上述の処理ではマージンα、βを掛けているが、加算(減算)するようにしてもよい。
このようにして、m回分の読取データW(n)の標準偏差δを用いれば、閾値Y1、閾値Y2についてノイズ分が変動した場合でも最適な値を設定することができる。
In step 65, threshold values Y1 and Y2 are set, and the process returns.
In the document edge detection process, the difference between the read data X (n) and the read data W (n) is compared. When the white reference plate 15 is read to obtain the read data W (n), the light quantity is stabilized. Noise, photoelectric conversion noise, signal processing noise, and the like are generated.
Since the amount of noise varies with time depending on the amount of light, gain, and the like, the optimum threshold values Y1 and Y2 can be set by calculating the amount of noise every time by the setting process shown in FIG.
As described above, according to the threshold value Y1 and the threshold value Y2 set by the setting process shown in FIG. 17, it is possible to provide a margin and prevent erroneous detection.
Although the margins α and β are multiplied in the above-described processing, addition (subtraction) may be performed.
In this way, by using the standard deviation δ of the read data W (n) for m times, it is possible to set optimum values for the threshold value Y1 and the threshold value Y2 even when the noise component fluctuates.

(3)最適な閾値Y1、閾値Y2を毎回設定する場合の他の処理
原稿6の読み取りの度に最適な閾値Y1、閾値Y2を毎回求めて設定する他の処理を示す。
この設定処理では、閾値Y1、閾値Y2を、図3の白基準板15を複数回読み取ったときにイメージセンサ21の原稿読取可能領域が出力した複数の各画素の光量値データの最大値と最小値の差にそれぞれ異なる一定値を乗算あるいは加算した値にそれぞれしている。
(3) Other Processes for Setting Optimal Threshold Y1 and Threshold Y2 Each Time Other processes for obtaining and setting optimal thresholds Y1 and Y2 each time the document 6 is read will be shown.
In this setting process, the threshold value Y1 and the threshold value Y2 are set to the maximum value and the minimum value of the light amount value data of each of the plurality of pixels output from the document readable area of the image sensor 21 when the white reference plate 15 of FIG. Each difference is a value obtained by multiplying or adding a different constant value.

図18は、図14のステップ12で閾値Y1、閾値Y2を求めて設定する場合の他の処理例を示すフローチャート図である。
図1の演算部33は、図18のステップ71で所定位置まで移動させた後の図3の白基準板15の読取データW(n)をm回分取得し(n、mは正の整数)、ステップ72へ進む。
このステップ71の処理では、読取データW(n)を複数回(原稿読取可能領域の読み取りm回分)取得することにより、あるn画素のデータがm回取得できることになる。
FIG. 18 is a flowchart showing another processing example when the threshold value Y1 and the threshold value Y2 are obtained and set in step 12 of FIG.
The calculation unit 33 in FIG. 1 acquires the read data W (n) of the white reference plate 15 in FIG. 3 after moving to a predetermined position in step 71 in FIG. 18 for m times (n and m are positive integers). The process proceeds to step 72.
In the processing of step 71, by acquiring the read data W (n) a plurality of times (m times of reading of the original readable area), data of a certain n pixel can be acquired m times.

ステップ72で、白基準板15の読取データW(n)のMAX(n,m)−MIN(n,m)を算出し、ステップ73へ進む。上記MAX(n,m)が図3の白基準板15を複数回読み取ったときにイメージセンサ21の原稿読取可能領域が出力した複数の各画素の光量値データの最大値に相当し、上記MIN(n,m)が図3の白基準板15を複数回読み取ったときにイメージセンサ21の原稿読取可能領域が出力した複数の各画素の光量値データの最小値に相当する。
このステップ72の処理では、m回分の読取データW(n)の最大値であるMAX(n,m)と最小値であるMIN(n,m)の差を算出する。
ステップ73で、閾値Y1={MAX(n,m)−MIN(n,m)}×αを算出し(αは予め求められているマージン)、ステップ74へ進む。
ステップ74で、閾値Y2={MAX(n,m)−MIN(n,m)}×βを算出し(βは予め求められているマージン)、ステップ75へ進む。
In step 72, MAX (n, m) −MIN (n, m) of the read data W (n) of the white reference plate 15 is calculated, and the process proceeds to step 73. The MAX (n, m) corresponds to the maximum value of the light amount value data of each of the plurality of pixels output from the document readable area of the image sensor 21 when the white reference plate 15 of FIG. (N, m) corresponds to the minimum value of the light amount value data of each of the plurality of pixels output from the document readable area of the image sensor 21 when the white reference plate 15 of FIG. 3 is read a plurality of times.
In the process of step 72, the difference between MAX (n, m) which is the maximum value of the read data W (n) for m times and MIN (n, m) which is the minimum value is calculated.
In step 73, threshold Y1 = {MAX (n, m) −MIN (n, m)} × α is calculated (α is a margin determined in advance), and the process proceeds to step 74.
In step 74, threshold Y2 = {MAX (n, m) −MIN (n, m)} × β is calculated (β is a margin determined in advance), and the process proceeds to step 75.

このステップ73と74の処理でそれぞれ最大値と最小値の差にマージンα、βを掛けたものを閾値Y1、閾値Y2として算出する。
ステップ75で、閾値Y1、閾値Y2を設定し、リターンする。
上述の処理ではマージンα、βを掛けているが、加算(減算)するようにしてもよい。
このようにして、読取データW(n)の最大値と最小値の差を用いても、閾値Y1、閾値Y2についてノイズ分が変動した場合に最適な値を設定することができる。
なお、図17と図18の設定処理において、あるn画素目のデータだけを使用してもよいし、全主走査分(白基準板15の領域内)のうちいくつか複数個のデータを用いて、それらの標準偏差、最大値−最小値が最大となる値を使用してもよい。
In Steps 73 and 74, the difference between the maximum value and the minimum value multiplied by the margins α and β is calculated as the threshold Y1 and the threshold Y2.
In step 75, threshold values Y1 and Y2 are set, and the process returns.
Although the margins α and β are multiplied in the above-described processing, addition (subtraction) may be performed.
In this way, even when the difference between the maximum value and the minimum value of the read data W (n) is used, optimum values can be set for the threshold value Y1 and the threshold value Y2 when the noise component fluctuates.
In the setting processing of FIGS. 17 and 18, only the data of the n-th pixel may be used, or some data of all the main scans (in the region of the white reference plate 15) is used. The standard deviation, the maximum value-the minimum value may be the maximum.

図1の演算部33は、上述した図14及び図15の処理を、原稿6の搬送方向(副走査方向)における原稿先端領域の一部(1原稿読取可能領域)で行い、それによって得られた原稿6の左端の画素Eと右端の画素Fを原稿6の主走査方向の他のラインに適用すれば、原稿の主走査方向の全ライン毎に処理を繰り返さずに済み、原稿端検知処理を短時間で済ますことができる。
しかし、その場合は処理が簡単になるメリットはあるものの原稿6が斜めに挿入された場合は原稿6の全面に渡って原稿端を正しく検知することができない。
図19は、図3に示す原稿6が斜めに挿入された場合の下プラテン11とその周囲を上側から見た平面図である。
The calculation unit 33 of FIG. 1 performs the processing of FIGS. 14 and 15 described above on a part of the document front end region (one document readable region) in the conveyance direction (sub-scanning direction) of the document 6 and is obtained thereby. If the leftmost pixel E and the rightmost pixel F of the original 6 are applied to other lines in the main scanning direction of the original 6, it is not necessary to repeat the process for every line in the main scanning direction of the original, and the original end detection process. Can be done in a short time.
However, in this case, although there is an advantage that the processing is simplified, when the document 6 is inserted obliquely, the document edge cannot be detected correctly over the entire surface of the document 6.
FIG. 19 is a plan view of the lower platen 11 and its periphery viewed from above when the document 6 shown in FIG. 3 is inserted obliquely.

図19に示すように、原稿6が斜めに挿入されたり、スキューしたり、原稿6自体がいびつな形状をしていた場合には、原稿6の搬送方向(副走査方向)における原稿先端領域の一部(1原稿読取可能領域)で原稿端検知処理を行い、それによって検知された原稿端に対応する画素を原稿6の全面にわたって適用すると、原稿端を正しく検知することができない。
そこで、図1の演算部33は、上述した図14及び図15の処理を、原稿6の搬送方向(副走査方向)において1原稿読取可能領域毎に全ての読み取り領域で行うようにすれば、原稿6の全面に渡って原稿端を正しく検知することができ、原稿端検知処理を精度良く行うことができる。
As shown in FIG. 19, when the document 6 is inserted obliquely, skewed, or the document 6 itself has an irregular shape, the document front end region in the conveyance direction (sub-scanning direction) of the document 6 is If document edge detection processing is performed on a part (one document readable area) and pixels corresponding to the detected document edge are applied to the entire surface of the document 6, the document edge cannot be detected correctly.
Therefore, the calculation unit 33 in FIG. 1 performs the above-described processing in FIGS. 14 and 15 in all the reading areas for each original readable area in the conveyance direction (sub-scanning direction) of the original 6. The document edge can be correctly detected over the entire surface of the document 6, and the document edge detection process can be performed with high accuracy.

上述した処理によって図1の演算部33で検知された原稿6の原稿端に対応する画素E,Fの情報を画像処理部37へ送る。
そして、画像処理部37は、その原稿6の原稿端に対応する画素E,Fの情報に基いて読取データX(n)から原稿6の原稿領域以外の各画素を除去(画像自体をカット)または白色画素にする。
こうして得られた原稿6の原稿領域内の読取データX(n)を、図2の画像形成部3へ送って印刷することにより、原稿6の複写印刷の画質を向上させることができる。
Information on the pixels E and F corresponding to the document edge of the document 6 detected by the calculation unit 33 in FIG. 1 is sent to the image processing unit 37 by the processing described above.
Then, the image processing unit 37 removes each pixel other than the document area of the document 6 from the read data X (n) based on the information of the pixels E and F corresponding to the document edge of the document 6 (cuts the image itself). Or make it a white pixel.
The read data X (n) in the document area of the document 6 obtained in this way is sent to the image forming unit 3 in FIG. 2 for printing, so that the image quality of copy printing of the document 6 can be improved.

この実施形態の画像読取部2は、原稿6から読み取った画像をシェーディング補正するために読み取るシェーディング補正データの取得後に、白基準板15を原稿搬送方向と垂直方向に移動させ、イメージセンサ21に対して原稿6を移動させて原稿6の画像を読み取るシートスルー方式の画像の読み取りにおいて、厚みのある原稿6でも写真画質のような地肌のない原稿6でも原稿端を正確に検知することができる。   The image reading unit 2 of this embodiment moves the white reference plate 15 in a direction perpendicular to the document conveyance direction after obtaining the shading correction data to be read for shading correction of the image read from the document 6, and moves the white reference plate 15 to the image sensor 21. Thus, in reading a sheet-through type image in which the original 6 is moved and the image of the original 6 is read, the edge of the original can be accurately detected for both the thick original 6 and the original 6 having no background such as the picture quality.

この実施例では、イメージセンサ21の原稿読取可能領域での読取データを用いて説明したが、1ラインの原稿読取可能領域以上の領域に白基準板15があれば、主走査方向の原稿読取可能領域以上の主走査方向の所定の領域の読取データを用いてもよい。
例えば、イメージセンサ21の有効画素領域が原稿読取可能領域よりも大きい領域であって、イメージセンサ21の有効画素領域が読み取る範囲に白基準板15があれば、イメージセンサの有効画素領域の読取データを用いて上述と同様に処理を行ってもよい。
In this embodiment, the reading data in the document readable area of the image sensor 21 has been described. However, if the white reference plate 15 exists in an area of one line or more of the document readable area, the document can be read in the main scanning direction. You may use the read data of the predetermined area | region of the main scanning direction beyond an area | region.
For example, if the effective pixel area of the image sensor 21 is larger than the document readable area, and the white reference plate 15 is in the range read by the effective pixel area of the image sensor 21, the read data of the effective pixel area of the image sensor You may process similarly to the above-mentioned using.

以上で実施形態の説明を終了するが、この発明において、各部の具体的な構成、処理の内容、データの形式等は、実施形態で説明したものに限るものではない。
また、以上説明してきた実施形態の構成は、相互に矛盾しない限り任意に組み合わせて実施可能であることは勿論である。
Although the description of the embodiment has been completed above, in the present invention, the specific configuration of each unit, the content of processing, the data format, and the like are not limited to those described in the embodiment.
Further, it goes without saying that the configurations of the embodiments described above can be implemented in any combination as long as they do not contradict each other.

1:画像形成装置 2:画像読取部 3:画像形成部 4:作像部 5:給紙部 6:原稿 10:上カバー 11:下プラテン 12:操作部 13:距離検知センサ 14a、14b:前ローラ 15:白基準板 16a、16b:後ローラ 17:原稿挿入検知センサ 18:ストッパ 19:コンタクトガラス 20:光源 21:イメージセンサ 22:フレーム 23、27、28:ギア 24:上カバー駆動モータ 25:ストッパ駆動モータ 26:レバー 29:ベルト 30:中央制御部 31:A/D変換部 32:信号処理部 33:演算部 34:メモリ 35:黒減算部 36:シェーディング処理部 37:画像処理部 40〜44:波形 1: Image forming apparatus 2: Image reading unit 3: Image forming unit 4: Image forming unit 5: Paper feeding unit 6: Document 10: Upper cover 11: Lower platen 12: Operation unit 13: Distance detection sensors 14a and 14b: Front Roller 15: White reference plate 16a, 16b: Rear roller 17: Document insertion detection sensor 18: Stopper 19: Contact glass 20: Light source 21: Image sensor 22: Frame 23, 27, 28: Gear 24: Upper cover drive motor 25: Stopper drive motor 26: Lever 29: Belt 30: Central control unit 31: A / D conversion unit 32: Signal processing unit 33: Calculation unit 34: Memory 35: Black subtraction unit 36: Shading processing unit 37: Image processing unit 40 ~ 44: Waveform

特開2001−220044号公報JP 2001-220044 A 特開2002−84409号公報JP 2002-84409 A

Claims (14)

原稿に光を照射する光源と、前記原稿からの反射光によって前記原稿の画像を読み取る画像読取手段と、
前記原稿から読み取った画像のシェーディング補正のための画像を取得するために前記画像読取手段に対向して配置した基準部材と、
前記画像読取手段と前記基準部材との間を前記原稿の厚さに応じた間隔を空けるために前記基準部材を前記画像読取手段と対向する方向の所定位置まで移動させる基準部材移動手段と、
該基準部材移動手段によって前記基準部材を前記所定位置まで移動させた後に、前記原稿を前記画像読取手段と該基準部材との間に搬送させて該原稿に前記光源から該原稿の主走査方向のライン毎に光を照射させて前記画像読取手段が該原稿からの反射光によって該原稿の主走査方向のライン毎の画像を読み取る画像読取装置であって、
前記基準部材移動手段によって前記基準部材を前記所定位置まで移動させた後に、前記原稿を前記画像読取手段と該基準部材との間に搬送しない状態で、前記画像読取手段の主走査方向の少なくとも原稿読取可能領域以上の所定の領域が読み取る該基準部材の領域に前記光源から光を照射して前記画像読取手段が読み取った前記所定の領域における各画素の光量値である第1の光量値データと、前記原稿が前記画像読取手段と前記基準部材との間に搬送されている状態で、前記基準部材および前記原稿の前記所定の領域に対応する領域に前記光源から光を照射して前記画像読取手段が読み取った前記所定の領域における各画素の光量値である第2の光量値データとを保持する光量値保持手段と、
該光量値保持手段に保持された前記第1の光量値データと前記第2の光量値データとの差を、主走査方向で対応する位置の画素毎に算出し、該画素毎の光量値データの差を、該光量値データの差について設定された所定の第1の閾値と該第1の閾値よりも小さい所定の第2の閾値とのそれぞれと比較し、該比較結果に基いて前記第2の光量値データから前記原稿端に対応する画素を検知する原稿端検知手段とを備えたことを特徴とする画像読取装置。
A light source for irradiating light on the document, and an image reading means for reading an image of the document by reflected light from the document;
A reference member disposed opposite to the image reading means to obtain an image for shading correction of an image read from the original;
Reference member moving means for moving the reference member to a predetermined position in a direction facing the image reading means in order to provide an interval according to the thickness of the document between the image reading means and the reference member;
After the reference member is moved to the predetermined position by the reference member moving means, the original is transported between the image reading means and the reference member, and is sent from the light source to the original in the main scanning direction of the original. An image reading device that irradiates light for each line and the image reading unit reads an image for each line in the main scanning direction of the original by reflected light from the original,
After the reference member is moved to the predetermined position by the reference member moving means, at least the original in the main scanning direction of the image reading means without conveying the original between the image reading means and the reference member A first light amount value data that is a light amount value of each pixel in the predetermined region read by the image reading unit by irradiating light from the light source to the region of the reference member that is read by a predetermined region that is larger than the readable region; The image reading is performed by irradiating light from the light source to an area corresponding to the reference member and the predetermined area of the document in a state where the document is conveyed between the image reading unit and the reference member. Light quantity value holding means for holding second light quantity value data which is a light quantity value of each pixel in the predetermined area read by the means;
The difference between the first light quantity value data and the second light quantity value data held in the light quantity value holding means is calculated for each pixel at a corresponding position in the main scanning direction, and the light quantity value data for each pixel. Is compared with each of a predetermined first threshold set for the difference in the light quantity value data and a predetermined second threshold smaller than the first threshold, and based on the comparison result, the first An image reading apparatus comprising: document edge detection means for detecting pixels corresponding to the document edge from the light quantity value data of 2.
請求項1に記載の画像読取装置において、
前記原稿端検知手段によって検知した前記原稿端に対応する画素に基いて前記基準部材および前記原稿の前記所定の領域に対応する領域の各画素から前記原稿端の外部領域の各画素を除去あるいは白色画素にする除去手段を有することを特徴とする画像読取装置。
The image reading apparatus according to claim 1,
Based on the pixels corresponding to the document edge detected by the document edge detection means, each pixel in the external region of the document edge is removed from the pixels corresponding to the reference member and the predetermined region of the document or white. An image reading apparatus having a removing means for converting into pixels.
前記基準部材を前記所定位置まで移動させた後に、前記画像読取手段が読み取った前記第1の光量値データを、前記画像読取手段の主走査方向の少なくとも原稿読取可能領域以上の所定の領域が該基準部材を複数回読み取って得た各領域におけるそれぞれ主走査方向に対応する各画素の光量値データの平均値とすることを特徴とする請求項1又は2に記載の画像読取装置。   After the reference member is moved to the predetermined position, the first light quantity value data read by the image reading means is stored in a predetermined area at least as large as the original readable area in the main scanning direction of the image reading means. The image reading apparatus according to claim 1, wherein the average value of the light amount value data of each pixel corresponding to the main scanning direction in each region obtained by reading the reference member a plurality of times is used. 前記原稿端検知手段は、前記基準部材および前記原稿の前記所定の領域の主走査方向の両端側の画素から順に前記画素毎の光量値データの差を前記第1の閾値と前記第2の閾値とそれぞれ比較し、光量値の差が最初に前記第1の閾値以上になるまで前記第2の閾値以下にならなかった各画素のうち、光量値の差が最初に前記第1の閾値以上になった画素を前記原稿端に対応する画素として検知することを特徴とする請求項1から3のいずれか一項に記載の画像読取装置。   The document edge detection means calculates the difference between the first threshold value and the second threshold value for each pixel in order from the pixels on both ends of the reference member and the predetermined region of the document in the main scanning direction. Each of the pixels that did not fall below the second threshold until the light quantity value difference first became equal to or greater than the first threshold value. 4. The image reading apparatus according to claim 1, wherein the detected pixel is detected as a pixel corresponding to the document edge. 5. 前記原稿端検知手段は、前記基準部材および前記原稿の前記所定の領域の主走査方向の両端側の画素から順に前記画素毎の光量値データの差を前記第1の閾値と前記第2の閾値とそれぞれ比較し、光量値の差が最初に前記第2の閾値以下になった画素から所定画素数以上が前記第2の閾値以上にならなかった各画素のうち、光量値の差が最初に前記第2の閾値以下になった画素を前記原稿端に対応する画素として検知することを特徴とする請求項1から3のいずれか一項に記載の画像読取装置。   The document edge detection means calculates the difference between the first threshold value and the second threshold value for each pixel in order from the pixels on both ends of the reference member and the predetermined region of the document in the main scanning direction. Each of the pixels whose light quantity value difference was initially less than or equal to the second threshold value, and from among the pixels whose predetermined pixel number or more did not exceed the second threshold value, 4. The image reading apparatus according to claim 1, wherein a pixel that is equal to or less than the second threshold is detected as a pixel corresponding to the document edge. 5. 前記原稿端検知手段は、前記基準部材および前記原稿の前記所定の領域の主走査方向の両端側の画素から順に前記画素毎の光量値データの差を前記第1の閾値と前記第2の閾値とそれぞれ比較し、光量値データの差が最初に前記第2の閾値以下になった画素から所定画素数以内に前記第2の閾値以上になり、さらに所定画素数以内に前記第1の閾値以上になった各画素のうち、該所定画素数以内に前記第1の閾値以上になった最初の画素を前記原稿端に対応する画素として検知することを特徴とする請求項1から3のいずれか一項に記載の画像読取装置。   The document edge detection means calculates the difference between the first threshold value and the second threshold value for each pixel in order from the pixels on both ends of the reference member and the predetermined region of the document in the main scanning direction. Are compared with each other, and the difference between the light quantity value data is equal to or greater than the second threshold within a predetermined number of pixels from the pixel that first becomes the second threshold or less, and is further equal to or greater than the first threshold within the predetermined number of pixels. 4. The first pixel that is equal to or more than the first threshold value within the predetermined number of pixels among the pixels that have become is detected as a pixel corresponding to the document edge. 5. The image reading apparatus according to one item. 前記原稿端検知手段は、前記基準部材および前記原稿の前記所定の領域の主走査方向の両端側の画素から順に前記画素毎の光量値データの差を前記第1の閾値と前記第2の閾値とそれぞれ比較し、光量値データの差が最初に前記第2の閾値以下になった画素から所定画素数以内に前記第2の閾値以上になり、さらに所定画素数以内に前記第1の閾値以上にならなかった各画素のうち、前記第2の閾値以下になってから最初に前記第2の閾値以上になった画素を前記原稿端に対応する画素として検知することを特徴とする請求項1から3のいずれか一項に記載の画像読取装置。   The document edge detection means calculates the difference between the first threshold value and the second threshold value for each pixel in order from the pixels on both ends of the reference member and the predetermined region of the document in the main scanning direction. Are compared with each other, and the difference between the light quantity value data is equal to or greater than the second threshold within a predetermined number of pixels from the pixel that first becomes the second threshold or less, and is further equal to or greater than the first threshold within the predetermined number of pixels. 2. The pixel that is not equal to or less than the second threshold and is first detected to be equal to or greater than the second threshold among the pixels that have not become false is detected as a pixel corresponding to the document edge. 4. The image reading apparatus according to claim 1. 前記第1の閾値と前記第2の閾値は、前記基準部材を前記画像読取手段と対向する方向の所定位置まで移動させた際の該基準部材と該画像読取手段との距離に応じてそれぞれ定めた値であることを特徴とする請求項1から7のいずれか一項に記載の画像読取装置。   The first threshold value and the second threshold value are respectively determined according to a distance between the reference member and the image reading unit when the reference member is moved to a predetermined position in a direction facing the image reading unit. The image reading apparatus according to any one of claims 1 to 7, wherein the image reading apparatus has a predetermined value. 前記第1の閾値と前記第2の閾値は、前記基準部材を複数回読み取って得た各領域の主走査方向に対応する各画素の光量値データの標準偏差にそれぞれ異なる一定値を乗算あるいは加算した値であることを特徴とする請求項1から7のいずれか一項に記載の画像読取装置。   The first threshold value and the second threshold value are multiplied or added by different fixed values to the standard deviation of the light amount value data of each pixel corresponding to the main scanning direction of each region obtained by reading the reference member a plurality of times. The image reading apparatus according to claim 1, wherein the image reading apparatus has a calculated value. 前記第1の閾値と前記第2の閾値は、前記基準部材を複数回読み取って得た各領域の各画素の光量値データの最大値と最小値の差にそれぞれ異なる一定値を乗算あるいは加算した値であることを特徴とする請求項1から7のいずれか一項に記載の画像読取装置。   The first threshold value and the second threshold value are obtained by multiplying or adding a different constant value to the difference between the maximum value and the minimum value of the light amount value data of each pixel in each region obtained by reading the reference member a plurality of times. The image reading apparatus according to claim 1, wherein the image reading apparatus is a value. 前記原稿端検知手段は、前記原稿端に対応する画素の検知を前記原稿の搬送方向における原稿先端領域の一部で行う手段を有することを特徴とする請求項1から10のいずれか一項に記載の画像読取装置。   11. The document edge detection means has means for detecting a pixel corresponding to the document edge in a part of a document leading edge region in the document conveyance direction. The image reading apparatus described. 前記原稿端検知手段は、前記原稿端に対応する画素の検知を前記原稿の搬送方向において前記画像読取手段が読み取った前記基準部材および前記原稿の前記所定の領域に対応する複数の領域の全てに行う手段を有することを特徴とする請求項1から10のいずれか一項に記載の画像読取装置。   The document edge detection means detects the pixels corresponding to the document edge in all of a plurality of areas corresponding to the reference member and the predetermined area of the document read by the image reading means in the document conveyance direction. The image reading apparatus according to claim 1, further comprising a unit for performing the operation. 請求項1から12のいずれか一項に記載の画像読取装置を備えたことを特徴とする画像形成装置。   An image forming apparatus comprising the image reading apparatus according to claim 1. 原稿に光を照射する光源と、前記原稿からの反射光によって前記原稿の画像を読み取る画像読取手段と、前記原稿から読み取った画像のシェーディング補正のための画像を取得するために前記画像読取手段に対向して配置した基準部材と、前記画像読取手段と前記基準部材との間を前記原稿の厚さに応じた間隔を空けるために前記基準部材を前記画像読取手段と対向する方向の所定位置まで移動させる基準部材移動手段と、該基準部材移動手段によって前記基準部材を前記所定位置まで移動させた後に、前記原稿を前記画像読取手段と該基準部材との間に搬送させて該原稿に前記光源から該原稿の主走査方向のライン毎に光を照射させて前記画像読取手段が該原稿からの反射光によって該原稿の主走査方向のライン毎の画像を読み取る画像読取装置における原稿端検知方法であって、
前記基準部材移動手段によって前記基準部材を前記所定位置まで移動させた後に、前記原稿を前記画像読取手段と該基準部材との間に搬送しない状態で、前記画像読取手段の主走査方向の少なくとも原稿読取可能領域以上の所定の領域が読み取る該基準部材の領域に前記光源から光を照射して前記画像読取手段が読み取った前記所定の領域における各画素の光量値である第1の光量値データと、前記原稿が前記画像読取手段と前記基準部材との間に搬送されている状態で、前記基準部材および前記原稿の前記所定の領域に対応する領域に前記光源から光を照射して前記画像読取手段が読み取った前記所定の領域における各画素の光量値である第2の光量値データとを保持する光量値保持手順と、
該光量値保持手順によって保持した前記第1の光量値データと前記第2の光量値データとの差を、主走査方向で対応する位置の画素毎に算出し、該画素毎の光量値データの差を、該光量値データの差について設定された所定の第1の閾値と該第1の閾値よりも小さい所定の第2の閾値とのそれぞれと比較し、該比較結果に基いて前記第2の光量値データから前記原稿端に対応する画素を検知する原稿端検知手順とを有することを特徴とする原稿端検知方法。
A light source for irradiating light on the original, an image reading means for reading an image of the original by reflected light from the original, and an image reading means for acquiring an image for shading correction of the image read from the original The reference member is placed up to a predetermined position in a direction facing the image reading means in order to provide a gap corresponding to the thickness of the original between the reference member arranged opposite to the image reading means and the reference member. A reference member moving means to be moved; and after the reference member is moved to the predetermined position by the reference member moving means, the original is conveyed between the image reading means and the reference member, and the light source is supplied to the original. The image reading unit reads an image for each line in the main scanning direction of the document by reflected light from the document. A document edge detection method in the apparatus,
After the reference member is moved to the predetermined position by the reference member moving means, at least the original in the main scanning direction of the image reading means without conveying the original between the image reading means and the reference member A first light amount value data that is a light amount value of each pixel in the predetermined region read by the image reading unit by irradiating light from the light source to the region of the reference member that is read by a predetermined region that is larger than the readable region; The image reading is performed by irradiating light from the light source to an area corresponding to the reference member and the predetermined area of the document in a state where the document is conveyed between the image reading unit and the reference member. A light quantity value holding procedure for holding second light quantity value data which is a light quantity value of each pixel in the predetermined area read by the means;
A difference between the first light amount value data and the second light amount value data held by the light amount value holding procedure is calculated for each pixel at a corresponding position in the main scanning direction, and the light amount value data of each pixel is calculated. The difference is compared with each of a predetermined first threshold set for the difference in the light quantity value data and a predetermined second threshold smaller than the first threshold, and the second is based on the comparison result. And a document edge detection procedure for detecting a pixel corresponding to the document edge from the light quantity value data of the document.
JP2012065835A 2012-03-22 2012-03-22 Image reader, image forming apparatus and original end detecting method Pending JP2013198084A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012065835A JP2013198084A (en) 2012-03-22 2012-03-22 Image reader, image forming apparatus and original end detecting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012065835A JP2013198084A (en) 2012-03-22 2012-03-22 Image reader, image forming apparatus and original end detecting method

Publications (1)

Publication Number Publication Date
JP2013198084A true JP2013198084A (en) 2013-09-30

Family

ID=49396454

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012065835A Pending JP2013198084A (en) 2012-03-22 2012-03-22 Image reader, image forming apparatus and original end detecting method

Country Status (1)

Country Link
JP (1) JP2013198084A (en)

Similar Documents

Publication Publication Date Title
JP6547606B2 (en) Image reading system
JP5652063B2 (en) Image reading apparatus, image forming apparatus, and shading correction method
JP5192167B2 (en) Image reading device
JP5180054B2 (en) Image reading apparatus, image reading system, and contour detection method
JP2013070163A (en) Image reading device, image forming device, and image reading program
US20200296244A1 (en) Image reading apparatus and image reading method
US11190658B2 (en) Image reading apparatus
US8822908B2 (en) Image scanner, image forming apparatus and dew-condensation determination method
JP5741070B2 (en) Image reading apparatus and image forming apparatus
JP2013198084A (en) Image reader, image forming apparatus and original end detecting method
US10250770B2 (en) Image reading device, image forming apparatus, and method for controlling image reading device
WO2020080242A1 (en) Image reading device and control method for image reading device
JP6344062B2 (en) Image reading apparatus, image forming apparatus, and image processing method
JP2006005834A (en) Double-sided image reader
JP2009267553A (en) Image reader
JP2007116285A (en) Original reading apparatus and image forming apparatus
CN110881086B (en) Image reading apparatus and control method of image reading apparatus
JP2018195960A (en) Reading apparatus
JP2020077959A (en) Image reading device, image reading method, and program
JP2018006955A (en) Image reading device
JP6885076B2 (en) Image reader, image forming device, image processing device, and image processing method
JP2022181880A (en) Image reading device, method for controlling image reading device, and program
JP2017092561A (en) Image reading device and image reading method
US9894228B2 (en) Image processing apparatus and image forming apparatus
JP2021083081A (en) Image reading apparatus