JPH10136194A - Image reader - Google Patents

Image reader

Info

Publication number
JPH10136194A
JPH10136194A JP8287896A JP28789696A JPH10136194A JP H10136194 A JPH10136194 A JP H10136194A JP 8287896 A JP8287896 A JP 8287896A JP 28789696 A JP28789696 A JP 28789696A JP H10136194 A JPH10136194 A JP H10136194A
Authority
JP
Japan
Prior art keywords
image
document
original
spread
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8287896A
Other languages
Japanese (ja)
Inventor
Shinya Matsuda
伸也 松田
Takashi Honda
隆史 本田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP8287896A priority Critical patent/JPH10136194A/en
Publication of JPH10136194A publication Critical patent/JPH10136194A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To selectively erase an image of a hand supporting an original by using information obtained through the pickup of the original from a side of a spread face in addition to information through the pickup of the spread face from an upper side so as to detect a position of the hand of the user thereby specifying an undesired image to be erased. SOLUTION: In this book scanner, an image of an upper end face of an original is caught by a glitter face having a slope of 45 deg. with respect to an upper side of an original platen and the image is picked up together with an image of a spread face of the original to obtain the read image GOb. The scanner has a 1st detection means that discriminates a hand placed on the spread face based on the difference from the luminance and the area of an upper image G1 of a bright original face, an image G20 of the original platen with a dark color tone, and a halftone image GH of the hand on the spread face. Furthermore, height distribution of the original is obtained from the end face image G181 of the original, The scanner has a 2nd detection means that specifies a position of the hand by obtaining a difference from the height because the rapid height increase of the original face results from the side image GH of the hand supporting the original, and also has an image correction means that erases a part of image corresponding to the images detected both by the 1st and 2nd detection means as an image of the hand.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、書籍や雑誌などの
製本された原稿の読取りに好適な画像読取り装置に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image reading apparatus suitable for reading bound originals such as books and magazines.

【0002】[0002]

【従来の技術】ブックスキャナと呼称される画像読取り
装置が商品化されている。この装置では、原稿台の上方
に撮像系が配置され、原稿台と撮像系との間に高さ数十
cmの開放空間が存在する。書籍や雑誌などの製本形態
の原稿(これを「ブック原稿」と呼称する)の読取りに
際して、ユーザーは原稿台上にブック原稿を見開いた状
態で上向きにセットする。スタートキーのオンに呼応し
て読取り対象面(原稿面)である見開き面の走査が開始
され、読み取られた画像が逐次に外部装置へ出力され
る。外部装置がプリンタであれば、リアルタイムで複写
画像が形成される。ブックスキャナを用いると、原稿台
上でページをめくることができるので、多数ページの読
取り作業の能率を高めることができる。なお、ブック原
稿にはファイリングされた書類も含まれる。
2. Description of the Related Art An image reading apparatus called a book scanner has been commercialized. In this apparatus, an image pickup system is arranged above a document table, and an open space having a height of several tens cm exists between the document table and the image pickup system. When reading a book-shaped original such as a book or magazine (this is referred to as a “book original”), the user sets the book original upward on a platen with the book original opened. In response to turning on of the start key, scanning of a facing surface (document surface) which is a reading target surface (original surface) is started, and the read images are sequentially output to an external device. If the external device is a printer, a copied image is formed in real time. When a book scanner is used, pages can be turned on a document table, so that the efficiency of reading many pages can be improved. The book manuscript includes a filed document.

【0003】シート原稿と違ってブック原稿では、見開
いた状態を保持するために見開き面の両端を押さえてお
かなければならない場合がある。その場合に、ユーザー
の指や手の甲が原稿と共に撮影されてしまう。ブックス
キャナの出力画像の見栄えをよくするには、指の像など
の不要画像を消去する必要がある。
[0003] Unlike a sheet document, a book document sometimes needs to hold both ends of a spread surface in order to maintain a spread state. In such a case, the user's finger or back of the hand is photographed together with the document. To improve the appearance of the output image of the book scanner, it is necessary to delete unnecessary images such as finger images.

【0004】従来において、不要画像を消去するために
2つの手法が知られている。1つは、カラー撮像デバイ
スを組付けてカラー撮影を行い、撮影像から肌の色の画
像を抽出して除去するものである(特開平6−1050
91号)。他の1つは、例えば原稿サイズ検出の結果に
基づいて撮影像の内の原稿部分を判別し、原稿部分の周
縁領域(余白領域)の全体又は一部を対象に画素濃度を
調べ、一定濃度以上で且つ一定数以上の画素からなる画
像を抽出して消去するものである(特開平6−7813
3号)。
Conventionally, two methods are known for erasing unnecessary images. One is to attach a color imaging device to perform color photography, extract a skin color image from the photographed image, and remove it (Japanese Patent Laid-Open No. 6-1050).
No. 91). Another method is to determine a document portion in a photographed image based on, for example, a result of document size detection, to check a pixel density for the whole or a part of a peripheral area (margin area) of the document portion, and to determine a fixed density. In this method, an image composed of a certain number of pixels or more is extracted and deleted (Japanese Patent Laid-Open No. 6-7813).
No. 3).

【0005】[0005]

【発明が解決しようとする課題】上述の色判別によって
不要画像を抽出する手法では、カラー写真の場合や用紙
が白色から黄色みを帯びた色に変色している場合などに
おいて、不要画像の抽出に誤りが生じやすいという問題
があった。一方、単に濃度判別によって原稿部分の周縁
領域内に存在する不要画像を抽出する手法では、原稿面
の周縁領域に見出しやノンブルを強調する着色部分があ
る場合に、その着色部分が不要画像と判定されて消去さ
れてしまうという問題があった。
In the above-described method of extracting an unnecessary image by color discrimination, an unnecessary image is extracted in a case of a color photograph or a case where the paper is changed from white to yellowish color. However, there is a problem that errors easily occur. On the other hand, in the technique of extracting an unnecessary image existing in the peripheral area of the original part by simply determining the density, if there is a colored part that emphasizes a heading or a page number in the peripheral area of the original surface, the colored part is determined to be an unnecessary image. There is a problem that it is erased.

【0006】また、ユーザーが手で見開き面を押さえる
代わりに、透明な原稿カバーで見開き面の全体を覆うよ
うにしたスキャナが知られている。しかし、この構成で
は、ページをめくる度に原稿カバーの開閉を行う必要が
あり作業が面倒であった。原稿カバーを閉じるときにブ
ック原稿のセッティング位置がずれ易いという問題もあ
った。
There is also known a scanner in which a transparent document cover covers the entire spread surface instead of the user pressing the spread surface manually. However, in this configuration, it is necessary to open and close the document cover every time a page is turned, which is troublesome. There is also a problem that the setting position of the book document is easily shifted when the document cover is closed.

【0007】本発明は、ユーザーが手で押さえて原稿を
固定した場合に、読取り画像のうちの不要画像である押
さえた手の像を選択的に消去する画像修正機能の信頼性
を高め、読取り画像の見栄えが良く、しかも見開き原稿
の固定が容易な実用性の高い画像読取り装置を提供する
ことを目的としている。
The present invention enhances the reliability of an image correction function for selectively erasing an image of a pressed hand, which is an unnecessary image among read images, when a user holds a document by pressing it with his / her hand. It is an object of the present invention to provide a highly practical image reading apparatus which has a good image appearance and can easily fix a spread document.

【0008】[0008]

【課題を解決するための手段】原稿を押さえるユーザー
の手が立体であることに着目し、見開き面を上方から撮
影した情報に加えて見開き面の側方から原稿を撮影した
情報を用いて、ユーザーの手の位置を検出し、消去すべ
き不要画像を特定する。見開き面の周縁領域に肌の色と
同程度の輝度の部分(見出しなど)があったとしても、
それは平面であるので、立体であるユーザーの手と確実
に区別することができる。
Focusing on the fact that the user's hand holding the document is three-dimensional, using information obtained by photographing the document from the side of the spread surface in addition to information obtained by photographing the spread surface from above, The position of the user's hand is detected, and an unnecessary image to be deleted is specified. Even if there is a part (such as a headline) in the peripheral area of the facing surface that has the same brightness as the skin color,
Because it is a plane, it can be reliably distinguished from a user's hand that is three-dimensional.

【0009】請求項1の発明の装置は、原稿台と、光電
変換デバイスと、原稿画像を前記光電変換デバイスに投
影する光学系とを有し、前記原稿台と前記光学系との間
に原稿のセッティングのための開放空間が存在する構造
の画像読取り装置であって、前記原稿台の上に左右に見
開いた状態で置かれた見開き原稿における左右方向と直
交する方向の端面を撮影する撮影手段と、前記見開き原
稿における読取り対象面である見開き面の撮影像に基づ
いて、当該見開き面上の物体を検出する第1の検出手段
と、前記端面の撮影像に基づいて、前記見開き面上の物
体を検出する第2の検出手段と、原稿画像を読み取った
読取り画像を部分的に消去する画像修正手段と、前記画
像修正手段に対して、前記見開き原稿の読取り画像のう
ちの前記第1及び第2の検出手段の両方によって検出さ
れた物体に対応した部分を消去させる画像修正制御手段
と、を有している。
According to a first aspect of the present invention, there is provided an apparatus having a document table, a photoelectric conversion device, and an optical system for projecting a document image onto the photoelectric conversion device, wherein a document is placed between the document table and the optical system. An image reading device having a structure in which an open space exists for the setting of a document, wherein the image capturing device captures an end surface of a double-page spread document placed in a state of being spread left and right on the platen in a direction perpendicular to the left-right direction. A first detection unit that detects an object on the spread surface based on a captured image of a spread surface that is a read target surface of the spread document; and a first detection unit that detects an object on the spread surface based on the captured image of the end surface. Second detecting means for detecting an object, image correcting means for partially erasing the read image obtained by reading the original image, and the first and the second of the read images of the double-page spread to the image correcting means. It has an image modification control means for erasing a portion corresponding to the object detected by both of the two detection means.

【0010】[0010]

【発明の実施の形態】図1はブックスキャナ1の外観を
示す斜視図、図2は原稿台20の可動機能を示す図、図
3はブックスキャナ1による読取りの模式図である。
FIG. 1 is a perspective view showing an appearance of a book scanner 1, FIG. 2 is a view showing a movable function of a document table 20, and FIG.

【0011】ブックスキャナ1は、ブック原稿(見開き
原稿)の読取りに好適な画像読取り装置であって、電源
回路などを収納する本体ハウジング10、原稿を支持す
る暗色の原稿台20、原稿画像を電気信号に変換する撮
像ユニット30、及び原稿の照明を担うランプユニット
40を有している。原稿台20は本体ハウジング10の
前面側に配置されている。撮像ユニット30は、原稿台
20の上方に配置され、本体ハウジング10の上面から
上方に延びた支柱12によって片持ち形式で支持されて
いる。ランプユニット40は、支柱12における撮像ユ
ニット30の下面側の位置に固定されている。原稿台2
0と撮像ユニット30との間の空間80は装置外の自由
空間に対して開放されており、ブック原稿のセッティン
グに十分な広さを有している。原稿台20と撮像ユニッ
ト30の下面との距離は30cm以上である。
The book scanner 1 is an image reading apparatus suitable for reading a book original (spread original), and includes a main body housing 10 for accommodating a power supply circuit and the like, a dark original table 20 for supporting the original, and an electric image for the original. An image pickup unit 30 converts the image into a signal, and a lamp unit 40 illuminates the original. The document table 20 is arranged on the front side of the main body housing 10. The imaging unit 30 is arranged above the document table 20 and is supported in a cantilever manner by a support column 12 extending upward from the upper surface of the main body housing 10. The lamp unit 40 is fixed to a position on the lower surface side of the imaging unit 30 on the support 12. Platen 2
A space 80 between the camera unit 0 and the imaging unit 30 is open to a free space outside the apparatus, and has a sufficient size for setting a book document. The distance between the document table 20 and the lower surface of the imaging unit 30 is 30 cm or more.

【0012】本体ハウジング10の前面の上端側に操作
パネルOPが設けられており、下端側に原稿面の高さを
検出するための投影板18が固定されている。操作パネ
ルOPには、液晶ディスプレイとともに、読取りモード
や読取り条件(読取りサイズ、倍率、出力枚数、濃度な
ど)を指定するためのボタンが配置されている。投影板
18の前面は光沢面であり、原稿台20の上面に対する
45°の傾斜面となっている。この投影板18にブック
原稿BDにおける左右方向と直交する方向の端面S3の
像が写り、その状態の投影板18が原稿画像とともに撮
影される。
An operation panel OP is provided on the upper end side of the front surface of the main body housing 10, and a projection plate 18 for detecting the height of the document surface is fixed to the lower end side. On the operation panel OP, together with the liquid crystal display, buttons for specifying a reading mode and reading conditions (reading size, magnification, number of output sheets, density, etc.) are arranged. The front surface of the projection plate 18 is a glossy surface and is a 45 ° inclined surface with respect to the upper surface of the document table 20. An image of the end surface S3 of the book document BD in a direction orthogonal to the left-right direction is reflected on the projection plate 18, and the projection plate 18 in that state is photographed together with the document image.

【0013】本体ハウジング10における操作パネルO
Pに向かって右側の側面には、メインスイッチ51が設
けられている。原稿台20の左右方向の両側には、ユー
ザーが読取りの開始を指示するためのスタートキー5
2,53が1つずつ設けられており、前面側にはアーム
レスト25が設けられている。
Operation panel O in main body housing 10
A main switch 51 is provided on a side surface on the right side toward P. A start key 5 for the user to instruct the start of reading is provided on both sides of the platen 20 in the left-right direction.
2 and 53 are provided one by one, and an armrest 25 is provided on the front side.

【0014】図1において、撮像ユニット30は、CC
Dアレイからなるラインセンサ31、結像レンズ32、
及びミラー33を有している。ミラー33と結像レンズ
32とからなる光学系OSによって、原稿画像がライン
センサ31の受光面に投影される。結像レンズ32は、
前後方向に移動可能に設けられており、AF機構(レン
ズ駆動部)132によって位置決めされる。ラインセン
サ31は、図示しない副走査機構の可動体に取付けられ
ており、CCD素子の配列方向を上下方向に保った状態
で左右方向(副走査方向)M2に沿って平行移動をす
る。この平行移動によって2次元の原稿画像の撮像が行
われる。つまり、ブックスキャナ1においては、ライン
センサ31の移動によって2次元の撮像面が形成される
ことになる。ラインセンサ31に代えてエリアセンサを
用いた場合にはその受光面が撮像面になる。原稿画像の
主走査方向は、原稿台20上では前後方向であり、撮像
面上では上下方向である。本実施形態では、撮像ユニッ
ト30と上述の投影板18とによって端面S3の撮影手
段が構成されており、撮像ユニット30は原稿面S1と
端面S3とを同時に撮影する。以上の構成のブックスキ
ャナ1とディジタル複写機とを組み合わせることによ
り、各種の原稿に適合する総合的な複写システムを構成
することができる。
In FIG. 1, an image pickup unit 30 has a CC
A line sensor 31 composed of a D array, an imaging lens 32,
And a mirror 33. The original image is projected on the light receiving surface of the line sensor 31 by the optical system OS including the mirror 33 and the imaging lens 32. The imaging lens 32
It is provided movably in the front-rear direction, and is positioned by an AF mechanism (lens driving unit) 132. The line sensor 31 is attached to a movable body of a sub-scanning mechanism (not shown), and moves in parallel along the left-right direction (sub-scanning direction) M2 while keeping the arrangement direction of the CCD elements in the vertical direction. By this parallel movement, a two-dimensional document image is captured. That is, in the book scanner 1, a two-dimensional imaging surface is formed by the movement of the line sensor 31. When an area sensor is used in place of the line sensor 31, its light receiving surface becomes an imaging surface. The main scanning direction of the document image is a front-back direction on the document table 20 and a vertical direction on the imaging surface. In the present embodiment, the image pickup unit 30 and the above-mentioned projection plate 18 constitute an image pickup means for the end face S3, and the image pickup unit 30 simultaneously picks up an image of the document surface S1 and the end face S3. By combining the book scanner 1 having the above configuration with a digital copying machine, a comprehensive copying system suitable for various types of documents can be constructed.

【0015】ブックスキャナ1の使用に際して、ユーザ
ーは原稿台20の上にブック原稿BDを見開いた状態で
上向きに置く。そのとき、左右のページの境界を原稿台
20の左右方向の中心と合わせるとともに、投影板18
の下端縁にブック原稿BDを押し当てて前後方向の位置
決めを行う。投影板18と原稿台20との境界が原稿の
セッティングの基準線となっている。その基準線の中央
が基準位置P0(図5参照)である。原稿台20は、図
2のとおり原稿の重量に応じて左右独立に上下移動がで
きるようにバネ機構によって支持されている。これによ
り、ブック原稿BDの厚さに係わらず、どのページを開
いても左右のページの高さがほぼ同一になり、撮影距離
が一定範囲内の値となる。
When using the book scanner 1, the user places the book document BD upward on the document table 20 with the book document BD opened. At this time, the boundary between the left and right pages is aligned with the center of the document table 20 in the left and right direction, and
The book document BD is pressed against the lower edge of the document to position in the front-back direction. The boundary between the projection plate 18 and the document table 20 is a reference line for setting the document. The center of the reference line is the reference position P0 (see FIG. 5). As shown in FIG. 2, the document table 20 is supported by a spring mechanism so that it can move up and down independently of the left and right in accordance with the weight of the document. Thus, regardless of the thickness of the book document BD, the height of the left and right pages becomes substantially the same regardless of which page is opened, and the shooting distance is a value within a certain range.

【0016】ブック原稿BDでは、シート原稿と違って
原稿面S1が湾曲しているので、湾曲状態に応じて、撮
像のピント調整や画像歪みの補正などの処理を行う必要
がある。また、ブック原稿BDの読取りに際しては、見
開いた状態を保持するため又はできるだけ原稿面S1を
平坦化するために、ユーザーがブック原稿BDの端部を
押さえる場合が多い。この場合、ユーザーの手の一部が
原稿画像とともに撮像されるので、出力画像の見栄えを
よくするために、不要画像であるユーザーの手の像を消
去するマスキング(読取り画像の修正)を行うのが望ま
しい。これらのことからブックスキャナ1は、予備スキ
ャンニングを行って、原稿面S1の湾曲状態を測定する
とともに、原稿面S1及び端面S3の両方の撮影情報を
用いる本発明に特有の手法でユーザーの手の位置を検出
する。そして、予備スキャンニングで得た情報に応じ
て、ピント調整量(レンズ移動量)、歪み補正のための
変倍率、マスキングの範囲などの本スキャンニングの動
作条件を設定する。外部装置への画像出力は本スキャン
ニング時に行われる。ブックスキャナ1の読取りモード
には、左右の両ページを一括して読み取るモード(シー
ト原稿モード)と、左右の各ページを別々に読み取るモ
ード(ブック分割モード)とがある。どちらのモードに
おいても、各ページに対して予備スキャンニングと本ス
キャンニングとが実施される。
In the book document BD, unlike the sheet document, the document surface S1 is curved, so that it is necessary to perform processing such as focus adjustment of image pickup and correction of image distortion according to the curved state. In reading the book document BD, the user often presses the end of the book document BD in order to maintain the spread state or to flatten the document surface S1 as much as possible. In this case, since a part of the user's hand is imaged together with the document image, in order to improve the appearance of the output image, masking (correction of the read image) for deleting the unnecessary image of the user's hand is performed. Is desirable. From these facts, the book scanner 1 performs the preliminary scanning to measure the curved state of the original surface S1, and uses the method unique to the present invention using the photographing information of both the original surface S1 and the end surface S3. Detect the position of. Then, in accordance with the information obtained by the preliminary scanning, the main scanning operation conditions such as the focus adjustment amount (lens movement amount), the magnification for distortion correction, and the masking range are set. The image output to the external device is performed during the main scanning. The reading mode of the book scanner 1 includes a mode for reading both left and right pages at once (sheet document mode) and a mode for reading left and right pages separately (book division mode). In either mode, preliminary scanning and main scanning are performed on each page.

【0017】図4は原稿面の湾曲状態の測定方法を説明
するための図である。図4(B)中の破線は注目したラ
インの位置を示している。読取り画像G0は、ブック原
稿BDの上面の撮影像(上面像)G1、原稿台20の撮
影像G20、及び投影板18の撮影像G18から構成さ
れている。撮影像G18のうちの像G181は、セッテ
ィングされたブック原稿BDにおける端面(書籍におけ
る「天」と呼称される部分)S3の形状を示している。
撮影像G18のうちの像(端面像)G181以外の像1
80は、投影板18に映った背景像である。
FIG. 4 is a diagram for explaining a method of measuring the curved state of the document surface. The broken line in FIG. 4B indicates the position of the line of interest. The read image G0 is composed of a photographed image (upper surface image) G1 of the upper surface of the book document BD, a photographed image G20 of the document table 20, and a photographed image G18 of the projection plate 18. An image G181 of the photographed image G18 indicates the shape of the end face (portion called “heaven” in the book) S3 in the set book document BD.
Image 1 of photographed image G18 other than image (end face image) G181
Reference numeral 80 denotes a background image reflected on the projection plate 18.

【0018】上述したとおり原稿台20は暗色に着色さ
れているので、撮影像G20は他の像と比べて暗い像に
なる。また、背景像180も端面像G181と比べて暗
い像になる。したがって、輝度の大小判別によって、上
面像G1及び端面像G181を抽出することができる。
具体的には、1ライン毎に主走査方向の先頭画素から順
に輝度(画素値)を調べ、輝度が第1の閾値th1を越
える範囲の先頭側の画素位置(画素番号)n1、輝度が
第2の閾値th2(th2>th1)を越える範囲の先
頭側及び後端側の画素位置n3,n4を検出する。画素
位置n1と投影板18の前縁に対応した既知の画素位置
n2との間の画素数が、当該ラインにおける原稿面S1
の高さに対応し、画素位置n3と画素位置n4との間の
画素数が主走査方向の原稿サイズに対応する。画素数を
撮像解像度で割る演算により実際の寸法が求まる。原稿
面S1の湾曲状態、すなわち高さ分布は、全てのライン
のそれぞれにおける原稿面S1の高さを示すデータの集
合によって特定される。また、画素位置n3,n4が検
出された最初のライン及び最後のラインのそれぞれの位
置が副走査方向における原稿の両端位置に対応する。こ
こで、読取り画像G0において、上面像G1の上端縁及
び下端縁が湾曲しているのは、原稿面S1の高さが一定
ではないからである。つまり、撮像面に近い被写体は遠
くの被写体よりも大きく撮像される。本スキャンニング
時には、予備スキャンニング時に得た原稿面S1の高さ
情報に基づいて、湾曲した上面像G1を原稿面S1の高
さが一定である場合の像に補正する画像処理(画像歪み
補正)が行われる。具体的には、主走査方向について
は、原稿台20の上方の一定距離(例えば5cm)の位
置の平面を基準面とし、副走査方向の各位置における基
準面と原稿面S1との高低差に応じて上面像G1を変倍
する。副走査方向については、微小区間毎に原稿面S1
の沿面距離と原稿台20への原稿面S1の投影距離との
比に応じて上面像G1を変倍する。
Since the document table 20 is colored dark as described above, the photographed image G20 is darker than other images. Further, the background image 180 is also darker than the end face image G181. Therefore, the upper surface image G1 and the end surface image G181 can be extracted by determining the magnitude of the luminance.
Specifically, the luminance (pixel value) is checked in order from the top pixel in the main scanning direction for each line, and the top pixel position (pixel number) n1 in the range where the luminance exceeds the first threshold th1 and the luminance is Then, pixel positions n3 and n4 on the leading and trailing ends of the range exceeding the threshold value th2 (th2> th1) of 2 are detected. The number of pixels between the pixel position n1 and the known pixel position n2 corresponding to the front edge of the projection plate 18 is the original surface S1 of the line.
And the number of pixels between the pixel position n3 and the pixel position n4 corresponds to the document size in the main scanning direction. The actual size is obtained by the calculation of dividing the number of pixels by the imaging resolution. The curved state of the document surface S1, that is, the height distribution is specified by a set of data indicating the height of the document surface S1 in each of all the lines. Further, the respective positions of the first line and the last line where the pixel positions n3 and n4 are detected correspond to both end positions of the document in the sub-scanning direction. Here, in the read image G0, the upper edge and the lower edge of the upper surface image G1 are curved because the height of the document surface S1 is not constant. That is, a subject near the imaging surface is imaged larger than a distant subject. At the time of the main scanning, image processing (image distortion correction) for correcting the curved upper surface image G1 into an image when the height of the original surface S1 is constant based on the height information of the original surface S1 obtained at the time of the preliminary scanning. ) Is performed. Specifically, with respect to the main scanning direction, a plane at a position at a fixed distance (for example, 5 cm) above the document table 20 is used as a reference surface, and the height difference between the reference surface and the document surface S1 at each position in the sub-scanning direction is calculated. The upper surface image G1 is scaled accordingly. In the sub-scanning direction, the document surface S1
The upper surface image G1 is scaled according to the ratio of the creepage distance of the document surface S1 to the projection distance of the document surface S1 onto the document table 20.

【0019】次に、マスキング範囲の設定について説明
する。ブックスキャナ1では、不要画像であるユーザー
の手の像を確実に消去し、且つ見出しやノンブルなどの
消去すべきでない部分(ここでは便宜的に「見出し部
分」という)の消去を防止するため、すなわちマスキン
グの信頼性を高めるため、原稿面S1の撮影情報に基づ
く不要画像の位置の検出(第1の位置検出)と、端面S
3の撮影情報に基づく不要画像の位置の検出(第2の位
置検出)とが行われる。第2の位置検出は、原稿面S1
を押さえることによる見かけの上での原稿面S1の局部
的な盛り上がりに着目するものである。すなわち、盛り
上がっていない見出し部分は第2の位置検出の対象外で
ある。したがって、仮に第1の位置検出で見出し部分が
不要画像に該当したとしても、第1及び第2の位置検出
の結果を総合すれば、見出し部分の消去を避けることが
できる。以下、第1の位置検出の手法、及び第2の位置
検出の手法を順に説明する。
Next, the setting of the masking range will be described. In the book scanner 1, the image of the user's hand, which is an unnecessary image, is surely erased, and a part that should not be erased, such as a headline or a page number (herein referred to as a "heading part" for convenience) is prevented from being erased. That is, in order to enhance the reliability of masking, detection of the position of the unnecessary image (first position detection) based on the photographing information of the document surface S1 and detection of the end surface S
The detection of the position of the unnecessary image based on the photographing information of No. 3 (second position detection) is performed. The second position detection is performed on the original surface S1.
Is focused on the apparent local swelling of the document surface S1 due to the pressing of. That is, a heading portion that is not raised is not a target of the second position detection. Therefore, even if the heading portion corresponds to an unnecessary image in the first position detection, erasure of the heading portion can be avoided by integrating the results of the first and second position detections. Hereinafter, the first position detection method and the second position detection method will be described in order.

【0020】図5はブック原稿BDの読取りの一例を示
す平面図である。図5(A)は原稿台20上のブック原
稿BDをユーザーが手Hで押さえた状態を示し、図5
(B)は図5(A)に対応した読取り画像G0の要部を
示している。
FIG. 5 is a plan view showing an example of reading a book document BD. FIG. 5A illustrates a state in which the user presses the book document BD on the document table 20 with the hand H.
(B) shows the main part of the read image G0 corresponding to FIG. 5 (A).

【0021】図5の例において、読取り画像G0は、ブ
ック原稿BDの上面像G1、原稿台20の撮影像G2
0、及びユーザーの手Hの撮影像GHを含んでいる。通
常、手Hの撮影像GHは、原稿台20の撮影像G20よ
りも明るく、上面像G1における下地部分よりも暗い。
したがって、輝度判別によって撮影像GHを抽出するこ
とができる。
In the example of FIG. 5, the read image G0 is composed of an upper surface image G1 of the book document BD and a photographed image G2 of the document table 20.
0 and the photographed image GH of the user's hand H. Normally, the photographed image GH of the hand H is brighter than the photographed image G20 of the document table 20, and darker than the background portion of the upper surface image G1.
Therefore, the photographed image GH can be extracted by the luminance determination.

【0022】図6は不要画像の抽出の概略を示す模式図
である。図6(B)は図6(A)中の破線で囲んだ部分
の拡大図である。図6(A)のように、上面像G1のう
ちの原稿面S1に対応する部分に対して、その周縁(図
の左右の側端縁及び下端縁)を外縁E1とする凹字状の
判別対象領域AJを設定する。判別対象領域AJの3辺
の幅は、判別対象領域AJの内縁E2が、原稿画像であ
る文字やイメージなどの必要画像と重なるように選定す
る。すなわち、判別対象領域AJを原稿面S1の周辺部
分の余白より広くする。例えば、左右の各辺の幅を左右
の原稿サイズの30%程度とし、下側の辺の幅も上下の
原稿サイズの30%程度とする。
FIG. 6 is a schematic diagram showing an outline of extraction of an unnecessary image. FIG. 6B is an enlarged view of a portion surrounded by a broken line in FIG. As shown in FIG. 6 (A), for a portion corresponding to the document surface S1 in the top surface image G1, a concave shape discrimination in which the peripheral edge (the left and right side edges and the lower edge in the figure) is the outer edge E1. The target area AJ is set. The widths of the three sides of the determination target area AJ are selected such that the inner edge E2 of the determination target area AJ overlaps a required image such as a character image or an original image. That is, the determination target area AJ is made wider than the margin around the document surface S1. For example, the width of each of the right and left sides is about 30% of the size of the left and right documents, and the width of the lower side is also about 30% of the size of the upper and lower documents.

【0023】図6(B)のように、判別対象領域AJを
マトリクス状に並ぶ多数のブロックbに細分化し、各ブ
ロックb毎に画像の有無を判別する。図6(B)の例で
は、文字列Z1の一部と、ページ番号を示す文字列Z2
と、ユーザーの手Hの撮影像GHとが存在する。画像の
有無の判別方法としては、ブロックb内の画素(ライン
センサ31の撮像単位)の輝度の平均値の大小で判別す
る方法、ブロックb内の画素の内で輝度が閾値以下のも
のの個数で判別する方法などがある。
As shown in FIG. 6B, the determination target area AJ is subdivided into a large number of blocks b arranged in a matrix, and the presence or absence of an image is determined for each block b. In the example of FIG. 6B, a part of the character string Z1 and a character string Z2 indicating the page number
And a photographed image GH of the user's hand H. As a method of determining the presence or absence of an image, a method of determining the average value of the luminance of the pixels in the block b (imaging units of the line sensor 31) is used. There is a method to determine.

【0024】そして、それぞれが画像を有し且つ互いに
隣接した複数のブロックbの集合であり、判別対象領域
AJの内縁E2とは離れ且つ外縁E2とは接するブロッ
ク群B3を抽出する。図6(C)のように、図6の例に
おいて、それぞれが画像を有し且つ互いに隣接した複数
のブロックbの集合は、文字列Z1を含むブロック群B
1、文字列Z2を含むブロック群B2、及び撮影像GH
を含むブロック群B3の3個である。これらのブロック
群B1〜3の内、内縁E2とは離れ且つ外縁E2とは接
するものはブロック群B3のみである。
Then, a block group B3, which is a set of a plurality of blocks b each having an image and adjacent to each other and separated from the inner edge E2 of the determination target area AJ and in contact with the outer edge E2, is extracted. As shown in FIG. 6C, in the example of FIG. 6, a set of a plurality of blocks b each having an image and adjacent to each other is a block group B including a character string Z1.
1, block group B2 including character string Z2, and captured image GH
Are included in the block group B3. Of these block groups B1 to B3, only the block group B3 is apart from the inner edge E2 and in contact with the outer edge E2.

【0025】このようにして抽出したブロック群B3内
の画像を消去すれば、必要画像のみからなる読取り画像
が得られる。ブロック群B3内の画像を消去するには、
ブロック群B3内の画素のデータ値を下地色を示す値に
置き換えればよい。
By erasing the image in the block group B3 extracted in this way, a read image consisting only of the necessary image is obtained. To erase the image in block group B3,
What is necessary is just to replace the data value of the pixel in the block group B3 with a value indicating the background color.

【0026】図7はブロック群の判別の手順を示す図で
ある。図7(A)の段階で、消去すべき不要画像の1次
候補として4個のブロック群B4〜B7が抽出されてい
る。これらのブロック群B4〜B7について、ブロック
bの属性を調べる。まず、図7(F)のように1個のブ
ロックb1に注目し、ブロックb1からみて基準位置P
0に近い側の3個のブロックb2〜b4における画像の
有無を調べる。3個のブロックb2〜b4の全てに画像
がなければ、ブロックb1の属性を「1」とする。3個
のブロックb2〜b4の少なくとも1個に画像があれ
ば、ブロックb1の属性を「2」とする。ブロックb1
が内縁E2と接する場合には、ブロックb1の属性を
「0」とする〔図7(B)〕。このように各ブロックの
属性を決定し、属性が「1」のブロックbを含むブロッ
ク群B5,B7を、不要画像の2次候補とする〔図7
(C)〕。1次候補の中から2次候補を抽出する処理を
内側判別処理と呼称する。
FIG. 7 is a diagram showing a procedure for determining a block group. At the stage of FIG. 7A, four block groups B4 to B7 have been extracted as primary candidates of unnecessary images to be deleted. With respect to these block groups B4 to B7, the attribute of the block b is checked. First, attention is paid to one block b1 as shown in FIG. 7 (F), and the reference position P is viewed from the block b1.
The presence / absence of an image in the three blocks b2 to b4 closer to 0 is checked. If there is no image in all three blocks b2 to b4, the attribute of block b1 is set to "1". If there is an image in at least one of the three blocks b2 to b4, the attribute of the block b1 is set to “2”. Block b1
Is in contact with the inner edge E2, the attribute of the block b1 is set to "0" (FIG. 7B). In this way, the attribute of each block is determined, and the block groups B5 and B7 including the block b having the attribute “1” are set as secondary candidates for unnecessary images [FIG.
(C)]. The process of extracting a secondary candidate from the primary candidates is referred to as an inside determination process.

【0027】次に、2次候補を対象にブロックbの属性
を調べる。図7(G)のように1個のブロックb5に注
目し、ブロックb5からみて基準位置P0から遠い側の
3個のブロックb6〜b8における画像の有無を調べ
る。3個のブロックb6〜b8の全てに画像がなけれ
ば、ブロックb5の属性を「0」とする。3個のブロッ
クb6〜B8の少なくとも1個に画像があれば、ブロッ
クb5の属性を「2」とする。ブロックb1が外縁E1
と接する場合には、ブロックb5の属性を「1」とする
〔図7(D)〕。このように各ブロックの属性を決定
し、属性が「1」のブロックbを含むブロック群B5
を、不要画像の3次候補とする〔図7(E)〕。2次候
補の中から3次候補を抽出する処理を外側判別処理と呼
称する。
Next, the attribute of the block b is examined for the secondary candidate. As shown in FIG. 7 (G), attention is paid to one block b5, and the presence or absence of an image in three blocks b6 to b8 farther from the reference position P0 as viewed from the block b5 is examined. If there is no image in all three blocks b6 to b8, the attribute of block b5 is set to "0". If there is an image in at least one of the three blocks b6 to B8, the attribute of the block b5 is set to “2”. Block b1 is outer edge E1
, The attribute of the block b5 is set to "1" (FIG. 7D). In this way, the attribute of each block is determined, and the block group B5 including the block b having the attribute “1”
Is a tertiary candidate for an unnecessary image [FIG. 7 (E)]. The process of extracting a tertiary candidate from the secondary candidates is referred to as outer determination processing.

【0028】最後に3次候補について寸法条件の判別を
行う。例えば、3次候補が指に相当する大きさを有し、
縦横の長さに極端な差がなければ、3次候補を不要画像
とする。これにより、インデックスや罫線などの必要画
像を消去する誤りを避けることができる。
Finally, the dimensional condition is determined for the tertiary candidate. For example, the third candidate has a size corresponding to a finger,
If there is no extreme difference in the length and width, the tertiary candidate is regarded as an unnecessary image. As a result, it is possible to avoid errors in erasing necessary images such as indexes and ruled lines.

【0029】以上の各処理によって原稿面(見開き面)
S1の撮影像に基づいて検出された不要画像(指の像)
の内端の位置を、読取り画像の修正におけるマスキング
範囲を特定する位置の“第1候補”とする。
The original side (spread side) is obtained by each of the above processes.
Unnecessary image (finger image) detected based on the captured image in S1
Is set as the “first candidate” of the position for specifying the masking range in the correction of the read image.

【0030】図8は読取りの他の例に対応した読取り画
像G0bを示す図である。同図において、図5と対応す
る構成要素には形状の差異に係わらず同一の符号を付し
てある。
FIG. 8 is a view showing a read image G0b corresponding to another example of reading. 5, the same reference numerals are given to the components corresponding to those in FIG. 5 irrespective of the difference in shape.

【0031】読取り画像G0bは、上面像G1、ユーザ
ーの手の撮影像GH、原稿台20の撮影像G20、及び
投影板18の撮影像G18から構成されている。撮影像
G18は、端面像G181と手の像Ghとを含んでい
る。図8の例において、見開きの左ページは、白地に黒
色の文字や図形を印刷した文書ページであり、このペー
ジの周辺には余白が存在する。ただし、左縁部にインデ
ックスが色刷りされている。一方、右ページは、全域に
カラー印刷がなされた写真ページである。ユーザーはこ
の右ページの端部を押さえており、ページに余白がない
ことから、必然的に写真の一部が隠れている。また、図
示の例では、上面像G1のうちの右ページに対応する部
分の右端に手の撮影像GHに似た色の像Ggがあり、且
つその像Ggを囲む明るい像Gwがある。このような読
取り画像G0bに対して上述の第1の位置検出を行う
と、右ページの像Gg及び左ページのインデックスの像
Giのそれぞれの位置が“第1候補”となるおそれがあ
る。上面像G1のうちの撮影像GHの周辺部の像Gsが
比較的に明るい場合は、撮影像GHの位置は“第1候
補”となる。しかし、像Gsが比較的に明るい場合は、
撮影像GHの位置が“第1候補”とならないおそれがあ
る。つまり、第1の位置検出では、不要画像である撮影
像GHのみを確実に抽出することが難しい。このため、
実質的に端面S3の真正面からのブック原稿BDの撮影
情報である撮影像G18を利用する第2の位置検出が行
われる。
The read image G0b is composed of an upper surface image G1, a photographed image GH of the user's hand, a photographed image G20 of the document table 20, and a photographed image G18 of the projection plate 18. The photographed image G18 includes an end face image G181 and a hand image Gh. In the example of FIG. 8, the left page of the double-page spread is a document page in which black characters and graphics are printed on a white background, and a margin exists around this page. However, the index is color-printed on the left edge. On the other hand, the right page is a photograph page in which color printing is performed in the entire area. The user is holding the edge of the right page, and the lack of white space on the page inevitably hides some of the photo. Further, in the illustrated example, an image Gg of a color similar to the photographed image GH of the hand is provided at the right end of a portion corresponding to the right page in the upper surface image G1, and there is a bright image Gw surrounding the image Gg. When the above-described first position detection is performed on such a read image G0b, the respective positions of the right page image Gg and the left page index image Gi may be “first candidates”. When the image Gs of the peripheral portion of the photographed image GH in the upper surface image G1 is relatively bright, the position of the photographed image GH is a “first candidate”. However, when the image Gs is relatively bright,
There is a possibility that the position of the captured image GH does not become the “first candidate”. That is, in the first position detection, it is difficult to reliably extract only the photographed image GH that is an unnecessary image. For this reason,
The second position detection is performed using the photographed image G18, which is photographing information of the book document BD substantially from directly in front of the end surface S3.

【0032】図9は第2の位置検出の手順を示す図であ
る。ユーザーがブック原稿BDを押さえた場合、図4の
要領でブック原稿BDの高さ分布を求めると、図9
(A)のように副走査方向の端部付近で盛り上がった分
布となる。盛り上がり部分が原稿面S1の上の手(物
体)Hに対応する。分布曲線における原稿面S1に対応
する緩やかな湾曲部分と盛り上がり部分との境界(変曲
点)の位置yfを、マスキング範囲を特定する位置の
“第2候補”とする。変曲点の位置yfを見つけるに
は、図9(B)、(C)のように、副走査方向の中央か
ら右側及び左側に向かって隣接するライン間の高さの差
分を求め、正負の反転を調べればよい。差分が負(−)
から正(+)に変わる位置が変曲点の位置yfである。
図9(C)のように、原稿面S1の上に物体がなけれ
ば、高さの差分が負から正に変わる位置はない。
FIG. 9 is a diagram showing a procedure of the second position detection. When the user presses the book document BD, the height distribution of the book document BD is obtained in the manner shown in FIG.
As shown in (A), the distribution is raised near the end in the sub-scanning direction. The raised portion corresponds to the hand (object) H on the document surface S1. The position yf of the boundary (inflection point) between the gentle curved portion corresponding to the document surface S1 and the raised portion in the distribution curve is defined as a “second candidate” for specifying the masking range. In order to find the position yf of the inflection point, as shown in FIGS. 9B and 9C, the difference between the heights of the lines adjacent from the center in the sub-scanning direction toward the right and left sides is obtained. What is necessary is just to check the reversal. Difference is negative (-)
Is a position yf of the inflection point.
As shown in FIG. 9C, if there is no object on the document surface S1, there is no position where the height difference changes from negative to positive.

【0033】マスキングに際しては、このようにして検
出した“第2候補”と上述の“第1候補”とを比較し、
値が一致したときに“第1候補”に対応した不要画像を
消去すればよい。ただし、本実施形態では、結像レンズ
32を用いてラインセンサ31に原稿の光学像を投影す
るので、“第2候補”に後述の誤差が生じる。したがっ
て、誤差を考慮して“第2候補”と“第1候補”とを比
較する必要がある。
At the time of masking, the “second candidate” detected in this way is compared with the “first candidate” described above.
When the values match, the unnecessary image corresponding to the “first candidate” may be deleted. However, in the present embodiment, since the optical image of the document is projected on the line sensor 31 using the imaging lens 32, an error described later occurs in the “second candidate”. Therefore, it is necessary to compare the “second candidate” with the “first candidate” in consideration of the error.

【0034】図10は第2候補の誤差を説明するための
図であり、原稿を押さえる手Hを投影板18を用いて撮
影するときの光路を折り返しのない直線光路と仮定した
読取りの模式図である。
FIG. 10 is a view for explaining the error of the second candidate, and is a schematic view of reading assuming that the optical path when the hand H holding the original is photographed using the projection plate 18 is a straight optical path without turning back. It is.

【0035】原稿面S1の副走査方向の両端付近からラ
インセンサ31に向かう光路Lは、結像レンズ32の光
軸Lcに対して傾斜する。したがって、原稿面S1の端
部を押さえる手Hの先端Aからラインセンサ31に向か
う光は、先端Aよりも内側(中央寄り)の点Bで投影板
18を通過する。副走査方向における先端Aと点Bとの
距離は、先端Aが投影板18から遠いほど大きくなる。
点Bの副走査方向の位置は、原稿面S1の撮影情報から
求めた先端Aの座標と、光学系OSと原稿台20との距
離とに基づいて求めることができる。
An optical path L extending from the vicinity of both ends of the document surface S1 in the sub-scanning direction to the line sensor 31 is inclined with respect to the optical axis Lc of the imaging lens 32. Accordingly, light traveling from the tip A of the hand H holding the end of the document surface S1 toward the line sensor 31 passes through the projection plate 18 at a point B inside (closer to the center) than the tip A. The distance between the tip A and the point B in the sub-scanning direction increases as the tip A is farther from the projection plate 18.
The position of the point B in the sub-scanning direction can be obtained based on the coordinates of the leading end A obtained from the photographing information of the document surface S1 and the distance between the optical system OS and the document table 20.

【0036】図11はブックスキャナ1の信号処理系1
00のブロック図である。信号処理系100は、CPU
101、AD変換器102、画像処理回路103、ライ
ンメモリ104、RAM105、及び高さ測定部110
を有している。CPU101は、輝度検出部201、計
数部203、及び位置検出部203の3つの機能要素を
含んでいる。
FIG. 11 shows the signal processing system 1 of the book scanner 1.
It is a block diagram of 00. The signal processing system 100 includes a CPU
101, AD converter 102, image processing circuit 103, line memory 104, RAM 105, and height measuring unit 110
have. The CPU 101 includes three functional elements of a luminance detecting unit 201, a counting unit 203, and a position detecting unit 203.

【0037】予備スキャンニングにおいて、ラインセン
サ31から出力された光電変換信号は、AD変換器10
2によって例えば8ビットの撮影データD1に変換さ
れ、高さ測定部110及びラインメモリ104に画素配
列順に入力される。高さ測定部110は、比較器111
とカウンタ112とからなる。比較器111は、入力さ
れた撮影データD1と閾値th1,th2とを比較し、
結果をCPU101及びカウンタ112に通知する。カ
ウンタ112は輝度が閾値th1を越える画素の数をカ
ウントする。つまり、原稿面S1の高さを測定する。C
PU101は、カウンタ112のカウント値を高さデー
タDHとして取り込むとともに、比較器111によって
検出された画素位置n3,n4を取り込んでサイズデー
タDSを生成する。高さデータDH及びサイズデータD
Sは、RAM105に格納される。一方、撮影データD
1はラインメモリ104からCPU101の輝度検出部
201に転送される。輝度検出部201は、副走査方向
の所定ライン毎に各画素の輝度を集計して輝度ヒストグ
ラムを作成し、下地輝度及び画像の有無の判別のための
閾値を算出する。計数部202は、輝度ヒストグラムに
基づいて、輝度が閾値以下の画素の個数をカウントす
る。位置検出部203は、撮像面における走査位置を指
し示す。CPU101は、下地輝度、画像に対応した画
素の度数、走査位置の3つの情報に基づいて図7の要領
で不要画像を抽出し、第1候補を求める。
In the preliminary scanning, the photoelectric conversion signal output from the line sensor 31
The image data is converted into, for example, 8-bit photographing data D1 by 2 and input to the height measuring unit 110 and the line memory 104 in the order of pixel arrangement. The height measuring unit 110 includes a comparator 111
And a counter 112. The comparator 111 compares the input photographing data D1 with thresholds th1 and th2,
The result is notified to the CPU 101 and the counter 112. The counter 112 counts the number of pixels whose luminance exceeds the threshold th1. That is, the height of the document surface S1 is measured. C
The PU 101 takes in the count value of the counter 112 as height data DH, and takes in the pixel positions n3 and n4 detected by the comparator 111 to generate size data DS. Height data DH and size data D
S is stored in the RAM 105. On the other hand, shooting data D
1 is transferred from the line memory 104 to the luminance detecting unit 201 of the CPU 101. The luminance detecting unit 201 creates a luminance histogram by summing the luminance of each pixel for each predetermined line in the sub-scanning direction, and calculates a threshold value for determining the background luminance and the presence or absence of an image. The counting unit 202 counts the number of pixels whose luminance is equal to or less than a threshold based on the luminance histogram. The position detection unit 203 indicates a scanning position on the imaging surface. The CPU 101 extracts an unnecessary image based on three pieces of information of the background luminance, the frequency of the pixel corresponding to the image, and the scanning position, and obtains a first candidate, as shown in FIG.

【0038】予備スキャンニングの終了後、CPU10
1は、本スキャンニングの準備として、高さデータDH
に基づいて第2候補を求めてマスキングの範囲を設定す
るとともに、ピント調整や画像歪みの補正の内容を設定
する。
After the completion of the preliminary scanning, the CPU 10
1 is height data DH in preparation for main scanning.
, A masking range is set based on the second candidate, and details of focus adjustment and image distortion correction are set.

【0039】本スキャンニングにおいて、AD変換器1
02から画像処理回路103へ撮影データDが送られ
る。CPU101は、マスキング範囲の画素値の変更を
画像処理回路103に指示する。画像処理回路103の
マスキング部305によって不要画像である手Hの撮影
像GHが消去され、消去後の読取り画像が外部装置へ出
力される。画像処理回路103は、マスキングに加え
て、原稿面S1の照度むらを補正する処理、画質改善の
ためのMTF補正、原稿面S1の湾曲に起因する画像歪
みの補正を含む変倍処理、及び濃度補正を行う。
In this scanning, the AD converter 1
02, the photographing data D is sent to the image processing circuit 103. The CPU 101 instructs the image processing circuit 103 to change the pixel value in the masking range. The photographed image GH of the hand H, which is an unnecessary image, is deleted by the masking unit 305 of the image processing circuit 103, and the read image after the deletion is output to the external device. The image processing circuit 103 includes, in addition to the masking, a process of correcting illuminance unevenness on the document surface S1, an MTF correction for improving image quality, a scaling process including a correction of image distortion caused by the curvature of the document surface S1, and a density. Make corrections.

【0040】なお、CPU101は、撮像制御回路13
0、副走査機構131、AF機構132、及びランプ制
御部140を含む駆動系の制御をも担い、各制御対象に
対して所定の指示(動作命令)を与える。CPU101
には、操作パネルOP及び各種スイッチが接続されてい
る。
It should be noted that the CPU 101 is provided with the imaging control circuit 13.
0, and also controls a drive system including the sub-scanning mechanism 131, the AF mechanism 132, and the lamp control unit 140, and gives a predetermined instruction (operation instruction) to each control target. CPU 101
Is connected to an operation panel OP and various switches.

【0041】図12はブックスキャナ1の概略の動作を
示すフローチャートである。スタートキー52(又は5
3)のオンに呼応して予備スキャンニングを実行する
(#1、#2)。予備スキャンニングでは、原稿面S1
の撮影及び端面S3の撮影が同時に行われる。予備スキ
ャンニングの終了後、端面S3の撮影情報に基づいて第
2の位置検出を行う(#3)。このステップ#3を実行
するCPU101の機能が本発明の第2の検出手段に対
応する。第2の位置検出で第2候補がなければ、ユーザ
ーが原稿を押さえていない場合であり、この場合には原
稿サイズに対応する有効読取り範囲内のマスキングが不
要である(指の像なし)と判定する(#4、#5)。
FIG. 12 is a flowchart showing the general operation of the book scanner 1. Start key 52 (or 5
Preliminary scanning is executed in response to turning on of (3) (# 1, # 2). In the preliminary scanning, the document surface S1
And the imaging of the end face S3 are performed simultaneously. After the completion of the preliminary scanning, the second position detection is performed based on the photographing information of the end face S3 (# 3). The function of the CPU 101 executing the step # 3 corresponds to the second detecting means of the present invention. If there is no second candidate in the second position detection, it means that the user has not pressed the document, and in this case, masking within the effective reading range corresponding to the document size is unnecessary (no finger image). A determination is made (# 4, # 5).

【0042】第2の位置検出で第2候補を検出した場合
は、原稿面S1の撮影情報に基づいて第1の位置検出を
行う(#7)。このステップ#7を実行するCPU10
1の機能が本発明の第2の検出手段に対応する。第1の
位置検出で第1候補が検出された場合には(#8)、第
2候補と一致する第1候補の有無をチェックする(#
9)。一致すれば、その第1候補を消去対象の位置と判
定し、マスキング範囲を設定する(#10)。第2候補
があるにも係わらず第1候補がない場合(#8でノ
ー)、及び第2候補と一致する第1候補がない場合(#
9でノー)には、図8の例のように原稿画像が手Hで部
分的に隠れているおそれがあるので、その旨をユーザー
にディスプレイ表示などによって知らせるエラー処理を
行う(#11)。このとき、ユーザーか手Hの位置を変
えて再びスタートを指示するといった対処を行えばよ
い。
When the second candidate is detected in the second position detection, the first position is detected based on the photographing information of the document surface S1 (# 7). CPU 10 executing step # 7
The first function corresponds to the second detecting means of the present invention. If the first candidate is detected in the first position detection (# 8), it is checked whether there is a first candidate that matches the second candidate (#
9). If they match, the first candidate is determined as a position to be erased, and a masking range is set (# 10). When there is no first candidate despite the presence of the second candidate (No in # 8), and when there is no first candidate that matches the second candidate (#
In the case of (No at 9), there is a possibility that the document image is partially hidden by the hand H as in the example of FIG. 8, so an error process is performed to notify the user of this fact by display or the like (# 11). At this time, measures such as changing the position of the user or the hand H and instructing to start again may be taken.

【0043】エラー処理に該当しない場合は、本スキャ
ンニングを行う(#6)。本スキャンニングでは、準備
の段階で設定された範囲のマスキングが行われる。ステ
ップ#5で「指の像なし」と判定されたときには画像処
理回路103のマスキング部305はスルー状態とされ
る。
If it does not correspond to the error processing, the main scanning is performed (# 6). In the main scanning, masking is performed in a range set in the preparation stage. When it is determined in step # 5 that "there is no finger image", the masking unit 305 of the image processing circuit 103 is set to the through state.

【0044】以上の実施形態によれば、投影板18を設
けて撮像ユニット30を原稿面S1及び端面S3の撮影
に兼用するようにしたので、構成の簡略化と高さ測定の
高精度化とを図ることができる。ただし、本発明はこの
ような構成に限定されない。撮像ユニット30とは別
に、端面S3を撮影するための光学系及び撮像デバイス
を組み込んでもよい。
According to the above-described embodiment, the projection plate 18 is provided so that the imaging unit 30 is also used for photographing the original surface S1 and the end surface S3. Therefore, the configuration is simplified and the height measurement is made more accurate. Can be achieved. However, the present invention is not limited to such a configuration. In addition to the imaging unit 30, an optical system and an imaging device for imaging the end face S3 may be incorporated.

【0045】[0045]

【発明の効果】請求項1の発明によれば、ユーザーが手
で押さえて原稿を固定した場合に、読取り画像のうちの
不要画像である押さえた手の像を選択的に消去する画像
修正機能の信頼性を高めることができ、読取り画像の見
栄えが良くしかも見開き原稿の固定が容易な画像読取り
装置を実現することができる。
According to the first aspect of the present invention, when the user holds down the document by hand, the image correction function for selectively erasing the pressed hand image, which is an unnecessary image among the read images, is provided. The image reading apparatus can improve the reliability of the image reading apparatus, can provide a good appearance of the read image, and can easily fix the spread original.

【図面の簡単な説明】[Brief description of the drawings]

【図1】ブックスキャナの外観を示す斜視図である。FIG. 1 is a perspective view illustrating an appearance of a book scanner.

【図2】原稿台の可動機能を示す図である。FIG. 2 is a diagram illustrating a movable function of a document table.

【図3】ブックスキャナによる読取りの模式図である。FIG. 3 is a schematic diagram of reading by a book scanner.

【図4】原稿面の湾曲状態の測定方法を説明するための
図である。
FIG. 4 is a diagram for explaining a method of measuring a curved state of a document surface.

【図5】ブック原稿の読取りの一例を示す平面図であ
る。
FIG. 5 is a plan view illustrating an example of reading a book document.

【図6】不要画像の抽出の概略を示す模式図である。FIG. 6 is a schematic diagram illustrating an outline of extraction of an unnecessary image.

【図7】ブロック群の判別の手順を示す図である。FIG. 7 is a diagram showing a procedure for determining a block group.

【図8】読取りの他の例に対応した読取り画像を示す図
である。
FIG. 8 is a diagram showing a read image corresponding to another example of reading.

【図9】第2の位置検出の手順を示す図である。FIG. 9 is a diagram illustrating a procedure of a second position detection.

【図10】第2候補の誤差を説明するための図である。FIG. 10 is a diagram illustrating an error of a second candidate.

【図11】ブックスキャナの信号処理系のブロック図で
ある。
FIG. 11 is a block diagram of a signal processing system of the book scanner.

【図12】ブックスキャナの概略の動作を示すフローチ
ャートである。
FIG. 12 is a flowchart illustrating a schematic operation of the book scanner.

【符号の説明】[Explanation of symbols]

1 ブックスキャナ(画像読取り装置) 18 投影板(端面の撮影手段の構成要素) 20 原稿台 30 撮像ユニット(端面の撮影手段の構成要素) 31 光電変換デバイス 80 空間(開放空間) 101 CPU(画像修正制御手段) 305 マスキング部(画像修正手段) BD ブック原稿(見開き原稿) G0,G0b 読取り画像 G1 上面像(見開き面の撮影像) G18 撮影像(端面の撮影像) H 手(物体) M2 副走査方向(左右方向) OS 光学系 S1 原稿面(読取り対象面) S3 端面 DESCRIPTION OF SYMBOLS 1 Book scanner (image reading apparatus) 18 Projection board (component of the imaging means of an end face) 20 Original table 30 Imaging unit (component of the imaging means of an end face) 31 Photoelectric conversion device 80 Space (open space) 101 CPU (image correction) Control means) 305 Masking unit (image correction means) BD Book original (spread original) G0, G0b Read image G1 Top surface image (photographed image of spread surface) G18 Photographed image (photographed image of end face) H Hand (object) M2 Sub-scan Direction (left-right direction) OS Optical system S1 Original surface (read target surface) S3 End surface

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】原稿台と、光電変換デバイスと、原稿画像
を前記光電変換デバイスに投影する光学系とを有し、前
記原稿台と前記光学系との間に原稿のセッティングのた
めの開放空間が存在する構造の画像読取り装置であっ
て、 前記原稿台の上に左右に見開いた状態で置かれた見開き
原稿における左右方向と直交する方向の端面を撮影する
撮影手段と、 前記見開き原稿における読取り対象面である見開き面の
撮影像に基づいて、当該見開き面上の物体を検出する第
1の検出手段と、 前記端面の撮影像に基づいて、前記見開き面上の物体を
検出する第2の検出手段と、 原稿画像を読み取った読取り画像を部分的に消去する画
像修正手段と、 前記画像修正手段に対して、前記見開き原稿の読取り画
像のうちの前記第1及び第2の検出手段の両方によって
検出された物体に対応した部分を消去させる画像修正制
御手段と、を有したことを特徴とする画像読取り装置。
An open space for setting a document between the platen and the optical system, comprising: a platen; a photoelectric conversion device; and an optical system for projecting a document image onto the photoelectric conversion device. An image reading apparatus having a structure including: a photographing means for photographing an end face in a direction orthogonal to the left-right direction of a spread document placed in a state of being spread right and left on the document table; and reading the spread document. A first detection unit that detects an object on the spread surface based on a captured image of the spread surface that is the target surface; and a second detection unit that detects an object on the spread surface based on the captured image of the end surface. Detecting means; image correcting means for partially erasing a read image obtained by reading a document image; and both of the first and second detecting means of the read image of the spread document with respect to the image correcting means. Thus the image reading apparatus characterized by having an image modification control means for erasing a portion corresponding to the detected object, the.
JP8287896A 1996-10-30 1996-10-30 Image reader Pending JPH10136194A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8287896A JPH10136194A (en) 1996-10-30 1996-10-30 Image reader

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8287896A JPH10136194A (en) 1996-10-30 1996-10-30 Image reader

Publications (1)

Publication Number Publication Date
JPH10136194A true JPH10136194A (en) 1998-05-22

Family

ID=17723123

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8287896A Pending JPH10136194A (en) 1996-10-30 1996-10-30 Image reader

Country Status (1)

Country Link
JP (1) JPH10136194A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10044904B2 (en) 2015-08-04 2018-08-07 Canon Kabushiki Kaisha Apparatus, image reading method, and storage medium for reading an image of a target object
CN110486438A (en) * 2018-11-15 2019-11-22 段沧桑 The equipment that one kind realizes pressure page and accessible page turning

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10044904B2 (en) 2015-08-04 2018-08-07 Canon Kabushiki Kaisha Apparatus, image reading method, and storage medium for reading an image of a target object
CN110486438A (en) * 2018-11-15 2019-11-22 段沧桑 The equipment that one kind realizes pressure page and accessible page turning
CN110486438B (en) * 2018-11-15 2024-02-09 段沧桑 Equipment for realizing page pressing and barrier-free page turning

Similar Documents

Publication Publication Date Title
JP3436025B2 (en) Correction method of read image and image reading device
JP4037512B2 (en) Image reading device
JP3436015B2 (en) Image reading device
JPH10336439A (en) Image reader
JPH10190972A (en) Image reader
JPH08154154A (en) Image reader
US6345763B1 (en) Image reading apparatus for reading a bookform document placed on a document table in face-up state
JPH0897975A (en) Image reader
JPH09205544A (en) Image processor
US5987163A (en) Apparatus and method for determining the size of a page size in an image reader
JP2009272678A (en) Image reading unit, image reading method, program, and storage medium
JP2001268367A (en) Image scanning apparatus
JPH10136194A (en) Image reader
JPH10255024A (en) Picture reader
JPH09149256A (en) Image reader
JP3707204B2 (en) Method for correcting read image and image reading apparatus
JPH08237485A (en) Image reader
JPH10262147A (en) Image reading device
JP2001069332A (en) Picture reader
JPH1093776A (en) Image reader
JPH10210265A (en) Image reader
JPH10155061A (en) Image reader
JPH10210231A (en) Image reader
JPH10327325A (en) Picture reader
JPH09284491A (en) Image reader

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050809

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051228

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100113

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110113

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120113

Year of fee payment: 6

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 7

Free format text: PAYMENT UNTIL: 20130113

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 8

Free format text: PAYMENT UNTIL: 20140113

LAPS Cancellation because of no payment of annual fees