JPH07162667A - Picture reader - Google Patents

Picture reader

Info

Publication number
JPH07162667A
JPH07162667A JP5340672A JP34067293A JPH07162667A JP H07162667 A JPH07162667 A JP H07162667A JP 5340672 A JP5340672 A JP 5340672A JP 34067293 A JP34067293 A JP 34067293A JP H07162667 A JPH07162667 A JP H07162667A
Authority
JP
Japan
Prior art keywords
image
coordinates
document
reading
coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP5340672A
Other languages
Japanese (ja)
Inventor
Shuichi Saito
秀一 斉藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP5340672A priority Critical patent/JPH07162667A/en
Publication of JPH07162667A publication Critical patent/JPH07162667A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Editing Of Facsimile Originals (AREA)
  • Image Input (AREA)

Abstract

PURPOSE:To input only pictures inside the coordinates of two points by specifying an area and to eliminate the other pictures by masking by detecting the boundary of an original and both hands pressing the original and recognizing the inside of the two points to be the boundary as the coordinates. CONSTITUTION:A line sensor 11 is moved on the original 2, the address information of the edge of fingers 100 and 101 and the pictures on respective lines sampled with an appropriate interval is stored in a memory 26 by a CPU 24 and an inmost (maximum or minimum) X coordinate and the Y coordinate of the position are selected from it. Picture information read for the respective lines is converted to digital signals in an A/D converter 22, optical correction is performed in an MTF correction circuit 27 and input to a selector 29 is performed. In the meantime, the CPU 24 refers to the address information of the coordinates (XA, YA) of the left end part of the edge stored in the memory 26 and sends a command for selecting not the picture information sent from the MTF correction circuit 27 but white information outputted from a white level generation circuit 28 to the selector 29 until the line sensor 11 moving in a sub scanning direction arrives at the left end part and after it passes through a right end part XB.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、原稿を上方から読み取
り、指定したエリアを画像入力する画像読取装置に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image reading apparatus for reading a document from above and inputting a designated area as an image.

【0002】[0002]

【従来の技術】従来、この種の画像読取装置において、
原稿の任意の部分のみを画像として読み取り、プリント
させる装置がある。このような装置では、通例、タッチ
パネルなどを用いて原稿の所望の領域を指定してプリン
トするものや、原稿に対応してスイッチが設けられてお
り、このスイッチにより座標を検出してプリントするも
のが採用されている。
2. Description of the Related Art Conventionally, in this type of image reading apparatus,
There is a device that reads only an arbitrary portion of a document as an image and prints it. In such an apparatus, usually, a touch panel or the like is used to designate and print a desired area of a document, or a switch is provided corresponding to the document, and coordinates are detected by this switch to print. Has been adopted.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上記の
ようにタッチパネルやスイッチ等を用いてマスキング処
理を行うものでは、電気系及びメカ系の機構が共に複雑
になって生産性に劣り機器のコストアップになり、ま
た、装置を取り扱うユーザの操作も煩雑になる。本発明
は、上記問題点を解決するためになされたもので、読み
取った画像情報より原稿と原稿を押さえる手との境界を
検出し、これから所望の領域以外をマスキングして削除
することがソフト処理のみで可能となり、電気系及びメ
カ系の機構が簡素になり、生産性が良く安価となり、し
かも操作が容易となる画像読取装置を提供することを目
的とする。
However, in the case where the masking process is performed by using the touch panel, the switch or the like as described above, both the electric system and the mechanical system are complicated and the productivity is deteriorated and the cost of the device is increased. In addition, the operation of the user who handles the device becomes complicated. The present invention has been made to solve the above-mentioned problems, and it is possible to detect a boundary between a document and a hand holding the document based on the read image information, and perform masking and deleting other than a desired region from this to perform a soft process. It is an object of the present invention to provide an image reading apparatus that can be realized only by itself, the electric and mechanical systems are simplified, the productivity is good, the cost is low, and the operation is easy.

【0004】[0004]

【課題を解決するための手段】上記目的を達成するため
に本発明は、原稿台上に上向きに載置した原稿を上方か
ら読み取る画像読取装置において、画像を読み取る読み
取り手段と、上記読み取り手段により読み取った画像情
報より、原稿とその原稿の読み取り領域を対角位置にて
押さえる手との境界を検出する検出手段と、上記検出手
段による検出結果より、右手の最左端の座標と左手の最
右端の座標を認識する認識手段と、上記認識手段によっ
て認識された2つの座標が対角線となる矩形の外側領域
をマスキングするマスキング手段とを備えたものであ
る。
In order to achieve the above object, the present invention provides an image reading apparatus for reading an original placed on an original table from above from a reading unit for reading an image and the reading unit. Based on the read image information, detection means for detecting the boundary between the original and the hand holding the reading area of the original at a diagonal position, and the detection results by the detection means, the coordinates of the leftmost end of the right hand and the rightmost end of the left hand. And a masking means for masking an outer area of a rectangle whose two coordinates recognized by the recognition means are diagonal lines.

【0005】[0005]

【作用】上記の構成において、原稿の所望の読み取り領
域の対角位置を手で押さえて読み取り動作を行わせるこ
とで、読み取り手段は原稿台上に上向きに載置した原稿
を上方から読み取り、この読み取った画像情報に基づい
て、検出手段は原稿とその原稿の読み取り領域を対角位
置にて押さえる手との境界を検出し、認識手段は右手の
最左端の座標と左手の最右端の座標を認識し、マスキン
グ手段は検知手段によって認識された2つの座標が対角
線となる矩形の外側領域をマスキングする。このような
読み取りデータのソフト処理でもって、対角位置の内側
領域のみの画像を得ることができる。
In the above structure, by manually pressing the diagonal position of the desired reading area of the document to perform the reading operation, the reading means reads the document placed upward on the document table from above, Based on the read image information, the detection means detects the boundary between the document and the hand holding the reading area of the document at a diagonal position, and the recognition means determines the leftmost coordinate of the right hand and the rightmost coordinate of the left hand. Recognizing and masking means masks the outer area of the rectangle in which the two coordinates recognized by the detecting means are diagonal lines. By such soft processing of the read data, it is possible to obtain an image of only the inner area of the diagonal position.

【0006】[0006]

【実施例】以下、本発明の一実施例について、図面を参
照して説明する。図1は本実施例による原稿読み取り装
置の外観図である。本装置1は、原稿2を上向きに載置
する原稿台3と、原稿台3の上方に設けられた読み取り
部4と、少なくとも読み取り領域を常に視認できるよう
な位置に上記読み取り部4を支持する支持部5とから構
成されている。原稿台3には、原稿2の載置位置をガイ
ドする原稿ストッパー6と、操作のためのスイッチ類7
が設けられており、さらに原稿台3の内部には、信号処
理基板(図示せず)などが備えられている。原稿ストッ
パー6には、後述する画像情報の補正処理のために、光
の反射率が原稿2と異なる部材を用いるのが望ましく、
反射率の低い黒色もしくは灰色が適している。本実施例
では、原稿ストッパー6を黒色にした。また、原稿台3
を照明するため、読み取り部4に照明ランプ8が装着さ
れている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is an external view of a document reading apparatus according to this embodiment. The apparatus 1 supports a document table 3 on which a document 2 is placed upward, a reading section 4 provided above the document table 3, and at least a position where the reading area can be always visually recognized. It is composed of a support portion 5. On the document table 3, a document stopper 6 for guiding the placement position of the document 2 and switches 7 for operation.
Further, a signal processing board (not shown) and the like are provided inside the document table 3. For the document stopper 6, it is desirable to use a member having a light reflectance different from that of the document 2 for the correction processing of image information described later.
Black or gray with low reflectance is suitable. In this embodiment, the document stopper 6 is black. Also, the document table 3
An illumination lamp 8 is attached to the reading unit 4 in order to illuminate.

【0007】図2は原稿読み取り装置1の側面図であ
り、一部を破断して読み取り部4の内部構成を示し、ま
た画像情報の伝達経路を破線で示した。読み取り部4の
内部には、撮像センサ11と、この撮像センサ11に画
像情報を入射させる結像レンズ12と、原稿台3上の原
稿像を撮像センサ11に反射させる反射ミラー13が配
置されている。撮像センサ11としてはCCDラインセ
ンサ等の半導体光電変換素子を用いればよく、またライ
ンセンサに代えてエリアセンサを用いてもよい。
FIG. 2 is a side view of the document reading apparatus 1, a part of which is cut away to show the internal structure of the reading unit 4, and the transmission path of image information is shown by broken lines. Inside the reading unit 4, an image sensor 11, an image forming lens 12 for making image information incident on the image sensor 11, and a reflecting mirror 13 for reflecting an original image on the original table 3 to the image sensor 11 are arranged. There is. A semiconductor photoelectric conversion element such as a CCD line sensor may be used as the image sensor 11, and an area sensor may be used instead of the line sensor.

【0008】図3は、本装置1における信号処理系21
の構成を示すブロック図である。信号処理系21は、撮
像センサ11から出力された情報をデジタル信号に変換
するA/D変換器22、画像情報における原稿2の像の
上端(以下、エッジという)及び非画像を認識、検知す
るエッジ検出回路23、CPU24、読み取り部4を駆
動するスキャナ駆動部25、メモリ26、光学的特性に
よる歪みを補正するMTF(Modulation T
ransfer Function)補正回路27、白
色レベルの情報を発生する白色レベル発生回路28、C
PU24の指令に応じて白色レベル信号とMTF補正回
路28からの信号とを選択して出力するセレクタ29、
及びプリンタ31を駆動するためのインタフェース(I
/F)30などから構成されている。
FIG. 3 shows a signal processing system 21 in the present apparatus 1.
3 is a block diagram showing the configuration of FIG. The signal processing system 21 recognizes and detects an A / D converter 22 that converts the information output from the image sensor 11 into a digital signal, an upper end (hereinafter referred to as an edge) of the image of the document 2 in the image information, and a non-image. The edge detection circuit 23, the CPU 24, the scanner driving unit 25 that drives the reading unit 4, the memory 26, and the MTF (Modulation T) that corrects distortion due to optical characteristics.
transfer function) correction circuit 27, white level generation circuit 28 for generating white level information, C
A selector 29 for selecting and outputting a white level signal and a signal from the MTF correction circuit 28 according to a command from the PU 24,
And an interface for driving the printer 31 (I
/ F) 30 and the like.

【0009】上記の構成による本装置1の原稿読み取り
動作を図4のフローチャートに従って説明する。読み取
り対象は、見開いた原稿2の左側のページとしたが、新
聞等シート原稿であっても構わない。原稿2を原稿台3
の上にセットし(#1)、撮影スイッチをONにする
と、ラインセンサ11によってプレスキャンが開始され
る(#2)。このプレスキャンにより読み取った画像情
報から原稿エッジを検出する(#3)。プレスキャンに
よる撮影では、上記図2に示した原稿ストッパー6の上
端部6aが含まれるように読み取る。
The original reading operation of the apparatus 1 having the above-mentioned structure will be described with reference to the flowchart of FIG. The reading target is the page on the left side of the opened original 2, but it may be a sheet original such as a newspaper. Manuscript 2 on manuscript table 3
When the image pickup switch is turned on, the line sensor 11 starts prescanning (# 2). The document edge is detected from the image information read by this prescan (# 3). In photographing by pre-scanning, reading is performed so that the upper end portion 6a of the document stopper 6 shown in FIG. 2 is included.

【0010】こうして読み取った画像情報の例を図5に
示す。通常の画像情報41の認識では、見開きで置かれ
た原稿2の像42と、原稿台3の像43と、黒色の原稿
ストッパー6の像44とが含まれており、原稿像42と
原稿ストッパー像44との境界にエッジ45が生じてい
る。このエッジ45の位置が、ラインセンサにおける何
番目の画素(アドレス)に対応するかを上記図3に示し
たエッジ検出回路23によって検出する。なお、10
0,101は原稿を押さえるユーザの左右の手指の像で
あり、両手は読み取りを行いたい原稿部分の対角位置を
押さえるものとする。
An example of the image information thus read is shown in FIG. In the normal recognition of the image information 41, the image 42 of the document 2 placed on the spread, the image 43 of the document table 3, and the image 44 of the black document stopper 6 are included, and the document image 42 and the document stopper are included. An edge 45 is generated at the boundary with the image 44. The position of the edge 45 corresponds to which pixel (address) in the line sensor is detected by the edge detection circuit 23 shown in FIG. 10
Reference numerals 0 and 101 denote the images of the left and right fingers of the user holding the document, and both hands hold the diagonal positions of the document portion to be read.

【0011】上記原稿エッジの検出終了後、エリア指定
画像認識に入り、画像情報の中に非画像パターンがある
か、つまり手指の像100,101が原稿部42に存在
するかを判別する(#4)。非画像パターンがあれば、
その認識、つまり原稿の地肌や文字の領域と手指の領域
との濃度差を検出し、手指の像100,101を認識す
る(#8)。この認識には、書籍等の原稿の紙地肌と手
指との間に濃度差があること、すなわち、原稿の紙地肌
は通常、白色であるのに対して、手指はそれよりも黒
く、読み取り濃度分布は図7に例示したようになり、原
稿の地肌の領域Xと手指の領域Yとで濃度差があること
を利用して手指の認識を行う。
After the detection of the document edge, the area designation image recognition is started, and it is determined whether or not there is a non-image pattern in the image information, that is, whether the finger images 100 and 101 are present in the document portion 42 (# 4). If you have a non-image pattern,
The recognition, that is, the density difference between the background of the document or the area of the character and the area of the finger is detected, and the images 100 and 101 of the finger are recognized (# 8). For this recognition, there is a density difference between the paper background of a document such as a book and the finger, that is, the paper background of the document is usually white, whereas the finger is darker than that and the reading density is The distribution is as illustrated in FIG. 7, and the fingers are recognized by utilizing the density difference between the background area X and the finger areas Y of the document.

【0012】次に、上記で認識された手指100,10
1と画像とのエッジから各エッジ部の座標を認識する
(#9)。座標認識は図6に示す如く、左右x軸方向に
おいて、認識された左手指100の最右端の座標A点
と、右手指101の最左端の座標B点を演算により求
め、これら座標A点と座標B点の内側の座標を抽出し、
エリア指定座標A(XA,YA)、エリア指定座標B
(XB,YB)を求める。この座標認識では、撮影領域
の中心X座標と中心Y座標を基準とし、認識された手指
100のエッジライン座標XAを中心X座標を基準とし
て、高い値をエリア座標とする。同様に、認識された手
指101のエッジライン座標XBを中心X座標を基準と
して、低い値をエリア座標とする。さらに、それぞれの
エッジ位置のY座標を求める。
Next, the fingers 100 and 10 recognized above
The coordinates of each edge portion are recognized from the edges of 1 and the image (# 9). As shown in FIG. 6, the coordinate recognition is performed by calculating the rightmost coordinate point A of the left finger 100 and the leftmost coordinate point B of the right finger 101 in the left-right x-axis direction, and these coordinate points Coordinates inside the point B are extracted,
Area designated coordinates A (XA, YA), area designated coordinates B
Find (XB, YB). In this coordinate recognition, the center X coordinate and the center Y coordinate of the photographing area are used as references, the edge line coordinates XA of the recognized finger 100 are used as the center X coordinates, and high values are used as area coordinates. Similarly, the edge line coordinate XB of the recognized finger 101 is used as a reference for the center X coordinate, and a low value is set as the area coordinate. Further, the Y coordinate of each edge position is obtained.

【0013】図6の例では、手指100のエリア座標は
XA=−3,YA=8,手指101のエリア座標は、X
B=5,YB=−3となる。上記2点のエリア座標の対
角線の内側の画像エリアを任意画像として認識する。実
際には、ラインセンサ11を原稿2上で移動させ(副走
査)、適当な間隔でサンプリングした各ラインにおける
エッジのアドレス情報をCPU24によってメモリ26
に格納して、その中から最も内側(最大または最小)の
X座標とその位置のY座標を選べばよい。
In the example of FIG. 6, the area coordinate of the finger 100 is XA = -3, YA = 8, and the area coordinate of the finger 101 is X.
B = 5 and YB = -3. The image area inside the diagonal of the area coordinates of the two points is recognized as an arbitrary image. Actually, the line sensor 11 is moved on the document 2 (sub-scanning), and the address information of the edge in each line sampled at an appropriate interval is stored in the memory 26 by the CPU 24.
Then, the innermost (maximum or minimum) X coordinate and the Y coordinate of the position may be selected from among them.

【0014】プレスキャンが終了すれば、本スキャンを
開始し撮影する(#5)。本スキャンでは、ラインセン
サ11によってライン毎に読み取った画像情報をA/D
変換器22にてデジタル信号に変換し、MTF補正回路
27にて光学補正を行った後、セレクタ29に入力す
る。一方、CPU24は、上記プレスキャン時に検知し
てメモリ26に格納しておいたエッジの左端部座標(X
A,YA)のアドレス情報を参照し、副走査方向に移動
するラインセンサ11が左端部に到着するまでと右端部
XBを通過後は、セレクタ29に対して、MTF補正回
路27から送られる画像情報ではなく、白色レベル発生
回路28から出力される白色情報を選ぶように指令を送
る。
When the prescan is completed, the main scan is started and the image is taken (# 5). In the main scan, the image information read by the line sensor 11 for each line is A / D
The signal is converted into a digital signal by the converter 22 and is optically corrected by the MTF correction circuit 27, and then input to the selector 29. On the other hand, the CPU 24 detects the left end coordinates (X) of the edge detected and stored in the memory 26 during the prescan.
(A, YA), the image sent from the MTF correction circuit 27 to the selector 29 until the line sensor 11 moving in the sub-scanning direction reaches the left end and after passing the right end XB. A command is sent to select the white information output from the white level generating circuit 28 instead of the information.

【0015】そして、ラインセンサ11が左端部座標
(XA,YA)に至ったことが検知されると、原稿2の
読み取り面の撮影が始まったものとして、CPU24は
セレクタ29にMTF補正回路27から送られる画像情
報を選ぶ指令を送る。ラインセンサ11が座標XAから
座標XBの間を読み取っている間は、y座標上の座標Y
Aから座標YB以外の領域に対して、CPU24はセレ
クタ29に白色情報を選ぶ指令を送る。このようなCP
U24からの指令に応じて、セレクタ29が画像情報と
白色情報を選択することにより、画像情報における枠消
し処理、すなわち不要な像を除去することができる(#
6)。本スキャンが完了すれば、枠消し処理した補正後
の画像情報をインタフェース30を介してプリンタ31
に出力し(#7)、読み取り動作を終了する。
When it is detected that the line sensor 11 has reached the left end coordinates (XA, YA), it is determined that the photographing of the reading surface of the original 2 has started, and the CPU 24 causes the selector 29 to output the MTF correction circuit 27. Send a command to select the image information to be sent. While the line sensor 11 is reading from the coordinate XA to the coordinate XB, the coordinate Y on the y coordinate is read.
From A to the area other than the coordinate YB, the CPU 24 sends a command to the selector 29 to select white information. CP like this
In response to a command from U24, the selector 29 selects the image information and the white information, so that the frame erasing process in the image information, that is, the unnecessary image can be removed (#
6). When the main scan is completed, the corrected image information that has undergone the frame erasing process is transferred to the printer 31 through the interface 30.
(# 7), and the reading operation is completed.

【0016】以上のように、原稿を押さえる両手指を認
識して、画像として読み取るべき座標を検出、演算し、
この演算結果に基づいて最適な座標を決定することによ
り、任意の画像エリアを指定することができる。これに
より、従来のような複雑な機構を用いることなく、読み
取りエリアの指定ができるため、構成上のコストダウン
が可能であり、また、操作も簡単となる。
As described above, by recognizing both fingers holding the document, the coordinates to be read as an image are detected and calculated,
By determining the optimum coordinates based on the result of this calculation, it is possible to specify an arbitrary image area. As a result, since the reading area can be designated without using a complicated mechanism as in the prior art, it is possible to reduce the cost of the configuration and also to simplify the operation.

【0017】以上、本発明の一実施例を説明したが、本
発明は上記に限られるものではなく、様々な変形が可能
である。例えば、画像エリアを指定するために、指を認
識して行う場合は、照明光による指の影のエッジを検出
すればよい。また、装置の構成については、図1乃至図
3に基本例を示したが、本発明の要件を備えたものであ
れば、用途や環境に応じて異ならしてもよい。また、上
記実施例構成では、読み取った画像の出力先としてプリ
ンタを用いたが、この他に、出力先としてCRTなどの
表示装置を備えたものや、ハードディスクなどの記憶装
置へ画像データを出力するような構成であっても構わな
い。
Although one embodiment of the present invention has been described above, the present invention is not limited to the above, and various modifications can be made. For example, when recognizing the finger to specify the image area, the edge of the shadow of the finger due to the illumination light may be detected. Further, regarding the configuration of the apparatus, a basic example is shown in FIG. 1 to FIG. 3, but as long as it satisfies the requirements of the present invention, it may be different depending on the application and environment. Further, in the configuration of the above-described embodiment, the printer is used as the output destination of the read image, but in addition to this, the image data is output to a storage device such as a hard disk or the like having a display device such as a CRT as the output destination. Such a configuration may be used.

【0018】[0018]

【発明の効果】以上のように本発明によれば、原稿を読
み取った画像情報より、ソフト処理でもって原稿と原稿
を押さえる両手との境界を検出し、この境界となる2点
の内側を座標として認識することで、この2点の座標の
内側の画像のみエリア指定して入力でき、それ以外の画
像はマスキングにより削除することができる。従って、
従来装置のように画像エリアをキーを用いて指定し、又
はタッチパネルを用いて指定するといった電気的、メカ
的な複雑な機構を必要としないので、生産性が上り低コ
ストとなり、さらには、操作が簡単になるといった効果
がある。
As described above, according to the present invention, the boundary between the document and both hands holding the document is detected by the software processing from the image information obtained by reading the document, and the inside of the two points serving as the boundary is coordinated. By recognizing as, only the image inside the coordinates of these two points can be designated by the area and input, and the other images can be deleted by masking. Therefore,
Unlike conventional devices, it does not require a complicated electrical or mechanical mechanism such as specifying an image area using keys or using a touch panel, resulting in higher productivity and lower cost. There is an effect that it becomes easy.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例による原稿読み取り装置の外
観図である。
FIG. 1 is an external view of a document reading apparatus according to an embodiment of the present invention.

【図2】本装置の側面図である。FIG. 2 is a side view of the device.

【図3】本装置における信号処理系の構成を示すブロッ
ク図である。
FIG. 3 is a block diagram showing a configuration of a signal processing system in this device.

【図4】本装置の原稿読み取り動作を示すフローチャー
トである。
FIG. 4 is a flowchart showing a document reading operation of this apparatus.

【図5】読み取った画像情報の例を示す図である。FIG. 5 is a diagram showing an example of read image information.

【図6】座標認識の方法を説明する図である。FIG. 6 is a diagram illustrating a method of coordinate recognition.

【図7】読み取り濃度分布の例を示す図である。FIG. 7 is a diagram showing an example of a read density distribution.

【符号の説明】[Explanation of symbols]

3 原稿台 4 読み取り部 11 撮像センサ 24 CPU 28 白色レベル発生回路 29 セレクタ 3 Document Platen 4 Reading Unit 11 Image Sensor 24 CPU 28 White Level Generation Circuit 29 Selector

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 原稿台上に上向きに載置した原稿を上方
から読み取る画像読取装置において、 画像を読み取る読み取り手段と、 上記読み取り手段により読み取った画像情報より、原稿
とその原稿の読み取り領域を対角位置にて押さえる手と
の境界を検出する検出手段と、 上記検出手段による検出結果より、右手の最左端の座標
と左手の最右端の座標を認識する認識手段と、 上記認識手段によって認識された2つの座標が対角線と
なる矩形の外側領域をマスキングするマスキング手段と
を備えたことを特徴とする画像読取装置。
1. An image reading apparatus for reading an original placed on a platen from above from above, the reading means for reading an image and the reading area of the original based on the image information read by the reading means. Detection means for detecting the boundary between the hand to be pressed at the angular position, recognition means for recognizing the coordinates of the leftmost end of the right hand and the coordinates of the rightmost end of the left hand from the detection result by the detection means, and the recognition means. An image reading apparatus comprising: a masking unit that masks an outer area of a rectangle whose two coordinates are diagonal lines.
JP5340672A 1993-12-07 1993-12-07 Picture reader Withdrawn JPH07162667A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5340672A JPH07162667A (en) 1993-12-07 1993-12-07 Picture reader

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5340672A JPH07162667A (en) 1993-12-07 1993-12-07 Picture reader

Publications (1)

Publication Number Publication Date
JPH07162667A true JPH07162667A (en) 1995-06-23

Family

ID=18339214

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5340672A Withdrawn JPH07162667A (en) 1993-12-07 1993-12-07 Picture reader

Country Status (1)

Country Link
JP (1) JPH07162667A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009294663A (en) * 2009-07-31 2009-12-17 Olympus Corp Camera
JP2010141511A (en) * 2008-12-10 2010-06-24 Konica Minolta Business Technologies Inc Image reader
WO2011152166A1 (en) * 2010-05-31 2011-12-08 株式会社Pfu Overhead scanner apparatus, image processing method, and program
JP4913911B1 (en) * 2011-02-16 2012-04-11 パナソニック株式会社 Image processing apparatus and document reading system having the same

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010141511A (en) * 2008-12-10 2010-06-24 Konica Minolta Business Technologies Inc Image reader
JP2009294663A (en) * 2009-07-31 2009-12-17 Olympus Corp Camera
WO2011152166A1 (en) * 2010-05-31 2011-12-08 株式会社Pfu Overhead scanner apparatus, image processing method, and program
CN102918828A (en) * 2010-05-31 2013-02-06 株式会社Pfu Overhead scanner apparatus, image processing method, and program
JPWO2011152166A1 (en) * 2010-05-31 2013-07-25 株式会社Pfu Overhead scanner device, image processing method, and program
JP5364845B2 (en) * 2010-05-31 2013-12-11 株式会社Pfu Overhead scanner device, image processing method, and program
CN102918828B (en) * 2010-05-31 2015-11-25 株式会社Pfu Overhead scanner device and image processing method
JP4913911B1 (en) * 2011-02-16 2012-04-11 パナソニック株式会社 Image processing apparatus and document reading system having the same

Similar Documents

Publication Publication Date Title
US5748344A (en) System and method for determining a location and orientation in a black and white digital scanner
JPH10210266A (en) Image reader
JP2000201270A (en) Picture processing method and picture processor
JPH07162667A (en) Picture reader
JP3404955B2 (en) Document size detector
JPH0354502B2 (en)
JP2956377B2 (en) Image reading device
JPH08237485A (en) Image reader
JPH06205194A (en) Original reader
JP3893891B2 (en) Image processing device
JPS5974774A (en) Image processor
JP2009194762A (en) Image processing apparatus
JP3880793B2 (en) Image processing apparatus and image forming apparatus
KR20010046214A (en) Method for detecting document size of flat-bed scanner system
JP3911459B2 (en) Image reading device
JP2001069332A (en) Picture reader
JP3667536B2 (en) Image processing system
JP2021072466A (en) Scan image generation program and scan image generation method
JPH10336393A (en) Image reading device
JP2000354151A (en) Image reader
JP2000354152A (en) Image reader
JP2001045289A (en) Image reader, its method and computer readable storage medium
JPH0363271B2 (en)
JPH11341283A (en) Picture reader
JP2001218018A (en) Picture reading method and picture reader

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20010306