JPH0439789A - Reader - Google Patents

Reader

Info

Publication number
JPH0439789A
JPH0439789A JP2148191A JP14819190A JPH0439789A JP H0439789 A JPH0439789 A JP H0439789A JP 2148191 A JP2148191 A JP 2148191A JP 14819190 A JP14819190 A JP 14819190A JP H0439789 A JPH0439789 A JP H0439789A
Authority
JP
Japan
Prior art keywords
data
color
document
character
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2148191A
Other languages
Japanese (ja)
Inventor
Misako Amino
網野 三佐子
Takumi Saito
斉藤 琢己
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2148191A priority Critical patent/JPH0439789A/en
Publication of JPH0439789A publication Critical patent/JPH0439789A/en
Pending legal-status Critical Current

Links

Landscapes

  • Character Input (AREA)
  • Image Input (AREA)
  • Facsimile Heads (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To easily execute the editing work such as correction, addition, etc., of each pattern, for instance, a character and a graphic after reading a document by discriminating plural patterns, for instance, a character and a graphic by a difference of colors, and separating each pattern, for instance, character data and graphic data. CONSTITUTION:The reader has a function for discriminating a certain specific color in a document 20, and a function for recognizing separately each pattern in the document 20 by a difference of colors, and for instance, with regard to document data after read, character data and graphic data can be handled independently from each other. That is, each pattern is recognized separately by a difference of colors. Also, by dividing the read data into independent data of every pattern, an independent processing of every pattern can be executed. In such a way, even when the each pattern is superposed on data obtained by reading the document 20, each pattern can be corrected and added easily.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、複数のパターン例えば文字と図形とが混在す
る原稿を読取る装置に関し、特に各パターン例えば文字
と図形とを夫々独立に認識し、別々のデータとして取扱
うことができる原稿の読取り装置に関する。
[Detailed Description of the Invention] [Industrial Application Field] The present invention relates to an apparatus for reading a document in which a plurality of patterns, for example, characters and figures, coexist, and in particular, a device that independently recognizes each pattern, for example, characters and figures, and The present invention relates to a document reading device that can handle documents as separate data.

〔従来の技術〕[Conventional technology]

読取り装置には、読取り手段としてCCOを用いたもの
または密着型イメージセンサを用いたもの等がある。第
10図、第11図はこのような読取り装置の構成を示す
模式図であり、第10図は読取り手段としてCODを用
いた装置を示し、第11図は読取り手段として密着型イ
メージセンサを用いた装置を示している。
The reading device includes one using a CCO or a contact type image sensor as a reading means. Fig. 10 and Fig. 11 are schematic diagrams showing the configuration of such a reading device. Fig. 10 shows a device using COD as a reading means, and Fig. 11 shows a device using a contact type image sensor as a reading means. It shows the equipment used.

第10図において、1は文字と図形とが混在する原稿2
0が載置されている原稿台である。原稿台1の下方には
、原稿20に光を照射する照射ランプ2及びミラー、レ
ンズ等の光学部材を収納した走査手段4が設けられてい
る。また3はCCDからなる読取り手段であり、この読
取り手段3と走査手段4との間には、原稿20からの反
射光を読取り手段3に結像させるための光学レンズ14
が設けられている。読取り手段3にて読取られた原稿デ
ータは、制御処理部5へ送られる。制御処理部5は、入
力された原稿データから図形認識処理を行う。制御処理
部5には、走査手段4等の操作信号を入力する操作パネ
ル8が接続されており、制御処理部5は操作パネル8か
らの指示を処理する。制御処理部5は、図形認識データ
を含む原稿データを、デ−夕記憶部6及び/またはデー
タ出力処理部7へ出力する。データ記憶部6は入力され
た原稿データを一時的に収納する。データ出力処理部7
は、入力された原稿データを出力用のデータに処理し、
通信処理部11を介してこの出力用のデータを外部の出
力装置(図示せず)へ出力する。
In Figure 10, 1 is a manuscript 2 containing a mixture of characters and figures.
This is the document table on which 0 is placed. Below the document table 1, there is provided an irradiation lamp 2 that irradiates light onto the document 20, and a scanning means 4 that accommodates optical members such as mirrors and lenses. Reference numeral 3 denotes a reading means composed of a CCD, and an optical lens 14 is provided between the reading means 3 and the scanning means 4 to form an image of the reflected light from the original 20 on the reading means 3.
is provided. The document data read by the reading means 3 is sent to the control processing section 5. The control processing section 5 performs figure recognition processing from the input document data. The control processing section 5 is connected to an operation panel 8 that inputs operation signals from the scanning means 4 and the like, and the control processing section 5 processes instructions from the operation panel 8. The control processing section 5 outputs manuscript data including figure recognition data to the data storage section 6 and/or the data output processing section 7. The data storage section 6 temporarily stores input manuscript data. Data output processing section 7
processes the input manuscript data into data for output,
This output data is output to an external output device (not shown) via the communication processing unit 11.

次に、動作について説明する。Next, the operation will be explained.

原稿台1に原稿20を載置した後、操作パネル8を操作
することにより原稿20の読取りを開始する。
After placing the original 20 on the original table 1, reading of the original 20 is started by operating the operation panel 8.

照射ランプ2により原稿20を照射しながら走査手段4
にて原稿20を走査する。走査手段4の動きに同期して
、照射ランプ2による原稿20からの反射光により得ら
れた原稿データが光学レンズ14を通して読取り手段3
にて読取られる。読取られた原稿データは制御処理部5
へ送られ、図形認識処理を受ける。そして、図形認識デ
ータを含む原稿データは、データ記憶部6に収納された
り、あるいはデータ出力処理部7で処理された後通信処
理部11を介して外部に出力される。
Scanning means 4 while irradiating original 20 with irradiation lamp 2
The original 20 is scanned at. In synchronization with the movement of the scanning means 4, the original data obtained by the light reflected from the original 20 by the irradiation lamp 2 passes through the optical lens 14 to the reading means 3.
It is read in. The read manuscript data is sent to the control processing unit 5
The image is then sent to undergo figure recognition processing. Then, the manuscript data including the figure recognition data is stored in the data storage section 6, or after being processed by the data output processing section 7, is outputted to the outside via the communication processing section 11.

次に、読取り手段として密着型イメージセンサを用いた
読取り装置について、第11図に基づき説明する。なお
、第11図において、第10図と同番号を付した部分は
同一部分を示している。
Next, a reading device using a contact type image sensor as a reading means will be explained based on FIG. 11. Note that in FIG. 11, portions with the same numbers as those in FIG. 10 indicate the same portions.

原稿台1の下方には、照射ランプ2a及びアモルファス
密着センサからなる読取り手段3aを有する走査手段4
aが設けられており、照射ランプ2aにより原稿20を
照射しながら走査手段4aにて原稿20を走査する。走
査手段4aの動きに同期して、照射ランプ2aによる原
稿20からの反射光により得られた原稿データが読取り
手段3aにて読取られ、読取られた原稿データは制御処
理部5へ送られる。なお、他の構成及び動作は、第10
図に示す装置と同様である。
Below the document table 1, a scanning means 4 has a reading means 3a consisting of an irradiation lamp 2a and an amorphous contact sensor.
A is provided, and the document 20 is scanned by the scanning means 4a while the document 20 is irradiated by the irradiation lamp 2a. In synchronization with the movement of the scanning means 4a, the original data obtained by the light reflected from the original 20 by the irradiation lamp 2a is read by the reading means 3a, and the read original data is sent to the control processing section 5. Note that other configurations and operations are described in the 10th
The device is similar to the one shown in the figure.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

従来の読取り装置は以上のように構成されているので、
原稿において文字と図形とを識別して読取ることができ
ず、原稿を読取った後に文字1図形の修正、追加等を容
易に行えないという問題点があった。
Conventional reading devices are configured as described above, so
There has been a problem in that it is not possible to distinguish and read characters and figures in a manuscript, and it is not easy to modify or add characters or figures after reading the manuscript.

本発明はかかる事情に鑑みてなされたものであり、複数
のパターン例えば文字と図形とを色の違いにより識別し
、各パターン例えば文字データと図形データとを分離さ
せることにより、原稿読取り後の各パターン例えば文字
1図形の修正、追加等の編集作業を容易に行える読取り
装置を提供することを目的とする。
The present invention has been made in view of the above circumstances, and by identifying a plurality of patterns, for example, characters and figures, by different colors, and separating each pattern, for example, character data and figure data, it is possible to distinguish between each pattern after reading a document. It is an object of the present invention to provide a reading device that can easily perform editing work such as modifying or adding a pattern, for example, a character 1 figure.

〔課題を解決するための手段〕[Means to solve the problem]

本発明に係る読取り装置は、原稿中のある特定の色を識
別する機能と、原稿における各パターンを色の違いによ
り個々に認識する機能とを有し、例えば読取り後の原稿
データについて文字データと図形データとを互いに独立
して取扱えるようにしたことを特徴とする。
The reading device according to the present invention has a function of identifying a specific color in a document and a function of individually recognizing each pattern in the document based on the difference in color. A feature is that graphic data can be handled independently of each other.

〔作用〕[Effect]

本発明の読取り装置にあっては、色の違いにより各パタ
ーンを個々に認識する。また、読取ったデータを各パタ
ーンごとの独立したデータに分けることにより、各パタ
ーンごとの独立した処理を行うことが可能となる。この
結果、各パターン例えば文字または図形の修正及び追加
は容易である。
In the reading device of the present invention, each pattern is recognized individually based on the difference in color. Furthermore, by dividing the read data into independent data for each pattern, it becomes possible to perform independent processing for each pattern. As a result, it is easy to modify and add each pattern, such as characters or figures.

〔実施例〕〔Example〕

以下、本発明をその実施例を示す図面に基づいて具体的
に説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be specifically described below based on drawings showing embodiments thereof.

第1図は、本発明の読取り装置(以下、単に本装置とい
う)の第1実施例の構成を示す模式図であり、この第1
実施例は、読取り手段3としてCCDを用いる例である
FIG. 1 is a schematic diagram showing the configuration of a first embodiment of a reading device (hereinafter simply referred to as the present device) of the present invention.
In this embodiment, a CCD is used as the reading means 3.

第1図において、1は原稿2oが載置されている原稿台
である。原稿台lの下方には、原稿2oに光を照射する
照射ランプ2及びミラー、レンズ等の光学部材を収納し
た走査手段4が設けられている。
In FIG. 1, reference numeral 1 denotes a document table on which a document 2o is placed. Below the document table l, there is provided an irradiation lamp 2 that irradiates light onto the document 2o, and a scanning means 4 that accommodates optical members such as mirrors and lenses.

また3はCCDからなる読取り手段であり、この読取り
手段3と走査手段4との間には、原稿2oがらの反射光
を読取り手段3に結像させるための光学レンズ143回
転式のバンドパスフィルタを用いた特定波長帯色識別部
9が、走査手段4側からこの順に設けられている。第2
図は特定波長帯色識別部9の正面図であり、複数の色の
バンドパスフィルタを等配させた構成をなす特定波長帯
色識別部9は回転可能であり、特定の波長帯の色のみを
識別できるように、特定の色のバンドパスフィルタが光
路中にセットされるようになっている。
Further, reference numeral 3 denotes a reading means composed of a CCD, and between the reading means 3 and the scanning means 4, an optical lens 143 for focusing the reflected light from the original 2o on the reading means 3, and a rotating band-pass filter. A specific wavelength band color identification section 9 using a wavelength band color identification section 9 is provided in this order from the scanning means 4 side. Second
The figure is a front view of the specific wavelength band color identification unit 9. The specific wavelength band color identification unit 9, which has a configuration in which bandpass filters of a plurality of colors are evenly distributed, is rotatable and only allows colors in a specific wavelength band. A bandpass filter of a specific color is set in the optical path so that it can be identified.

読取り手段3にて読取られた原稿データは、制御処理部
5へ送られる。制御処理部5には、認識する特定の色を
指定したり、走査手段4等の操作信号を入力する操作パ
ネル8が接続されており、制御処理部5は操作パネル8
からの指示を処理する。制御処理部5は、入力された原
稿データ(文字認識処理用データ二以下単に文字データ
という)から文字認識処理を行う文字認識処理部5aと
、入力された原稿データ(図形認識処理用データ二以下
単に図形データという)から図形認識処理を行う図形認
識処理部5bとを有する。制御処理部5は、入力された
文字データ及び図形データをデータ記憶部10へ出力す
る。データ記憶部10は、文字データを一時的に収納す
る文字データ記憶処理部10aと、図形データを一時的
に収納する図形データ記憶処理部10bとを有する。制
御処理部5は、文字認識データ及び図形認識データをデ
ータ出力処理部7へ出力する。データ出力処理部7は、
入力された文字認識データを出力用のデータに処理する
文字データ出力処理部7aと、入力された図形認識デー
タを出力用のデータに処理する図形データ出力処理部7
bとを有し、処理後のデータを通信処理部11を介して
外部装置(図示せず)へ出力する。
The document data read by the reading means 3 is sent to the control processing section 5. The control processing section 5 is connected to an operation panel 8 for specifying a specific color to be recognized and inputting operation signals for the scanning means 4 and the like.
Process instructions from. The control processing unit 5 includes a character recognition processing unit 5a that performs character recognition processing from input manuscript data (character recognition processing data 2 hereinafter simply referred to as character data), and a character recognition processing unit 5a that performs character recognition processing from input manuscript data (character recognition processing data 2 hereinafter simply referred to as character data), and a character recognition processing unit 5a that performs character recognition processing from input manuscript data (character recognition processing data 2 hereinafter simply referred to as character data), and a character recognition processing unit 5a that performs character recognition processing from input manuscript data (character recognition processing data 2 hereinafter simply referred to as character data), It has a figure recognition processing section 5b that performs figure recognition processing from the figure data (simply referred to as figure data). The control processing unit 5 outputs the input character data and graphic data to the data storage unit 10. The data storage section 10 includes a character data storage processing section 10a that temporarily stores character data, and a graphic data storage processing section 10b that temporarily stores graphic data. The control processing section 5 outputs character recognition data and graphic recognition data to the data output processing section 7. The data output processing section 7
A character data output processing section 7a that processes input character recognition data into output data, and a graphic data output processing section 7 that processes input graphic recognition data into output data.
b, and outputs the processed data to an external device (not shown) via the communication processing unit 11.

なお、第1図に示す例では、本装置内(制御処理部5)
内にて文字認識処理及び図形認識処理を行う構成として
いるが、このような画処理を外部装置にて行うこととし
ても良い。この場合には、読取り手段3にて読取られた
文字データ及び図形データが、制御処理部5から、文字
データ出力処理部7a及び図形データ出力処理部7b、
通信処理部11を介して外部装置へ出力される。
In addition, in the example shown in FIG.
Although character recognition processing and graphic recognition processing are performed internally, such image processing may be performed by an external device. In this case, the character data and graphic data read by the reading means 3 are transmitted from the control processing section 5 to the character data output processing section 7a, the graphic data output processing section 7b,
It is output to an external device via the communication processing section 11.

次に、第1実施例の動作について、そのフローチャート
を示す第3図を参照して説明する。なお、以下の説明で
は、読取り対象の原稿20は、文字部が赤色で示されて
おり、その他の図形部が黒色などの赤色以外の色で示さ
れているものとする。
Next, the operation of the first embodiment will be explained with reference to FIG. 3 showing its flowchart. In the following description, it is assumed that the text portion of the document 20 to be read is shown in red, and the other graphic portions are shown in a color other than red, such as black.

まず、読取り面を原稿台lに向けて、原稿20を原稿台
1上に載置する。操作パネル8により、文字認識する色
(本例では赤色)を指定し、文字認識処理及び図形認識
処理を本装置内にて行うか外部装置にて行うかを指定す
る(ステップ531)。
First, the original 20 is placed on the original table 1 with the reading surface facing the original table 1. Using the operation panel 8, a color for character recognition (red in this example) is designated, and whether character recognition processing and graphic recognition processing are to be performed within the device or by an external device is designated (step 531).

文字を認識するための文字認識モードにセットする(ス
テップ532)。文字認識指定色を識別するためステッ
プS31にて指定された色(本例では赤色)のバンドパ
スフィルタを特定波長帯色識別部9にセントする(ステ
ップ533)。このようにすることにより、赤色で示さ
れた文字部のみを識別することが可能となり、光学レン
ズ14を介して読取り手段3により文字データの読取り
が可能となる。
A character recognition mode for character recognition is set (step 532). In order to identify the character recognition designated color, a bandpass filter of the color designated in step S31 (red in this example) is sent to the specific wavelength band color identification unit 9 (step 533). By doing so, it becomes possible to identify only the character portion shown in red, and the character data can be read by the reading means 3 through the optical lens 14.

原稿20の読取りを開始するために、照射ランプ2を点
灯させて原稿20を照射する(ステップ534)。
In order to start reading the original 20, the irradiation lamp 2 is turned on to irradiate the original 20 (step 534).

照射ランプ2を収納した走査手段4にて原稿20を走査
し、走査手段4の動きに同期して原稿データ(文字デー
タ)を読取る(ステップ535)。文字認識処理を本装
置、外部装置の何れで行うように指定されていたかが判
定され(ステップ336)、本装置で処理するように指
定されている場合にはステップS37へ進み、外部装置
で処理するように指定されている場合にはステ・ノブS
3Bへ進む。ステップS37では、読取り手段3から送
られた文字データを順次文字データ記憶処理部10aへ
収納すると共に、この文字データにより文字認識処理部
5aにて文字認識処理を行い、ステップS38へ進む。
The original 20 is scanned by the scanning means 4 containing the irradiation lamp 2, and the original data (character data) is read in synchronization with the movement of the scanning means 4 (step 535). It is determined whether the character recognition process is specified to be performed by this device or an external device (step 336), and if the character recognition process is specified to be performed by this device, the process advances to step S37, and processing is performed by the external device. Ste Knob S
Proceed to 3B. In step S37, the character data sent from the reading means 3 is sequentially stored in the character data storage processing section 10a, and the character recognition processing section 5a performs character recognition processing using this character data, and the process proceeds to step S38.

文字認識処理を外部装置で行う場合には(ステップS3
6:YES) 、文字データ出力処理部7a及び通信処
理部11を介して文字データを外部装置へ出力する(ス
テップS38. S39. 540)。文字認識処理を
本装置で行う場合には(ステップ336:NO)、ステ
ップS37にて上述の処理を行った後、文字データ出力
処理部7a及び通信処理部11を介して文字認識データ
を外部装置へ出力する(ステップ338S39 540
)。
When character recognition processing is performed by an external device (step S3
6: YES), the character data is output to the external device via the character data output processing section 7a and the communication processing section 11 (steps S38, S39, 540). When character recognition processing is performed by this device (step 336: NO), the above-mentioned processing is performed in step S37, and then the character recognition data is sent to an external device via the character data output processing section 7a and the communication processing section 11. Output to (step 338S39 540
).

ステップS35.  S36.  S37.  S38
.  S39.  S40の動作を、原稿20全体の読
取りが終了するまで繰り返す(ステップ541)。原稿
20全体の読取りが終了すると(ステップS41:YE
S) 、ステップ42にて現在のモードが図形認識モー
ドであるかが判定され、文字認識モードであるので(ス
テップS36: NO)、ステップS43へ進む。
Step S35. S36. S37. S38
.. S39. The operation of S40 is repeated until the entire document 20 has been read (step 541). When the entire document 20 has been read (step S41: YE)
S) In step 42, it is determined whether the current mode is the figure recognition mode, and since it is the character recognition mode (step S36: NO), the process advances to step S43.

文字認識する色(本例では赤色)を消すように、特定波
長帯色識別部9に所定のバンドパスフィルタをセットし
、走査手段4の位置を初期状態に戻す(ステップ543
)。図形を認識するための図形認識モードにセットする
(ステップ544)。その後、前述のステップ335〜
ステツプS41の動作において、文字データに関する処
理を図形データに関する処理に置換えた処理を、原稿2
0全体の読取りが終了するまで繰り返す。具体的に説明
すると、以下のように進む。
A predetermined bandpass filter is set in the specific wavelength band color identification unit 9 so as to erase the character recognition color (red in this example), and the position of the scanning means 4 is returned to the initial state (step 543
). A figure recognition mode for recognizing figures is set (step 544). Thereafter, steps 335 to
In the operation of step S41, the process in which the process related to character data is replaced with the process related to graphic data is performed on the document 2.
Repeat until the entire 0 has been read. Specifically, the process proceeds as follows.

照射ランプ2を収納した走査手段4にて原稿20を走査
し、走査手段4の動きに同期して原稿データ(図形デー
タ)を読取る(ステップ535)。図形認識処理を本装
置、外部装置の何れで行うように指定されていたかが判
断され(ステップ536)、本装置で処理するように指
定されている場合にはステップS37へ進み、外部装置
で処理するように指定されている場合にはステップS3
8へ進む。ステップS37では、読取り手段3から送ら
れた図形データを順次図形データ記憶処理部10bへ収
納すると共に、この図形データにより図形認識処理部5
bにて図形認識処理を行い、ステップ338へ進む。
The original 20 is scanned by the scanning means 4 containing the irradiation lamp 2, and the original data (graphic data) is read in synchronization with the movement of the scanning means 4 (step 535). It is determined whether the figure recognition process is specified to be performed by this device or an external device (step 536), and if it is specified to be processed by this device, the process advances to step S37, and the process is performed by the external device. If it is specified, step S3
Proceed to step 8. In step S37, the graphic data sent from the reading means 3 is sequentially stored in the graphic data storage processing unit 10b, and the graphic data is used to store the graphic data in the graphic recognition processing unit 10b.
Figure recognition processing is performed in b, and the process advances to step 338.

図形認識処理を外部装置で行う場合には(ステップS3
6:YES) 、図形データ出力処理部7b及び通信処
理部11を介して図形データを外部装置へ出力する(ス
テップS38.  S39. 540)。図形認識処理
を本装置で行う場合には(ステップS36:NO)、ス
テップ337にて上述の処理を行った後、図形データ出
力処理部7b及び通信処理部11を介して図形認識デー
タを外部装置へ出力する(ステップS38゜S39. 
540)。
When the figure recognition process is performed by an external device (step S3
6: YES), the graphic data is output to the external device via the graphic data output processing section 7b and the communication processing section 11 (steps S38, S39, 540). When the figure recognition process is performed by this device (step S36: NO), the above-mentioned process is performed in step 337, and then the figure recognition data is transferred to the external device via the figure data output processing section 7b and the communication processing section 11. Output to (steps S38゜S39.
540).

ステップS35.  S36.  S37.  S38
.  S39.  S40の動作を、原稿20全体の読
取りが終了するまで繰り返す(ステップ541)。原稿
20全体の読取りが終了すると(ステップS41:YE
S) 、ステップ342にて現在のモードが図形認識モ
ードであるかが判断され、図形認識モードであるので(
ステップS36:YES) 、全処理を終了する。
Step S35. S36. S37. S38
.. S39. The operation of S40 is repeated until the entire document 20 has been read (step 541). When the entire document 20 has been read (step S41: YE)
S), it is determined in step 342 whether the current mode is the figure recognition mode, and since it is the figure recognition mode (
Step S36: YES), the entire process ends.

以上のようにして、原稿から文字データと図形データと
を分離して読取ることができ、また、これらの読取られ
た文字データ及び図形データについて、夫々独立的に処
理することが可能である。
As described above, character data and graphic data can be read separately from a document, and these read character data and graphic data can be processed independently.

次に、本装置の第2実施例について説明する。Next, a second embodiment of this device will be described.

前述の第1実施例では、文字認識する色を消すためにバ
ンドパスフィルタを用いることとしたが、これとは異な
り、ある特定波長帯色を認識しないようにするための除
去用特定色を原稿に照射しても良い。このような構成と
したのが、第2実施例である。
In the first embodiment described above, a bandpass filter was used to erase the color for character recognition, but unlike this, a specific color for removal is used in the document to prevent colors in a specific wavelength band from being recognized. It may be irradiated to The second embodiment has such a configuration.

第4図は、この第2実施例の構成を示すブロック図であ
り、図中第1図と同番号を付した部分は、同一または相
当部分を示すので、これらの詳細な説明は省略する。こ
の第2実施例では、読取り手段として密着型イメージセ
ンサを用いている。
FIG. 4 is a block diagram showing the configuration of this second embodiment. Portions with the same numbers as those in FIG. 1 in the figure indicate the same or corresponding portions, and detailed explanation thereof will be omitted. In this second embodiment, a contact type image sensor is used as the reading means.

原稿台1aの下方には、照射ランプ2a及びアモルファ
ス密着センサからなる読取り手段3aを有する走査手段
4aが設けられており、照射ランプ2aにより原稿20
を照射しながら走査手段4aにて原稿20を走査する。
A scanning means 4a having a reading means 3a consisting of an irradiation lamp 2a and an amorphous contact sensor is provided below the document table 1a.
The scanning means 4a scans the original 20 while irradiating the image.

走査手段4aの動きに同期して、照射ランプ2aによる
原稿20からの反射光により得られた原稿データが読取
り手段3aにて読取られ、読取られた原稿データはデー
タ処理部5に送られる。原稿台1aには、第5図に示す
ように目盛(縦横の座標軸)が付けられている。操作パ
ネル8には、除去用中間色を設定する設定スイッチ8a
と、除去用中間色の調節を開始させるスタートスイッチ
8bとが設けられている。読取り手段3aの反射光入射
側には、第6図に示すような、特定波長帯の色のみを識
別するスライド式の特定波長帯色識別部9aが設けられ
ている。また、操作パネル8には、除去用特定色を調整
する除去用特定色設定レベル表示部13が設けられてお
り、除去用特定色設定i/ベベル示部13は、第7図に
示すように、設定色を表示する設定色表示部13aと、
認識色を表示する認識色表示部13bと、設定レベルを
表示する設定レベル表示部13cと、認識レベルを表示
する認識レベル表示部13d とを有する。図中12は
、後述する動作により設定された除去用特定色を記憶し
ておく除去用特定色記憶部である。更に、照射ランプ2
aは、輝度調節機構15により、その輝度が調節される
ようになっている。なお、他の構成は、第1図に示す第
1実施例の装置と同様である。
In synchronization with the movement of the scanning means 4a, the original data obtained by the light reflected from the original 20 by the irradiation lamp 2a is read by the reading means 3a, and the read original data is sent to the data processing section 5. The document table 1a is provided with scales (vertical and horizontal coordinate axes) as shown in FIG. The operation panel 8 includes a setting switch 8a for setting the neutral color for removal.
and a start switch 8b for starting adjustment of the intermediate color for removal. On the reflected light incident side of the reading means 3a, a sliding specific wavelength band color identification section 9a for identifying only colors in a specific wavelength band, as shown in FIG. 6, is provided. The operation panel 8 is also provided with a removal specific color setting level display section 13 for adjusting the removal specific color, and the removal specific color setting i/bevel display section 13 is as shown in FIG. , a setting color display section 13a that displays the setting color;
It has a recognition color display section 13b that displays a recognition color, a setting level display section 13c that displays a setting level, and a recognition level display section 13d that displays a recognition level. Reference numeral 12 in the figure represents a specific color for removal storage unit that stores a specific color for removal set by an operation described later. Furthermore, irradiation lamp 2
The brightness of a is adjusted by a brightness adjustment mechanism 15. Note that the other configurations are the same as the apparatus of the first embodiment shown in FIG.

次に、この第2実施例の動作について、その動作におけ
る除去用特定色の設定の手順を示すフローチャートであ
る第8図及び前述した第3図を参照して説明する。
Next, the operation of the second embodiment will be explained with reference to FIG. 8, which is a flowchart showing the procedure for setting a specific color for removal in the operation, and FIG. 3 mentioned above.

原稿20を原稿台1aに載置した後、ある特定波長帯色
を認識しないようにするための除去用特定色(赤:R1
緑:G、青:B)を指定する(ステップ551)。ステ
ップS52において自動調節であるか否かが判定され、
自動調節である場合にはステップS53へ進み、自動調
節でない場合にはステップS71へ進む。自動調節でな
い場合、つまり除去用特定色をR,G、Bの何れか1色
に指定した場合には(ステップ352:No)、除去用
特定色として中間色の設定は行わないものと判断し、設
定した除去用特定色設定レベル及び除去用特定色を、設
定レベル表示部13c及び設定色表示部13aに夫々表
示して、除去用特定色の設定を終了する(ステップS7
1. 572)。
After placing the original 20 on the original platen 1a, a specific color for removal (red: R1) is applied to prevent recognition of a specific wavelength band color.
green: G, blue: B) (step 551). In step S52, it is determined whether automatic adjustment is being performed,
If it is automatic adjustment, the process advances to step S53, and if it is not automatic adjustment, the process advances to step S71. If automatic adjustment is not performed, that is, if one of R, G, or B is specified as the specific color for removal (step 352: No), it is determined that an intermediate color is not set as the specific color for removal, The set removal specific color setting level and the removal specific color are displayed on the setting level display section 13c and the setting color display section 13a, respectively, and the setting of the removal specific color is completed (step S7).
1. 572).

自動調節である場合には(ステップS52:YES)、
操作パネル8にある設定スイッチ8aをオンし、原稿台
1aに付されている目盛を利用して、原稿20において
文字認識させない色である範囲を座標値により指定する
(ステップ553)。指定した範囲が正しい場合には(
ステップS54:YES) 、操作パネル8にあるスタ
ートスイッチ8bをオンとする。次に、指定した領域に
ついてのみ原稿20の読取りを行い(ステップ555)
 、読取ったデータをR,G。
If it is automatic adjustment (step S52: YES),
The setting switch 8a on the operation panel 8 is turned on, and using the scale attached to the document table 1a, a range of colors in the document 20 in which characters are not to be recognized is designated by coordinate values (step 553). If the specified range is correct (
Step S54: YES), the start switch 8b on the operation panel 8 is turned on. Next, the document 20 is read only for the specified area (step 555).
, the read data is R,G.

Bの各階調に分けてそのレベルを求め(ステップ556
) 、そのレベルデータをデータ記憶部lOに記憶する
(ステップ557)。各階調のデータを同系色データ毎
に分類してデータ群を作成する(ステップ858)。分
類したデータ群の中からデータ量が最大であるものを抽
出しくステップ559)、抽出したデータから得られる
色を認識色表示部13bに表示する(ステップ560)
The level is calculated for each gradation of B (step 556).
), and stores the level data in the data storage unit IO (step 557). Data for each gradation is classified into similar color data to create a data group (step 858). The data with the largest amount of data is extracted from the classified data group (step 559), and the color obtained from the extracted data is displayed on the recognized color display section 13b (step 560).
.

認識色表示部13bに表示された色が、文字認識させな
い色と同等であるか否かを判定する(ステップ561)
。同等である場合には(ステップS61:YES) 、
“YES”の信号を操作パネル8から入力し、次のステ
ップS63へ進む。異なる場合には(ステップS61:
NO)、“NO”の信号を操作パネル8から入力して、
ステップS62へ進む。ステップ362では、ステップ
S59にて得られたデータの次に多いデータ量のものを
抽出し、認識色表示部13bに表示する(ステップ56
2)。認識色表示部13bに表示される色が文字認識さ
せない色と同等になるまでこの操作を繰り返し、同等に
なれば、“YES”の信号を操作パネル8から入力し、
次のステップS63へ進む。
It is determined whether the color displayed on the recognition color display section 13b is equivalent to a color that does not cause character recognition (step 561).
. If they are equivalent (step S61: YES),
A "YES" signal is input from the operation panel 8, and the process advances to the next step S63. If they are different (step S61:
NO), input a “NO” signal from the operation panel 8,
The process advances to step S62. In step 362, data with the next largest amount of data obtained in step S59 is extracted and displayed on the recognized color display section 13b (step 56
2). This operation is repeated until the color displayed on the recognition color display section 13b becomes equal to the color that does not allow character recognition, and when the color becomes equal, input a "YES" signal from the operation panel 8,
The process advances to the next step S63.

照射ランプ2aからの照射光が希望する除去用特定色に
なるように、R,G、Bの3色を有する照射ランプ2a
におけるR、G、Bの各輝度を輝度調節機構15により
調節する(ステップ563)。ステップS53において
指定した範囲内のデータを再び読取り(ステップ564
) 、除去用特定色と同系色のデータを抽出する(ステ
ップ565)。ステップS65にて抽出したデータの読
取りレベルを平均化しくステップ566)、その時の照
射ランプ2aのRlG、Bの各輝度、平均化したデータ
レベルをデータ記憶部10に格納すると共に、平均化し
たデータレベルを認識レベル表示部13dに表示する(
ステップ567)。
The irradiation lamp 2a has three colors of R, G, and B so that the irradiation light from the irradiation lamp 2a has the desired specific color for removal.
The brightness of each of R, G, and B is adjusted by the brightness adjustment mechanism 15 (step 563). The data within the range specified in step S53 is read again (step 564
), data of colors similar to the specific color for removal are extracted (step 565). The reading level of the data extracted in step S65 is averaged (step 566), and each luminance of RlG and B of the irradiation lamp 2a at that time and the averaged data level are stored in the data storage unit 10, and the averaged data Display the level on the recognition level display section 13d (
step 567).

平均化したデータのレベルをチエツクしくステップ36
8) 、Oであるか否かを判定する(ステップ569)
。0でない場合には(ステップS69:No)、前回の
平均化したデータレベルに比べて今回のレベルが下がっ
ているか否かを判定する(ステップ570)。下がって
いる場合には(ステップS 70 : YES)、ステ
ップS65にて抽出された除去用特定色と現在設定して
いる除去用特定色とのずれをR,G、  Bの各階調デ
ータレベルによってチエツクし、ステップS63に処理
を戻して色のずれを修正する。平均化したデータのレベ
ルが0であるか(ステップS69:YES) 、前回の
平均化したデータレベルより下がっていない(ステップ
S70:NO)ときには、設定した除去用特定色設定レ
ベル及び除去用特定色を、認識レベル表示部13d及び
認識色表示部13bに夫々表示する(ステップ571)
。その後、必要があれば読出しレベルを微調整して、除
去用特定色の設定を終了する(ステップS72.  S
73. 574)そして設定された除去用特定色のデー
タは除去用特定色記憶部12記憶される。
Check the level of averaged data Step 36
8) Determine whether or not , O (step 569)
. If it is not 0 (step S69: No), it is determined whether the current level is lower than the previous averaged data level (step 570). If the specific color for removal has decreased (step S70: YES), the difference between the specific color for removal extracted in step S65 and the specific color for removal that is currently set is determined by each gradation data level of R, G, and B. Check and return the process to step S63 to correct the color shift. If the level of the averaged data is 0 (step S69: YES), or if it is not lower than the previous averaged data level (step S70: NO), the set removal specific color setting level and removal specific color are determined. are displayed on the recognition level display section 13d and the recognition color display section 13b, respectively (step 571).
. Thereafter, if necessary, the readout level is finely adjusted and the setting of the specific color for removal is completed (step S72.
73. 574) The data of the set specific color for removal is stored in the specific color for removal storage section 12.

次に、このような除去用特定色の設定を行った後の原稿
の読取り手順について説明する。
Next, a procedure for reading a document after setting the specific color for removal will be described.

除去用特定色の設定を終了した後、第3図のステップ8
31〜ステツプS41に示す手順を施して、原稿におけ
る文字データの読取りを行う。その後、前述の第1実施
例と同様に、図形データの読取り手順に進む。このとき
、第8図に示す動作手順により設定した除去用特定色の
光を照射ランプ2aから原稿20に照射しながら図形デ
ータの読取りを行うことにより、文字データを除外して
図形データを読取ることが可能となる。但し、第2実施
例では、ステップS43における動作、つまり文字認識
する色を消すためのフィルタをセットする動作は行わな
い。
After completing the setting of the specific color for removal, proceed to step 8 in Figure 3.
The character data on the document is read by performing the steps shown in steps S31 to S41. Thereafter, similarly to the first embodiment described above, the process proceeds to the procedure for reading graphic data. At this time, by reading the graphic data while irradiating the document 20 with light of a specific color for removal set by the operation procedure shown in FIG. 8 from the irradiation lamp 2a, the graphic data is read while excluding the character data. becomes possible. However, in the second embodiment, the operation in step S43, that is, the operation of setting a filter for erasing the character recognition color, is not performed.

なお、上述の各実施例では、最初に文字認識処理を行い
、その後に図形認識処理を行う例について説明したが、
これが逆でも同等の効果を呈することは勿論である。
In addition, in each of the above-mentioned embodiments, an example was described in which character recognition processing is performed first and then figure recognition processing is performed.
Of course, the same effect can be obtained even if this is reversed.

上述の各実施例では、文字データと図形データとを識別
するために少なくとも1枚の原稿を2回走査することと
しているが、1回の走査にて行うこともできる。第9図
はこのような第3実施例の構成を示す模式図であり、図
中第1図と同番号を付した部分は同一部分を示す。2系
統の読取り手段3,3を設け、1方の読取り手段3を文
字認識専用とし、他方の読取り手段3を図形認識専用と
することにより、1回の走査により文字データ及び図形
データを独立的に取扱うことができる。第3実施例にお
ける動作は第3図に示す第1実施例の動作と同様である
が、文字認識処理及び図形認識処理を並列的に行うので
、第3図においてステップ335〜ステツプS41の動
作を繰り返す必要はない。なお、この第3実施例の走査
・読取り方式は前述の第2実施例にも適用することがで
きる。
In each of the embodiments described above, at least one document is scanned twice in order to distinguish between character data and graphic data, but it is also possible to scan once. FIG. 9 is a schematic diagram showing the structure of such a third embodiment, in which the parts with the same numbers as in FIG. 1 indicate the same parts. By providing two systems of reading means 3, 3, with one reading means 3 dedicated to character recognition and the other reading means 3 dedicated to figure recognition, character data and graphic data can be read independently in one scan. can be handled. The operation in the third embodiment is similar to that in the first embodiment shown in FIG. 3, but since the character recognition process and the figure recognition process are performed in parallel, the operations in steps 335 to S41 in FIG. No need to repeat. Note that the scanning/reading method of the third embodiment can also be applied to the second embodiment described above.

なお、上述の各実施例では、文字部がある特定波長帯色
にて示されておりそれ以外の波長帯色にて示されている
ものを図形部として認識する例について説明したが、文
字部と図形部との波長帯色の関係が逆であっても同様に
行えることは言うまでもない。
In addition, in each of the above-mentioned embodiments, an example was explained in which a character part is shown in a certain wavelength band color and a part shown in another wavelength band color is recognized as a graphic part. It goes without saying that the same process can be performed even if the relationship between the wavelength band color and the graphic part is reversed.

また、第1実施例において、特定の色を認識するための
特定波長帯色識別部9にバンドパスフィルタを用いるこ
ととしたが、第2実施例における除去用特定色の認識動
作と同様に、原稿から読取ったデータをR,G、Bの各
階調データに分けて分類し、特定の色のデータのみを抽
出するようにしても良い。
Further, in the first embodiment, a bandpass filter is used in the specific wavelength band color identification unit 9 for recognizing a specific color, but in the same way as the recognition operation of the specific color for removal in the second embodiment, Data read from a document may be classified into R, G, and B gradation data, and only data of a specific color may be extracted.

また、上記各実施例ではR,G、Bの組合わせにて得ら
れ、可視光にて識別可能である色により文字部及び図形
部を識別することとしたが、蛍光色のように紫外線を含
むものでも良く、この場合には例えば第1実施例では、
特定波長帯色識別部9に紫外NIAe¥4域の光のみを
透過するフィルタを用意する。
In addition, in each of the above embodiments, the text and graphic parts were identified by the color obtained by combining R, G, and B and can be identified under visible light. In this case, for example, in the first embodiment,
A filter that transmits only light in the ultraviolet NIAe\4 range is provided in the specific wavelength band color identification section 9.

更に、上述の各実施例では、原稿上の文字部または図形
部を異なる色で表現することにより文字部と図形部とを
識別可能とする方法について説明したが、文字(または
図形部分)を文字(または図形部分)の色とは異なるあ
る特定の色の枠で囲み、その囲みの中にあってしかもそ
の囲みを横切らないデータと、囲みの外にあるかまたは
囲みを横切るデータとに識別して認識を分けることも、
本装置では可能である。この場合、第1実施例における
特定波長帯色で示されたデータを文字2図形の識別枠と
して読込み、外部装置へ出力する。
Furthermore, in each of the above-mentioned embodiments, a method has been described in which the text portion and the graphic portion on the document are expressed in different colors so that the text portion and the graphic portion can be distinguished. It is surrounded by a frame of a specific color that is different from the color of the figure (or figure part), and data that is inside the frame but does not cross the frame is distinguished from data that is outside the frame or crosses the frame. It is also possible to separate recognition by
This is possible with this device. In this case, the data shown in the specific wavelength band color in the first embodiment is read as an identification frame of two characters and is output to an external device.

また、原稿全体を読取ったデータを原稿データとして外
部装置へ出力する。そして、外部装置のプログラムにお
いて原稿全体を読取ったデータを、特定波長帯色の枠内
にあるデータと、枠外にあるかまたは枠を横切るデータ
とに分離し、一方のデータを文字認識処理し、他方のデ
ータを図形認識処理する。このようにする場合には、文
字部と図形部とが同じ色で描かれた原稿、または文字部
と図形部とで色の区別がなく複数の色にて描かれた原稿
に対しても、文字データと図形データとを識別して独立
的に処理することができる。
Further, data obtained by reading the entire document is outputted to an external device as document data. Then, a program on an external device reads the entire document and separates the data into data within the frame of a specific wavelength band color and data outside the frame or across the frame, and processes one of the data for character recognition. The other data is subjected to figure recognition processing. In this case, even for originals in which the text and graphics are drawn in the same color, or in which there is no color distinction between the text and graphics, Character data and graphic data can be identified and processed independently.

更に、上述した実施例では、文字と図形とにおいて波長
帯色が異なる場合について説明したが、このパターンの
組合せを有する原稿以外に、例えば表と図形、表と文字
、文字と図形と表が混在する各原稿にあっても、各パタ
ーンにおいて色を異ならしておけば、上述した実施例と
同様に行なうことができる。また、図形(または文字)
ばかりの原稿であっても、波長帯色が部分的に異なって
いる場合には、色が異なる各図形(または各文字)のデ
ータを個々に認識して独立的に取扱うことも可能である
Furthermore, in the above-mentioned embodiment, the case where the wavelength band colors are different for the text and the figure was explained, but in addition to the document having this combination of patterns, for example, there is a case where a table and a figure, a table and a letter, a letter, a figure, and a table are mixed. Even for each document to be printed, if each pattern has a different color, the same process as in the above-mentioned embodiment can be performed. Also, shapes (or characters)
Even if the document is fresh, if the wavelength band colors are partially different, it is possible to individually recognize the data of each figure (or each character) with a different color and handle it independently.

〔発明の効果〕〔Effect of the invention〕

以上のように本発明の読取り装置では、各パターンの色
の違いにより各パターンの識別及び認識を行なえるよう
に構成したので、各パターンについての読取りデータを
互いに影響されることなく独立的に取扱うことができ、
この結果、原稿を読取って得られるデータに各パターン
のデータが重なっている場合においても、容易に各パタ
ーンの修正、追加を行うことが可能となる等、本発明は
優れた効果を奏する。
As described above, since the reading device of the present invention is configured to be able to identify and recognize each pattern based on the difference in color of each pattern, the read data for each pattern can be handled independently without being influenced by each other. It is possible,
As a result, even when the data of each pattern overlaps with the data obtained by reading the original, the present invention has excellent effects such as making it possible to easily modify or add each pattern.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の読取り装置の第1実施例の構成を示す
模式図、第2図は第1実施例に用いる特定波長帯色識別
部の正面図、第3図は第1実施例の動作を示すフローチ
ャート、第4図は本発明の読取り装置の第2実施例の構
成を示す模式図、第5図は第2実施例に用いる原稿台の
上面図、第6図は第2実施例に用いる特定波長帯色識別
部の上面図、第7図は第2実施例に用いる除去用特定色
設定レベル表示部の上面図、第8図は第2実施例の動作
を示すフローチャート、第9図は本発明の読取り装置の
第3実施例の構成を示す模式図、第10図、第11図は
従来の読取り装置の構成を示す模式図である。 1.1a・・・原稿台 2,2a・・・照射ランプ 3
,3a・・・読取り手段 4,4a・・・走査手段 5
・・・制御処理部 5a・・・文字認識処理部 5b・
・・図形認識処理部9.9a・・・特定波長帯色識別部
 20・・・原稿なお、図中、同一符号は同一、又は相
当部分を示す。
FIG. 1 is a schematic diagram showing the configuration of a first embodiment of the reading device of the present invention, FIG. 2 is a front view of a specific wavelength band color identification section used in the first embodiment, and FIG. 3 is a diagram showing the configuration of the first embodiment. Flowchart showing the operation, FIG. 4 is a schematic diagram showing the configuration of the second embodiment of the reading device of the present invention, FIG. 5 is a top view of the document table used in the second embodiment, and FIG. 6 is the second embodiment. FIG. 7 is a top view of the specific wavelength band color identification unit used in the second embodiment, FIG. 7 is a top view of the removal specific color setting level display unit used in the second embodiment, FIG. 8 is a flow chart showing the operation of the second embodiment, and FIG. The figure is a schematic diagram showing the configuration of a third embodiment of the reading device of the present invention, and FIGS. 10 and 11 are schematic diagrams showing the configuration of a conventional reading device. 1.1a... Original table 2, 2a... Irradiation lamp 3
, 3a... Reading means 4, 4a... Scanning means 5
...Control processing section 5a...Character recognition processing section 5b.
. . . Graphic recognition processing section 9.9a . . . Specific wavelength band color identification section 20 . . . Manuscript Note that in the figures, the same reference numerals indicate the same or equivalent parts.

Claims (1)

【特許請求の範囲】[Claims] (1)複数のパターンが互いに異なる色にて示されてい
る原稿を読取る読取り装置において、前記複数のパター
ンのうちの1つのパター ンの色と他のパターンの色とを識別する識別手段と、該
識別手段の識別結果に基づいて前記複数のパターンを個
々に認識する手段とを備えることを特徴とする読取り装
置。
(1) In a reading device for reading a document in which a plurality of patterns are shown in different colors, an identification means for identifying the color of one pattern among the plurality of patterns and the color of another pattern; A reading device comprising means for individually recognizing the plurality of patterns based on the identification results of the identification means.
JP2148191A 1990-06-05 1990-06-05 Reader Pending JPH0439789A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2148191A JPH0439789A (en) 1990-06-05 1990-06-05 Reader

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2148191A JPH0439789A (en) 1990-06-05 1990-06-05 Reader

Publications (1)

Publication Number Publication Date
JPH0439789A true JPH0439789A (en) 1992-02-10

Family

ID=15447288

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2148191A Pending JPH0439789A (en) 1990-06-05 1990-06-05 Reader

Country Status (1)

Country Link
JP (1) JPH0439789A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10785461B2 (en) 2012-07-26 2020-09-22 DePuy Synthes Products, Inc. YCbCr pulsed illumination scheme in a light deficient environment
US10911649B2 (en) 2014-03-21 2021-02-02 DePuy Synthes Products, Inc. Card edge connector for an imaging sensor
US10917562B2 (en) 2013-03-15 2021-02-09 DePuy Synthes Products, Inc. Super resolution and color motion artifact correction in a pulsed color imaging system
US11083367B2 (en) 2012-07-26 2021-08-10 DePuy Synthes Products, Inc. Continuous video in a light deficient environment
US11185213B2 (en) 2013-03-15 2021-11-30 DePuy Synthes Products, Inc. Scope sensing in a light controlled environment

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10785461B2 (en) 2012-07-26 2020-09-22 DePuy Synthes Products, Inc. YCbCr pulsed illumination scheme in a light deficient environment
US11070779B2 (en) 2012-07-26 2021-07-20 DePuy Synthes Products, Inc. YCBCR pulsed illumination scheme in a light deficient environment
US11083367B2 (en) 2012-07-26 2021-08-10 DePuy Synthes Products, Inc. Continuous video in a light deficient environment
US11863878B2 (en) 2012-07-26 2024-01-02 DePuy Synthes Products, Inc. YCBCR pulsed illumination scheme in a light deficient environment
US10917562B2 (en) 2013-03-15 2021-02-09 DePuy Synthes Products, Inc. Super resolution and color motion artifact correction in a pulsed color imaging system
US11185213B2 (en) 2013-03-15 2021-11-30 DePuy Synthes Products, Inc. Scope sensing in a light controlled environment
US11974717B2 (en) 2013-03-15 2024-05-07 DePuy Synthes Products, Inc. Scope sensing in a light controlled environment
US10911649B2 (en) 2014-03-21 2021-02-02 DePuy Synthes Products, Inc. Card edge connector for an imaging sensor
US11438490B2 (en) 2014-03-21 2022-09-06 DePuy Synthes Products, Inc. Card edge connector for an imaging sensor

Similar Documents

Publication Publication Date Title
KR940005168B1 (en) Image recording apparatus having editing functions
US7283673B2 (en) Image processing method and apparatus
JPH0439789A (en) Reader
US6493115B1 (en) Image processing apparatus for processing a document image in accordance with an area specified by a marker marked on the document
JPS6113867A (en) Area designation system
US5148294A (en) Image processing apparatus and method for painting a memory with plural colors
US5666207A (en) Image processing apparatus
JP3344436B2 (en) Image recording device
JPS6057059B2 (en) Preset-up device for color scanner
JPH02295351A (en) Picture processing system
JP2908662B2 (en) Color image reader
JPH08317237A (en) Digital color copying machine
JPS561657A (en) Original region designating method
JP2783739B2 (en) Drop-out color adjustment method
WO1991002286A1 (en) Photographic reproduction
JPS6238988A (en) Correction device for illuminance unevenness
JPH0233260A (en) Picture processor
JPH03172076A (en) Digital picture forming device
JPH03259664A (en) Original input device
JPH03172075A (en) Digital picture forming device
JPH0410763A (en) Digital image forming device
JPH1198347A (en) Image forming device and image forming method
JPH01302481A (en) Optical character reader
JPH045780A (en) Picture inputting device
JPS5891451A (en) Inspecting method for partially corrected positive film of color print