JP2000341512A - Image reader - Google Patents

Image reader

Info

Publication number
JP2000341512A
JP2000341512A JP11147952A JP14795299A JP2000341512A JP 2000341512 A JP2000341512 A JP 2000341512A JP 11147952 A JP11147952 A JP 11147952A JP 14795299 A JP14795299 A JP 14795299A JP 2000341512 A JP2000341512 A JP 2000341512A
Authority
JP
Japan
Prior art keywords
image
unit
template
edge amount
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP11147952A
Other languages
Japanese (ja)
Inventor
Tetsuo Tanaka
哲夫 田中
Yuji Toyomura
祐士 豊村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP11147952A priority Critical patent/JP2000341512A/en
Publication of JP2000341512A publication Critical patent/JP2000341512A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Inspection Of Paper Currency And Valuable Securities (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To prevent an image reader from being affected by color tone fluctuation by identifying whether or not a specified image is included in an input color image on the basis of a detected edge quantity. SOLUTION: A second solution converting part 38 converts inputted image data to a prescribed resolution. The converted image data are temporarily stored in a memory 54. An edge quantity detecting circuit 55 detects an edge quantity caused by a secondary differentiation operator from the value of a predetermined feature color and generates feature vector data. A template selecting part 56 compares the generated feature vector data with prepared plural templates and selects the template of a shortest Eucledean distance. A buffer 58 stores the edge quantity detected by the edge quantity detecting circuit 55, the number of the template selected by the template selecting part 57, the feature vector data and the Eucledean distance of the template. Then, a CPU 59 for recognition recognizes whether the specified image is included in the image.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、紙幣や有価証券等
の真偽を識別する複写装置、スキャナ、ファクシミリ、
両替機、自動販売機、紙幣入出金機等の画像読み取り装
置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a copier, scanner, facsimile,
The present invention relates to an image reading device such as a currency exchange machine, a vending machine, and a banknote pay-in / pay-out device.

【0002】[0002]

【従来の技術】従来、紙幣や有価証券等の真偽を識別す
る画像読み取り装置においては、紙幣や有価証券等の特
定形状や特定の色味分布などによる特徴パターンを読み
取り、この特徴パターンと記憶部に予め登録されている
基準パターンとを比較することにより、紙幣や有価証券
等の真偽を識別していた。
2. Description of the Related Art Conventionally, in an image reading apparatus for discriminating the authenticity of banknotes and securities, etc., a characteristic pattern of a banknote, a securities, etc. having a specific shape or a specific color distribution is read, and this characteristic pattern is stored. By comparing a reference pattern registered in advance with a reference pattern, the authenticity of bills, securities, and the like is identified.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上記従
来の画像読み取り装置では、特徴パターンと基本パター
ンとを比較しているだけであり、読み取り画像の汚れや
読み取り状態の変化に伴う色味変動により、特定画像の
識別が困難になるという問題点を有していた。
However, in the above-described conventional image reading apparatus, only the characteristic pattern is compared with the basic pattern. There is a problem that it is difficult to identify a specific image.

【0004】この画像読み取り装置では、特定画像の識
別において色味変動に影響されないことが要求されてい
る。
In this image reading apparatus, it is required that the identification of a specific image is not affected by a change in tint.

【0005】本発明は、複数の特徴色のエッジ量に基づ
いて特定画像か否かを識別することにより、色味変動に
影響されない画像読み取り装置を提供することを目的と
する。
SUMMARY OF THE INVENTION It is an object of the present invention to provide an image reading apparatus which is not affected by a change in tint by identifying whether or not a specific image is based on the edge amounts of a plurality of characteristic colors.

【0006】[0006]

【課題を解決するための手段】上記課題を解決するため
に本発明の画像読み取り装置は、紙幣、有価証券等の原
稿の真偽を判定する画像読み取り装置であって、入力カ
ラー画像を所定サイズのブロックに分割する画像分割部
と、画像分割部で分割されたブロック単位にエッジ画素
のカウントを行ってエッジ量を検出するエッジ量検出部
と、エッジ量検出部によって検出されたエッジ量に基づ
いて入力カラー画像に特定画像が含まれるか否かを識別
する識別部とを有する構成を備えている。
SUMMARY OF THE INVENTION In order to solve the above-mentioned problems, an image reading apparatus according to the present invention is an image reading apparatus for judging the authenticity of an original such as a bill or a securities, and an input color image having a predetermined size. An image division unit that divides the image into blocks, an edge amount detection unit that detects an edge amount by counting edge pixels for each block divided by the image division unit, and an edge amount detected by the edge amount detection unit. And an identification unit for identifying whether or not the specific image is included in the input color image.

【0007】これにより、複数の特徴色のエッジ量に基
づいて特定画像か否かを識別することにより、色味変動
に影響されない画像読み取り装置が得られる。
[0007] Thus, an image reading apparatus which is not affected by a change in tint can be obtained by identifying whether or not a specific image is based on the edge amounts of a plurality of characteristic colors.

【0008】[0008]

【発明の実施の形態】本発明の請求項1に記載の画像読
み取り装置は、紙幣、有価証券等の原稿の真偽を判定す
る画像読み取り装置であって、入力カラー画像を所定サ
イズのブロックに分割する画像分割部と、画像分割部で
分割されたブロック単位にエッジ画素のカウントを行っ
てエッジ量を検出するエッジ量検出部と、エッジ量検出
部によって検出されたエッジ量に基づいて入力カラー画
像に特定画像が含まれるか否かを識別する識別部とを有
することとしたものである。
DESCRIPTION OF THE PREFERRED EMBODIMENTS An image reading apparatus according to a first aspect of the present invention is an image reading apparatus for determining the authenticity of a document such as a bill or a security, and converts an input color image into blocks of a predetermined size. An image dividing unit to divide, an edge amount detecting unit that detects an edge amount by counting edge pixels for each block divided by the image dividing unit, and an input color based on the edge amount detected by the edge amount detecting unit. And an identification unit for identifying whether or not the image includes a specific image.

【0009】この構成により、検出したエッジ量に基づ
いて特定画像の識別がなされるので、色味変動に影響さ
れることなく特定画像の識別を行うことが可能になると
いう作用を有する。
With this configuration, since the specific image is identified based on the detected edge amount, the specific image can be identified without being affected by the variation in tint.

【0010】請求項2に記載の画像読み取り装置は、請
求項1に記載の画像読み取り装置において、複数の特徴
色を抽出する抽出部を備え、エッジ量検出部は、抽出部
により抽出された複数の特徴色に対してエッジ量を検出
することとしたものである。
According to a second aspect of the present invention, in the image reading apparatus of the first aspect, the image reading apparatus further includes an extraction unit for extracting a plurality of characteristic colors, and the edge amount detection unit includes a plurality of the edge amounts detected by the extraction unit. In this case, the edge amount is detected for the characteristic color.

【0011】この構成により、特定画像に対応した特徴
色によるエッジ検出が可能となり、識別精度が向上する
という作用を有する。
With this configuration, it is possible to perform edge detection using a characteristic color corresponding to a specific image, and to improve the identification accuracy.

【0012】請求項3に記載の画像読み取り装置は、紙
幣、有価証券等の原稿の真偽を判定する画像読み取り装
置であって、入力カラー画像を所定サイズのブロックに
分割する画像分割部と、画像分割部で分割されたブロッ
ク単位にエッジ量の総和を検出するエッジ量検出部と、
エッジ量検出部によって検出されたエッジ量の総和に基
づいて入力カラー画像に特定画像が含まれるか否かを識
別する識別部とを有することとしたものである。
An image reading apparatus according to a third aspect of the present invention is an image reading apparatus for determining the authenticity of a document such as a bill or a security, and an image dividing unit for dividing an input color image into blocks of a predetermined size. An edge amount detection unit that detects a sum of edge amounts for each block divided by the image division unit;
An identification unit that identifies whether or not a specific image is included in the input color image based on the sum of the edge amounts detected by the edge amount detection unit.

【0013】この構成により、検出したエッジ量に基づ
いて特定画像の識別がなされるので、色味変動に影響さ
れることなく特定画像の識別を行うことが可能になると
いう作用を有する。
According to this configuration, since the specific image is identified based on the detected edge amount, the specific image can be identified without being affected by the variation in tint.

【0014】請求項4に記載の画像読み取り装置は、請
求項3に記載の画像読み取り装置において、複数の特徴
色を抽出する抽出部を備え、エッジ量検出部は、抽出部
により抽出された複数の特徴色に対してエッジ量を検出
することとしたものである。
According to a fourth aspect of the present invention, in the image reading apparatus of the third aspect, the image reading apparatus further comprises an extracting unit for extracting a plurality of characteristic colors, and the edge amount detecting unit comprises a plurality of edge colors extracted by the extracting unit. In this case, the edge amount is detected for the characteristic color.

【0015】この構成により、特定画像に対応した特徴
色によるエッジ検出が可能となり、識別精度が向上する
という作用を有する。
With this configuration, it is possible to detect an edge using a characteristic color corresponding to a specific image, and to improve the accuracy of identification.

【0016】以下、本発明の実施の形態について、図1
〜図22を用いて説明する。
Hereinafter, an embodiment of the present invention will be described with reference to FIG.
This will be described with reference to FIG.

【0017】(実施の形態1)本発明の実施の形態(実
施の形態1および2)による画像読み取り装置として複
写装置の画像読み取り装置を例として説明するが、本発
明は、スキャナ、ファクシミリ、両替機、自動販売機、
紙幣入出金機などのように画像を読み取る機能を有する
装置であれば適用可能である。
(Embodiment 1) An image reading apparatus of a copying apparatus will be described as an example of an image reading apparatus according to an embodiment (Embodiments 1 and 2) of the present invention. Machines, vending machines,
Any device having a function of reading an image, such as a banknote pay-in / pay-out device, is applicable.

【0018】図1は本発明の実施の形態1による画像読
み取り装置を有する画像複写システムを示す構成図であ
る。
FIG. 1 is a configuration diagram showing an image copying system having an image reading apparatus according to Embodiment 1 of the present invention.

【0019】図1において、1は画像読み取り装置、2
は画像記録装置、3はホストコンピュータ、4はケーブ
ルである。画像読み取り装置1は原稿を読み取ってデジ
タルカラー画像データを外部の装置に出力し、画像記録
装置2は外部から転送された画像データに基づいてカラ
ー画像を形成し、ホストコンピュータ3は画像読み取り
装置1に対して複数種類のコマンドを出力して画像デー
タを取得したり、画像記録装置2に対して画像データを
出力する。ケーブル4は画像読み取り装置1と画像記録
装置2とホストコンピュータ3を相互に接続するもので
あり、ケーブル4によって画像データおよびコマンド類
が各装置間で双方向に通信される。
In FIG. 1, reference numeral 1 denotes an image reading device;
Denotes an image recording device, 3 denotes a host computer, and 4 denotes a cable. The image reading device 1 reads a document and outputs digital color image data to an external device, the image recording device 2 forms a color image based on image data transferred from the outside, and the host computer 3 controls the image reading device 1 , A plurality of types of commands are output to obtain image data, or image data is output to the image recording apparatus 2. The cable 4 connects the image reading device 1, the image recording device 2, and the host computer 3 to each other, and image data and commands are bidirectionally communicated between the devices by the cable 4.

【0020】本実施の形態では、画像読み取り装置1と
画像記録装置2とホストコンピュータ3はSCSI(S
mall Computer System Inte
r−face)により互いに通信しており、画像記録装
置2は、ホストコンピュータ3の介在なしに、画像読み
取り装置1に複数のコマンドを発行して画像読み取り装
置1から画像データを入手し、入手した画像データに基
づき画像を形成することもできる。
In the present embodiment, the image reading device 1, the image recording device 2, and the host computer 3 are connected to the SCSI (S
mall Computer System Inte
The image recording device 2 obtains image data from the image reading device 1 by issuing a plurality of commands to the image reading device 1 without the intervention of the host computer 3. An image can also be formed based on image data.

【0021】図2は図1の画像複写システムにおける画
像読み取り装置1の構造を示す概略断面図である。
FIG. 2 is a schematic sectional view showing the structure of the image reading device 1 in the image copying system of FIG.

【0022】図2において、5は画像読み取り装置本
体、6は読み取らせる原稿を載置する原稿ガラス、7は
原稿を走査して読みとるキャリッジ、8はキャリッジを
駆動する駆動源としてのステッピングモータ、9は駆動
プーリ、10はタイミングベルト、11はベルト、12
は従動プーリ、13は原稿、14は原稿カバー、15は
支持部、16は基準取得位置である。キャリッジ7は、
図示しないシャフト、レール等の支持部材により支持さ
れ、移動方向を一方向に規制されている。また駆動源8
で発生した動力はタイミングベルト10によって駆動プ
ーリ9に伝達される。ベルト11は駆動プーリ9と従動
プーリ12の間に張られ、駆動プーリ9の回転に伴って
キャリッジ7を方向d1及びその逆方向に移動させる。
さらに原稿13はキャリッジ7の移動によりライン単位
に読み取られる。原稿カバー14は支持部15によって
開閉可能に支持されている。基準取得位置16の原稿ガ
ラス6上には白色の基準板が張り付けられている。po
1はキャリッジ7のホームポジションであり、画像読み
取り装置1が待機中の場合は、キャリッジ7は必ずホー
ムポジションpo1に位置している。
In FIG. 2, 5 is an image reading apparatus main body, 6 is a document glass on which a document to be read is placed, 7 is a carriage for scanning and reading the document, 8 is a stepping motor as a driving source for driving the carriage, 9 Is a drive pulley, 10 is a timing belt, 11 is a belt, 12
Is a driven pulley, 13 is a document, 14 is a document cover, 15 is a support section, and 16 is a reference acquisition position. The carriage 7
It is supported by a support member (not shown) such as a shaft and a rail, and the movement direction is restricted to one direction. Drive source 8
Is transmitted to the drive pulley 9 by the timing belt 10. The belt 11 is stretched between the driving pulley 9 and the driven pulley 12, and moves the carriage 7 in the direction d1 and the opposite direction with the rotation of the driving pulley 9.
Further, the original 13 is read line by line by the movement of the carriage 7. The document cover 14 is supported by a support unit 15 so as to be openable and closable. A white reference plate is stuck on the document glass 6 at the reference acquisition position 16. po
Reference numeral 1 denotes a home position of the carriage 7, and when the image reading apparatus 1 is on standby, the carriage 7 is always located at the home position po1.

【0023】図3は画像読み取り装置1のキャリッジ7
の内部構造を示す概略断面図である。
FIG. 3 shows a carriage 7 of the image reading apparatus 1.
It is a schematic sectional drawing which shows the internal structure of.

【0024】図3において、17は原稿13を照射する
ランプ、18は実質的に画像読み取り位置を特定するア
パーチャ、19−1、19−2は原稿13からの反射光
を反射する反射ミラー、20は光学情報を電気信号に変
換するイメージセンサ(抽出部)、21はイメージセン
サ20上にイメージを結像させる結像レンズである。イ
メージセンサ20はキャリッジ7の内部に固定されてお
り、原稿13から反射され、反射ミラー19−1、同1
9−2及び結像レンズ21により縮小されて結像した光
学情報を原稿面と一対一の関係で読み取る。
In FIG. 3, reference numeral 17 denotes a lamp for illuminating the original 13, reference numeral 18 denotes an aperture for substantially specifying an image reading position, reference numerals 19-1 and 19-2 denote reflecting mirrors for reflecting light reflected from the original 13, and reference numeral 20. Denotes an image sensor (extraction unit) that converts optical information into an electric signal, and 21 denotes an imaging lens that forms an image on the image sensor 20. The image sensor 20 is fixed inside the carriage 7, is reflected from the document 13, and is reflected by the reflection mirror 19-1 and the reflection mirror 19-1.
The optical information reduced and imaged by the imaging lens 9-2 and the imaging lens 21 is read in a one-to-one relationship with the document surface.

【0025】以上の様に構成された画像読み取り装置1
について、図2及び図3を用いて、以下にその動作を説
明する。
The image reading apparatus 1 configured as described above
The operation will be described below with reference to FIGS. 2 and 3.

【0026】画像読み取り装置1の電源が投入される
と、キャリッジ7は、電源投入前の位置にかかわらず、
ホームポジションpo1に復帰する。その後、アパーチ
ャ18が基準板の直下となる基準取得位置16に移動
し、ランプ17を点灯して基準板を実際に読み取り、イ
メージセンサ20から出力されるアナログ信号に対する
増幅率の決定、白黒レベルの補正(シェーディング補
正)等を行なう。その後、再度ホームポジションpo1
に復帰し、待機状態となる。
When the power of the image reading apparatus 1 is turned on, the carriage 7 is moved regardless of the position before the power is turned on.
It returns to the home position po1. Thereafter, the aperture 18 moves to the reference acquisition position 16 immediately below the reference plate, turns on the lamp 17 to actually read the reference plate, determines the amplification factor for the analog signal output from the image sensor 20, and determines the black and white level. Correction (shading correction) and the like are performed. After that, the home position po1 again
Returns to the standby state.

【0027】次に、画像読み取り装置1の単独の読み取
り動作について説明する。
Next, a single reading operation of the image reading apparatus 1 will be described.

【0028】図1に示すホストコンピーュータ3などの
外部ホストより、読み取り解像度、読み取り範囲等の設
定を行なった後、原稿の読み取り命令が出されると、ラ
ンプ17を点灯すると共に駆動源8を回転し、タイミン
グベルト10、駆動プーリ9、ベルト11及び従動プー
リ12を介して駆動力をキャリッジ7に伝達し、キャリ
ッジ7を方向d1に移動させる。この方向d1を副走査
方向と呼称する。ホストコンピュータ3から設定された
読み取り範囲に対応した領域の先頭にキャリッジ7が到
達する直前に、ホストコンピュータ3から予め設定され
た読み取り解像度に対応した速度に駆動速度を変更し、
原稿ガラス6上に載置された原稿13の読み取りを開始
する。原稿13は、原稿ガラス6を通してランプ17に
より照明され、原稿13からの反射光は反射ミラー19
−1、19−2により反射され、結像レンズ21により
イメージセンサ20上に縮小して結像され、電気信号に
変換される。指定された読み取り範囲に対する読み取り
動作が終了すると、キャリッジ7を方向d1とは逆方向
に移動させ、ホームポジションpo1に復帰させる。
After setting the reading resolution, reading range, and the like from an external host such as the host computer 3 shown in FIG. 1 and then issuing a document reading command, the lamp 17 is turned on and the driving source 8 is turned on. To transmit the driving force to the carriage 7 via the timing belt 10, the driving pulley 9, the belt 11, and the driven pulley 12, and move the carriage 7 in the direction d1. This direction d1 is called a sub-scanning direction. Immediately before the carriage 7 reaches the head of the area corresponding to the reading range set by the host computer 3, the driving speed is changed from the host computer 3 to a speed corresponding to a reading resolution set in advance,
The reading of the document 13 placed on the document glass 6 is started. The original 13 is illuminated by a lamp 17 through the original glass 6, and reflected light from the original 13 is reflected by a reflection mirror 19.
The light is reflected by -1 and 19-2, is reduced and imaged on the image sensor 20 by the imaging lens 21, and is converted into an electric signal. When the reading operation for the designated reading range is completed, the carriage 7 is moved in the direction opposite to the direction d1 to return to the home position po1.

【0029】図4は画像読み取り装置1の光学系の詳細
を示す斜視図である。図4では図面を見易くするため、
反射ミラー19−1、19−2は線で表現されている。
図4において、22RはRedの信号を読み取るライン
センサアレイ、22GはGreenの信号を読み取るラ
インセンサアレイ、22BはBlueの信号を読み取る
ラインセンサアレイである。各ラインセンサアレイ22
の表面には読み取るべき色に対応したカラーフィルタが
装着されている。このように本実施の形態ではいわゆる
3ラインカラーセンサを用いて画像を読み取っている。
なおこのラインセンサアレイの方向を主走査方向と呼称
する。
FIG. 4 is a perspective view showing details of the optical system of the image reading apparatus 1. In FIG. 4, to make the drawing easier to see,
The reflection mirrors 19-1 and 19-2 are represented by lines.
In FIG. 4, 22R is a line sensor array for reading a Red signal, 22G is a line sensor array for reading a Green signal, and 22B is a line sensor array for reading a Blue signal. Each line sensor array 22
A color filter corresponding to the color to be read is mounted on the surface of the. As described above, in the present embodiment, an image is read using a so-called three-line color sensor.
The direction of the line sensor array is referred to as a main scanning direction.

【0030】また、23Rはラインセンサアレイで読み
取られる原稿ガラス6上の位置を示す読み取りラインで
あり、23Gはラインセンサアレイで読み取られる原稿
ガラス6上の位置を示す読み取りラインであり、23B
はラインセンサアレイで読み取られる原稿ガラス6上の
位置を示す読み取りラインである。3ラインカラーセン
サは各色を読み取るラインセンサアレイの位置が異なっ
ているため、原稿の1つの位置(ライン)を同時に読み
取ることはできない。このため後述するように、得られ
た画像データを所定量遅延させる手段が必要となる。
Reference numeral 23R denotes a reading line indicating a position on the original glass 6 read by the line sensor array, 23G denotes a reading line indicating a position on the original glass 6 read by the line sensor array, and 23B
Is a reading line indicating a position on the original glass 6 to be read by the line sensor array. Since the position of the line sensor array for reading each color is different in the three-line color sensor, one position (line) of the document cannot be read at the same time. For this reason, as described later, means for delaying the obtained image data by a predetermined amount is required.

【0031】図5は、画像読み取り装置1において画像
データ処理を行う各ブロックを示すブロック図である。
FIG. 5 is a block diagram showing each block for performing image data processing in the image reading apparatus 1.

【0032】図5において、8は図2と同様のステッピ
ングモータ8、20は図3と同様のイメージセンサ、2
4は増幅器・A/D変換器、25はシェーディング補正
部、26はライン補正部、27は第1解像度変換部、2
8は色処理部、29はバッファ、30はインタフェー
ス、31は画像読み取り装置1と接続された他の装置、
32はCPU、33はモータ制御部、37は特定画像認
識部、38は第2解像度変換部、39は認識部、40は
シリアル通信ライン、34〜36は制御信号である。
In FIG. 5, reference numeral 8 denotes a stepping motor 8 similar to that of FIG. 2, and 20 denotes an image sensor similar to that of FIG.
4 is an amplifier / A / D converter, 25 is a shading correction unit, 26 is a line correction unit, 27 is a first resolution conversion unit, 2
8 is a color processing unit, 29 is a buffer, 30 is an interface, 31 is another device connected to the image reading device 1,
32 is a CPU, 33 is a motor control unit, 37 is a specific image recognition unit, 38 is a second resolution conversion unit, 39 is a recognition unit, 40 is a serial communication line, and 34 to 36 are control signals.

【0033】イメージセンサ20は前述してきたように
3ラインのセンサアレイで構成され、アナログ画像情報
をR,G,B各色のライン単位に出力する。増幅器・A
/D変換器24は、イメージセンサ20から出力された
アナログ画像情報を所定のゲインにて増幅すると共に、
A/D変換器によって増幅されたアナログ信号をディジ
タル信号に変換する。シェーディング補正部25は、入
力されたディジタル画像信号を、予め取得しておいた白
と黒のダイナミックレンジに対して正規化する。ライン
補正部26は、前述した各色のラインセンサアレイ位置
の異なりを補正し、R,G,Bの各ラインが同一の原稿
位置(ライン)を読み取ったのと等価にする。ライン補
正部26の動作については後に詳細に説明する。第1解
像度変換部27は、ホストコンピュータ3や画像記録装
置2から指定されたパラメータに基づいて、ライン補正
部26から出力される画像データの解像度を変換する。
第1解像度変換部27の動作についても後に詳細に説明
する。色処理部28は、ラインセンサアレイ上のカラー
フィルタに存在する分光スペクトル上の不要吸収帯の影
響を減らすことで、鮮やかな色再現ができるようにす
る。バッファ29は、上記過程で処理された画像データ
を一旦格納する。これは外部との通信速度の差を吸収
し、より高速に画像データを外部装置に出力するための
手段である。他の装置31は、本実施の形態においては
実質的にホストコンピュータ3や、画像記録装置2を指
す。本実施の形態では、画像読み取り装置1と他の装置
31はSCSIにより接続されており、画像読み取り装
置1はSCSIを経由して画像データを他の装置31に
対して出力すると共に、他の装置31から読み取り範囲
や読み取り解像度などの読み取りパラメータを入手する
ことができる。
As described above, the image sensor 20 is composed of a three-line sensor array, and outputs analog image information for each line of R, G, and B colors. Amplifier A
The / D converter 24 amplifies the analog image information output from the image sensor 20 with a predetermined gain,
The analog signal amplified by the A / D converter is converted into a digital signal. The shading correction unit 25 normalizes the input digital image signal to a previously acquired dynamic range of black and white. The line correction unit 26 corrects the difference between the line sensor array positions of the respective colors described above, and makes the R, G, and B lines equivalent to reading the same document position (line). The operation of the line correction unit 26 will be described later in detail. The first resolution conversion unit 27 converts the resolution of the image data output from the line correction unit 26 based on parameters specified by the host computer 3 and the image recording device 2.
The operation of the first resolution converter 27 will also be described later in detail. The color processing unit 28 enables a vivid color reproduction by reducing the influence of unnecessary absorption bands on the spectral spectrum existing in the color filters on the line sensor array. The buffer 29 temporarily stores the image data processed in the above process. This is a means for absorbing a difference in communication speed with the outside and outputting image data to an external device at a higher speed. The other device 31 substantially refers to the host computer 3 or the image recording device 2 in the present embodiment. In this embodiment, the image reading device 1 and the other device 31 are connected by SCSI, and the image reading device 1 outputs image data to the other device 31 via SCSI, and outputs the image data to the other device 31. From 31, reading parameters such as a reading range and a reading resolution can be obtained.

【0034】CPU32は画像読み取り装置1の動作シ
ーケンスなどを制御し、モータ制御部33は画像読み取
り装置1のキャリッジ7を移動させるモータ8に対して
駆動信号(より正しくはステッピングモータに対する励
磁信号)を出力する。CPU32は、制御信号34によ
りライン補正部26の動作内容を制御し、制御信号35
により第1解像度変換部27の動作内容を制御し、制御
信号36によりモータ制御部33を介してモータ8の回
転速度を制御する。
The CPU 32 controls the operation sequence of the image reading apparatus 1 and the like, and the motor control unit 33 sends a drive signal (more precisely, an excitation signal for the stepping motor) to the motor 8 for moving the carriage 7 of the image reading apparatus 1. Output. The CPU 32 controls the operation of the line correction unit 26 by the control signal 34 and
Controls the operation content of the first resolution conversion unit 27, and controls the rotation speed of the motor 8 via the motor control unit 33 by the control signal 36.

【0035】特定画像認識部37は、読み取った画像デ
ータ中に特定画像が存在するか否かを検出する。第2解
像度変換部38は、読み取った画像データを所定たとえ
ば75dpi(dot per inch)の解像度に
変換する。認識部39は、第2解像度変換部38で所定
の解像度に変換された画像データに基づき特定画像を認
識する。シリアル通信ライン40は、認識部39とCP
U32の間を結んでおり、認識部39とCPU32は双
方向に通信を行うことで情報をやりとりすることができ
る。特定画像認識部37の構成および動作については、
後に詳細に説明する。
The specific image recognition section 37 detects whether a specific image exists in the read image data. The second resolution converter 38 converts the read image data into a predetermined resolution, for example, 75 dpi (dot per inch). The recognition unit 39 recognizes a specific image based on the image data converted to a predetermined resolution by the second resolution conversion unit 38. The serial communication line 40 is connected to the recognition unit 39 and the CP.
U32 is connected, and the recognition unit 39 and the CPU 32 can exchange information by performing bidirectional communication. Regarding the configuration and operation of the specific image recognition unit 37,
Details will be described later.

【0036】次に、図6を用いて、画像読み取り装置の
光学系について詳細に説明する。図6は画像読み取り装
置1のキャリッジ7を側面から見た模式図である。説明
を簡単にするために、図3で示したランプ17やアパー
チャ18は省いてある。
Next, the optical system of the image reading apparatus will be described in detail with reference to FIG. FIG. 6 is a schematic view of the carriage 7 of the image reading device 1 as viewed from the side. For simplicity, the lamp 17 and aperture 18 shown in FIG. 3 are omitted.

【0037】イメージセンサ20に配置されたラインセ
ンサアレイ22RはRedの画像情報を読み取るが、原
稿ガラス6における読み取りラインの位置はPRであ
る。またラインセンサアレイ22GはGreenの画像
情報を読み取るが、原稿ガラス6における読み取りライ
ンの位置はPGである。またラインセンサアレイ22B
はBlueの画像情報を読み取るが、原稿ガラス6にお
ける読み取りラインの位置はPBである。
The line sensor array 22R arranged on the image sensor 20 reads the red image information. The position of the read line on the original glass 6 is PR. The line sensor array 22G reads the image information of Green, and the position of the reading line on the original glass 6 is PG. Also, the line sensor array 22B
Reads the image information of Blue, but the position of the reading line on the original glass 6 is PB.

【0038】今現在、画像を読み取っていると仮定する
と、キャリッジ7は副走査方向(d1方向)に移動して
おり、原稿13に対して、まずPBの位置が読み取りラ
インとなり、次にPGの位置が、最後にPRの位置が読
み取りラインとなる。つまり原稿の同一位置(ライン)
に基づけば、まずBlueの画像データが得られ、次に
Green、最後にRedの画像データが得られる。最
初に得たBlueの画像データと次に得たGreenの
画像データとを所定のライン数分保持しておき、Red
の画像データが得られた際に、保持しておいたBlue
とGreenの画像データを出力すれば、R、G、Bの
ライン位置を揃えて出力することができる。
Assuming now that an image is being read, the carriage 7 is moving in the sub-scanning direction (d1 direction), and the position of the PB becomes a reading line with respect to the document 13 first, and then the PG of the PG. The position is finally the reading line at the position of PR. In other words, the same position (line) on the document
, First, Blue image data is obtained, then Green, and finally, Red image data is obtained. The blue image data obtained first and the green image data obtained next are held for a predetermined number of lines,
When the image data of
And output the image data of Green, the R, G, and B line positions can be aligned and output.

【0039】次に、イメージセンサ20単体の構成につ
いて説明する。図7はイメージセンサ20をラインセン
サアレイ側から見たアレイ図である。各色のラインセン
サアレイは主走査方向に一列に配置されており、副走査
方向において、各色のラインセンサアレイ間にはそれぞ
れL1、L2の間隔が存在する。さて、図7において□
はラインセンサアレイの個々の画素を示しているが、以
降簡単のため、□を画像読み取り装置の600dpiに
おける1画素のサイズとする。
Next, the configuration of the image sensor 20 alone will be described. FIG. 7 is an array diagram of the image sensor 20 viewed from the line sensor array side. The line sensor arrays of each color are arranged in a line in the main scanning direction, and there are intervals of L1 and L2 between the line sensor arrays of each color in the sub-scanning direction. By the way, in FIG.
Indicates individual pixels of the line sensor array. For simplicity, □ indicates the size of one pixel at 600 dpi of the image reading apparatus.

【0040】一般的なイメージセンサではL1とL2は
等しく、かつL1とL2はそれぞれ読み取り画素サイズ
の整数倍の値を持っている。例えば本実施の形態では、
L1とL2は600dpiのラインに換算すると8本分
である。即ち各色のラインセンサアレイは600dpi
/8=75dpiのピッチで配置されている。このよう
な構造のイメージセンサでは同一の位置(ライン)を同
時に読み取ることができないことは既に述べたとおりで
あり、これを補正するのがライン補正部26である。
In a general image sensor, L1 and L2 are equal, and L1 and L2 each have a value that is an integral multiple of the read pixel size. For example, in this embodiment,
L1 and L2 correspond to eight lines when converted to a line of 600 dpi. That is, the line sensor array of each color is 600 dpi.
/ 8 = 75 dpi. As described above, the same position (line) cannot be read simultaneously with an image sensor having such a structure, and the line correction unit 26 corrects this as described above.

【0041】次に、図8を用いてライン補正部26の動
作について詳細に説明する。図8はライン補正部26の
動作原理を説明するための動作説明図である。図8にお
いて、50はGreenの画像データをライン単位に格
納するメモリ領域であり、51はBlueの画像データ
をライン単位に格納するメモリ領域である。
Next, the operation of the line correction section 26 will be described in detail with reference to FIG. FIG. 8 is an operation explanatory diagram for explaining the operation principle of the line correction unit 26. In FIG. 8, reference numeral 50 denotes a memory area for storing Green image data in line units, and reference numeral 51 denotes a memory area for storing Blue image data in line units.

【0042】本実施の形態における画像読み取り装置1
は、原稿の同一ラインに対して、Blue、Gree
n、Redの順に読み取られていく。各ラインセンサア
レイの間隔は600dpiのライン8本分であるから、
600dpiで画像を読み取る場合、Greenの画像
データに関しては8ライン分の画像データを、またBl
ueの画像データに関しては16ライン分の画像データ
を蓄積しておき、Redの画像データを読み取った時
に、Greenの画像データに関しては8ライン前の画
像データを、またBlueの画像データに関しては16
ライン前の画像データを出力すれば、原稿上で同一の位
置に対して読み取りを行ったのと同じことになる。
Image reading device 1 according to this embodiment
Are Blue, Green for the same line of the original
The data is read in the order of n and Red. Since the interval between each line sensor array is equivalent to 8 lines of 600 dpi,
When reading an image at 600 dpi, the image data of 8 lines is read for Green image data, and
The image data of 16 lines is stored for the image data of ue, and when the image data of Red is read, the image data of 8 lines before is read for the image data of Green, and the image data of 16 lines is stored for the image data of Blue.
If the image data before the line is output, it is the same as reading at the same position on the document.

【0043】このようにすれば副走査方向に関して一旦
600dpiで読み取って、上述のライン補正を行った
後に低い解像度に変換することで、600dpiより低
い解像度であれば、全ての解像度で画像を読み取ること
ができる。しかしこの場合、必ず600dpiで一旦画
像を読み取るという前提があるため、読み取り速度を高
速化することができない。この問題に対しては、キャリ
ッジ7を副走査方向により高速に移動させながら画像を
読み取り、かつライン補正部26の設定を変えることで
対応が可能である。
In this way, the image is once read at 600 dpi in the sub-scanning direction, converted to a lower resolution after performing the above-described line correction, and if the resolution is lower than 600 dpi, the image can be read at all resolutions. Can be. However, in this case, there is a premise that an image is read once at 600 dpi, so that the reading speed cannot be increased. This problem can be dealt with by reading the image while moving the carriage 7 in the sub-scanning direction at a high speed, and changing the setting of the line correction unit 26.

【0044】図9は、副走査方向に300dpiの解像
度で画像を読み取る場合のライン補正部26の動作を説
明するための動作説明図である。600dpiで原稿を
読み取る時のキャリッジ7の移動速度、即ち副走査方向
d1への移動速度をVとすると、300dpiで原稿を
読み取る時のキャリッジの移動速度は2Vに設定され
る。つまりキャリッジの移動速度は600dpi読み取
り時の2倍に設定するのである。任意の読み取り解像度
におけるキャリッジ移動速度Vxは、例えば基準の読み
取り解像度を600dpi、600dpiの読み取りに
おけるキャリッジ移動速度をV、実際の読み取り解像度
をX(dpi)、とすると、 Vx=(600/X)×V・・・・・(1) と表わすことができる。
FIG. 9 is an operation explanatory diagram for explaining the operation of the line correction section 26 when an image is read at a resolution of 300 dpi in the sub-scanning direction. Assuming that the moving speed of the carriage 7 when reading a document at 600 dpi, that is, the moving speed in the sub-scanning direction d1, is V, the moving speed of the carriage when reading a document at 300 dpi is set to 2V. That is, the moving speed of the carriage is set to be twice that at the time of reading at 600 dpi. The carriage moving speed Vx at an arbitrary reading resolution is, for example, assuming that the reference reading resolution is 600 dpi, the carriage moving speed in reading at 600 dpi is V, and the actual reading resolution is X (dpi), Vx = (600 / X) × V ... (1)

【0045】さて、300dpiで画像を読み取るケー
スでは、キャリッジの移動速度は600dpiの2倍で
あるから、単位時間あたりの移動距離も2倍になる。各
色のラインセンサアレイ間の距離は常に変わらないの
で、キャリッジの移動速度が2倍になれば、画像読み取
り装置が1ラインの画像データを読み取る際に移動する
距離も2倍になり、格納しておく画像データのライン数
は1/2でよい。つまり図9に示すように各ラインセン
サアレイの間隔は600dpiのライン8本分、即ち3
00dpiのライン4本分であるから、300dpiで
画像を読み取る場合、Greenの画像データに関して
は4ライン分の画像データを、またBlueの画像デー
タに関しては8ライン分の画像データを蓄積しておき、
Redの画像データを読み取った時に、Greenの画
像データに関しては4ライン前の画像データを、またB
lueの画像データに関しては8ライン前の画像データ
を出力すれば、原稿上で同一の位置に対して読み取りを
行ったのと同じことになる。以上を一般化したものを
(表1)に示す。
In the case where an image is read at 300 dpi, the moving speed of the carriage is twice that of 600 dpi, so that the moving distance per unit time is also twice. Since the distance between the line sensor arrays of the respective colors does not always change, if the moving speed of the carriage is doubled, the distance that the image reading device moves when reading one line of image data is also doubled and stored. The number of lines of the image data to be stored may be 1 /. That is, as shown in FIG. 9, the interval between the line sensor arrays is equivalent to eight lines of 600 dpi, ie, 3 lines.
When reading an image at 300 dpi, image data for 4 lines is stored for Green image data, and image data for 8 lines is stored for Blue image data.
When the image data of Red is read, the image data of four lines before is read for Green image data, and
If the image data of eight lines before is output with respect to the lue image data, it is the same as reading at the same position on the document. Table 1 shows a generalization of the above.

【0046】[0046]

【表1】 [Table 1]

【0047】即ち本実施の形態においては(表1)に示
すとおり、読み取り解像度は75dpiを基準として整
数倍Nに設定される。このときGreenメモリ領域5
0に格納されたGreen画像データの遅延ライン数は
N、Blueメモリ領域51に格納されたBlue画像
データの遅延ライン数は2Nと一般化できる。これらの
設定は図5において、CPU32から制御信号34によ
ってライン補正部26に対して行なわれる。また各解像
度におけるキャリッジ移動速度Vxは(1)式で与えら
れる。この設定は、図5において、CPU32から制御
信号36によって、モータ制御部33に対して行なわれ
る。
That is, in the present embodiment, as shown in (Table 1), the reading resolution is set to an integral multiple N based on 75 dpi. At this time, the Green memory area 5
The number of delay lines of Green image data stored in 0 can be generalized to N, and the number of delay lines of Blue image data stored in the Blue memory area 51 can be generalized to 2N. These settings are made to the line correction unit 26 by the control signal 34 from the CPU 32 in FIG. Further, the carriage moving speed Vx at each resolution is given by equation (1). This setting is made to the motor control unit 33 by the control signal 36 from the CPU 32 in FIG.

【0048】以上述べてきたようにして、イメージセン
サ20のラインセンサアレイの位置が異なることに起因
する読み取り位置の違いは補正され、ライン補正部26
から出力される画像データは、原稿の同一ラインを読み
取ったのと同等な状態になる。
As described above, the difference in the reading position caused by the difference in the position of the line sensor array of the image sensor 20 is corrected.
Is in the same state as when the same line of the document is read.

【0049】以上述べてきたように、ライン補正部26
は、キャリッジ移動方向すなわち副走査方向に対して、
各色の読み取り位置の違いを補正する。このときの読み
取り解像度の指定は離散的な値をとっているが、実際の
画像読み取り装置1は、ホストコンピュータ3や画像記
録装置2から1dpi単位に読み取り解像度の指定を受
け付け、画像データを修正して出力する。またライン補
正部26で行う処理は副走査方向に対する位置合わせで
あり、主走査方向の画像データに対しては何らの変換も
おこなっていない。
As described above, the line correction unit 26
Is relative to the carriage movement direction, that is, the sub-scanning direction.
Correct the difference in the reading position of each color. At this time, the reading resolution is specified as a discrete value. However, the actual image reading apparatus 1 receives the reading resolution specification in units of 1 dpi from the host computer 3 or the image recording apparatus 2 and corrects the image data. Output. The processing performed by the line correction unit 26 is alignment in the sub-scanning direction, and no conversion is performed on image data in the main scanning direction.

【0050】これらの処理を行うのが第1解像度変換部
27である。以降、第1解像度変換部27における処理
を詳細に説明する。
The first resolution converter 27 performs these processes. Hereinafter, the processing in the first resolution conversion unit 27 will be described in detail.

【0051】まず、図5を用いて説明する。簡単のため
画像読み取り装置1に対して、外部から200dpiの
読み取り指定があったと仮定する。200dpiによる
読み取りが指定されると、CPU32はモータ制御部3
3に対して、225dpiの読み取り解像度に対するキ
ャリッジ移動速度を設定する。これは(表1)によれ
ば、600dpi時のキャリッジ移動速度Vに対して
2.7倍の速度である。次に、CPU32はライン補正
部26に対して、同様に225dpiの読み取り解像度
に対する設定を行う。すなわちGreenメモリ領域5
0における遅延量を3ライン分に、Blueメモリ領域
51における遅延量を6ライン分に夫々設定する(図8
または図9を参照)。これらの設定を行って画像を読み
取ると、ライン補正部26からは、副走査方向に関して
225dpiに変換された画像データが出力される。
First, a description will be given with reference to FIG. For the sake of simplicity, it is assumed that the image reading apparatus 1 is externally designated to read at 200 dpi. When reading at 200 dpi is designated, the CPU 32
For 3, the carriage moving speed for the reading resolution of 225 dpi is set. According to (Table 1), this is 2.7 times the carriage moving speed V at 600 dpi. Next, the CPU 32 similarly sets the reading resolution of 225 dpi for the line correction unit 26. That is, the Green memory area 5
The delay amount at 0 is set to three lines, and the delay amount at the Blue memory area 51 is set to six lines (FIG. 8).
Or see FIG. 9). When the image is read with these settings, the line correction unit 26 outputs image data converted to 225 dpi in the sub-scanning direction.

【0052】ここでは例として200dpiの解像度を
指定された場合には225dpiの解像度で画像を読み
取るケースについて説明しているが、本実施の形態にお
ける画像読み取り装置1に対する読み取り解像度の指定
値と、モータ制御部33およびライン補正部26に対す
る設定内容すなわち実際の読み取り解像度の関係を(表
2)に示す。
Here, as an example, a case in which an image is read at a resolution of 225 dpi when a resolution of 200 dpi is designated has been described. However, the designated value of the reading resolution for the image reading apparatus 1 in the present embodiment and the motor Table 2 shows the relationship between the setting contents for the control unit 33 and the line correction unit 26, that is, the actual reading resolution.

【0053】[0053]

【表2】 [Table 2]

【0054】図10は解像度変換のアルゴリズムを示す
アルゴリズム図である。
FIG. 10 is an algorithm diagram showing a resolution conversion algorithm.

【0055】まず主走査方向に対する解像度変換アルゴ
リズムについて、図10を用いて詳細に説明する。図1
0において、53は600dpiの1画素を示す。ただ
し説明を容易にするため、実際の画素サイズを無視し6
00dpiの1画素の中心位置を示している。600d
piの各画素には先頭画素から順に、P600_0,P
600_1,P600_2・・・P600_6の番号が
付与されており、これらは画素の位置を示す符号であ
る。以下便宜的に、これらの位置に対する画素の値を、
例えばP600_0の位置に対応する画素値を*P60
0_0のように表わす。すなわちC言語におけるポイン
タの概念を援用した。
First, the resolution conversion algorithm in the main scanning direction will be described in detail with reference to FIG. FIG.
At 0, 53 indicates one pixel of 600 dpi. However, for the sake of simplicity, the actual pixel size is ignored and 6
The center position of one pixel of 00 dpi is shown. 600d
P600_0, P600
The numbers 600_1, P600_2,..., P600_6 are given, and these are codes indicating the positions of the pixels. For convenience, the values of the pixels for these positions are
For example, the pixel value corresponding to the position of P600_0 is * P60
It is represented as 0_0. That is, the concept of the pointer in the C language is used.

【0056】最初に600dpiの画像情報を200d
piに変換する場合について説明する。変換後の先頭画
素の位置は常に600dpiの先頭画素、即ちP600
_0の位置に揃えるものとする。従って200dpiの
先頭画素位置は、P600_0と同じP200_0とな
る。場所が同じであるから、画素値もP600_0と同
じ値すなわち*P600_0を採用する。
First, image information of 600 dpi is converted to 200d.
The case of conversion to pi will be described. The position of the first pixel after conversion is always the first pixel of 600 dpi, that is, P600
It shall be aligned to the position of _0. Therefore, the first pixel position at 200 dpi is P200_0, which is the same as P600_0. Since the location is the same, the pixel value adopts the same value as P600_0, that is, * P600_0.

【0057】次の画素位置はP200_1であるが、こ
の画素値を得るために、P200_1の場所を600d
piの画素位置で表わすことを考える。単純な比例式を
用いて(600/200)×1=3であるから、P20
0_1=P600_3である。従ってP200_1の位
置の画素値は*P200_1=*P600_3となる。
同様にして、*P200_2=*P600_6も求める
ことができる。
The next pixel position is P200_1. To obtain this pixel value, the position of P200_1 is set to 600d.
Consider that the pixel position is represented by pi. Since (600/200) × 1 = 3 using a simple proportional expression, P20
0_1 = P600_3. Therefore, the pixel value at the position of P200_1 is * P200_1 = * P600_3.
Similarly, * P200_2 = * P600_6 can also be obtained.

【0058】次に、600dpiの画像情報を300d
piに変換する場合について説明する。変換後の先頭画
素の位置は常に600dpiの先頭画素、即ちP600
_0の位置に揃えるものとする。300dpiの先頭画
素位置は、P600_0と同じであるから、画素値もP
600_0と同じ値すなわち*P600_0を採用す
る。
Next, the image information of 600 dpi is converted to 300d.
The case of conversion to pi will be described. The position of the first pixel after conversion is always the first pixel of 600 dpi, that is, P600
It shall be aligned to the position of _0. Since the head pixel position of 300 dpi is the same as P600_0, the pixel value is P
The same value as 600_0, that is, * P600_0 is adopted.

【0059】次の画素位置はP300_1であるが、こ
の画素値を得るために、P300_1の場所を600d
piの画素位置で表わすことを考える。単純な比例式を
用いて(600/300)×1=2であるから、P30
0_1=P600_2である。従ってP300_1の位
置の画素値は*P300_1=*P600_2となる。
同様にして、*P300_2=*P600_4、更に*
P300_3=*P600_6と求めることができる。
The next pixel position is P300_1. To obtain this pixel value, the position of P300_1 is set to 600d.
Consider that the pixel position is represented by pi. Since (600/300) × 1 = 2 using a simple proportional expression, P30
0_1 = P600_2. Therefore, the pixel value at the position of P300_1 is * P300_1 = * P600_2.
Similarly, * P300_2 = * P600_4, and further *
P300_3 = * P600_6 can be obtained.

【0060】次に、600dpiの画像情報を400d
piに変換する場合について説明する。変換後の先頭画
素の位置は常に600dpiの先頭画素、即ちP600
_0の位置に揃えるものとする。400dpiの先頭画
素位置は、P600_0と同じであるから、画素値もP
600_0と同じ値すなわち*P600_0を採用す
る。
Next, the image information of 600 dpi is converted to 400d.
The case of conversion to pi will be described. The position of the first pixel after conversion is always the first pixel of 600 dpi, that is, P600
It shall be aligned to the position of _0. Since the head pixel position of 400 dpi is the same as P600_0, the pixel value is also P600
The same value as 600_0, that is, * P600_0 is adopted.

【0061】次の画素位置はP400_1であるが、こ
の画素値を得るために、P400_1の場所を600d
piの画素位置で表わすことを考える。単純な比例式を
用いて計算すると、(600/400)×1=1.5と
なり、P400_1はP600_1とP600_2の間
に存在することが分かる。そこで1.5という位置情報
を用いてP400_1の画素値は次式(2)のように計
算される。
The next pixel position is P400_1. To obtain this pixel value, the position of P400_1 is set to 600d.
Consider that the pixel position is represented by pi. When calculated using a simple proportional expression, (600/400) × 1 = 1.5, which indicates that P400_1 exists between P600_1 and P600_2. Therefore, the pixel value of P400_1 is calculated as in the following equation (2) using the position information of 1.5.

【0062】 *P400_1=(1.5−1)×(*P600_1)+(2−1.5)×( *P600_2)・・・・・(2) これは解像度変換後の画素が存在する位置を600dp
iの画素位置を基準として求め、隣接する600dpi
の画素との距離に基づいて重み付け演算を行うことで、
解像度変換後の画素値を求めていることにほかならな
い。
* P400_1 = (1.5-1) × (* P600_1) + (2-1.5) × (* P600_2) (2) This is the position where the pixel after resolution conversion exists. Is 600dp
i is determined based on the pixel position of i, and the adjacent 600 dpi
By performing a weighting operation based on the distance to the pixel of
This is nothing but finding pixel values after resolution conversion.

【0063】P400_2について上記の考え方を適用
すると、(600/400)×2=3となり、P400
_2はP600_3の位置に存在することが分かる。従
って*P400_2=*P600_3である。更にP4
00_3について上記の考え方を適用すると、(600
/400)×3=4.5となり、P400_3はP60
0_4とP600_5の間に存在することが分かる。そ
こで4.5という位置情報を用いてP400_3の画素
値は次式(3)のように計算される。
When the above concept is applied to P400_2, (600/400) × 2 = 3.
_2 exists at the position of P600_3. Therefore, * P400_2 = * P600_3. Further P4
When the above concept is applied to 00_3, (600
/400)×3=4.5, and P400 — 3 is P60
It can be seen that it exists between 0_4 and P600_5. Therefore, the pixel value of P400_3 is calculated as in the following equation (3) using the position information of 4.5.

【0064】 *P400_3=(4.5−3)×(*P600_4)+(5−4.5)×( *P600_5)・・・・・(3) 以降の画素についても同様にして画素値を求めることが
できる。
* P400_3 = (4.5-3) × (* P600_4) + (5-4.5) × (* P600_5) (3) The pixel values of the subsequent pixels are similarly set. You can ask.

【0065】また500dpiへの解像度変換について
も全く同じ考え方で処理することができる。
The resolution conversion to 500 dpi can be processed in exactly the same way.

【0066】さて、上述のごとく主走査方向の解像度変
換処理として、600dpiから他の解像度への変換を
説明してきたが、これは読み取り解像度が600dpi
に限って適用される演算方法ではなく、元の解像度と変
換後の解像度が分かっていれば、あらゆる場合に適用可
能な方法である。例えばライン補正によって225dp
iの解像度で出力された副走査方向の画像データについ
ても全く同様にして例えば200dpiに変換ができ
る。本実施の形態では副走査方向の解像度変換に以上説
明してきた方法を用いている。
As described above, the conversion from 600 dpi to another resolution has been described as the resolution conversion processing in the main scanning direction.
It is not an arithmetic method applied only to, but a method applicable to any case as long as the original resolution and the converted resolution are known. For example, 225 dp by line correction
Image data in the sub-scanning direction output at the resolution of i can be converted to, for example, 200 dpi in the same manner. In the present embodiment, the method described above is used for resolution conversion in the sub-scanning direction.

【0067】次に、図5と図11を併用して特定画像認
識部37について詳細に説明する。図11は特定画像認
識部37を詳細に示すブロック図である。
Next, the specific image recognition unit 37 will be described in detail with reference to FIGS. FIG. 11 is a block diagram showing the specific image recognition unit 37 in detail.

【0068】図11において、30は図5と同様のイン
タフェース、31は図5と同様の他の装置、32は図5
と同様のCPU、38は図5と同様の第2解像度変換
部、40は図5と同様のシリアル通信ライン、54はメ
モリ、55はエッジ量検出回路、56はテンプレート選
択部、57はテンプレート格納メモリ、58はバッフ
ァ、59は認識用CPU、60は主・副画素カウンタ
(画像分割部)、61はROM、64は作業用RAMで
ある。ここで、テンプレート選択部56、テンプレート
格納メモリ57および認識用CPU59は特定画像か否
かを識別する識別部を構成する。
In FIG. 11, reference numeral 30 denotes an interface similar to that of FIG. 5, 31 denotes another device similar to that of FIG.
5, a second resolution converter similar to that of FIG. 5, 40 a serial communication line similar to that of FIG. 5, 54 a memory, 55 an edge amount detection circuit, 56 a template selector, 57 a template storage A memory, 58 is a buffer, 59 is a recognition CPU, 60 is a main / sub pixel counter (image division unit), 61 is a ROM, and 64 is a work RAM. Here, the template selection unit 56, the template storage memory 57, and the recognition CPU 59 constitute an identification unit for identifying whether or not the image is a specific image.

【0069】図11において、第2解像度変換部38
は、入力された画像データを所定の解像度に変換する。
第2解像度変換部38で所定の解像度に変換された画像
データは一旦メモリ54に格納される。エッジ量検出回
路55は、予め定められた特徴色の値により2次微分オ
ペレータ(図12で後述する)によるエッジ量を検出
し、検出したエッジ量に従って特徴ベクトルデータを生
成する。テンプレート選択部56は、エッジ量検出回路
55で生成された特徴ベクトルデータを予め準備した複
数のテンプレートと比較し、最もユークリッド距離が近
いテンプレートを選択する。テンプレート格納メモリ5
7には、テンプレート選択部56で特徴ベクトルとの比
較に用いる複数のテンプレートが格納されている。バッ
ファ58は、エッジ量検出回路55で検出したエッジ量
と、テンプレート選択部57で選択されたテンプレート
の番号と、特徴ベクトルデータと、テンプレートのユー
クリッド距離とを格納する。認識用CPU59は画像中
に特定画像が含まれるか否かを認識する。主・副画素カ
ウンタ60は、入力された画像データの個数を主走査方
向と副走査方向にカウントし、所定のカウント数となる
毎に認識用CPU59に割り込み信号63を出力する。
ROM61には、認識プログラムなどが格納されてい
る。認識用CPU59は第2解像度変換部38に対して
解像度変換パラメータ等を通知する。
In FIG. 11, the second resolution converter 38
Converts input image data into a predetermined resolution.
The image data converted to a predetermined resolution by the second resolution converter 38 is temporarily stored in the memory 54. The edge amount detection circuit 55 detects an edge amount by a second derivative operator (described later with reference to FIG. 12) based on a predetermined characteristic color value, and generates feature vector data according to the detected edge amount. The template selection unit 56 compares the feature vector data generated by the edge amount detection circuit 55 with a plurality of templates prepared in advance, and selects a template having the closest Euclidean distance. Template storage memory 5
7 stores a plurality of templates used by the template selection unit 56 for comparison with the feature vector. The buffer 58 stores the edge amount detected by the edge amount detection circuit 55, the template number selected by the template selection unit 57, the feature vector data, and the Euclidean distance of the template. The recognition CPU 59 recognizes whether or not a specific image is included in the image. The main / sub-pixel counter 60 counts the number of input image data in the main scanning direction and the sub-scanning direction, and outputs an interrupt signal 63 to the recognition CPU 59 every time a predetermined count is reached.
The ROM 61 stores a recognition program and the like. The recognition CPU 59 notifies the second resolution converter 38 of resolution conversion parameters and the like.

【0070】第2解像度変換部38への入力は、第1解
像度変換部27の前段から行なわれるが、その理由につ
いて以下に説明する。ライン補正部26から出力される
画像データは前述したように、各色のラインセンサアレ
イの位置が異なることに起因する副走査方向のRGBラ
イン間距離を補正している。この時点では主走査方向の
解像度は、イメージセンサが出力したままであり、なん
の処理もなされていない。即ち前述してきた構成ではラ
イン補正部26から主走査方向に関しては600dpi
の解像度を有する画像データが出力されている。
The input to the second resolution converter 38 is performed before the first resolution converter 27. The reason will be described below. As described above, the image data output from the line correction unit 26 corrects the distance between the RGB lines in the sub-scanning direction due to the different positions of the line sensor arrays for each color. At this time, the resolution in the main scanning direction remains output from the image sensor, and no processing is performed. That is, in the configuration described above, the line correction unit 26 outputs 600 dpi in the main scanning direction.
Is output.

【0071】このようにライン補正部26から出力され
た時点では、主走査方向の解像度は、他の装置31によ
る読み取り解像度の指定にかかわらず、常に600dp
iに固定であるため、これを所定の解像度、例えば75
dpiに変換するのは、ただ一つの、それもパラメータ
不変の処理系で行える。もし第1解像度変換部27の出
力を用いて、所定の解像度、例えば75dpiに変換し
ようとすると、様々な解像度の画像データを取り扱わね
ばならないため、ハードウェアが複雑になってしまう。
As described above, at the time of output from the line correction section 26, the resolution in the main scanning direction is always 600 dp regardless of the designation of the reading resolution by the other device 31.
i, it is fixed to a predetermined resolution, for example, 75
Conversion to dpi can be performed by a single, parameter-invariant processing system. If the output of the first resolution converter 27 is to be converted to a predetermined resolution, for example, 75 dpi, image data of various resolutions must be handled, and the hardware becomes complicated.

【0072】また副走査方向に関しては、ライン補正部
26から出力されるラインデータは(表2)に示すよう
に、75dpi,150dpi,225dpi,300
dpi,375dpi,450dpi,525dpi,
600dpiのいずれかである。最も重要な点は、これ
らは全て75dpiの整数倍となっていることである。
これらのデータを上記所定の解像度、75dpiに変換
することは極めて容易に行える。
In the sub-scanning direction, the line data output from the line correction section 26 is 75 dpi, 150 dpi, 225 dpi, 300 dpi as shown in Table 2.
dpi, 375 dpi, 450 dpi, 525 dpi,
600 dpi. Most importantly, they are all multiples of 75 dpi.
It is very easy to convert these data to the above-mentioned predetermined resolution and 75 dpi.

【0073】さて、特定画像認識部37の認識用CPU
59は、シリアル通信ライン40で画像読み取り装置の
CPU32と接続されている。CPU32はインタフェ
ース30を介して他の装置31から転送されてきた画像
読み取り条件を得て、これに基づき画像読み取り装置1
のライン補正部26、第1解像度変換部27、モータ制
御部33を制御することは既に述べたとおりだが、CP
U32は、これらの解像度に関する読み取り条件をシリ
アル通信ライン40を介して、認識用CPU59にも通
知する。これにより認識用CPU59は、これから読み
取られる画像の解像度を知ることができる。この情報に
基づき、認識用CPU59は制御信号62により、第2
解像度変換部38に対して、副走査方向の処理を、より
具体的には全ラインに対する間引き率を指定する。もち
ろん主走査方向は、読み取り解像度によらず一定である
のでライン内の画素間引き率は固定である。(表3)に
第2解像度変換部38に対する間引き率の設定内容を示
す。
Now, the recognition CPU of the specific image recognition unit 37
Reference numeral 59 denotes a serial communication line connected to the CPU 32 of the image reading apparatus. The CPU 32 obtains the image reading conditions transferred from the other device 31 via the interface 30, and based on the obtained conditions, the image reading device 1
The control of the line correction unit 26, the first resolution conversion unit 27, and the motor control unit 33 is as described above.
The U 32 also notifies the recognition CPU 59 of the reading conditions regarding these resolutions via the serial communication line 40. Thereby, the recognition CPU 59 can know the resolution of the image to be read. Based on this information, the recognition CPU 59 outputs the second
For the resolution conversion unit 38, the processing in the sub-scanning direction, more specifically, the thinning rate for all lines is specified. Of course, since the main scanning direction is constant regardless of the reading resolution, the pixel thinning rate in the line is fixed. (Table 3) shows the setting contents of the thinning rate for the second resolution converter 38.

【0074】[0074]

【表3】 [Table 3]

【0075】このように、主走査方向は固定の画素間引
き率を2とすることで、600dpiの画像データは常
に300dpiに変換される。このように間引き処理を
行うことで、以降に処理すべき画像データ量を大幅に減
らすことができる。副走査方向は読み取り解像度に応じ
てライン間引き率を変えている。これにより、間引き後
解像度の欄に示すように、主走査×副走査の解像度は3
00dpi×75dpiまたは300dpi×150d
piに変換される。
As described above, by setting the fixed pixel thinning rate to 2 in the main scanning direction, image data of 600 dpi is always converted to 300 dpi. By performing the thinning process in this manner, the amount of image data to be processed thereafter can be significantly reduced. In the sub-scanning direction, the line thinning rate is changed according to the reading resolution. Thereby, as shown in the column of resolution after thinning, the resolution of main scanning × sub scanning is 3
00 dpi x 75 dpi or 300 dpi x 150d
pi.

【0076】次に、間引き処理によって得られた画像デ
ータを平均化処理により、主走査・副走査方向とも75
dpiに変換する。以降この75dpiを所定解像度と
呼称する。まず間引き処理により主走査方向300dp
i×副走査方向75dpiに変換した場合は、主走査方
向の画素4つと、副走査方向1ライン分の画素を用い
て、4×1画素の値を平均化処理する。また、間引き処
理により主走査方向300dpi×副走査方向150d
piに変換した場合は、主走査方向の画素4つと、副走
査方向2ライン分の画素を用いて、4×2画素の値を平
均化処理する。
Next, the image data obtained by the thinning-out process is averaged by 75% in both the main scanning and sub-scanning directions.
Convert to dpi. Hereinafter, this 75 dpi is referred to as a predetermined resolution. First, 300dp in the main scanning direction by thinning processing
When the image is converted to i.times.75 dpi in the sub-scanning direction, the value of 4.times.1 pixel is averaged using four pixels in the main scanning direction and pixels for one line in the sub-scanning direction. In addition, 300d in the main scanning direction × 150d in the sub-scanning direction by the thinning process.
When converted to pi, 4 × 2 pixel values are averaged using four pixels in the main scanning direction and pixels for two lines in the sub-scanning direction.

【0077】以上の処理によって、主走査・副走査方向
とも75dpiの所定解像度の画像データを取得する。
ただし、所定解像度は75dpiに限定されない。
Through the above processing, image data of a predetermined resolution of 75 dpi is obtained in both the main scanning and sub-scanning directions.
However, the predetermined resolution is not limited to 75 dpi.

【0078】次に本発明にかかる画像認識装置における
特定画像認識アルゴリズムについて図11を用いて、ま
ず概要を説明する。
Next, an outline of a specific image recognition algorithm in the image recognition apparatus according to the present invention will be described with reference to FIG.

【0079】第2解像度変換部38によって所定の解像
度に変換されたRGB画像信号は、一旦メモリ54に格
納される。メモリ54に格納されたRGB画像信号は予
め定められたサイズのブロック単位に切り出され、RG
B点順次信号としてエッジ量検出回路55に送られる。
上記ブロックのサイズは例えば50×50画素(250
0画素)に設定されている。
The RGB image signal converted to a predetermined resolution by the second resolution converter 38 is temporarily stored in the memory 54. The RGB image signal stored in the memory 54 is cut out in block units of a predetermined size,
The signal is sent to the edge amount detection circuit 55 as a point B sequential signal.
The size of the block is, for example, 50 × 50 pixels (250
0 pixels).

【0080】エッジ量検出回路55は入力されたRGB
画像信号に対して、予め特徴色として定めたRGB値を
基にエッジの検出を行い、上記1ブロック(50×50
画素)内のエッジ量の検出を行う。1ブロックのエッジ
量の検出が終了すると、その結果はテンプレート選択部
56に転送されると共に、バッファ58に書き込まれ
る。さて、このエッジ量検出回路55から出力されるの
は、50×50画素ブロック内に存在する、複数の特徴
色に対するエッジ量をそれぞれ計数したものである。特
徴色の数が3であるから、これは3次元の特徴ベクトル
を出力していると見なすことができる。即ちエッジ量検
出回路55は特徴ベクトルの生成を行っていることにな
る。テンプレート選択部56はエッジ量検出回路55で
生成された特徴ベクトルと、テンプレート格納メモリ5
7に予め格納されている複数のテンプレートとを3次元
ユークリッド距離に基づいて比較し、もっとも近いテン
プレートを選択するとともに、テンプレート番号と3次
元ユークリッド距離をバッファ58に格納する。最近傍
テンプレート番号と3次元ユークリッド距離は、入力さ
れた画像データと特定画像の類似度を示す指標となる。
The edge amount detection circuit 55 receives the inputted RGB
Edge detection is performed on the image signal on the basis of the RGB values determined in advance as the characteristic colors, and the one block (50 × 50) is detected.
The edge amount within the pixel is detected. When the detection of the edge amount of one block is completed, the result is transferred to the template selecting unit 56 and written into the buffer 58. The output from the edge amount detection circuit 55 is obtained by counting the edge amounts for a plurality of characteristic colors existing in a 50 × 50 pixel block. Since the number of characteristic colors is 3, this can be regarded as outputting a three-dimensional characteristic vector. That is, the edge amount detection circuit 55 generates a feature vector. The template selection unit 56 stores the feature vector generated by the edge amount detection circuit 55 and the template storage memory 5
7 is compared with a plurality of templates stored in advance based on the three-dimensional Euclidean distance, the closest template is selected, and the template number and the three-dimensional Euclidean distance are stored in the buffer 58. The nearest neighbor template number and the three-dimensional Euclidean distance serve as indices indicating the similarity between the input image data and the specific image.

【0081】さて、エッジ量検出回路55で処理される
全画素数は、主・副画素カウンタ60で計数・管理され
ており、ここで処理した画素数のカウント結果が所定量
に達すると、主・副画素カウンタ60は認識用CPU5
9に対して割り込み信号63を発生する。割り込み信号
63を受けて、CPU59はバッファ58を読み取り、
ここに格納されているエッジ量検出結果、最近傍テンプ
レート番号、3次元ユークリッド距離を入手する。CP
U59はバッファ58から読み取った最近傍テンプレー
ト番号、3次元ユークリッド距離に基づく類似度を一定
のルールに従って複数のブロック分選択し、それらの和
を計算し、その和に応じて判定結果を出力する。判定結
果は認識用CPU59からシリアル通信ライン40を介
してCPU32に伝えられる。CPU32は結果をイン
タフェース30に出力し、この判定結果はSCSIによ
って、ホストコンピュータ3や画像記録装置2などの他
の装置31に出力される。
The total number of pixels processed by the edge amount detecting circuit 55 is counted and managed by the main / sub-pixel counter 60. When the counted number of pixels processed reaches a predetermined amount, the main pixel count is counted. The sub-pixel counter 60 is a CPU 5 for recognition.
9 to generate an interrupt signal 63. Upon receiving the interrupt signal 63, the CPU 59 reads the buffer 58,
The edge amount detection result, the nearest template number, and the three-dimensional Euclidean distance stored here are obtained. CP
U59 selects the similarity based on the nearest template number read from the buffer 58 and the similarity based on the three-dimensional Euclidean distance for a plurality of blocks according to a certain rule, calculates the sum of them, and outputs a determination result according to the sum. The determination result is transmitted from the recognition CPU 59 to the CPU 32 via the serial communication line 40. The CPU 32 outputs the result to the interface 30, and this determination result is output to another device 31 such as the host computer 3 or the image recording device 2 by SCSI.

【0082】次にエッジ量検出回路55について詳細に
説明する。図12はエッジ量検出回路55を示すブロッ
ク図である。
Next, the edge amount detection circuit 55 will be described in detail. FIG. 12 is a block diagram showing the edge amount detection circuit 55.

【0083】図12において、55は図11と同様のエ
ッジ量検出回路、56は図11と同様のテンプレート選
択部、57は図11と同様のバッファ、70_C0、7
0_C1、70_C2は2次微分オペレータ、71は絶
対値回路、72は比較器、73はカウンタ、74はカウ
ントバッファである。2次微分オペレータ70_C0、
70_C1、70_C2は、それぞれ独立した予め定め
られた特徴色の値に対しエッジを検出するものである。
本実施の形態では3つの特徴色に対し、それぞれエッジ
画素数を検出しているため、3つの2次微分オペレータ
を有している。また、本実施の形態では3つの特徴色と
して、入力されるRGB信号を分割し、Red、Gre
en、Blueの色を用いているが、係数ri、giお
よびbi(i=0、1、2)を用いて次式(4)のよう
に特徴色iを求めることもできる。
In FIG. 12, reference numeral 55 denotes an edge amount detection circuit similar to that of FIG. 11, reference numeral 56 denotes a template selection unit similar to that of FIG. 11, reference numeral 57 denotes a buffer similar to that of FIG.
0_C1 and 70_C2 are second derivative operators, 71 is an absolute value circuit, 72 is a comparator, 73 is a counter, and 74 is a count buffer. Second derivative operator 70_C0,
70_C1 and 70_C2 detect edges with respect to independent and predetermined characteristic color values, respectively.
In the present embodiment, since the number of edge pixels is detected for each of the three characteristic colors, it has three secondary differential operators. In the present embodiment, an input RGB signal is divided into three characteristic colors, and Red and Gre are used.
Although the colors of en and Blue are used, the characteristic color i can be obtained as in the following equation (4) using the coefficients ri, gi, and bi (i = 0, 1, 2).

【0084】 特徴色i=ri×R+gi×G+bi×B、(i=0〜2)・・・・(4) 各特徴色に対する2次微分オペレータ70_C0、70
_C1、70_C2は、構成上の差異はないため、1色
分のみ詳細に示している。2次微分オペレータ70_C
0は、3画素×3画素のウィンドウから成り、中央の画
素に「8」、中央以外の8画素全てに「−1」となる係
数を有している。2次微分オペレータ70_C0のウィ
ンドウ内の係数とウィンドウの位置に対応する特徴色の
値とを乗算し、それぞれの乗算値を加算することによ
り、エッジ量の演算を行う。絶対値回路71は、2次微
分オペレータ70_C0によって得られたエッジ量の絶
対値を算出する。比較器72は、絶対値回路71より出
力されたデータを予め定められた閾値THと比較し、注
目画素がエッジ画素であるか否かを検出する。絶対値回
路71より出力されたデータが予め定められた閾値TH
(例えば50)以上の場合、注目画素はエッジ画素であ
ると判定し、比較器72の出力を「1」とする。絶対値
回路71より出力されたデータが予め定められた閾値T
H(例えば50)未満の場合、注目画素はエッジ画素で
はないと判定し、比較器72の出力を「0」とする。カ
ウンタ73は、比較器の出力が「1」となった回数をカ
ウントする。カウントバッファ74は、カウンタ73の
カウント結果を累積する。
Characteristic color i = ri × R + gi × G + bi × B (i = 0 to 2) (4) Second derivative operator 70_C0, 70 for each characteristic color
Since _C1 and 70_C2 have no structural difference, only one color is shown in detail. Second derivative operator 70_C
0 has a window of 3 pixels × 3 pixels, and has a coefficient of “8” for the center pixel and “−1” for all eight pixels other than the center. The edge amount is calculated by multiplying the coefficient in the window of the second derivative operator 70_C0 by the value of the characteristic color corresponding to the position of the window, and adding the respective multiplied values. The absolute value circuit 71 calculates the absolute value of the edge amount obtained by the second derivative operator 70_C0. The comparator 72 compares the data output from the absolute value circuit 71 with a predetermined threshold value TH, and detects whether the pixel of interest is an edge pixel. The data output from the absolute value circuit 71 is set to a predetermined threshold value TH.
In the case of (e.g., 50) or more, the target pixel is determined to be an edge pixel, and the output of the comparator 72 is set to "1". The data output from the absolute value circuit 71 is a predetermined threshold T
If less than H (for example, 50), it is determined that the target pixel is not an edge pixel, and the output of the comparator 72 is set to “0”. The counter 73 counts the number of times the output of the comparator has become “1”. The count buffer 74 accumulates the count result of the counter 73.

【0085】さて、このカウントはブロック単位におこ
なっている。ここでブロックとは、読み取り画像を主走
査方向、副走査方向に複数画素単位で分けたもので、こ
こでは第2解像度変換部38によって変換された所定解
像度の画素に対し50画素を単位として、50×50画
素の矩形を1ブロックとする。したがって、カウンタ7
3は50画素の入力毎にカウント結果をカウントバッフ
ァ74に保存しリセットされる。カウントバッファ74
は主走査方向のブロック数分存在し、副走査方向に1ブ
ロック分のデータが記録される。カウンタ73からカウ
ントバッファ74への記録に際しては、常にカウントバ
ッファ74上にすでに書き込まれているデータに対する
加算結果を書き込む、即ちリード・モディファイ・ライ
トの動作を行うことで副走査方向1ブロックの特徴色画
素数が累積される。副走査方向に1ブロック分のデータ
入力が完結すると、カウントバッファ74の内容すなわ
ちブロック毎に求められた特徴色の計数結果はバッファ
58に格納されると共にテンプレート選択部56に渡さ
れる。
The counting is performed on a block basis. Here, the block is obtained by dividing the read image in units of a plurality of pixels in the main scanning direction and the sub-scanning direction. In this case, the pixels of a predetermined resolution converted by the second resolution conversion unit 38 are set in units of 50 pixels. A rectangle of 50 × 50 pixels is defined as one block. Therefore, the counter 7
Reference numeral 3 indicates that the count result is stored in the count buffer 74 for each input of 50 pixels and reset. Count buffer 74
Exist in the number of blocks in the main scanning direction, and one block of data is recorded in the sub-scanning direction. At the time of recording from the counter 73 to the count buffer 74, the addition result to the data already written in the count buffer 74 is always written, that is, by performing the read-modify-write operation, the characteristic color of one block in the sub-scanning direction is obtained. The number of pixels is accumulated. When the data input for one block is completed in the sub-scanning direction, the contents of the count buffer 74, that is, the result of counting the characteristic colors obtained for each block are stored in the buffer 58 and passed to the template selection unit 56.

【0086】上記の動作は2次微分オペレータ70_C
1、2次微分オペレータ70_C2でも並列に行なわれ
ており、予め定められた特徴色信号に対してそれぞれエ
ッジ画素がカウントされ、それぞれのカウント結果は3
次元ベクトルすなわち特徴ベクトルとしてバッファ58
に格納されると共にテンプレート選択部56に渡され
る。
The above operation is performed by the second derivative operator 70_C
The first and second derivative operators 70_C2 also perform the operation in parallel, and the edge pixels are counted with respect to the predetermined characteristic color signal, and the count result is 3
Buffer 58 as a dimensional vector or feature vector
And passed to the template selection unit 56.

【0087】図13はバッファ58に格納されるデータ
の構成を示すデータ構成図である。図中、太実線が各ブ
ロックの区切れを示しており、C0(n)、C1
(n)、C2(n)はそれぞれで第nブロックでカウン
トされたエッジ画素カウントの結果を示し、1つのブロ
ック特徴データを3つのエッジ画素数で構成しているこ
とを表している。
FIG. 13 is a data structure diagram showing the structure of data stored in the buffer 58. In the figure, a thick solid line indicates the break of each block, and C0 (n), C1
(N) and C2 (n) indicate the results of edge pixel counting counted in the n-th block, respectively, and indicate that one block feature data is composed of three edge pixels.

【0088】次に、テンプレート選択部56について詳
細に説明する。図14はテンプレート選択部56の動作
を示すフローチャートである。以降の説明では、図11
と図14を併用する。
Next, the template selecting section 56 will be described in detail. FIG. 14 is a flowchart showing the operation of the template selection unit 56. In the following description, FIG.
And FIG.

【0089】エッジ量検出回路55からテンプレート選
択部56に、3つのエッジ量で構成される特徴ベクトル
がブロック毎に渡されると、特徴ベクトルとテンプレー
トとの比較が行なわれる。まず、ブロック毎の特徴ベク
トルを取得する(S1)。取得したデータは3次元のベ
クトルデータとして、Cn=(C0(n),C1
(n),C2(n))(但し、nはブロックの番号)と
して表す。この、Cnの大きさ|Cn|が一定値以上か
否かを判定する(S2)。一定以上である場合には、テ
ンプレート格納メモリ57に記憶されているテンプレー
トから、Cnにもっとも近いものを検索する。テンプレ
ート格納メモリ57のテンプレートはTm=(TC0
(m),TC1(m),TC2(m))(但し、mは参
照データ番号であり、m=1〜M)のデータ構造を有し
ており、距離Dnm=|Cn−Tm|(3次元ベクトル
のユークリッド距離)が最も小さくなる時のDnm(D
min)を検出し、テンプレート番号mと距離データD
minをバッファ58に格納する(S3)。また、ステ
ップ2において|Cn|が一定値を超えない場合は、ス
テップ3のテンプレート検索を行わず、テンプレートが
定義されていないテンプレート番号(例えばM+1)と
Dnmの取りうる最大値以上の値Dmaxをバッファ5
8に格納する(S4)。
When a feature vector composed of three edge amounts is passed from the edge amount detection circuit 55 to the template selection unit 56 for each block, the feature vector is compared with the template. First, a feature vector for each block is obtained (S1). The acquired data is Cn = (C0 (n), C1
(N), C2 (n)) (where n is the block number). It is determined whether the magnitude | Cn | of Cn is equal to or greater than a predetermined value (S2). If the number is equal to or more than a certain value, a template closest to Cn is searched from the templates stored in the template storage memory 57. The template in the template storage memory 57 is Tm = (TC0
(M), TC1 (m), TC2 (m)) (where m is a reference data number and m = 1 to M), and the distance Dnm = | Cn−Tm | (3 When the Euclidean distance of the dimensional vector is minimized, Dnm (D
min) and detects the template number m and the distance data D
min is stored in the buffer 58 (S3). If | Cn | does not exceed a certain value in step 2, the template search in step 3 is not performed, and a template number (eg, M + 1) for which no template is defined and a value Dmax equal to or more than the maximum value that Dnm can take are used. Buffer 5
8 (S4).

【0090】ここで、テンプレート格納メモリ57に収
められているテンプレートについて詳細に説明する。テ
ンプレート格納メモリ57はRAMであり、ROM61
に予め格納されたテンプレートデータを認識用CPU5
9によりコピーしている。テンプレートは、対象とする
特定画像よりあらかじめ求め、これらを格納しておく。
Here, the template stored in the template storage memory 57 will be described in detail. The template storage memory 57 is a RAM, and the ROM 61
CPU 5 for recognizing template data stored in advance in
9 is copied. The template is obtained in advance from the specific image to be processed, and is stored in advance.

【0091】図15(a)〜(d)はテンプレートと特
定画像との関係を示す関係図である。テンプレートは、
図15に示すように、対象とする特定画像を水平位置に
置いたときを基準(図15(a))とし、対象とする特
定画像を水平位置から微少角度単位で回転させたとき
(図15(b))、(図15(c))、またブロックと
特定画像の位置関係を水平及び垂直方向に数画素単位に
シフトさせたとき(図15(d))の各ブロックに対
し、各特徴色に対するエッジ量を求めたものをテンプレ
ートとしている。但し、以上のようにして求められるテ
ンプレートは膨大な数になるために、ベクトル量子化な
どのクラスタリング手法を用いて代表的なものを抽出
し、ROM61に格納しておく。
FIGS. 15A to 15D are relationship diagrams showing the relationship between the template and the specific image. The template is
As shown in FIG. 15, when the target specific image is placed at the horizontal position as a reference (FIG. 15A), when the target specific image is rotated from the horizontal position by a minute angle unit (FIG. 15). (B)), (FIG. 15 (c)), and the characteristics of each block when the positional relationship between the block and the specific image is shifted by several pixels in the horizontal and vertical directions (FIG. 15 (d)). A template obtained by calculating an edge amount for a color is used as a template. However, since the number of templates obtained as described above is enormous, a representative one is extracted by using a clustering technique such as vector quantization and stored in the ROM 61.

【0092】特定画像の認識過程について、まず図11
を用いて説明する。テンプレート選択部56の出力はバ
ッファ58に一旦格納される。これらの処理が所定量の
ブロック分終了した段階で主・副画素カウンタ60は割
り込み信号63を発生させ、認識用CPU59にバッフ
ァ58の内容を取得するよう要求する。認識用CPU5
9はバッファ58の内容を読み込み、作業用RAM64
に格納する。
The specific image recognition process will be described first with reference to FIG.
This will be described with reference to FIG. The output of the template selection unit 56 is temporarily stored in the buffer 58. When these processes have been completed for a predetermined number of blocks, the main / sub-pixel counter 60 generates an interrupt signal 63 and requests the recognition CPU 59 to acquire the contents of the buffer 58. Recognition CPU5
9 reads the contents of the buffer 58, and
To be stored.

【0093】図16は作業用RAM64内のデータ構成
を示すデータ構成図である。図中、TN(n)はそれぞ
れ各ブロックに対して求められた特徴ベクトルに最も近
いテンプレート番号である。またD(n)はそれぞれ各
ブロックに対して求められた、特徴ベクトルに最も近い
テンプレートとの距離DminもしくはDmaxであ
る。
FIG. 16 is a data structure diagram showing a data structure in the working RAM 64. In the figure, TN (n) is a template number closest to the feature vector obtained for each block. D (n) is the distance Dmin or Dmax between each block and the template closest to the feature vector.

【0094】図17(a)〜(c)は、実際の特定画像
の各ブロックに対して与えられるTN(n)とD(n)
のイメージを示すイメージ図である。図17(a)は特
定画像を含んだ画像を示し、図17(b)は各ブロック
に対するTN(n)の値を示したもので、ここではテン
プレートの番号は最大254としており、テンプレート
として定義されてない番号は254+1=255とす
る。図17(c)は各ブロックに対するD(n)の値を
示したものであり、図中の00の部分はDmaxもしく
はそれに近い値を示し、特定画像内のエッジ量分布とは
全く似ていない画像だということを意味する。また図中
の02はDminであり、特徴ベクトルとテンプレート
間の距離の値が0またはそれに近い値、即ち特定画像内
のエッジ量分布に非常に類似した画像を意味している。
また図中の01部分はその中間の値、即ち曖昧な画像を
意味している。
FIGS. 17A to 17C show TN (n) and D (n) given to each block of an actual specific image.
It is an image figure showing the image of. FIG. 17A shows an image including a specific image, and FIG. 17B shows the value of TN (n) for each block. Here, the template number is 254 at maximum, and is defined as a template. Unassigned numbers are 254 + 1 = 255. FIG. 17 (c) shows the value of D (n) for each block, and the portion of 00 in the figure shows Dmax or a value close to Dmax, which is not quite similar to the edge amount distribution in the specific image. It means that it is an image. Also, 02 in the figure is Dmin, which means an image in which the value of the distance between the feature vector and the template is 0 or a value close thereto, that is, an image very similar to the edge amount distribution in the specific image.
Also, the 01 part in the figure indicates an intermediate value, that is, an ambiguous image.

【0095】認識用CPU59は作業用RAM64上に
展開されたTN(n)とD(n)の分布状態と、後述す
るフレームマスクとに基き特定画像の有無判定を行う。
まず最初にD(n)を用いて行うフレーム判定処理につ
いて説明する。フレーム判定処理では、複数の隣接ブロ
ックの集まりを1つのフレームとし、フレームは、その
中心位置が入力画像左上から水平、垂直方向に1ブロッ
ク単位にシフトするようにしながら処理を行う。
The recognition CPU 59 determines the presence or absence of a specific image based on the distribution state of TN (n) and D (n) developed on the work RAM 64 and a frame mask described later.
First, the frame determination processing performed using D (n) will be described. In the frame determination process, a group of a plurality of adjacent blocks is regarded as one frame, and the frame is processed while shifting its center position from the upper left of the input image horizontally and vertically in units of one block.

【0096】次に、フレームマスクについて図18を用
いて説明する。図18(a)〜(d)はフレームマスク
の構造を示すフレームマスク構造図である。フレームマ
スクとはフレームを構成するブロックにマスクをかける
もので、図18に示すようにマスク角度の異なるものを
複数用意する。図18において、斜線付き四角がマスク
ブロック、白四角が非マスクブロックを示し、前者を
0、後者を1の2値で表したコードを図11のROM6
1に収めておく。
Next, the frame mask will be described with reference to FIG. FIGS. 18A to 18D are frame mask structure diagrams showing the structure of the frame mask. The frame mask is used to mask blocks constituting a frame, and a plurality of masks having different mask angles are prepared as shown in FIG. In FIG. 18, a hatched square indicates a mask block, a white square indicates a non-mask block, and the former is represented by a binary code of 0 and the latter is represented by a binary code of 1 in the ROM 6 of FIG.
Keep it in 1.

【0097】図19はフレーム処理における、1つのフ
レームに対する処理内容を示すフローチャートである。
FIG. 19 is a flowchart showing the processing contents for one frame in the frame processing.

【0098】図19においてまず、フレーム中央のブロ
ックに対して、特徴ベクトルと選択されたテンプレート
との距離D(n)を読み込み、閾値Th1と比較し(S
11)、閾値Th1より大きい(距離が遠い)場合はこ
のフレームに対しては特定画像はなかったものとし、次
のフレームに移動する。もし距離D(n)が閾値Th1
以下である(距離が近い)ときは、ROM61からフレ
ームマスクの1つを取得する(S12)。取得したフレ
ームマスクを1ブロック毎に順次見て行き、マスクブロ
ックに対しては以下の処理を飛ばし、非マスクブロック
に対してはそれに対応するブロックのD(n)を作業用
RAM64から取得する(S13、S14)。取得した
D(n)はDsumに逐次加算し(S15)、また、処
理を行ったブロック数をカウントするカウンタ値Bnu
mをインクリメントしていく(S16)。ステップ13
からステップ16までの処理をフレームを構成するブロ
ックが終了するまで行う(S17)。すべての構成ブロ
ックの処理が終了した後、ブロック数カウンタ値Bnu
mと距離の総和Dsumより、平均距離Dmeanを求
め(S18)、これを閾値Th2と比較する(S1
9)。Dmean≦Th2の場合には、画像中に特定画
像が含まれる可能性が高いと判定する。また、Dmea
n>Th2の場合は特定画像がなかったと判定し、フレ
ームマスクを変えてステップ12〜19を繰り返す(S
20)。
In FIG. 19, first, for the block at the center of the frame, the distance D (n) between the feature vector and the selected template is read and compared with the threshold Th1 (S
11) If it is larger than the threshold value Th1 (the distance is far), it is determined that there is no specific image for this frame, and the process moves to the next frame. If the distance D (n) is equal to the threshold Th1
If it is below (the distance is short), one of the frame masks is obtained from the ROM 61 (S12). The acquired frame masks are sequentially checked for each block, the following processing is skipped for the mask blocks, and D (n) of the corresponding blocks are acquired from the work RAM 64 for the non-mask blocks (S13). , S14). The acquired D (n) is sequentially added to Dsum (S15), and a counter value Bnu for counting the number of blocks subjected to processing is added.
m is incremented (S16). Step 13
Steps 16 to 16 are performed until the blocks constituting the frame are completed (S17). After the processing of all the constituent blocks is completed, the block number counter value Bnu
The average distance Dmean is obtained from m and the sum Dsum of the distances (S18), and is compared with the threshold Th2 (S1).
9). When Dmean ≦ Th2, it is determined that there is a high possibility that the specific image is included in the image. Also, Dmea
If n> Th2, it is determined that there is no specific image, and steps 12 to 19 are repeated with the frame mask changed (S
20).

【0099】上述したフレーム判定処理で処理している
画像中に特定画像が含まれる可能性が高いと判定された
場合は最終判定を行う。以降最終判定処理について図2
0と図21を用いて説明する。
When it is determined that there is a high possibility that the specific image is included in the image being processed in the above-described frame determination processing, a final determination is made. FIG. 2 shows the final determination process thereafter.
This will be described with reference to FIG.

【0100】図20(a)、(b)は最終判定における
回転角補正を示す回転角補正図である。最終判定には、
各画像ブロックの特徴ベクトルと最も距離が近いテンプ
レート番号が記述されたTN(n)を用いる。しかしフ
レーム判定処理で切り出された画像には正置配置ではな
い特定画像が含まれる可能性もある。
FIGS. 20A and 20B are rotation angle correction diagrams showing the rotation angle correction in the final judgment. For the final decision,
TN (n) in which a template number closest to the feature vector of each image block is described is used. However, the image cut out by the frame determination processing may include a specific image that is not in the normal arrangement.

【0101】上述したフレーム判定処理のステップ14
で、画像中に特定画像が含まれる可能性が高いと判定さ
れた時点で用いられたフレームマスクの種類によって、
フレーム判定の段階で特定画像の配置されている角度の
見当をつけることができる。この情報に基づいてTN
(n)そのものを正置位置に配置しなおす。図20はそ
の状況を示すものであり、図20(a)は回転補正前の
状況を示し、図20(b)は回転補正後の状況を示して
いる。各々の図で、○印、□印、△印の位置が対応して
いる。
Step 14 of the above-described frame determination process
In, depending on the type of frame mask used at the time when it is determined that the specific image is likely to be included in the image,
At the stage of frame determination, it is possible to give an idea of the angle at which the specific image is arranged. TN based on this information
(N) is relocated to the normal position. FIG. 20 shows the situation, in which FIG. 20 (a) shows the situation before rotation correction, and FIG. 20 (b) shows the situation after rotation correction. In each of the figures, the positions of ○, □, and Δ correspond to each other.

【0102】次に、図21を用いて最終判定処理を説明
する。図21は最終判定におけるフレームとブロックと
認識処理の関係を示す認識処理関係図であり、前述した
回転補正が行なわれた後を想定している。図中にある○
印、□印、△印は図20のものと対応している。図20
(b)では正置配置後のブロックは、一部階段状になっ
ているが、最終判定では図21に示すように、特定原稿
が正置配置されたものとみなして処理を行う。
Next, the final judgment processing will be described with reference to FIG. FIG. 21 is a recognition process relationship diagram showing the relationship between the frame, the block, and the recognition process in the final determination, and assumes that the above-described rotation correction has been performed. ○ in the figure
The marks, □, and Δ correspond to those in FIG. FIG.
In (b), the block after the normal placement is partly stepped, but in the final determination, as shown in FIG. 21, the processing is performed assuming that the specific document is placed correctly.

【0103】図21において、75はフレーム判定で特
定画像の存在する可能性が高いと判断されたフレームに
ついて、更にTN(n)が255(=テンプレート未定
義)以外の値を持つブロック集合であり、76は上記ブ
ロック集合75に含まれるブロックであり、説明を容易
にするため各ブロック毎にテンプレートをヒストグラム
として記載している。77はニューラルネットワークに
て構成された最終判定部であり、78はニュラールネッ
トワークの入力層、79はニュラールネットワークの中
間層、80はニュラールネットワークの出力層、81は
比較手段である。比較手段81は、出力層80から出力
される2つの出力を比較して大きい方を選択する。な
お、最終判定部77はソフトウェア、ハードウェアのい
ずれで構成してもよい。
In FIG. 21, reference numeral 75 denotes a set of blocks in which TN (n) has a value other than 255 (= template undefined) for a frame determined to have a high possibility that a specific image is present in the frame determination. , 76 are blocks included in the block set 75, and a template is described for each block as a histogram for ease of explanation. Reference numeral 77 denotes a final determination unit formed of a neural network, reference numeral 78 denotes an input layer of the neural network, reference numeral 79 denotes an intermediate layer of the neural network, reference numeral 80 denotes an output layer of the neural network, and reference numeral 81 denotes comparison means. The comparing means 81 compares the two outputs output from the output layer 80 and selects the larger one. Note that the final determination unit 77 may be configured by either software or hardware.

【0104】さて、回転補正により、正置配置位置に変
換されたブロックは、それぞれテンプレート番号TN
(n)を持っている。テンプレート番号とは実際は、特
定画像に含まれる特徴ベクトルそのものであるから、こ
れらは、図21のブロック76のようにヒストグラムで
示すことができる。このヒストグラムの度数を最終判定
部77の入力層78に入力する。入力層78は一つの入
力ユニットについて、ヒストグララムが有する3次元情
報に対応するため3つのノードを有しており、ヒストグ
ラムの度数はそれぞれのノードに対して入力される。全
てのブロックについて対応したノードに度数入力を行
う。ニューラルネットワークは予め学習しておいた重み
付け演算により中間層79で演算がなされ、出力層80
では特定画像らしい度合いと、特定画像らしくない度合
いを出力する。最後に比較手段81で、より大きな度合
いを出力した方を選択して出力する。従って比較手段8
1の出力は、入力された画像が特定画像であるか否かの
2値出力となる。以上の動作により特定画像の検出が可
能となる。
Now, the blocks converted into the normal arrangement positions by the rotation correction have template numbers TN respectively.
(N). Since the template number is actually the feature vector itself included in the specific image, these can be represented by a histogram as shown in a block 76 in FIG. The frequency of this histogram is input to the input layer 78 of the final determination unit 77. The input layer 78 has three nodes for one input unit to correspond to the three-dimensional information of the histogram, and the frequency of the histogram is input to each node. The frequency is input to the nodes corresponding to all the blocks. In the neural network, the operation is performed in the intermediate layer 79 by the weighting operation previously learned, and the output layer 80
Then, the degree of the specific image and the degree of the non-specific image are output. Finally, the comparing means 81 selects and outputs the one having a higher degree of output. Therefore, the comparison means 8
The output of 1 is a binary output indicating whether or not the input image is a specific image. With the above operation, the specific image can be detected.

【0105】さて、以上のようにして画像読み取り装置
で読み取った画像中に、特定画像が存在するか否かが判
定されるが、この種の認識には必ず誤判定の可能性があ
る。特に複写を禁止されている特定画像を検出するよう
な装置の場合、一般画像を特定画像と認識してしまう
と、本来複写が禁止されてない画像に対して複写ができ
なくなるという問題がある。以降図11を用いてこの解
決方法について説明する。
Now, it is determined whether or not a specific image exists in the image read by the image reading apparatus as described above. However, this type of recognition always involves an erroneous determination. In particular, in the case of a device that detects a specific image for which copying is prohibited, if a general image is recognized as a specific image, there is a problem that an image for which copying is not prohibited is not copied. Hereinafter, this solution will be described with reference to FIG.

【0106】図11に示すように特定画像認識部37は
メモリ54を有し、第2解像度変換部38によって所定
の解像度に変換されたRGB画像信号は、一旦メモリ5
4に格納されている。さてフレーム判定処理のステップ
19で、画像中に特定画像が含まれる可能性が高いと判
定された時点で用いられたフレームマスクの種類によっ
て、フレーム判定の段階で特定画像の配置されている角
度の見当をつけることができる。また画像に対してシフ
ト等を行ってフレームマスクを当てはめる段階で、特定
画像の座標情報についても見当をつけることができる。
認識用CPU59はメモリ54にアクセスできるように
ハードウェアが構成されており、最終判定で特定画像と
認識された場合は、上記の位置および回転角度情報に基
づき、認識用CPU59によりメモリ54の該当するア
ドレスをアクセスし、特定画像の特定の部分について、
印刷網などに関する構造情報や、より詳細な色味情報な
どを入手することができる。詳細判定の後に、これらの
情報に基づき再判定を実施することで、誤判定が発生す
る可能性を非常に少なくすることができる。
As shown in FIG. 11, the specific image recognizing unit 37 has a memory 54, and the RGB image signal converted to a predetermined resolution by the second resolution converting unit 38 is temporarily stored in the memory 5
4 is stored. By the way, in step 19 of the frame determination processing, the type of the frame mask used when it is determined that the specific image is likely to be included in the image is used to determine the angle at which the specific image is arranged in the frame determination stage. Can be attached. In addition, at the stage of applying a frame mask by performing a shift or the like on an image, it is possible to give an estimate of the coordinate information of the specific image.
The hardware for the recognition CPU 59 is configured so as to be able to access the memory 54. If the specific image is recognized in the final determination, the recognition CPU 59 determines the corresponding image in the memory 54 based on the position and rotation angle information. Address, and for specific parts of specific images,
It is possible to obtain structural information on a printing net or the like, more detailed color information, and the like. By performing the re-determination based on these pieces of information after the detailed determination, the possibility that an erroneous determination occurs can be greatly reduced.

【0107】以上のようにして読み取った画像中に特定
画像が含まれるか否かが判定されるが、以降図5と図1
1を用いて、判定結果が出力された後の動作を説明す
る。
It is determined whether or not a specific image is included in the image read as described above.
The operation after the determination result is output will be described using FIG.

【0108】認識用CPU59はシリアル通信ライン4
0を用いて判定結果をCPU32へ転送する。CPU3
2はインタフェース30を制御して他の装置31に判定
結果を通知する。SCSIなどの汎用インタフェースの
場合は、画像読み取り装置1から他の装置31にAbo
rtを出力して強制的に結果を受信させたり、他の装置
31が結果を受信するためのコマンドを画像読み取り装
置1に対して出力してもよい。
The recognition CPU 59 is connected to the serial communication line 4
The determination result is transferred to the CPU 32 using 0. CPU3
2 controls the interface 30 to notify another device 31 of the determination result. In the case of a general-purpose interface such as SCSI, the image reading device 1 sends an Abo
rt may be output to forcibly receive the result, or a command for another device 31 to receive the result may be output to the image reading device 1.

【0109】さて判定動作は画像読み取り装置1の読み
取り動作が終了した時点で開始されており、判定を開始
した時点では、画像読み取り装置1で読み取られた画像
データはホストコンピュータ3や画像記録装置2などの
他の装置31に既に転送されている。他の装置31は判
定結果を受理するまで、画像の加工や記録動作を停止し
ている。以上のようにして、特定画像の判定結果は画像
読み取り装置1から通知され、他の装置31はそれに従
って、例えば画像記録動作へ移行するか否かが決定され
る。
The determination operation is started when the reading operation of the image reading device 1 is completed. At the time when the determination is started, the image data read by the image reading device 1 is stored in the host computer 3 or the image recording device 2. Has already been transferred to another device 31. The other devices 31 stop processing or recording the image until receiving the determination result. As described above, the determination result of the specific image is notified from the image reading device 1, and the other devices 31 determine, for example, whether to shift to the image recording operation in accordance with the notification.

【0110】以上のように本実施の形態によれば、入力
カラー画像を所定サイズのブロックに分割する画像分割
部60と、画像分割部60で分割されたブロック単位に
エッジ画素のカウントを行ってエッジ量を検出するエッ
ジ量検出回路55と、エッジ量検出回路55によって検
出されたエッジ量に基づいて入力カラー画像に特定画像
が含まれるか否かを識別する識別部56、57、59と
を設けたことにより、検出したエッジ量に基づいて特定
画像の識別を行うことができるので、色味変動に影響さ
れることなく特定画像を識別することができる。また3
つの特徴色(RGB)を抽出する抽出部としてイメージ
センサ20を備え、エッジ量検出回路55は、抽出部2
0により抽出された3つの特徴色に対してエッジ量を検
出するようにしたことにより、特定画像に対応した特徴
色によるエッジ検出が可能となり、識別精度を向上させ
ることができる。
As described above, according to the present embodiment, the image dividing unit 60 that divides an input color image into blocks of a predetermined size, and the edge pixels are counted for each block divided by the image dividing unit 60. An edge amount detection circuit 55 for detecting an edge amount, and identification units 56, 57, and 59 for identifying whether or not a specific image is included in the input color image based on the edge amount detected by the edge amount detection circuit 55. With the provision, the specific image can be identified based on the detected edge amount, so that the specific image can be identified without being affected by the tint fluctuation. 3
The image sensor 20 is provided as an extraction unit for extracting two characteristic colors (RGB).
By detecting the edge amounts for the three characteristic colors extracted by 0, it becomes possible to detect the edge by the characteristic color corresponding to the specific image, and it is possible to improve the identification accuracy.

【0111】(実施の形態2)本発明の実施の形態2に
よる画像読み取り装置の構成は実施の形態1と同様の構
成である。本実施の形態が実施の形態1と異なるところ
は、図11のエッジ量検出回路55における処理方法で
あり、この点について図面を参照しながら説明する。
(Embodiment 2) The configuration of an image reading apparatus according to Embodiment 2 of the present invention is the same as that of Embodiment 1. This embodiment is different from the first embodiment in the processing method in the edge amount detection circuit 55 in FIG. 11, and this point will be described with reference to the drawings.

【0112】図22は本実施の形態による画像読み取り
装置を構成するエッジ量検出回路55を示すブロック図
である。
FIG. 22 is a block diagram showing an edge amount detection circuit 55 constituting the image reading apparatus according to the present embodiment.

【0113】図22において、56は図11と同様のテ
ンプレート選択部、58は図11と同様のバッファ、8
2_C0、82_C1、82_C2は2次微分オペレー
タ、83は絶対値回路、84は加算器、85はバッファ
である。2次微分オペレータ82_C0、82_C1、
82_C2は、それぞれ独立した予め定められた特徴色
の値に対し、エッジを検出するものである。本実施の形
態では3つの特徴色に対し、それぞれエッジ量を検出し
ているため、3つの2次微分オペレータを有している。
また、本実施の形態では3つの特徴色として、入力され
るRGB信号を分割し、Red、Green、Blue
の色を用いている。各特徴色に対する2次微分オペレー
タ82_C0、82_C1、82_C2は、構成上の差
異はないため、1色分のみ詳細に示している。2次微分
オペレータ82_C0は、3画素×3画素のウィンドウ
から成り、中央の画素に「8」、中央以外の8画素全て
に「−1」となる係数を有している。2次微分オペレー
タ82_C0のウィンドウ内の係数とウィンドウの位置
に対応する特徴色の値とを乗算し、それぞれの乗算値を
加算することにより、エッジ量の演算を行う。絶対値回
路83は、2次微分オペレータ82_C0によって得ら
れたエッジ量の絶対値を算出する。加算器84は、絶対
値回路83より出力されたデータを1ブロックの画素数
分加算する。バッファ85は加算器84の加算結果を累
積する。
In FIG. 22, reference numeral 56 denotes a template selection unit similar to that of FIG. 11, reference numeral 58 denotes a buffer similar to that of FIG.
2_C0, 82_C1, 82_C2 are second derivative operators, 83 is an absolute value circuit, 84 is an adder, and 85 is a buffer. Second derivative operators 82_C0, 82_C1,
82_C2 is for detecting an edge with respect to an independent predetermined characteristic color value. In the present embodiment, since the edge amount is detected for each of the three characteristic colors, it has three secondary differential operators.
In the present embodiment, an input RGB signal is divided into three characteristic colors, and Red, Green, and Blue are divided.
Colors are used. The second derivative operators 82_C0, 82_C1, and 82_C2 for each characteristic color have no structural difference, and only one color is shown in detail. The second derivative operator 82_C0 is composed of a window of 3 pixels × 3 pixels, and has a coefficient of “8” in the center pixel and “−1” in all eight pixels other than the center. An edge amount is calculated by multiplying the coefficient in the window of the second derivative operator 82_C0 by the value of the characteristic color corresponding to the position of the window, and adding the respective multiplied values. The absolute value circuit 83 calculates the absolute value of the edge amount obtained by the second derivative operator 82_C0. The adder 84 adds the data output from the absolute value circuit 83 by the number of pixels in one block. The buffer 85 accumulates the addition result of the adder 84.

【0114】さて、この加算処理はブロック単位に行っ
ている。ここでブロックとは、読み取り画像を主走査方
向、副走査方向に複数画素単位で分けたもので、ここで
は第2解像度変換部38によって変換された所定解像度
の画素に対し50画素を単位として、50×50画素の
矩形を1ブロックとする。したがって、加算器84は5
0画素の入力毎に加算結果をバッファ85に保存しリセ
ットされる。バッファ85は主走査方向のブロック数分
存在し、副走査方向に1ブロック分のデータが記録され
る。加算器84からバッファ85への記録に際しては、
常にバッファ85上にすでに書き込まれているデータに
対する加算結果を書き込む、即ちリード・モディファイ
・ライトの動作を行うことで副走査方向1ブロックの特
徴色エッジ量が累積される。副走査方向に1ブロック分
のデータ入力が完結すると、バッファ85の内容、即ち
ブロック毎に求められた特徴色の計数結果は、バッファ
58に格納されると供にテンプレート選択部56に渡さ
れる。
The addition process is performed on a block basis. Here, the block is a block in which the read image is divided into a plurality of pixels in the main scanning direction and the sub-scanning direction. In this case, the pixels of the predetermined resolution converted by the second resolution conversion unit 38 are set to 50 pixels. A rectangle of 50 × 50 pixels is defined as one block. Therefore, the adder 84 is 5
The addition result is stored in the buffer 85 for each input of 0 pixel and reset. The buffer 85 exists for the number of blocks in the main scanning direction, and records data for one block in the sub-scanning direction. When recording from the adder 84 to the buffer 85,
The characteristic color edge amount of one block in the sub-scanning direction is accumulated by always writing the addition result to the data already written on the buffer 85, that is, by performing the read-modify-write operation. When data input for one block is completed in the sub-scanning direction, the contents of the buffer 85, that is, the result of counting the characteristic colors obtained for each block are stored in the buffer 58 and passed to the template selecting unit 56.

【0115】上記の動作は2次微分オペレータ82_C
1、2次微分オペレータ82_C2でも並列に行なわれ
ており、予め定められた特徴色信号に対してそれぞれエ
ッジ量が検出され、それぞれのエッジ量の加算結果は3
次元ベクトル、即ち特徴ベクトルとしてバッファ58に
格納されると共にテンプレート選択部56に渡される。
The above operation is performed by the second derivative operator 82_C.
The first and second derivative operators 82_C2 also perform the operations in parallel, and detect the edge amounts for the predetermined characteristic color signals, respectively.
It is stored in the buffer 58 as a dimension vector, that is, a feature vector, and is also passed to the template selection unit 56.

【0116】以上のように本実施の形態によれば、入力
カラー画像を所定サイズのブロックに分割する画像分割
部60と、画像分割部60で分割されたブロック単位に
エッジ量の総和を検出するエッジ量検出回路55と、エ
ッジ量検出部によって検出されたエッジ量の総和に基づ
いて入力カラー画像に特定画像が含まれるか否かを識別
する識別部56、57、59とを設けたことにより、検
出したエッジ量に基づいて特定画像の識別を行うことが
できるので、色味変動に影響されることなく特定画像を
識別することができる。
As described above, according to the present embodiment, the image division unit 60 that divides an input color image into blocks of a predetermined size, and the sum of edge amounts is detected for each block divided by the image division unit 60 By providing an edge amount detection circuit 55 and identification units 56, 57, and 59 for identifying whether or not a specific image is included in an input color image based on the sum of the edge amounts detected by the edge amount detection unit. Since the specific image can be identified based on the detected edge amount, the specific image can be identified without being affected by the tint fluctuation.

【0117】[0117]

【発明の効果】以上説明したように本発明の請求項1に
記載の画像読み取り装置によれば、紙幣、有価証券等の
原稿の真偽を判定する画像読み取り装置であって、入力
カラー画像を所定サイズのブロックに分割する画像分割
部と、画像分割部で分割されたブロック単位にエッジ画
素のカウントを行ってエッジ量を検出するエッジ量検出
部と、エッジ量検出部によって検出されたエッジ量に基
づいて入力カラー画像に特定画像が含まれるか否かを識
別する識別部とを有することにより、検出したエッジ量
に基づいて特定画像の識別を行うことができるので、色
味変動に影響されることなく特定画像を識別することが
できるという有利な効果が得られる。
As described above, according to the image reading apparatus of the first aspect of the present invention, there is provided an image reading apparatus for judging the authenticity of a document such as a banknote or a security, wherein the input color image is reproduced. An image dividing unit that divides the image into blocks of a predetermined size, an edge amount detecting unit that counts edge pixels for each block divided by the image dividing unit to detect an edge amount, and an edge amount detected by the edge amount detecting unit And an identification unit that identifies whether a specific image is included in the input color image based on the input image, the specific image can be identified based on the detected edge amount. This has the advantageous effect that the specific image can be identified without any need.

【0118】請求項2に記載の画像読み取り装置によれ
ば、請求項1に記載の画像読み取り装置において、複数
の特徴色を抽出する抽出部を備え、エッジ量検出部は、
抽出部により抽出された複数の特徴色に対してエッジ量
を検出することにより、特定画像に対応した特徴色によ
るエッジ検出が可能となり、識別精度が向上するという
有利な効果が得られる。
According to the image reading apparatus of the second aspect, the image reading apparatus of the first aspect further includes an extracting section for extracting a plurality of characteristic colors, and the edge amount detecting section includes:
By detecting the edge amount for a plurality of characteristic colors extracted by the extraction unit, it is possible to perform edge detection using a characteristic color corresponding to a specific image, and to obtain an advantageous effect of improving identification accuracy.

【0119】請求項3に記載の画像読み取り装置によれ
ば、紙幣、有価証券等の原稿の真偽を判定する画像読み
取り装置であって、入力カラー画像を所定サイズのブロ
ックに分割する画像分割部と、画像分割部で分割された
ブロック単位にエッジ量の総和を検出するエッジ量検出
部と、エッジ量検出部によって検出されたエッジ量の総
和に基づいて入力カラー画像に特定画像が含まれるか否
かを識別する識別部とを有することにより、検出したエ
ッジ量に基づいて特定画像の識別を行うことができるの
で、色味変動に影響されることなく特定画像を識別する
ことができるという有利な効果が得られる。
According to the image reading apparatus of the third aspect, the image reading apparatus determines the authenticity of a document such as a bill or a securities, and the image dividing unit divides an input color image into blocks of a predetermined size. And an edge amount detection unit that detects the sum of the edge amounts for each block divided by the image division unit, and whether the specific image is included in the input color image based on the sum of the edge amounts detected by the edge amount detection unit. Since the specific image can be identified based on the detected edge amount by having the identification unit for identifying whether or not the specific image is included, it is advantageous that the specific image can be identified without being affected by the tint fluctuation. Effects can be obtained.

【0120】請求項4に記載の画像読み取り装置によれ
ば、請求項3に記載の画像読み取り装置において、複数
の特徴色を抽出する抽出部を備え、エッジ量検出部は、
抽出部により抽出された複数の特徴色に対してエッジ量
を検出することにより、特定画像に対応した特徴色によ
るエッジ検出が可能となり、識別精度が向上するという
有利な効果が得られる。
According to the image reading device of the fourth aspect, the image reading device of the third aspect includes an extraction unit for extracting a plurality of characteristic colors, and the edge amount detection unit includes:
By detecting the edge amount for a plurality of characteristic colors extracted by the extraction unit, it is possible to perform edge detection using a characteristic color corresponding to a specific image, and to obtain an advantageous effect of improving identification accuracy.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態1による画像読み取り装置
を有する画像複写システムを示す構成図
FIG. 1 is a configuration diagram showing an image copying system having an image reading device according to a first embodiment of the present invention;

【図2】図1の画像複写システムにおける画像読み取り
装置の構造を示す概略断面図
FIG. 2 is a schematic sectional view showing the structure of an image reading device in the image copying system of FIG. 1;

【図3】画像読み取り装置のキャリッジの内部構造を示
す概略断面図
FIG. 3 is a schematic sectional view showing an internal structure of a carriage of the image reading apparatus.

【図4】画像読み取り装置の光学系の詳細を示す斜視図FIG. 4 is a perspective view showing details of an optical system of the image reading apparatus.

【図5】画像読み取り装置において画像データ処理を行
う各ブロックを示すブロック図
FIG. 5 is a block diagram showing each block for performing image data processing in the image reading apparatus.

【図6】画像読み取り装置のキャリッジを側面から見た
模式図
FIG. 6 is a schematic view of a carriage of the image reading apparatus viewed from a side.

【図7】イメージセンサをラインセンサアレイ側から見
たアレイ図
FIG. 7 is an array diagram of the image sensor viewed from the line sensor array side.

【図8】ライン補正部の動作原理を説明するための動作
説明図
FIG. 8 is an operation explanatory diagram for explaining the operation principle of the line correction unit;

【図9】副走査方向に300dpiの解像度で画像を読
み取る場合のライン補正部の動作を説明するための動作
説明図
FIG. 9 is an operation explanatory diagram for explaining the operation of the line correction unit when reading an image at a resolution of 300 dpi in the sub-scanning direction.

【図10】解像度変換のアルゴリズムを示すアルゴリズ
ム図
FIG. 10 is an algorithm diagram showing a resolution conversion algorithm.

【図11】特定画像認識部を詳細に示すブロック図FIG. 11 is a block diagram showing a specific image recognition unit in detail.

【図12】エッジ量検出部を示すブロック図FIG. 12 is a block diagram illustrating an edge amount detection unit.

【図13】バッファに格納されるデータの構成を示すデ
ータ構成図
FIG. 13 is a data configuration diagram showing a configuration of data stored in a buffer.

【図14】テンプレート選択部の動作を示すフローチャ
ート
FIG. 14 is a flowchart showing the operation of a template selection unit.

【図15】(a)テンプレートと特定画像との関係を示
す関係図 (b)テンプレートと特定画像との関係を示す関係図 (c)テンプレートと特定画像との関係を示す関係図 (d)テンプレートと特定画像との関係を示す関係図
15A is a relationship diagram showing a relationship between a template and a specific image. FIG. 15B is a relationship diagram showing a relationship between a template and a specific image. FIG. 15C is a relationship diagram showing a relationship between a template and a specific image. Diagram showing the relationship between the image and the specific image

【図16】作業用RAM内のデータ構成を示すデータ構
成図
FIG. 16 is a data configuration diagram showing a data configuration in a working RAM;

【図17】(a)実際の特定画像の各ブロックに対して
与えられるTN(n)とD(n)のイメージを示すイメ
ージ図 (b)実際の特定画像の各ブロックに対して与えられる
TN(n)とD(n)のイメージを示すイメージ図 (c)実際の特定画像の各ブロックに対して与えられる
TN(n)とD(n)のイメージを示すイメージ図
17A is an image diagram showing an image of TN (n) and D (n) given to each block of an actual specific image. FIG. 17B is a diagram showing TN (TN) given to each block of an actual specific image. (c) Image diagram showing images of TN (n) and D (n) given to each block of an actual specific image

【図18】(a)フレームマスクの構造を示すフレーム
マスク構造図 (b)フレームマスクの構造を示すフレームマスク構造
図 (c)フレームマスクの構造を示すフレームマスク構造
図 (d)フレームマスクの構造を示すフレームマスク構造
18A is a frame mask structure diagram showing the structure of a frame mask. FIG. 18B is a frame mask structure diagram showing the structure of a frame mask. FIG. 18C is a frame mask structure diagram showing the structure of a frame mask.

【図19】フレーム処理における、1つのフレームに対
する処理内容を示すフローチャート
FIG. 19 is a flowchart showing processing contents for one frame in frame processing;

【図20】(a)最終判定における回転角補正を示す回
転角補正図 (b)最終判定における回転角補正を示す回転角補正図
20A is a rotation angle correction diagram showing a rotation angle correction in a final determination, and FIG. 20B is a rotation angle correction diagram showing a rotation angle correction in a final determination.

【図21】最終判定におけるフレームとブロックと認識
処理の関係を示す認識処理関係図
FIG. 21 is a recognition process relationship diagram showing a relationship between a frame, a block, and a recognition process in a final determination.

【図22】本発明の実施の形態2による画像読み取り装
置を構成するエッジ量検出部を示すブロック図
FIG. 22 is a block diagram illustrating an edge amount detection unit included in the image reading device according to the second embodiment of the present invention;

【符号の説明】[Explanation of symbols]

1 画像読み取り装置 2 画像記録装置 3 ホストコンピュータ 4 ケーブル 5 画像読み取り装置本体 6 原稿ガラス 7 キャリッジ 8 駆動源(ステッピングモータ) 9 駆動プーリ 10 タイミングベルト 11 ベルト 12 従動プーリ 13 原稿 14 原稿カバー 15 支持部 16 基準取得位置 17 ランプ 18 アパーチャ 19−1、19−2 反射ミラー 20 イメージセンサ(抽出部) 21 結像レンズ 22R、22G、22B ラインセンサアレイ 23R、23G、23B 読み取りライン 24 増幅器・A/D変換器 25 シェーディング補正部 26 ライン補正部 27 第1解像度変換部 28 色処理部 29 バッファ 30 インタフェース 31 他の装置 32 CPU 33 モータ制御部 37 特定画像認識部 38 第2解像度変換部 39 認識部 40 シリアル通信ライン 50、51 メモリ領域 53 画素 54 メモリ 55 エッジ量検出回路 56 テンプレート選択部 57 テンプレート格納メモリ 58、85 バッファ 59 認識用CPU 60 主・副画素カウンタ(画像分割部) 61 ROM 64 作業用RAM 70_C0、70_C1、70_C2、82_C0、8
2_C1、82_C22次微分オペレータ 71、83 絶対値回路 72 比較器 73 カウンタ 74 カウントバッファ 75 ブロックの集合 76 ブロック 77 最終判定部 78 入力層 79 中間層 80 出力層 81 比較手段 84 加算器
DESCRIPTION OF SYMBOLS 1 Image reading device 2 Image recording device 3 Host computer 4 Cable 5 Image reading device main body 6 Document glass 7 Carriage 8 Drive source (stepping motor) 9 Drive pulley 10 Timing belt 11 Belt 12 Follower pulley 13 Document 14 Document cover 15 Supporting part 16 Reference acquisition position 17 Lamp 18 Aperture 19-1 and 19-2 Reflection mirror 20 Image sensor (extraction unit) 21 Imaging lens 22R, 22G, 22B Line sensor array 23R, 23G, 23B Read line 24 Amplifier / A / D converter Reference Signs List 25 shading correction unit 26 line correction unit 27 first resolution conversion unit 28 color processing unit 29 buffer 30 interface 31 other device 32 CPU 33 motor control unit 37 specific image recognition unit 38 second resolution conversion unit 39 Recognition unit 40 serial communication line 50, 51 memory area 53 pixel 54 memory 55 edge amount detection circuit 56 template selection unit 57 template storage memory 58, 85 buffer 59 recognition CPU 60 main / sub pixel counter (image division unit) 61 ROM 64 Working RAM 70_C0, 70_C1, 70_C2, 82_C0, 8
2_C1, 82_C 22nd derivative operator 71, 83 Absolute value circuit 72 Comparator 73 Counter 74 Count buffer 75 Set of blocks 76 Block 77 Final decision unit 78 Input layer 79 Intermediate layer 80 Output layer 81 Comparison means 84 Adder

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06F 15/70 335Z 9A001 Fターム(参考) 3E041 AA01 AA02 AA03 BA11 BA12 BB03 BC03 CA01 CB02 CB09 DB01 EA03 5B047 AA01 AB04 BA02 BC05 BC09 DA04 DB01 5B057 AA11 BA02 CA01 CA08 CA12 CA16 CD05 DA03 DB02 DB06 DC16 DC25 5C077 LL14 MM08 MP07 MP08 PP06 PP20 PP32 TT06 5L096 AA02 BA03 BA07 BA18 CA02 EA03 FA06 GA03 GA12 GA19 GA38 JA03 JA09 9A001 HH23 JJ64 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G06F 15/70 335Z 9A001 F term (Reference) 3E041 AA01 AA02 AA03 BA11 BA12 BB03 BC03 CA01 CB02 CB09 DB01 EA03 5B047 AA01 AB04 BA02 BC05 BC09 DA04 DB01 5B057 AA11 BA02 CA01 CA08 CA12 CA16 CD05 DA03 DB02 DB06 DC16 DC25 5C077 LL14 MM08 MP07 MP08 PP06 PP20 PP32 TT06 5L096 AA02 BA03 BA07 BA18 CA02 EA03 FA06 GA03 GA12 GA19 GA38 JA03 JA09 9A001

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】紙幣、有価証券等の原稿の真偽を判定する
画像読み取り装置であって、入力カラー画像を所定サイ
ズのブロックに分割する画像分割部と、前記画像分割部
で分割されたブロック単位にエッジ画素のカウントを行
ってエッジ量を検出するエッジ量検出部と、前記エッジ
量検出部によって検出されたエッジ量に基づいて前記入
力カラー画像に特定画像が含まれるか否かを識別する識
別部とを有することを特徴とする画像読み取り装置。
An image reading apparatus for determining the authenticity of a document such as a bill or a security, comprising: an image dividing unit for dividing an input color image into blocks of a predetermined size; and a block divided by the image dividing unit. An edge amount detection unit that detects an edge amount by counting edge pixels in units; and identifies whether a specific image is included in the input color image based on the edge amount detected by the edge amount detection unit. An image reading device comprising: an identification unit.
【請求項2】複数の特徴色を抽出する抽出部を備え、前
記エッジ量検出部は、前記抽出部により抽出された複数
の特徴色に対してエッジ量を検出することを特徴とする
請求項1に記載の画像読み取り装置。
2. The image processing apparatus according to claim 1, further comprising an extraction unit for extracting a plurality of characteristic colors, wherein the edge amount detection unit detects an edge amount for the plurality of characteristic colors extracted by the extraction unit. 2. The image reading device according to 1.
【請求項3】紙幣、有価証券等の原稿の真偽を判定する
画像読み取り装置であって、入力カラー画像を所定サイ
ズのブロックに分割する画像分割部と、前記画像分割部
で分割されたブロック単位にエッジ量の総和を検出する
エッジ量検出部と、前記エッジ量検出部によって検出さ
れたエッジ量の総和に基づいて入力カラー画像に特定画
像が含まれるか否かを識別する識別部とを有することを
特徴とする画像読み取り装置。
3. An image reading apparatus for judging the authenticity of a document such as a bill or a security, comprising: an image dividing section for dividing an input color image into blocks of a predetermined size; and a block divided by the image dividing section. An edge amount detection unit that detects the sum of the edge amounts in units, and an identification unit that identifies whether a specific image is included in the input color image based on the sum of the edge amounts detected by the edge amount detection unit. An image reading device comprising:
【請求項4】複数の特徴色を抽出する抽出部を備え、前
記エッジ量検出部は、前記抽出部により抽出された複数
の特徴色に対してエッジ量を検出することを特徴とする
請求項3に記載の画像読み取り装置。
4. An apparatus according to claim 1, further comprising an extraction unit for extracting a plurality of characteristic colors, wherein said edge amount detection unit detects an edge amount for the plurality of characteristic colors extracted by said extraction unit. 4. The image reading device according to 3.
JP11147952A 1999-05-27 1999-05-27 Image reader Withdrawn JP2000341512A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11147952A JP2000341512A (en) 1999-05-27 1999-05-27 Image reader

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11147952A JP2000341512A (en) 1999-05-27 1999-05-27 Image reader

Publications (1)

Publication Number Publication Date
JP2000341512A true JP2000341512A (en) 2000-12-08

Family

ID=15441798

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11147952A Withdrawn JP2000341512A (en) 1999-05-27 1999-05-27 Image reader

Country Status (1)

Country Link
JP (1) JP2000341512A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU769655B2 (en) * 2000-08-04 2004-01-29 Canon Kabushiki Kaisha Automatic person meta-data labeller
JP2006527948A (en) * 2003-06-18 2006-12-07 ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー Edge analysis in video quality assessment
JP2009519532A (en) * 2005-12-16 2009-05-14 エヌ・シー・アール・コーポレイション Bank note confirmation
JP2010205133A (en) * 2009-03-05 2010-09-16 Panasonic Corp Apparatus and method for identifying object
JP2011028374A (en) * 2009-07-22 2011-02-10 Kyodo Printing Co Ltd Image processing system and image processing method
JP2014036324A (en) * 2012-08-08 2014-02-24 Fuji Xerox Co Ltd Image processing apparatus and image processing program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU769655B2 (en) * 2000-08-04 2004-01-29 Canon Kabushiki Kaisha Automatic person meta-data labeller
JP2006527948A (en) * 2003-06-18 2006-12-07 ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー Edge analysis in video quality assessment
JP2009519532A (en) * 2005-12-16 2009-05-14 エヌ・シー・アール・コーポレイション Bank note confirmation
JP2010205133A (en) * 2009-03-05 2010-09-16 Panasonic Corp Apparatus and method for identifying object
JP2011028374A (en) * 2009-07-22 2011-02-10 Kyodo Printing Co Ltd Image processing system and image processing method
JP2014036324A (en) * 2012-08-08 2014-02-24 Fuji Xerox Co Ltd Image processing apparatus and image processing program

Similar Documents

Publication Publication Date Title
US5949903A (en) Indentification of a particular color image using distribution, and circuitry for same
EP0932115B1 (en) Apparatus and method for pattern recognition
US9007662B2 (en) Image processing apparatus, image processing method, and image processing program recorded recording medium
JPH11126259A (en) Image detecting method, image detector, image processing method, image processor and medium
JP5241631B2 (en) Image processing method, image processing apparatus, and program
KR101215278B1 (en) Detection of document security marks using run profiles
US20050047658A1 (en) Image processing apparatus and image processing method
US20050175220A1 (en) Image processing apparatus and image processing method for correcting image data
JPH05244414A (en) Picture processor
US7016538B2 (en) Image processor for detecting specified pattern
JP2000341512A (en) Image reader
CN108460775A (en) A kind of forge or true or paper money recognition methods and device
JP2000149004A (en) Image reader
US7155051B2 (en) Image recognition apparatus, image recognition method and image recognition program for specific pattern
JP5222126B2 (en) Image processing method, image processing apparatus, and program
JP5222127B2 (en) Image processing apparatus, image processing method, and program
EP1562145A1 (en) Image processing apparatus and image processing method for correcting image data
JP2000253242A (en) Picture reading system
JP2000215314A (en) Image identifying device
JP2000134469A (en) Image reader
JP3245154B2 (en) Image processing device
JP3966354B2 (en) Digital image playback device
JP2000155833A (en) Image recognizing device
JP3151993B2 (en) Image processing apparatus and copier equipped with the same
JP3178533B2 (en) Control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060307

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20060412

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20070613