JP2000215314A - Image identifying device - Google Patents

Image identifying device

Info

Publication number
JP2000215314A
JP2000215314A JP11015591A JP1559199A JP2000215314A JP 2000215314 A JP2000215314 A JP 2000215314A JP 11015591 A JP11015591 A JP 11015591A JP 1559199 A JP1559199 A JP 1559199A JP 2000215314 A JP2000215314 A JP 2000215314A
Authority
JP
Japan
Prior art keywords
image
specific image
registration
data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP11015591A
Other languages
Japanese (ja)
Inventor
Tetsuo Tanaka
哲夫 田中
Yuji Toyomura
祐士 豊村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP11015591A priority Critical patent/JP2000215314A/en
Publication of JP2000215314A publication Critical patent/JP2000215314A/en
Ceased legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image identifying device, which can newly register an image, which has not been registered in the image identifying device, and can be applied even to the new design of paper money or securities by dividing an inputted image into blocks in a prescribed size, detecting a feature amount for every block unit and identifying whether a specified image is included in the inputted image or not on the basis of this feature amount. SOLUTION: A specified image recognizing part 37 detects whether the specified image exists in read image data or not. A second resolution converting part 38 converts the read image data to a prescribed resolution. On the basis of the image data converted to the prescribed resolution by the second resolution converting part 38, a recognizing part 39 recognizes the specified image. A mode selecting part 41 selects whether the input image is to be registered or to be recognized. A register part 42 registers the feature amount of the image data. When the mode selected by the mode selecting part 41 is in a recognition mode, a CPU 32 dispatches recognition mode information through a serial communication line 40 to the recognizing part 39 and the recognizing part 39 receives this information and executes recognition.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、紙幣や有価証券等
の画像識別装置に関するものである。特に複写装置、ス
キャナ、ファクシミリなどの他、両替機、自動販売機、
紙幣入出金機などのように画像を読み取る機能を有する
装置において、紙幣や有価証券等の真偽を識別する画像
識別装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image discriminating apparatus for bills and securities. Especially in addition to copiers, scanners, facsimile machines, etc., currency exchange machines, vending machines,
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a device having a function of reading an image, such as a banknote pay-in / pay-out device, and relates to an image identification device for identifying authenticity of banknotes, securities, and the like.

【0002】[0002]

【従来の技術】近年、複写装置、スキャナ、ファクシミ
リなどの他、両替機、自動販売機、紙幣入出金機などに
おいて、入力された画像を紙幣や有価証券等の画像と一
致するか否かを精巧に識別する画像識別装置が求められ
ている。
2. Description of the Related Art In recent years, in addition to copiers, scanners, facsimile machines, etc., currency exchange machines, vending machines, banknote pay-in / pay-out machines, and the like, determine whether or not an input image matches an image of a banknote, securities, or the like. There is a need for a sophisticated image identification device.

【0003】このような従来の画像識別装置としては、
画像読み取り部により紙幣や有価証券等の特定形状また
は特定の色味分布などによる特徴パターンを読み取り、
この特徴パターンと記憶部に予め登録されている基準パ
ターンとを比較することにより、紙幣や有価証券等の真
偽を識別する画像識別装置が知られている。
[0003] As such a conventional image identification device,
The image reading unit reads a characteristic pattern based on a specific shape or a specific color distribution of bills, securities, etc.,
2. Description of the Related Art There is known an image identification apparatus that identifies authenticity of bills, securities, and the like by comparing the characteristic pattern with a reference pattern registered in advance in a storage unit.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、紙幣や
有価証券等は次々と新規なデザインのものが発行され、
全ての紙幣や有価証券等を登録することは不可能であ
る。しかしながら、上記従来の画像識別装置では、登録
してある紙幣や有価証券等しか識別できないため、新た
な紙幣や有価証券等のデザインに対しては、使用不能と
なるという問題点を有していた。
However, new designs of banknotes and securities are issued one after another.
It is impossible to register all bills and securities. However, the above-described conventional image identification device has a problem that it cannot be used for a design of a new bill, securities, or the like because only registered bills, securities, and the like can be identified. .

【0005】本発明は上記従来の課題を解決するもの
で、画像識別装置に登録していない画像を新たに登録可
能にすることが可能で、新たな紙幣や有価証券等のデザ
インに対しても適応することが可能な画像識別装置を提
供することを目的とする。
[0005] The present invention solves the above-mentioned conventional problems, and makes it possible to newly register an image that has not been registered in the image identification device, and it is also possible to design a new bill or securities. It is an object to provide an image identification device that can be adapted.

【0006】[0006]

【課題を解決するための手段】上記課題を解決するため
に本発明の画像識別装置は、入力された画像を所定サイ
ズのブロックに分割しブロック単位毎に特徴量を抽出す
る抽出手段と、抽出手段によって抽出された特徴量に基
づき入力された画像に特定画像が含まれるか否かを識別
する識別手段と、抽出手段によりブロック単位毎に抽出
された特定画像の特徴量を登録する登録手段と、登録手
段により登録される特定画像の特徴量を記憶する登録デ
ータ格納メモリと、識別手段あるいは登録手段を選択的
に動作させるモード選択手段と、を備えた構成より成
る。
In order to solve the above-mentioned problems, an image discriminating apparatus according to the present invention comprises: an extracting means for dividing an input image into blocks of a predetermined size and extracting a feature amount for each block; Identification means for identifying whether or not a specific image is included in an image input based on the feature quantity extracted by the means, and registration means for registering the feature quantity of the specific image extracted for each block unit by the extraction means; , A registration data storage memory for storing the characteristic amount of the specific image registered by the registration means, and a mode selection means for selectively operating the identification means or the registration means.

【0007】この構成により、画像識別装置に登録して
いない画像を新たに登録可能にすることが可能で、新た
な紙幣や有価証券等のデザインに対しても適応すること
が可能な画像識別装置を提供することができる。
[0007] With this configuration, it is possible to newly register an image that is not registered in the image identification device, and the image identification device can be applied to a design of a new bill or securities. Can be provided.

【0008】[0008]

【発明の実施の形態】この目的を達成するために本発明
の請求項1に記載の画像識別装置は、入力された画像を
所定サイズのブロックに分割しブロック単位毎に特徴量
を抽出する抽出手段と、抽出手段によって抽出された特
徴量に基づき入力された画像に特定画像が含まれるか否
かを識別する識別手段と、抽出手段によりブロック単位
毎に抽出された特定画像の特徴量を登録する登録手段
と、登録手段により登録される特定画像の特徴量を記憶
する登録データ格納メモリと、識別手段あるいは登録手
段を選択的に動作させるモード選択手段と、を備えた構
成としたものであり、この構成により、以下の作用が得
られる。
DESCRIPTION OF THE PREFERRED EMBODIMENTS In order to achieve this object, an image identification apparatus according to a first aspect of the present invention divides an input image into blocks of a predetermined size and extracts a feature amount for each block unit. Means, identification means for identifying whether a specific image is included in the input image based on the feature quantity extracted by the extraction means, and feature quantity of the specific image extracted for each block by the extraction means. Registering means, a registration data storage memory for storing a feature amount of a specific image registered by the registering means, and a mode selecting means for selectively operating the identifying means or the registering means. With this configuration, the following operation is obtained.

【0009】(1)モード選択手段は、識別手段を動作
させる認識モード、あるいは登録手段を動作させる登録
モードの何れかを選択する。
(1) The mode selection means selects either a recognition mode for operating the identification means or a registration mode for operating the registration means.

【0010】(2)登録モードが選択された場合、抽出
手段は、入力された特定画像から所定サイズのブロック
単位に特徴量を抽出し、登録手段はブロック単位に抽出
された特定画像の特徴量を登録データ格納メモリに登録
する。
(2) When the registration mode is selected, the extracting means extracts the characteristic amount in blocks of a predetermined size from the input specific image, and the registering means extracts the characteristic amounts of the specific image extracted in block units. Is registered in the registration data storage memory.

【0011】(3)認識モードが選択された場合、抽出
手段は、入力された画像から所定サイズのブロック単位
に特徴量を抽出し、識別手段は、抽出手段によって抽出
された特徴量に基づき前記入力された画像に特定画像が
含まれるか否かを識別する。
(3) When the recognition mode is selected, the extraction means extracts a feature amount from the input image in block units of a predetermined size, and the identification means based on the feature amount extracted by the extraction means. It is determined whether or not the specific image is included in the input image.

【0012】(4)使用環境に応じた特定画像をいつで
も登録することが可能となる。
(4) A specific image according to the use environment can be registered at any time.

【0013】ここで、登録データ格納メモリとしては、
EEPROMやフラッシュメモリなどのような書き換え
可能な不揮発性メモリや、磁気ディスク装置やフロッピ
ーディスク装置や光ディスク装置等の書き換え可能な記
録媒体等が挙げられる。
Here, as the registered data storage memory,
Examples include a rewritable nonvolatile memory such as an EEPROM and a flash memory, and a rewritable recording medium such as a magnetic disk device, a floppy disk device, and an optical disk device.

【0014】また、特徴量としては、特定画像の特徴を
明確に表す色、フレームマスク、テンプレートデータ、
特徴色の色範囲、ニューラルネットワークの中間層にお
ける重み係数等が用いられる。
The feature quantity includes a color, a frame mask, template data,
The color range of the characteristic color, the weight coefficient in the intermediate layer of the neural network, and the like are used.

【0015】本発明の請求項2に記載の発明は、請求項
1に記載の画像識別装置において、登録手段は、抽出手
段によってブロック単位に抽出された特定画像の特徴量
を登録データ格納メモリに新規登録する新規登録手段
と、登録データ格納メモリに登録済みの特定画像を選択
する特定画像選択手段と、特定画像選択手段により選択
された特定画像の特徴量を抽出手段により新たに抽出さ
れた特定画像の特徴量に書換変更する書換登録手段と、
新規登録手段あるいは書換登録手段を選択的に動作させ
る登録データ選択手段と、を備えた構成としたものであ
り、この構成により、以下の作用が得られる。
According to a second aspect of the present invention, in the image identification device according to the first aspect, the registration means stores the characteristic amount of the specific image extracted in units of blocks by the extraction means in a registration data storage memory. A new registration unit for newly registering, a specific image selection unit for selecting a specific image registered in the registration data storage memory, and a specification newly extracted by the extraction unit for a feature amount of the specific image selected by the specific image selection unit Rewriting registration means for rewriting and changing the image feature value;
And a registration data selecting means for selectively operating the new registration means or the rewriting registration means. With this configuration, the following operation can be obtained.

【0016】(1)登録モードが選択された場合、登録
データ選択手段は、新規登録を行うか書換登録を行うか
を選択する。
(1) When the registration mode is selected, the registration data selection means selects whether to perform new registration or rewrite registration.

【0017】(2)新規登録を行うことが選択された場
合、新規登録手段は、抽出手段によってブロック単位に
抽出された特定画像の特徴量を登録データ格納メモリに
新規登録する。
(2) When the new registration is selected, the new registration unit newly registers the feature amount of the specific image extracted for each block by the extraction unit in the registration data storage memory.

【0018】(3)書換登録を行うことが選択された場
合、特定画像選択手段は、登録データ格納メモリに登録
済みの特定画像から書換えを行う特定画像を選択し、書
換登録手段は、選択された特定画像の特徴量を、抽出手
段により新たに抽出された特定画像の特徴量に書換変更
する。
(3) When rewriting registration is selected, the specific image selecting means selects a specific image to be rewritten from the specific images registered in the registration data storage memory, and the rewriting registration means selects the specific image to be rewritten. The characteristic amount of the specific image is rewritten and changed to the characteristic amount of the specific image newly extracted by the extracting unit.

【0019】(4)識別精度を調整することが可能とな
る。
(4) It is possible to adjust the identification accuracy.

【0020】本発明の請求項3に記載の発明は、請求項
2に記載の画像識別装置において、入力された特定画像
に登録済みの特定画像が含まれている場合書換登録手段
を動作させ、入力された特定画像に登録済みの特定画像
が含まれていない場合新規登録手段を動作させる制御を
行う登録データ選択手段を備え、識別手段は、入力され
た特定画像に登録済みの特定画像が含まれるか否かを識
別することを特徴とする構成としたものであり、この構
成により、以下の作用が得られる。
According to a third aspect of the present invention, in the image identification apparatus according to the second aspect, when the input specific image includes a registered specific image, the rewriting registration unit is operated, When the input specific image does not include a registered specific image, the input specific image includes a registration data selection unit that performs control to operate the new registration unit, and the identification unit includes the registered specific image in the input specific image. This configuration is characterized in that it is determined whether or not it is performed. With this configuration, the following operation is obtained.

【0021】(1)登録モードが選択された場合、ま
ず、識別手段が、入力された特定画像に登録済みの特定
画像が含まれるか否かを識別し、次に、登録データ選択
手段は、識別手段の識別結果に基づき、入力された特定
画像に登録済みの特定画像が含まれている場合、新規登
録を行うことが選択し、入力された特定画像に登録済み
の特定画像が含まれていない場合、書換登録を行うこと
が選択する。
(1) When the registration mode is selected, first, the identification means identifies whether or not the input specific image includes a registered specific image, and then, the registration data selection means If the input specific image includes a registered specific image based on the identification result of the identification unit, the user selects to perform a new registration, and the input specific image includes the registered specific image. If not, select to perform rewrite registration.

【0022】(2)同種の特定画像を間違って複数登録
することを防ぐことができる。
(2) It is possible to prevent a plurality of specific images of the same type from being erroneously registered.

【0023】本発明の請求項4に記載の発明は、請求項
1乃至3の何れか一項に記載の画像識別装置において、
登録手段は、識別する特定画像以外の画像の特徴量を非
識別画像特徴データとして登録することを特徴とした構
成としたものであり、この構成により、識別すべき画像
データと他の画像データとの違いを明確となり識別精度
が向上するという作用が得られる。
According to a fourth aspect of the present invention, there is provided the image identification apparatus according to any one of the first to third aspects, wherein:
The registering means is characterized in that a feature amount of an image other than the specific image to be identified is registered as non-identifying image feature data. With this configuration, the image data to be identified and the other image data are registered. And the effect of improving the identification accuracy is obtained.

【0024】本発明の請求項5に記載の発明は、請求項
4の画像識別装置において、登録手段は、登録された非
識別画像特徴データの中から、識別する特定画像に対応
した非識別画像特徴データを、特定画像毎に選択するこ
とを特徴とした構成としたものであり、この構成によ
り、非識別画像のデータ量を削減できるという作用が得
られる。
According to a fifth aspect of the present invention, in the image identification device of the fourth aspect, the registering means selects a non-identifying image corresponding to the specific image to be identified from the registered non-identifying image feature data. This configuration is characterized in that the feature data is selected for each specific image. With this configuration, an effect that the data amount of the non-identified image can be reduced can be obtained.

【0025】本発明の請求項6に記載の発明は、請求項
4の画像識別装置において、登録手段は、識別する特定
画像に対応した非識別画像特徴データを、識別する特定
画像より作成し登録データ格納メモリに記憶することを
特徴とした構成としたものであり、この構成により、予
め非識別画像特徴データを登録する必要がなく、大幅な
データ量の削減が可能となるという作用が得られる。
According to a sixth aspect of the present invention, in the image identification apparatus of the fourth aspect, the registration means creates and registers non-identification image feature data corresponding to the specific image to be identified from the specific image to be identified. This configuration is characterized in that it is stored in a data storage memory. With this configuration, it is not necessary to register non-identified image feature data in advance, and an effect that a significant reduction in data amount can be obtained. .

【0026】以下に本発明の一実施の形態について、図
面を参照しながら説明する。
An embodiment of the present invention will be described below with reference to the drawings.

【0027】(実施の形態1)以下の実施の形態では、
本発明の画像識別装置の一例として、複写装置に適用し
た場合について説明する。
(Embodiment 1) In the following embodiment,
A case where the present invention is applied to a copying apparatus will be described as an example of the image identification apparatus of the present invention.

【0028】図1は本発明の画像識別装置を用いた画像
複写システムを示す図である。
FIG. 1 is a diagram showing an image copying system using the image identification apparatus of the present invention.

【0029】図1において、1は原稿を読み取ってデジ
タルカラー画像データを外部の装置に出力する画像読み
取り装置、2は外部から転送された画像データに基づい
てカラー画像を形成する画像記録装置、3は画像読み取
り装置1に対して複数種類のコマンドを出力して画像デ
ータを取得したり画像記録装置2に対して画像データを
出力するホストコンピュータ、4は画像読み取り装置1
と画像記録装置2とホストコンピュータ3を相互に接続
するケーブルである。画像データおよびコマンド類は、
ケーブル4によって各装置間で双方向で通信される。
In FIG. 1, reference numeral 1 denotes an image reading device for reading a document and outputting digital color image data to an external device; 2, an image recording device for forming a color image based on image data transferred from the outside; Is a host computer that outputs a plurality of types of commands to the image reading device 1 to acquire image data or outputs image data to the image recording device 2, and 4 is an image reading device 1
And a cable for mutually connecting the image recording apparatus 2 and the host computer 3. Image data and commands are
Communication is performed bidirectionally between the devices by the cable 4.

【0030】本実施の形態では、画像読み取り装置1と
画像記録装置2とホストコンピュータ3とはSCSI
(Small Computer System In
terface)により互いに接続されており、画像記
録装置2は、ホストコンピュータ3の介在なしに、画像
読み取り装置1に複数のコマンドを発行し画像読み取り
装置1から画像データを入手し、入手した画像データに
基づき画像を形成することも可能である。尚、画像読み
取り装置1は、本実施の形態の画像識別装置を兼ね備え
ている。
In this embodiment, the image reading device 1, the image recording device 2, and the host computer 3
(Small Computer System In
The image recording device 2 issues a plurality of commands to the image reading device 1 without the intervention of the host computer 3 to obtain image data from the image reading device 1, and It is also possible to form an image based on this. Note that the image reading device 1 also has the image identification device of the present embodiment.

【0031】図2は図1の画像複写システムの画像読み
取り装置の要部断面図である。
FIG. 2 is a sectional view of a main part of the image reading apparatus of the image copying system of FIG.

【0032】図2において、1は図1で説明した画像読
み取り装置、5は画像読み取り装置の本体、6は読み取
らせる原稿を載置する原稿ガラス、7は原稿を走査して
読みとるキャリッジである。キャリッジ7は、シャフ
ト、レール等の支持部材(図示せず)により支持されて
おり、移動方向を一方向に規制されている。
In FIG. 2, reference numeral 1 denotes the image reading apparatus described with reference to FIG. 1, 5 denotes a main body of the image reading apparatus, 6 denotes a document glass on which a document to be read is placed, and 7 denotes a carriage for scanning and reading the document. The carriage 7 is supported by a support member (not shown) such as a shaft and a rail, and the movement direction is restricted to one direction.

【0033】8はキャリッジを駆動する駆動源、9は駆
動プーリ、10はタイミングベルトである。駆動源8に
はステッピングモータが採用されている。また、駆動源
8で発生した動力は、タイミングベルト10によって駆
動プーリ9に伝達される。
Reference numeral 8 denotes a driving source for driving the carriage, 9 denotes a driving pulley, and 10 denotes a timing belt. The drive source 8 employs a stepping motor. The power generated by the drive source 8 is transmitted to the drive pulley 9 by the timing belt 10.

【0034】11はベルト、12は従動プーリである。
ベルト11は駆動プーリ9と従動プーリ12の間に張ら
れており、駆動プーリ9の回転に伴ってキャリッジ7を
方向d1(以下、この方向を副走査方向と呼ぶ。)及び
その逆方向に移動させる。
Reference numeral 11 denotes a belt, and 12 denotes a driven pulley.
The belt 11 is stretched between the driving pulley 9 and the driven pulley 12, and the carriage 7 moves in the direction d1 (hereinafter, this direction is referred to as a sub-scanning direction) and the reverse direction with the rotation of the driving pulley 9. Let it.

【0035】13は原稿ガラス6上に載置された原稿、
14は原稿13の画像の読みとり時に外部からの光を遮
断するための原稿カバー、15は原稿カバー14を本体
5に開閉可能に支持する支持部、16は基準取得位置、
16aは原稿ガラス5上の基準取得位置16に貼り付け
られた白色の基準板、po1はキャリッジ7のホームポ
ジションである。キャリッジ7は、画像読み取り装置1
が待機中の場合には必ずホームポジションpo1に位置
している。また、原稿13はキャリッジ7の移動により
ライン単位に読み取られる。
Reference numeral 13 denotes an original placed on the original glass 6,
Reference numeral 14 denotes a document cover for blocking external light when reading an image of the document 13, reference numeral 15 denotes a supporting portion which supports the document cover 14 so that the document cover 14 can be opened and closed, 16 denotes a reference acquisition position,
Reference numeral 16a denotes a white reference plate attached to the reference acquisition position 16 on the document glass 5, and po1 denotes a home position of the carriage 7. The carriage 7 includes the image reading device 1
Is always at the home position po1 when is waiting. The original 13 is read line by line by the movement of the carriage 7.

【0036】図3は図2の画像読み取り装置のキャリッ
ジの内部構造を示す要部断面図であり、図4は画像読み
取り装置のキャリッジを側面から見た際の模式図であ
る。
FIG. 3 is a sectional view of a main part showing the internal structure of the carriage of the image reading apparatus of FIG. 2, and FIG. 4 is a schematic view of the carriage of the image reading apparatus when viewed from the side.

【0037】図3及び図4において、6は原稿ガラス、
7はキャリッジ、13は原稿であり、これらは図2と同
様のものであるため、同一の符号を付して説明を省略す
る。
3 and 4, reference numeral 6 denotes an original glass;
Reference numeral 7 denotes a carriage, and 13 denotes an original. These are the same as those shown in FIG.

【0038】7aはキャリッジ7の上面にキャリッジ7
の移動方向に対して垂直横長に形設された開口部、17
はキャリッジ7の内部の開口部7aの前後双方に配設さ
れたランプ、18は開口部7a直下の前後双方のランプ
17の中間に配設されたアパーチャ、19−1、19−
2はアパーチャ18を通過した原稿からの反射光を反射
する反射ミラー、20はキャリッジ7の内部に固定され
たイメージセンサ、21は反射ミラー19−2からの反
射光をイメージセンサ20上に結像させる結像レンズ、
22R、22G、22Bは反射ミラー19−2と対向す
るイメージセンサ20の一側面に上下に並べて配設され
たラインセンサアレイである。
7a is the carriage 7 on the upper surface of the carriage 7.
Opening formed in the horizontal direction perpendicular to the moving direction of the
Is a lamp provided at both front and rear of the opening 7a inside the carriage 7, 18 is an aperture provided at the middle of both the front and rear lamps 17 just below the opening 7a, 19-1, 19-
Reference numeral 2 denotes a reflection mirror that reflects light reflected from a document that has passed through the aperture 18, reference numeral 20 denotes an image sensor fixed inside the carriage 7, and reference numeral 21 denotes light reflected from the reflection mirror 19-2 on the image sensor 20. Imaging lens,
22R, 22G, and 22B are line sensor arrays vertically arranged on one side of the image sensor 20 facing the reflection mirror 19-2.

【0039】ランプ17は、開口部7a及び原稿ガラス
6を通して、原稿ガラス6上に載置された原稿13に光
を照射する。原稿13で反射され開口部7aに入射する
反射光は、アパーチャ18により、画像読み取り位置の
部分のみに絞られるため、実質的に画像読み取り位置が
特定される。イメージセンサ20は、原稿13で反射さ
れ、反射ミラー19−1、19−2及び結像レンズ21
により縮小されて結像した光学情報を、電気信号に変換
することによって、原稿面と一対一の関係で読み取る。
The lamp 17 irradiates the original 13 placed on the original glass 6 with light through the opening 7 a and the original glass 6. The reflected light reflected by the document 13 and incident on the opening 7a is narrowed down to only the image reading position by the aperture 18, so that the image reading position is substantially specified. The image sensor 20 is reflected by the original 13, and reflected by the reflection mirrors 19-1 and 19-2 and the imaging lens 21.
The optical information reduced and formed into an image is converted into an electric signal, and is read in a one-to-one relationship with the document surface.

【0040】尚、図4では後述の動作の説明を簡単にす
るため、図3で示したランプ17やアパーチャ18は省
略してある。
In FIG. 4, the lamp 17 and the aperture 18 shown in FIG. 3 are omitted to simplify the description of the operation described later.

【0041】図5は画像読み取り装置の光学系の詳細を
示す斜視図である。
FIG. 5 is a perspective view showing the details of the optical system of the image reading apparatus.

【0042】図5において、6は原稿ガラス、19−1
及び19−2は反射ミラー、20はイメージセンサ、2
1は結像レンズであり、これらは図3と同様のものであ
るため、同一の符号を付して説明は省略する。尚、図5
では図面を見易くするため、反射ミラー19−1、19
−2は線で表現されている。
In FIG. 5, reference numeral 6 denotes an original glass;
And 19-2 are reflection mirrors, 20 is an image sensor, 2
Reference numeral 1 denotes an imaging lens, which is the same as that shown in FIG. FIG.
In order to make the drawing easier to see, the reflection mirrors 19-1 and 19-1
-2 is represented by a line.

【0043】22Rはレッドの信号を読み取るラインセ
ンサアレイ、22Gはグリーンの信号を読み取るライン
センサアレイ、22Bはブルーの信号を読み取るライン
センサアレイ、23Rはラインセンサアレイ22Rで読
み取られる原稿ガラス6上の位置を示す読み取りライ
ン、23Gはラインセンサアレイ22Gで読み取られる
原稿ガラス6上の位置を示す読み取りライン、23Bは
ラインセンサアレイ22Bで読み取られる原稿ガラス6
上の位置を示す読み取りラインである。
22R is a line sensor array for reading a red signal, 22G is a line sensor array for reading a green signal, 22B is a line sensor array for reading a blue signal, and 23R is a line sensor array that is read by the line sensor array 22R. A reading line indicating a position, 23G is a reading line indicating a position on the original glass 6 read by the line sensor array 22G, and 23B is an original glass 6 read by the line sensor array 22B.
This is a reading line indicating the upper position.

【0044】各ラインセンサアレイ22R、22G、2
2Bは、キャリッジ7の移動方向(図5の方向d1)に
対し垂直に配列した複数の画素から構成されている。ま
た、各ラインセンサアレイ22R、22G、22Bの表
面には読み取るべき色に対応したカラーフィルタが装着
されている。このように、本実施の形態ではいわゆる3
ラインカラーセンサー(3つのラインセンサアレイ22
R、22G、22B)を用いて画像を読み取っている。
Each of the line sensor arrays 22R, 22G, 2
2B is composed of a plurality of pixels arranged perpendicular to the moving direction of the carriage 7 (direction d1 in FIG. 5). A color filter corresponding to the color to be read is mounted on the surface of each of the line sensor arrays 22R, 22G, and 22B. Thus, in the present embodiment, the so-called 3
Line color sensor (three line sensor arrays 22
R, 22G, and 22B).

【0045】3つのラインセンサアレイ22R、22
G、22Bは、各々位置が異なっているため、原稿の1
つの位置(ライン)を同時にを読み取ることはできな
い。このため後述するように、各ラインセンサアレイ2
2R、22G、22Bで得られた画像データを所定量遅
延させる手段が必要となる。
Three line sensor arrays 22R, 22
G and 22B are located at different positions.
Two positions (lines) cannot be read simultaneously. Therefore, as described later, each line sensor array 2
A means for delaying the image data obtained by 2R, 22G, and 22B by a predetermined amount is required.

【0046】尚、以下この各ラインセンサアレイ22
R、22G、22Bの配列方向(図5のd2方向)を、
以下、主走査方向と呼ぶ。
In the following, each of the line sensor arrays 22
The arrangement direction of R, 22G and 22B (d2 direction in FIG. 5)
Hereinafter, it is called a main scanning direction.

【0047】図6は画像読み取り装置の画像データ処理
回路の構成を表すブロック図である。
FIG. 6 is a block diagram showing the configuration of the image data processing circuit of the image reading device.

【0048】図6において、17は前述のランプ、20
は前述のイメージセンサであり、3ラインのラインセン
サアレイ22R、22G、22Bで構成され、アナログ
画像情報をR、G、B各色のライン単位に出力する。
In FIG. 6, reference numeral 17 denotes the aforementioned lamp,
Is the above-mentioned image sensor, which is composed of three line sensor arrays 22R, 22G, and 22B, and outputs analog image information in units of R, G, and B lines.

【0049】24aはイメージセンサ20から出力され
たアナログの画像データ信号を所定のゲインにて増幅す
る増幅器、24bは増幅器24aにより増幅されたアナ
ログ信号をディジタル信号に変換するA/D変換器、2
5は入力されたディジタル画像信号を予め取得しておい
た白と黒のダイナミックレンジに対して正規化するシェ
ーディング補正部、26はシェーディング補正部25か
ら入力される各色の画像データのそれぞれを各色ごとに
一定のタイミングで遅延させて出力しラインセンサアレ
イ22R、22G、22Bの位置の異なりによる画像入
力のタイミングずれを補正した画像データを出力するラ
イン補正部、27はホストコンピュータ3や画像記録装
置2から指定されたパラメータに基づいてライン補正部
26から出力される画像データの解像度を変換する第1
解像度変換部、28はラインセンサアレイ22R、22
G、22B上のカラーフィルタに存在する分光スペクト
ル上の不要吸収帯の影響を減らし鮮やかな色再現ができ
るように各色の画像データを補正する色処理部、29は
上記過程で処理された画像データを一旦格納するバッフ
ァ、30はインタフェース、31は画像読み取り装置1
と接続された他の装置(本実施の形態においては実質的
にホストコンピュータ3や、画像記録装置2を指す)で
ある。
An amplifier 24a amplifies the analog image data signal output from the image sensor 20 with a predetermined gain, and 24b an A / D converter for converting the analog signal amplified by the amplifier 24a into a digital signal.
Reference numeral 5 denotes a shading correction unit for normalizing an input digital image signal to a previously acquired white and black dynamic range. Reference numeral 26 denotes image data of each color input from the shading correction unit 25 for each color. A line correction unit 27 that outputs image data with a fixed timing and outputs image data in which the image input timing shift due to the difference in the position of the line sensor arrays 22R, 22G, and 22B is corrected; Converting the resolution of the image data output from the line correction unit 26 based on the parameters specified by the first
The resolution converter 28 is a line sensor array 22R, 22
A color processing unit 29 for reducing the influence of unnecessary absorption bands on the spectral spectrum existing in the color filters on G and 22B and correcting the image data of each color so that vivid color reproduction can be performed. 29 is the image data processed in the above process. , A buffer for temporarily storing an image, 30 an interface, 31 an image reading device 1
Is another device (substantially refers to the host computer 3 or the image recording device 2 in the present embodiment).

【0050】バッファ29は、外部との通信速度の差を
吸収し、より高速に画像データを外部装置に出力するた
めに設けられている。また、画像読み取り装置1と他の
装置31はSCSI(Small Computer
System Interface)により接続されて
いる。画像読み取り装置1は、インタフェース30によ
りSCSIを経由して画像データを他の装置31に対し
て出力すると共に、他の装置31から読み取り範囲や読
み取り解像度などの読み取りパラメータを入手すること
ができる。
The buffer 29 is provided for absorbing a difference in communication speed with the outside and outputting image data to an external device at a higher speed. Further, the image reading device 1 and the other device 31 are connected to a SCSI (Small Computer).
(System Interface). The image reading device 1 can output image data to another device 31 via the interface 30 via SCSI, and can obtain reading parameters such as a reading range and a reading resolution from the other device 31.

【0051】32は画像読み取り装置1の動作シーケン
スなどをを制御するCPU、33は画像読み取り装置の
キャリッジ7を移動させる駆動源8に対して駆動信号
(より正しくはステッピングモータに対する励磁信号)
を出力するモータ制御部、34、35、36、36aは
制御信号である。
Reference numeral 32 denotes a CPU for controlling the operation sequence and the like of the image reading device 1, and reference numeral 33 denotes a driving signal (more precisely, an excitation signal for a stepping motor) to a driving source 8 for moving the carriage 7 of the image reading device.
Are motor control units, 34, 35, 36 and 36a are control signals.

【0052】CPU32は、制御信号34によりライン
補正部26の動作内容を制御し、制御信号35により第
1解像度変換部27の動作内容を制御し、制御信号36
によりモータ制御部33を介して駆動源8の回転速度を
制御し、制御信号36aによりランプ17の点灯・消滅
を制御する。
The CPU 32 controls the operation of the line correction section 26 by a control signal 34, controls the operation of the first resolution conversion section 27 by a control signal 35, and controls the control signal 36.
Controls the rotation speed of the drive source 8 via the motor control unit 33, and controls the lighting / extinguishing of the lamp 17 by the control signal 36a.

【0053】37は読み取った画像データ中に特定画像
が存在するか否かを検出する特定画像認識部、38は読
み取った画像データを所定の(例えば75dpi(do
tper inch)の)解像度に変換する第2解像度
変換部、39は第2解像度変換部38で所定の解像度に
変換された画像データに基づき特定画像を認識する認識
部、40はシリアル通信ライン、41は入力画像を登録
するか認識するかを選択する手段であるモード選択部、
42は画像データの特徴量の登録を行う登録部である。
Reference numeral 37 denotes a specific image recognizing unit for detecting whether or not a specific image exists in the read image data. 38 denotes a predetermined image (for example, 75 dpi (do)).
2) a second resolution conversion unit 39 for converting the resolution into a specific resolution based on the image data converted to a predetermined resolution by the second resolution conversion unit 38; 40, a serial communication line; Is a mode selection unit that is a means for selecting whether to register or recognize the input image,
Reference numeral 42 denotes a registration unit for registering a feature amount of image data.

【0054】シリアル通信ライン40は、認識部39と
CPU32の間を接続しており、認識部39とCPU3
2は双方向に通信を行うことで情報をやりとりすること
が可能である。
The serial communication line 40 connects between the recognition section 39 and the CPU 32, and the recognition section 39 and the CPU 3
2 can exchange information by performing bidirectional communication.

【0055】モード選択部41により選択されたモード
が認識モードである場合、CPU32は、シリアル通信
ライン40を介して認識部39へ認識モード情報を渡
し、認識部39は認識モード情報を受け取ると認識を実
行する。
When the mode selected by the mode selection unit 41 is the recognition mode, the CPU 32 passes the recognition mode information to the recognition unit 39 via the serial communication line 40, and the recognition unit 39 recognizes that the recognition mode information has been received. Execute

【0056】また、モード選択部41により選択された
モードが登録モードである場合、CPU32は、シリア
ル通信ライン40を介して認識部39へ登録モード情報
を渡し、登録部42は、第2解像度変換部38で所定の
解像度に変換された画像データを用いて、この画像デー
タの特徴量の登録を実行する。この際、認識部39は、
認識を実行し、登録部42に登録するデータが新規の特
定画像のデータであるか既に登録部42に登録されてい
るデータかを認識するようにしてもよい。
When the mode selected by the mode selection section 41 is the registration mode, the CPU 32 passes the registration mode information to the recognition section 39 via the serial communication line 40, and the registration section 42 performs the second resolution conversion. Using the image data converted to a predetermined resolution by the unit 38, the feature amount of the image data is registered. At this time, the recognition unit 39
Recognition may be performed to recognize whether data registered in the registration unit 42 is data of a new specific image or data already registered in the registration unit 42.

【0057】図7はイメージセンサをラインセンサアレ
イ側から見た模式平面図である。
FIG. 7 is a schematic plan view of the image sensor viewed from the line sensor array side.

【0058】図7において、各色のラインセンサアレイ
22R、22G、22Bは主走査方向d2に一列に配置
されており、副走査方向d1において、各色のラインセ
ンサアレイはそれぞれL1、L2の間隔で配置されてい
る。
In FIG. 7, the line sensor arrays 22R, 22G and 22B of each color are arranged in a line in the main scanning direction d2, and the line sensor arrays of each color are arranged at intervals of L1 and L2 in the sub-scanning direction d1. Have been.

【0059】’□’はラインセンサアレイ22R、22
G、22Bの個々の画素を示しており、以下、簡単のた
め、’□’を画像読み取り装置の600dpiにおける
1画素のサイズとする。
'□' indicates line sensor arrays 22R, 22
G and 22B are shown, and for the sake of simplicity, '□' is the size of one pixel at 600 dpi of the image reading apparatus.

【0060】一般的なイメージセンサでは、L1とL2
は等しくかつL1とL2はそれぞれ読み取り画素サイズ
の整数倍の値を持っている。本実施の形態では、例え
ば、L1とL2は600dpiのラインに換算すると8
本分とし、各色のラインセンサアレイ22R、22G、
22Bは600dpi/8=75dpiのピッチで副走
査方向に平行に配置されている。このような構造のイメ
ージセンサでは、同一の位置(ライン)を同時に読み取
ることができないことは前述したとおりであり、これを
補正するのがライン補正部26(図6参照)である。
In a general image sensor, L1 and L2
Are equal and L1 and L2 each have a value that is an integral multiple of the read pixel size. In this embodiment, for example, L1 and L2 are 8 when converted to a line of 600 dpi.
The line sensor arrays 22R, 22G for each color
22B is arranged in parallel with the sub-scanning direction at a pitch of 600 dpi / 8 = 75 dpi. As described above, the image sensor having such a structure cannot read the same position (line) at the same time, and the line correction unit 26 (see FIG. 6) corrects this.

【0061】図8は特定画像認識部の構造を示したブロ
ック図である。
FIG. 8 is a block diagram showing the structure of the specific image recognition unit.

【0062】図8において、37は特定画像認識部、3
8は入力された画像データを所定の解像度に変換する第
2解像度変換部、54は第2解像度変換部38で所定の
解像度に変換された画像データを一旦格納するメモリ、
55は予め定められた複数色の範囲の画像データ個数を
カウントして後述の特徴ベクトルデータを生成する特徴
色カウンタ、56は特徴色カウンタ55で生成された特
徴ベクトルデータを予め準備した複数のテンプレートと
比較し最もユークリッド距離が近いテンプレートを選択
するテンプレート選択部、57はテンプレート選択部5
6で特徴ベクトルとの比較に用いる複数のテンプレート
を格納するテンプレート格納メモリ、58は特徴色カウ
ンタ55でカウントした特徴色のカウント値及びテンプ
レート選択部56で選択されたテンプレートの番号並び
に特徴ベクトルデータとテンプレートのユークリッド距
離を格納するバッファ、59は画像中に特定画像が含ま
れるか否かを認識する認識用CPU、60は入力された
画像データの画素数を主走査方向と副走査方向にカウン
トし所定のカウント数となる毎に認識用CPU59に割
り込み信号63を出力する主・副画素カウンタ、61は
認識プログラムなどが格納されたROM、43はテンプ
レート格納メモリ57に格納するテンプレートデータや
特徴色カウンタ55で使用する特徴色の値及びその色範
囲の情報などが格納された登録データ格納メモリ、62
は認識用CPU59から第2解像度変換部38に対して
制御パラメータ等を通知する制御信号、64は作業用R
AMである。
In FIG. 8, reference numeral 37 denotes a specific image recognition unit;
8 is a second resolution converter for converting the input image data to a predetermined resolution, 54 is a memory for temporarily storing the image data converted to the predetermined resolution by the second resolution converter 38,
Reference numeral 55 denotes a feature color counter that counts the number of image data in a predetermined range of a plurality of colors to generate feature vector data to be described later. Reference numeral 56 denotes a plurality of templates prepared in advance by using the feature vector data generated by the feature color counter 55 A template selecting unit for selecting a template having the closest Euclidean distance as compared with the template selecting unit;
6, a template storage memory for storing a plurality of templates used for comparison with the feature vector; 58, a count value of the feature color counted by the feature color counter 55, a template number selected by the template selection unit 56, and feature vector data; A buffer for storing the Euclidean distance of the template, a recognition CPU 59 for recognizing whether or not a specific image is included in the image, and a counter 60 for counting the number of pixels of the input image data in the main scanning direction and the sub scanning direction. A main / sub pixel counter for outputting an interrupt signal 63 to the recognition CPU 59 every time a predetermined count is reached, 61 is a ROM storing a recognition program and the like, 43 is template data and a characteristic color counter stored in a template storage memory 57 The value of the characteristic color used in 55 and the information of its color range are Has been registered data storage memory, 62
Is a control signal for notifying control parameters and the like from the recognition CPU 59 to the second resolution converter 38;
AM.

【0063】登録データ格納メモリ43は、例えば、E
EPROMやフラッシュメモリなどのような書き換え可
能な不揮発性メモリであり、テンプレートデータや特徴
色情報などの特定画像に関する登録データを追加あるい
は削除可能なものである。
The registration data storage memory 43 stores, for example, E
It is a rewritable nonvolatile memory such as an EPROM or a flash memory, and can add or delete registration data relating to a specific image such as template data or characteristic color information.

【0064】図9は図8の特徴色カウンタ55の構成を
示すブロック図である。
FIG. 9 is a block diagram showing the configuration of the characteristic color counter 55 of FIG.

【0065】図9において、70C1、70C2、70
C3は、それぞれ、独立した特徴色を検出する特徴色検
出部である。本実施の形態では、3つの特徴色(レッ
ド、グリーン、ブルーのみに限らずこれらの混合色でも
よい)を検出しているため、3つの特徴色検出部を有し
ている。各特徴色検出部70C1、70C2、70C3
はそれぞれ異なる色を検出する点を除けば構成上の差異
はない。
In FIG. 9, 70C1, 70C2, 70C
C3 is a characteristic color detecting unit that detects an independent characteristic color. In the present embodiment, three characteristic colors (not only red, green, and blue, but also a mixture thereof) may be detected, and therefore, three characteristic colors are detected. Each characteristic color detection unit 70C1, 70C2, 70C3
There is no difference in configuration except that each detects a different color.

【0066】71a〜71rは各特徴色検出部70C
1、70C2、70C3のそれぞれに対し6つ設けられ
入力されたRGB画像データを予め定められた値と比較
し画像データが所定の範囲に入るか否かを検出する比較
器、72a、72b、72cは3つの特徴色検出部70
C1、70C2、70C3のそれぞれに対して1つづつ
設けられ各特徴色検出部70C1、70C2、70C3
の6つの比較器71a〜71f、71g〜71l、71
m〜71rの出力に対して積論理演算処理を行いその結
果を出力するANDゲート、73a、73b、73cは
3つの特徴色のそれぞれのANDゲート72a、72
b、72cの出力が1となった回数をカウントするカウ
ンタ、74は各カウンタ73a、73b、73cのカウ
ント結果を累積するカウントバッファである。
Reference numerals 71a to 71r denote each characteristic color detecting section 70C.
Comparators 72a, 72b, 72c for comparing the input RGB image data with a predetermined value and detecting whether or not the image data is within a predetermined range, provided for each of the 1, 70C2, and 70C3. Represents three characteristic color detection units 70
C1, 70C2, and 70C3, one for each of the characteristic color detection units 70C1, 70C2, and 70C3.
Six comparators 71a to 71f, 71g to 71l, 71
AND gates 73a, 73b, and 73c that perform product logical operation processing on the outputs of m to 71r and output the results are AND gates 72a and 72 for the three characteristic colors, respectively.
A counter 74 counts the number of times the outputs of b and 72c become 1, and a count buffer 74 accumulates the count results of the counters 73a, 73b and 73c.

【0067】以上のように構成された本実施の形態の画
像識別装置について、以下その動作を説明する。
The operation of the image identification apparatus of the present embodiment configured as described above will be described below.

【0068】最初に、図1〜図6を参照しながら電源投
入時の動作について説明する。
First, the operation when the power is turned on will be described with reference to FIGS.

【0069】まず、画像複写システムの電源が投入され
ると、CPU32(図6参照)は、モータ制御部33に
制御信号36を送り駆動源8を制御することにより、画
像読み取り装置1のキャリッジ7を、初期位置にかかわ
らず、ホームポジションpo1に復帰させる。その後、
CPU32は、アパーチャ18が基準板16aの直下と
なる基準取得位置16にキャリッジ7を移動させ、制御
信号36aにより、ランプ17を点灯して基準板16a
をイメージセンサ20により実際に読み取る。このと
き、イメージセンサ20から出力されるアナログの画像
データ信号に対して増幅器24aのゲインを決定すると
共に、シェーディング補正部25の白黒レベルの補正
(シェーディング補正)等を行なう。その後、CPU3
2は、キャリッジ7を再度ホームポジションpo1に復
帰させ、待機状態となる。
First, when the power of the image copying system is turned on, the CPU 32 (see FIG. 6) sends a control signal 36 to the motor control section 33 to control the drive source 8 so that the carriage 7 of the image reading apparatus 1 Is returned to the home position po1 regardless of the initial position. afterwards,
The CPU 32 moves the carriage 7 to the reference acquisition position 16 in which the aperture 18 is directly below the reference plate 16a, and turns on the lamp 17 by the control signal 36a to turn on the reference plate 16a.
Is actually read by the image sensor 20. At this time, the gain of the amplifier 24a is determined for the analog image data signal output from the image sensor 20, and the black and white level correction (shading correction) of the shading correction unit 25 is performed. After that, CPU3
2 returns the carriage 7 to the home position po1 again, and enters a standby state.

【0070】ここで、画像読み取り装置1のキャリッジ
7の光学系について、図4を参照しながら詳細に説明す
る。
Here, the optical system of the carriage 7 of the image reading apparatus 1 will be described in detail with reference to FIG.

【0071】イメージセンサ20に配置されたラインセ
ンサアレイ22Rは、レッドの画像情報を読み取るが、
原稿ガラス6における読み取りラインの位置はPRであ
る。またラインセンサアレイ22Gはグリーンの画像情
報を読み取るが、原稿ガラス6における読み取りライン
の位置はPGである。またラインセンサアレイ22Bは
ブルーの画像情報を読み取るが、原稿ガラス6における
読み取りラインの位置はPBである。
The line sensor array 22R arranged on the image sensor 20 reads the red image information.
The position of the reading line on the original glass 6 is PR. The line sensor array 22G reads green image information, and the position of the reading line on the original glass 6 is PG. The line sensor array 22B reads blue image information, and the position of the reading line on the original glass 6 is PB.

【0072】画像を読み取る動作時においては、キャリ
ッジ7は副走査方向(d1)方向に移動する。このと
き、原稿13に対して、まずPBの位置が読み取りライ
ンとなり、次にPGの位置が、最後にPRの位置が読み
取りラインとなる。つまり原稿の同一位置(ライン)に
基づけば、まずブルーの画像データが得られ、次にグリ
ーン、最後にレッドの画像データが得られる。従って、
最初に得たブルーの画像データと、次に得たグリーンの
画像データを所定のライン数分保持しておき、レッドの
画像データが得られた際に、保持しておいたブルーとグ
リーンの画像データを出力すれば、R、G、Bのライン
位置を揃えて出力することができる。
During the operation of reading an image, the carriage 7 moves in the sub-scanning direction (d1). At this time, with respect to the document 13, first, the position of PB is a reading line, the position of PG is next, and finally the position of PR is a reading line. That is, based on the same position (line) of the document, blue image data is obtained first, then green, and finally red image data. Therefore,
The blue image data obtained first and the green image data obtained next are held for a predetermined number of lines, and when the red image data is obtained, the blue and green images held are held. By outputting the data, it is possible to output the data by aligning the R, G, and B line positions.

【0073】次に、画像読み取り装置1の単独の読み取
り動作について図1〜図6を参照しながら説明する。
Next, the independent reading operation of the image reading apparatus 1 will be described with reference to FIGS.

【0074】まず、使用者は、図1に示すホストコンピ
ーュータ3などの外部ホストより、読み取り解像度、読
み取り範囲等の設定を行なった後、外部ホストより原稿
の読み取り命令を出す。読み取り命令が出されると、C
PU32は、制御信号36aによりランプ17を点灯さ
せると共に、制御信号36をモータ制御部33に送り駆
動源8を制御することにより、キャリッジ7を副走査方
向d1に移動させる。このとき、駆動源8の駆動力は、
タイミングベルト10、駆動プーリ9、ベルト11及び
従動プーリ12を介してキャリッジ7に伝達する(図2
参照)。
First, the user sets reading resolution, reading range, and the like from an external host such as the host computer 3 shown in FIG. 1, and then issues a document reading command from the external host. When a read command is issued, C
The PU 32 turns on the lamp 17 by the control signal 36a, and sends the control signal 36 to the motor control unit 33 to control the drive source 8, thereby moving the carriage 7 in the sub-scanning direction d1. At this time, the driving force of the driving source 8 is
The signal is transmitted to the carriage 7 via the timing belt 10, the driving pulley 9, the belt 11, and the driven pulley 12 (FIG. 2).
reference).

【0075】CPU32(図6参照)は、キャリッジ7
が、ホストコンピュータ3から設定された読み取り範囲
に対応した領域の先頭位置に到達する直前に、キャリッ
ジ7の駆動速度をホストコンピュータ3から予め設定さ
れた読み取り解像度に対応した速度に変更し、原稿ガラ
ス6上に載置された原稿13の読み取りを開始させる。
原稿13は、原稿ガラス6を通してランプ17により照
明される。原稿13からの反射光は、反射ミラー19−
1、19−2により反射され、結像レンズ21によりイ
メージセンサ20上に縮小して結像される。イメージセ
ンサ20は、表面に結像された原稿13からの反射光を
電気信号に変換し、レッド、グリーン、ブルーの各色に
対するアナログの画像データ信号を出力する。増幅器2
4aは、イメージセンサ20から入力されるアナログの
画像データ信号を設定されたのゲインで増幅する。A/
D変換器24bは、増幅器24aにより増幅されたアナ
ログ信号をディジタルの画像データ信号に変換し出力す
る。シェーディング補正部25は、入力されたディジタ
ルの画像データ信号を予め取得しておいた白と黒のダイ
ナミックレンジに対して正規化し、正規化された画像デ
ータ信号を出力する。ライン補正部26は、シェーディ
ング補正部25から入力される各色の画像データのそれ
ぞれを、各色ごとに一定のタイミングで遅延させて出力
し、ラインセンサアレイ22R、22G、22Bの位置
の異なりによる画像入力のタイミングずれを補正した画
像データを出力する。第1解像度変換部27は、予め設
定されたパラメータに基づき、ライン補正部26から出
力される画像データの解像度を変換し所定の解像度の画
像データを出力する。色処理部28は、第1解像度変換
部27から入力される画像データを、ラインセンサアレ
イ22R、22G、22B上のカラーフィルタの持つ分
光スペクトル上の不要吸収帯の影響を減らし鮮やかな色
再現ができるように各色の画像データを補正し、カラー
フィルタの影響を除去した画像データを出力する。色処
理部28より出力される画像データは、バッファ29に
一旦格納された後、インタフェース30より、ケーブル
4を通してホストコンピュータ3又は画像記録装置2へ
送信される。
The CPU 32 (see FIG. 6)
Changes the driving speed of the carriage 7 to a speed corresponding to a reading resolution set in advance by the host computer 3 immediately before reaching the head position of the area corresponding to the reading range set by the host computer 3. The reading of the document 13 placed on the document 6 is started.
The document 13 is illuminated by a lamp 17 through the document glass 6. The reflected light from the original 13 is reflected by a reflection mirror 19-
1, 19-2, are reduced and imaged on the image sensor 20 by the imaging lens 21. The image sensor 20 converts reflected light from the document 13 imaged on the front surface into an electric signal, and outputs analog image data signals for each of red, green, and blue. Amplifier 2
Reference numeral 4a amplifies an analog image data signal input from the image sensor 20 with a set gain. A /
The D converter 24b converts the analog signal amplified by the amplifier 24a into a digital image data signal and outputs it. The shading correction unit 25 normalizes the input digital image data signal to a previously acquired dynamic range of black and white, and outputs a normalized image data signal. The line correction unit 26 outputs the image data of each color input from the shading correction unit 25 with a delay at a fixed timing for each color, and outputs the image data based on the difference in the position of the line sensor arrays 22R, 22G, and 22B. And outputs image data in which the timing deviation of the image is corrected. The first resolution conversion unit 27 converts the resolution of the image data output from the line correction unit 26 based on preset parameters and outputs image data having a predetermined resolution. The color processing unit 28 reduces the influence of unnecessary absorption bands on the spectral spectrum of the color filters on the line sensor arrays 22R, 22G, and 22B by using the image data input from the first resolution conversion unit 27 to achieve vivid color reproduction. The image data of each color is corrected as much as possible, and the image data from which the influence of the color filter has been removed is output. The image data output from the color processing unit 28 is temporarily stored in the buffer 29 and then transmitted from the interface 30 to the host computer 3 or the image recording device 2 via the cable 4.

【0076】CPU32は、指定された読み取り範囲に
対する読み取り動作が終了すると、キャリッジ7を副走
査方向d1とは逆方向に移動させ、ホームポジションp
o1に復帰させる。
When the reading operation for the designated reading range is completed, the CPU 32 moves the carriage 7 in the direction opposite to the sub-scanning direction d1, and moves the carriage 7 to the home position p.
Return to o1.

【0077】次に、ライン補正部26の動作について詳
細に説明する。
Next, the operation of the line correction section 26 will be described in detail.

【0078】図10はライン補正部26の内部に記憶さ
れるデータの構造を示す図である。
FIG. 10 is a diagram showing the structure of data stored inside the line correction section 26.

【0079】図10において、50はグリーンの画像デ
ータをライン単位に格納するメモリ領域、51はブルー
の画像データをライン単位に格納するメモリ領域であ
る。
In FIG. 10, reference numeral 50 denotes a memory area for storing green image data in line units, and reference numeral 51 denotes a memory area for storing blue image data in line units.

【0080】本実施の形態における画像読み取り装置1
は、前述したように原稿の同一ラインに対して、ブル
ー、グリーン、レッドの順に読み取られていく。メモリ
領域50には、ラインセンサアレイ22Gにより読みと
られたグリーンの画像データが8ライン分記憶されてお
り、メモリ領域51には、ラインセンサアレイ22Bに
より読みとられたブルーの画像データが16ライン分記
憶されている。各ラインセンサアレイ22R、22G、
22Bの間隔は600dpiのライン8本分であるから
(図7参照)、600dpiで画像を読み取る場合、グ
リーンの画像データに関しては8ライン分の画像データ
を、またブルーの画像データに関しては16ライン分の
画像データを蓄積しておき、レッドの画像データを読み
取った時に、グリーンの画像データに関しては8ライン
前の画像データを、またブルーの画像データに関しては
16ライン前の画像データを出力すれば、原稿上で同一
の位置に対して読み取りを行ったのと同じことになる。
Image reading device 1 according to this embodiment
Are read in the order of blue, green, and red on the same line of the document as described above. Eight lines of green image data read by the line sensor array 22G are stored in the memory area 50, and 16 lines of blue image data read by the line sensor array 22B are stored in the memory area 51. Minutes are memorized. Each line sensor array 22R, 22G,
Since the interval of 22B is equivalent to eight lines of 600 dpi (see FIG. 7), when reading an image at 600 dpi, image data of eight lines is obtained for green image data and 16 lines for blue image data. When the red image data is read, the image data eight lines before the green image data and the image data sixteen lines before the blue image data are output. This is the same as reading at the same position on the document.

【0081】このようにして、副走査方向d1に関し
て、一旦、600dpiで読み取り、上述のライン補正
を行った後に低い解像度に変換すれば、600dpiよ
り低い解像度であれば、全ての解像度で画像を読み取る
ことができる。しかしこの場合、必ず600dpiで一
旦画像を読み取るという前提があるため、読み取り速度
を高速化することができない。この問題に対しては、キ
ャリッジを副走査方向により高速に移動させながら画像
を読み取り、かつライン補正部26の設定を変えること
で対応が可能である。以下にその方法について説明す
る。
As described above, once the image is read at 600 dpi in the sub-scanning direction d1 and converted to a low resolution after performing the above-described line correction, the image is read at all resolutions if the resolution is lower than 600 dpi. be able to. However, in this case, it is premised that the image is once read at 600 dpi, so that the reading speed cannot be increased. This problem can be dealt with by reading the image while moving the carriage in the sub-scanning direction at a high speed, and changing the setting of the line correction unit 26. The method will be described below.

【0082】図11は副走査方向に300dpiの解像
度で画像を読み取る場合のライン補正部の動作を示す図
である。
FIG. 11 is a diagram showing the operation of the line correction unit when reading an image at a resolution of 300 dpi in the sub-scanning direction.

【0083】図11において、50はグリーンの画像デ
ータをライン単位に格納するメモリ領域、51はブルー
の画像データをライン単位に格納するメモリ領域であ
り、これらは図10と同様のものである。
In FIG. 11, reference numeral 50 denotes a memory area for storing green image data in line units, and reference numeral 51 denotes a memory area for storing blue image data in line units, which are the same as those in FIG.

【0084】600dpiで原稿を読み取る時のキャリ
ッジ7の移動速度、即ち副走査方向d1への移動速度を
Vとすると、300dpiで原稿を読み取る時のキャリ
ッジ7の移動速度は2Vに設定される。つまり、キャリ
ッジ7の移動速度は600dpi読み取り時の2倍に設
定するのである。
Assuming that the moving speed of the carriage 7 when reading the original at 600 dpi, that is, the moving speed in the sub-scanning direction d1, is V, the moving speed of the carriage 7 when reading the original at 300 dpi is set to 2V. In other words, the moving speed of the carriage 7 is set to twice that at the time of reading at 600 dpi.

【0085】ここで、任意の読み取り解像度におけるキ
ャリッジ7の移動速度Vxは、例えば基準の読み取り解
像度を600dpi、600dpiの読み取りにおける
キャリッジ7の移動速度をV、実際の読み取り解像度を
X[dpi]、とすると、(数1)で表わすことができ
る。
Here, the moving speed Vx of the carriage 7 at an arbitrary reading resolution is, for example, a reference reading resolution of 600 dpi, a moving speed of the carriage 7 at a reading of 600 dpi of V, and an actual reading resolution of X [dpi]. Then, it can be expressed by (Equation 1).

【0086】[0086]

【数1】 (Equation 1)

【0087】従って、300dpiで画像を読み取る場
合、キャリッジ7の移動速度は600dpiの2倍であ
るから、キャリッジ7の単位時間あたりの移動距離も2
倍になる。各色のラインセンサアレイ22R、22G、
22Bの間の距離は常に一定なので、キャリッジ7の移
動速度が2倍になれば、画像読み取り装置1が1ライン
の画像データを読み取る際に移動する距離も2倍とな
り、ライン補正部26が格納しておく画像データのライ
ン数は1/2でよい。つまり、図11に示すように、各
ラインセンサアレイ22R、22G、22Bの間隔は6
00dpiのライン8本分、即ち、300dpiのライ
ン4本分である。従って、ライン補正部26は、300
dpiで画像を読み取る場合、グリーンの画像データに
関しては4ライン分の画像データを、またブルーの画像
データに関しては8ライン分の画像データを蓄積してお
き、レッドの画像データを読み取った時点で、そのレッ
ドの画像データと同時に、グリーンの画像データに関し
ては4ライン前の画像データを、またブルーの画像デー
タに関しては8ライン前の画像データを出力すれば、原
稿上で同一の位置に対して読み取りを行ったのと同じこ
とになる。
Therefore, when reading an image at 300 dpi, the moving speed of the carriage 7 is twice as high as 600 dpi, so that the moving distance of the carriage 7 per unit time is also 2 times.
Double. Line sensor arrays 22R, 22G for each color,
Since the distance between the carriages 22B is always constant, if the moving speed of the carriage 7 doubles, the distance that the image reading device 1 moves when reading one line of image data also doubles, and the line correction unit 26 stores the moving distance. The number of lines of the image data to be stored may be 1 /. That is, as shown in FIG. 11, the interval between the line sensor arrays 22R, 22G, and 22B is 6
Eight lines of 00 dpi, that is, four lines of 300 dpi. Therefore, the line correction unit 26
When reading an image at dpi, image data for 4 lines is stored for green image data, and image data for 8 lines is stored for blue image data, and when the red image data is read, By outputting the image data four lines before the green image data and the image data eight lines before the blue image data simultaneously with the red image data, the same position on the document is read. Is the same as doing

【0088】以上を一般化したものを(表1)に示す。Table 1 shows a generalization of the above.

【0089】[0089]

【表1】 [Table 1]

【0090】即ち、本実施の形態においては(表1)に
示すとおり、読み取り解像度は75dpiを基準として
N倍(Nは整数)に設定される。このとき、一般に、グ
リーンの画像データをライン単位に格納するメモリ領域
50に格納されたグリーン画像データの遅延ライン数は
N、ブルーの画像データをライン単位に格納するメモリ
領域51に格納されたブルー画像データの遅延ライン数
は2Nとなる。
That is, in this embodiment, as shown in (Table 1), the reading resolution is set to N times (N is an integer) based on 75 dpi. At this time, generally, the number of delay lines of the green image data stored in the memory area 50 for storing the green image data in line units is N, and the number of blue lines stored in the memory area 51 for storing the blue image data in line units is N. The number of delay lines of the image data is 2N.

【0091】これらの設定は、CPU32から制御信号
34によってライン補正部26に対して行なわれる(図
6参照)。また各解像度におけるキャリッジ移動速度V
xは(数1)で与えられる。この設定は、図6におい
て、CPU32から制御信号36によって、モータ制御
部33に対して行なわれる。
These settings are made to the line correction unit 26 by the control signal 34 from the CPU 32 (see FIG. 6). Also, the carriage moving speed V at each resolution
x is given by (Equation 1). This setting is performed on the motor control unit 33 by the control signal 36 from the CPU 32 in FIG.

【0092】以上のようにして、ライン補正部26は、
イメージセンサ20のラインセンサアレイ22R、22
G、22Bの位置が異なることに起因する読み取り位置
の違の補正を行い、ライン補正部26から出力される画
像データは、原稿の同一ラインを読み取ったのと同等な
状態になる。このときの読み取り解像度の指定は離散的
な値をとっているが、実際の画像読み取り装置1は、ホ
ストコンピュータ3や画像記録装置2から1dpi単位
に読み取り解像度の指定を受け付け、画像データを修正
して出力する。
As described above, the line correction unit 26
Line sensor arrays 22R, 22 of the image sensor 20
The difference in the reading position caused by the difference in the positions of G and 22B is corrected, and the image data output from the line correction unit 26 is in a state equivalent to reading the same line of the document. At this time, the designation of the reading resolution is a discrete value, but the actual image reading device 1 accepts the designation of the reading resolution in units of 1 dpi from the host computer 3 or the image recording device 2 and corrects the image data. Output.

【0093】ライン補正部26で行う処理は副走査方向
d1に対する位置合わせであり、主走査方向d2の画像
データに対しては何らの変換も行っていない。これらの
処理を行うのが第1解像度変換部27である。以下、第
1解像度変換部27における処理について説明する。
The processing performed by the line correction unit 26 is alignment in the sub-scanning direction d1, and no conversion is performed on image data in the main scanning direction d2. The first resolution converter 27 performs these processes. Hereinafter, processing in the first resolution conversion unit 27 will be described.

【0094】ここでは、簡単のため画像読み取り装置に
対して、外部から200dpiの読み取り指定があった
と仮定する。
Here, for the sake of simplicity, it is assumed that a reading of 200 dpi is externally designated for the image reading apparatus.

【0095】200dpiによる読み取りが指定される
と、CPU32(図6参照)は、モータ制御部33に対
して、225dpiの読み取り解像度に対するキャリッ
ジ移動速度を設定する。これは(表1)によれば、60
0dpiの時のキャリッジ移動速度Vに対して2.7倍
の速度である。
When reading at 200 dpi is designated, the CPU 32 (see FIG. 6) sets the carriage moving speed for the reading resolution of 225 dpi for the motor control unit 33. According to (Table 1), this is 60
The speed is 2.7 times the carriage moving speed V at 0 dpi.

【0096】次に、CPU32は、ライン補正部26に
対して、同様に225dpiの読み取り解像度に対する
設定を行う。すなわちグリーンの画像データをライン単
位に格納するメモリ領域50の遅延量を3ライン分に、
ブルーの画像データをライン単位に格納するメモリ領域
51の遅延量を6ライン分に夫々設定する(図10また
は図11を参照)。
Next, the CPU 32 similarly sets the reading resolution of 225 dpi for the line correction unit 26. That is, the delay amount of the memory area 50 for storing the green image data in line units is reduced to three lines,
The delay amount of the memory area 51 for storing the blue image data in line units is set to six lines (see FIG. 10 or 11).

【0097】これらの設定を行って画像を読み取ると、
ライン補正部26からは、副走査方向d1に関して22
5dpiに変換された画像データが出力される。
When the image is read with these settings,
From the line correction unit 26, 22 in the sub-scanning direction d1
The image data converted to 5 dpi is output.

【0098】ここでは、例として200dpiの解像度
を指定された場合には、225dpiの解像度で画像を
読み取るケースについて説明しているが、本実施の形態
における、画像読み取り装置に対する読み取り解像度の
指定値に対するモータ制御部33及びライン補正部26
に設定される内容の一般的な関係、即ち、設定された解
像度に対する実際の読み取り解像度の関係を(表2)に
示す。
Here, as an example, a case where an image is read at a resolution of 225 dpi when a resolution of 200 dpi is specified has been described. Motor control unit 33 and line correction unit 26
(Table 2) shows a general relationship of the contents set in the table, that is, a relationship between the set reading resolution and the actual reading resolution.

【0099】[0099]

【表2】 [Table 2]

【0100】次に、主走査方向d2に対する解像度変換
アルゴリズムについて説明する。
Next, the resolution conversion algorithm in the main scanning direction d2 will be described.

【0101】図12は解像度変換のアルゴリズムを示す
図である。
FIG. 12 is a diagram showing an algorithm for resolution conversion.

【0102】図12において、53は600dpiの1
つの画素を示す。但し、説明を容易にするため、実際の
画素サイズは無視し、600dpiの1つの画素の中心
位置のみを示している。
In FIG. 12, 53 is 1 at 600 dpi.
One pixel is shown. However, for ease of explanation, the actual pixel size is ignored, and only the center position of one pixel of 600 dpi is shown.

【0103】600dpiの画素53には、先頭画素か
ら順にそれぞれ、P600_0、P600_1、P60
0_2・・・P600_6と番号を付与する。以下、便
宜的に、これらの位置に対する画素の値を、例えばP6
00_0の位置に対応する画素値を*P600_0のよ
うに表わす(C言語におけるポインタの概念を緩用し
た)。
In the pixel 53 of 600 dpi, P600 — 0, P600 — 1, P60
0_2... P600_6 are numbered. Hereinafter, for the sake of convenience, the pixel values for these positions will be referred to as P6, for example.
The pixel value corresponding to the position of 00_0 is represented as * P600_0 (the concept of the pointer in the C language is loosely used).

【0104】最初に、600dpiの画像情報を200
dpiに変換する場合について説明する。
First, 600 dpi image information is stored in 200
The case of converting to dpi will be described.

【0105】ここでは、200dpiへの変換後の先頭
画素の位置は、常に600dpiの先頭画素、即ち、P
600_0の位置に揃えるものとする。従って、200
dpiの先頭画素位置は、P600_0と同じP200
_0となる。場所が同じであるから、画素値もP600
_0と同じ値、すなわち*P600_0を採用する。次
の画素位置はP200_1であるが、この画素値を得る
ために、P200_1の場所を600dpiの画素位置
で表わすことを考える。単純な比例式を用いて(600
/200)×1=3であるから、P200_1=P60
0_3である。従ってP200_1の位置の画素値は*
P200_1=*P600_3となる。同様にして、*
P200_2=*P600_6も求めることができる。
Here, the position of the first pixel after conversion to 200 dpi is always the first pixel of 600 dpi, ie, P
It should be aligned to the position of 600_0. Therefore, 200
The head pixel position of dpi is P200 which is the same as P600_0.
_0. Since the location is the same, the pixel value is also P600
The same value as _0, that is, * P600_0 is adopted. The next pixel position is P200_1, but in order to obtain this pixel value, consider that the location of P200_1 is represented by a pixel position of 600 dpi. Using a simple proportional equation (600
/ 200) × 1 = 3, so P200_1 = P60
0_3. Therefore, the pixel value at the position of P200_1 is *
P200_1 = * P600_3. Similarly, *
P200_2 = * P600_6 can also be obtained.

【0106】次に、600dpiの画像情報を300d
piに変換する場合について説明する。
Next, the image information of 600 dpi is converted to 300d.
The case of conversion to pi will be described.

【0107】変換後の先頭画素の位置は、常に600d
piの先頭画素、即ち、P600_0の位置に揃えるも
のとする。300dpiの先頭画素位置は、P600_
0と同じであるから、画素値もP600_0と同じ値、
すなわち*P600_0を採用する。次の画素位置は、
P300_1であるが、この画素値を得るために、P3
00_1の場所を600dpiの画素位置で表わすこと
を考える。単純な比例式を用いて(600/300)×
1=2であるから、P300_1=P600_2であ
る。従って、P300_1の位置の画素値は*P300
_1=*P600_2となる。同様にして、*P300
_2=*P600_4、更に*P300_3=*P60
0_6と求めることができる。
The position of the first pixel after conversion is always 600d
It is assumed that the pixel is aligned with the first pixel of pi, that is, P600_0. The head pixel position of 300 dpi is P600_
0, the pixel value is also the same value as P600_0,
That is, * P600_0 is adopted. The next pixel position is
P300_1, but in order to obtain this pixel value, P3
Consider that the location of 00_1 is represented by a pixel position of 600 dpi. Using a simple proportional equation (600/300) ×
Since 1 = 2, P300_1 = P600_2. Therefore, the pixel value at the position of P300_1 is * P300
_1 = * P600_2. Similarly, * P300
_2 = * P600_4, further * P300_3 = * P60
0_6 can be obtained.

【0108】次に、600dpiの画像情報を400d
piに変換する場合について説明する。
Next, the image information of 600 dpi is converted to 400 d.
The case of conversion to pi will be described.

【0109】変換後の先頭画素の位置は常に600dp
iの先頭画素、即ちP600_0の位置に揃えるものと
する。400dpiの先頭画素位置は、P600_0と
同じであるから、画素値もP600_0と同じ値、すな
わち*P600_0を採用する。次の画素位置は、P4
00_1であるが、この画素値を得るために、P400
_1の場所を600dpiの画素位置で表わすことを考
える。単純な比例式を用いて計算すると、(600/4
00)×1=1.5となり、P400_1はP600_
1とP600_2の間に存在することが分かる。そこで
1.5という位置情報を用いてP400_1の画素値は
(数2)のように計算される。
The position of the first pixel after conversion is always 600 dp.
It is assumed that the pixel is aligned with the head pixel of i, that is, the position of P600_0. Since the head pixel position of 400 dpi is the same as P600_0, the pixel value also adopts the same value as P600_0, that is, * P600_0. The next pixel position is P4
00_1, but in order to obtain this pixel value, P400
Consider that the location of _1 is represented by a pixel position of 600 dpi. When calculated using a simple proportional equation, (600/4
00) × 1 = 1.5, and P400_1 becomes P600_
It can be seen that it exists between 1 and P600_2. Therefore, the pixel value of P400_1 is calculated as (Equation 2) using the position information of 1.5.

【0110】[0110]

【数2】 (Equation 2)

【0111】これは、解像度変換後の画素が存在する位
置を600dpiの画素位置を基準として求め、隣接す
る600dpiの画素との距離に基づいて重み付け演算
を行うことで解像度変換後の画素値を求めていることに
ほかならない。
In this method, the position where the pixel after the resolution conversion exists is determined based on the pixel position of 600 dpi, and a weighting operation is performed based on the distance from the adjacent pixel of 600 dpi to obtain the pixel value after the resolution conversion. It is nothing but being.

【0112】P400_2についても同様に上記の考え
方を適用すると、(600/400)×2=3となり、
P400_2はP600_3の位置に存在することが分
かる。従って、*P400_2=*P600_3であ
る。更に、P400_3についても上記の考え方を適用
すると、(600/400)×3=4.5となり、P4
00_3は、P600_4とP600_5の間に存在す
ることが分かる。そこで、4.5という位置情報を用い
てP400_3の画素値は(数3)のように計算され
る。
When the above concept is similarly applied to P400_2, (600/400) × 2 = 3, and
It can be seen that P400_2 exists at the position of P600_3. Therefore, * P400_2 = * P600_3. Further, when the above concept is applied to P400_3, (600/400) × 3 = 4.5, and P4
It can be seen that 00_3 exists between P600_4 and P600_5. Therefore, the pixel value of P400_3 is calculated as (Equation 3) using the position information of 4.5.

【0113】[0113]

【数3】 (Equation 3)

【0114】以降の画素についても、同様にして画素値
を求めることができる。
For the subsequent pixels, the pixel values can be obtained in the same manner.

【0115】また、500dpiへの解像度変換につい
ても全く同様の考え方で処理することができる。
The resolution conversion to 500 dpi can be processed in exactly the same way.

【0116】上述のごとく、主走査方向の解像度変換処
理として、600dpiから他の解像度への変換を説明
したが、これは読み取り解像度が600dpiに限って
適用される演算方法ではなく、元の解像度と変換後の解
像度が分かっていれば、あらゆる場合に適用可能な方法
である。
As described above, the conversion from 600 dpi to another resolution has been described as the resolution conversion processing in the main scanning direction. However, this is not an arithmetic method applied only to a reading resolution of 600 dpi, but is different from the original resolution. If the resolution after conversion is known, it is a method applicable in every case.

【0117】例えばライン補正によって225dpiの
解像度で出力された副走査方向の画像データについても
全く同様にして例えば200dpiに変換ができる。本
実施の形態では副走査方向d1の解像度変換に、以上に
説明してきた方法を用いる。
For example, image data in the sub-scanning direction output at a resolution of 225 dpi by line correction can be converted to, for example, 200 dpi in the same manner. In the present embodiment, the method described above is used for resolution conversion in the sub-scanning direction d1.

【0118】次に、特定画像認識部37の動作につい
て、図6と図8を参照しながら説明する。
Next, the operation of the specific image recognition section 37 will be described with reference to FIGS.

【0119】第2解像度変換部38への入力は、第1解
像度変換部27の前段から行なわれるが(図6参照)、
その理由についてまず説明する。
The input to the second resolution converter 38 is performed from a stage preceding the first resolution converter 27 (see FIG. 6).
First, the reason will be described.

【0120】ライン補正部26から出力される画像デー
タは、前述のように、各色のラインセンサアレイ22
R、22G、22Bの位置が異なることに起因する副走
査方向d1のRGBライン間距離を補正している。この
時点では、主走査方向d2の解像度は、イメージセンサ
20が出力したままであり、なんの処理もなされていな
い。即ち、前述の構成では、ライン補正部26から主走
査方向d2に関しては、600dpiの解像度を有する
画像データが出力されている。
As described above, the image data output from the line correction section 26 is stored in the line sensor array 22 for each color.
The distance between the RGB lines in the sub-scanning direction d1 due to the different positions of R, 22G, and 22B is corrected. At this point, the image sensor 20 outputs the resolution in the main scanning direction d2, and no processing is performed. That is, in the above-described configuration, image data having a resolution of 600 dpi is output from the line correction unit 26 in the main scanning direction d2.

【0121】このように、ライン補正部26から出力さ
れた時点では、主走査方向d2の解像度は、他の装置3
1による読み取り解像度の指定にかかわらず、常に60
0dpiであるため、これを所定の解像度、例えば75
dpiに変換するのは、ただ一つの、それもパラメータ
不変の処理系で行うことができる。もし、第1解像度変
換部27の出力を用いて、所定の解像度、例えば75d
piに変換しようとすると、様々な解像度の画像データ
を取り扱わねばならないため、ハードウェアが複雑にな
ってしまう。
As described above, at the time of output from the line correction unit 26, the resolution in the main scanning direction d2 is different from that of the other devices 3.
Regardless of the reading resolution specified by 1, always 60
Since it is 0 dpi, this is set to a predetermined resolution, for example, 75
The conversion to dpi can be performed by a single, also parameter-invariant processing system. If the output of the first resolution conversion unit 27 is used, a predetermined resolution, for example, 75d
When converting to pi, hardware becomes complicated because image data of various resolutions must be handled.

【0122】また、副走査方向d1に関しては、ライン
補正部26から出力されるラインデータは、(表2)に
示すように、75dpi、150dpi、225dp
i、300dpi、375dpi、450dpi、52
5dpi、600dpiの何れかである。最も重要な点
は、これらは全て75dpiの整数倍となっていること
である。従って、これらのデータを上記所定の解像度、
75dpiに変換することは極めて容易に行うことがで
きる。
In the sub-scanning direction d1, the line data output from the line correction section 26 is, as shown in Table 2, 75 dpi, 150 dpi, and 225 dpi.
i, 300 dpi, 375 dpi, 450 dpi, 52
It is either 5 dpi or 600 dpi. Most importantly, they are all multiples of 75 dpi. Therefore, these data are converted into the predetermined resolution,
Conversion to 75 dpi can be done very easily.

【0123】特定画像認識部37の認識用CPU59
は、シリアル通信ライン40により画像読み取り装置1
のCPU32と接続されている。CPU32は、インタ
フェース30を介して他の装置31から転送されてきた
画像読み取り条件を得て、これに基づき画像読み取り装
置1のライン補正部26、第1解像度変換部27、モー
タ制御部33を制御することは既に述べたとおりである
が、CPU32は、これらの解像度に関する読み取り条
件をシリアル通信ライン40を介して、認識用CPU5
9にも通知する。これにより、認識用CPU59は、こ
れから読み取られる画像の解像度を知ることができる。
この情報に基づき、認識用CPU59は、制御信号62
により、第2解像度変換部38に対して、副走査方向d
1の処理、より具体的には、全ラインに対する間引き率
を指定する。もちろん、主走査方向d2は、読み取り解
像度によらず一定であるので、ライン内の画素間引き率
は固定である。(表3)に第2解像度変換部38に対す
る間引き率の設定内容を示す。
Recognition CPU 59 of specific image recognition section 37
Is the image reading device 1 via the serial communication line 40.
Of the CPU 32. The CPU 32 obtains the image reading conditions transferred from the other device 31 via the interface 30, and controls the line correction unit 26, the first resolution conversion unit 27, and the motor control unit 33 of the image reading device 1 based on the conditions. As described above, the CPU 32 sends the reading conditions regarding these resolutions to the recognition CPU 5 via the serial communication line 40.
9 is also notified. This allows the recognition CPU 59 to know the resolution of the image to be read.
Based on this information, the recognition CPU 59 sends the control signal 62
To the second resolution converter 38 in the sub-scanning direction d.
The process 1 is specified, more specifically, a thinning rate for all lines. Of course, the main scanning direction d2 is constant irrespective of the reading resolution, so that the pixel thinning rate in the line is fixed. (Table 3) shows the setting contents of the thinning rate for the second resolution converter 38.

【0124】[0124]

【表3】 [Table 3]

【0125】このように、主走査方向d2は固定の画素
間引き率を2とすることで、600dpiの画像データ
は常に300dpiに変換される。このような間引き処
理を行うことにより、以降に処理すべき画像データ量を
大幅に減らすことができる。
As described above, by setting the fixed pixel thinning rate to 2 in the main scanning direction d2, image data of 600 dpi is always converted to 300 dpi. By performing such thinning processing, the amount of image data to be processed thereafter can be significantly reduced.

【0126】副走査方向d1は、読み取り解像度に応じ
てライン間引き率を変えている。これにより、間引き
後、(表3)の解像度の欄に示すように、主走査×副走
査の解像度は300dpi×75dpi又は300dp
i×150dpiに変換される。
In the sub-scanning direction d1, the line thinning rate is changed according to the reading resolution. As a result, after the thinning, as shown in the resolution column of (Table 3), the resolution of main scanning × sub-scanning is 300 dpi × 75 dpi or 300 dpi.
It is converted to i × 150 dpi.

【0127】次に、第2解像度変換部38は、間引き処
理によって得られた画像データを平均化処理により、主
走査方向d2・副走査方向d1とも75dpiに変換す
る。以下、この解像度75dpiを所定の解像度と呼
ぶ。間引き処理により、主走査方向300dpi×副走
査方向75dpiに変換した場合は、主走査方向の画素
を4つと、副走査方向1ライン分の画素を用いて、4×
1画素の値を平均化処理する。また、間引き処理により
主走査方向300dpi×副走査方向150dpiに変
換した場合は、主走査方向の画素を4つと、副走査方向
2ライン分の画素を用いて、4×2画素の値を平均化処
理する。
Next, the second resolution conversion section 38 converts the image data obtained by the thinning processing to 75 dpi in both the main scanning direction d2 and the sub-scanning direction d1 by averaging processing. Hereinafter, this resolution of 75 dpi is referred to as a predetermined resolution. When the image is converted into 300 dpi in the main scanning direction and 75 dpi in the sub-scanning direction by the thinning-out process, 4 pixels in the main scanning direction and 4 pixels in one line in the sub-scanning direction are used.
The value of one pixel is averaged. When the image is converted into 300 dpi in the main scanning direction and 150 dpi in the sub-scanning direction by the thinning-out processing, the values of 4 × 2 pixels are averaged using four pixels in the main scanning direction and pixels for two lines in the sub-scanning direction. To process.

【0128】以上の処理により、第2解像度変換部38
は、主走査方向d2・副走査方向d1とも75dpiの
所定解像度の画像データを取得する。ただし、所定の解
像度は75dpiに限定されるものではない。
With the above processing, the second resolution converter 38
Acquires image data of a predetermined resolution of 75 dpi in both the main scanning direction d2 and the sub-scanning direction d1. However, the predetermined resolution is not limited to 75 dpi.

【0129】次に、本実施の形態の画像識別装置におけ
る特定画像認識アルゴリズムについて、まずその概要を
説明する。
Next, an outline of a specific image recognition algorithm in the image identification device of the present embodiment will be described first.

【0130】図8において、第2解像度変換部38によ
って所定の解像度に変換されたRGB画像信号は、一
旦、メモリ54に格納される。
In FIG. 8, the RGB image signal converted to a predetermined resolution by the second resolution converter 38 is temporarily stored in the memory 54.

【0131】メモリ54に格納されたRGB画像信号
は、予め定められたサイズのブロック単位に切り出さ
れ、RGB点順次信号として特徴色カウンタ55に送ら
れる。上記ブロックのサイズは、例えば、50×50画
素(2500画素)に設定されている。
The RGB image signals stored in the memory 54 are cut out in blocks of a predetermined size and sent to the characteristic color counter 55 as RGB point sequential signals. The size of the block is set to, for example, 50 × 50 pixels (2500 pixels).

【0132】特徴色カウンタ55は、入力されたRGB
点順次信号に対して、予め特徴色として定めたRGB値
の範囲に入っている画素の数をカウントする。このカウ
ント範囲は、予め登録データ格納メモリ43に格納され
ており、動作時に特徴色カウンタ55にセットされる。
本実施の形態では、特定画像に含まれる異なる3色を特
徴色として定義しており、各ブロックに対して、特徴色
と判断された画素数をカウントする。特徴色カウンタ5
5は、1ブロックの特徴色カウントを終了すると、その
結果をテンプレート選択部56に転送し、テンプレート
選択部56は、特徴色カウンタ55から転送された特徴
色カウントの結果をバッファ58に書き込む。
The characteristic color counter 55 stores the inputted RGB
The number of pixels in the range of RGB values determined in advance as the characteristic color is counted for the dot sequential signal. This count range is stored in the registration data storage memory 43 in advance, and is set in the characteristic color counter 55 during operation.
In the present embodiment, three different colors included in a specific image are defined as characteristic colors, and the number of pixels determined to be characteristic colors is counted for each block. Feature color counter 5
5 finishes counting the characteristic color of one block, transfers the result to the template selecting unit 56, and the template selecting unit 56 writes the result of the characteristic color counting transferred from the characteristic color counter 55 to the buffer 58.

【0133】上記特徴色カウンタ55から出力される特
徴色カウントの結果は、50×50画素ブロック内に存
在する複数の特徴色の個数をそれぞれ計数したものであ
る。本実施の形態では、特徴色の数が3であるから、こ
れは、3次元のベクトル(以下、これを特徴ベクトルと
呼ぶ。)を出力していると見なすことができる。即ち、
特徴色カウンタ55は特徴ベクトルの生成を行っている
ことになる。
The result of the characteristic color count output from the characteristic color counter 55 is obtained by counting the number of characteristic colors existing in a 50 × 50 pixel block. In the present embodiment, since the number of characteristic colors is 3, this can be regarded as outputting a three-dimensional vector (hereinafter, this is referred to as a characteristic vector). That is,
This means that the characteristic color counter 55 generates a characteristic vector.

【0134】テンプレート選択部56は、特徴色カウン
タ55で生成された特徴ベクトルとテンプレート格納メ
モリ57に予め格納されている複数のテンプレートとの
3次元ユークリッド距離を計算する。テンプレート選択
部56は、この3次元ユークリッド距離に基づいて特徴
ベクトルと各テンプレートとを比較し、もっとも近いテ
ンプレートを選択し、選択したテンプレート番号(以
下、最近傍テンプレート番号と呼ぶ。)と3次元ユーク
リッド距離をバッファ58に格納する。この最近傍テン
プレート番号と3次元ユークリッド距離は、入力された
画像データと特定画像の類似度を示す指標となる。
The template selection unit 56 calculates a three-dimensional Euclidean distance between the feature vector generated by the feature color counter 55 and a plurality of templates stored in the template storage memory 57 in advance. The template selecting unit 56 compares the feature vector with each template based on the three-dimensional Euclidean distance, selects the closest template, and selects the selected template number (hereinafter, referred to as the nearest template number) and the three-dimensional Euclid. The distance is stored in the buffer 58. The nearest template number and the three-dimensional Euclidean distance serve as indices indicating the similarity between the input image data and the specific image.

【0135】特徴色カウンタ55で処理される全画素数
は、主・副画素カウンタ60で計数・管理されている。
主・副画素カウンタ60は、計数した画素数が所定量に
達すると、認識用CPU59に対して割り込み信号63
を発生する。認識用CPU59は、割り込み信号63を
受ると、バッファ58の内容を読み取り、ここに格納さ
れている特徴色カウント結果(特徴ベクトル)、最近傍
テンプレート番号、3次元ユークリッド距離を得る。認
識用CPU59は、バッファ58から得た最近傍テンプ
レート番号、3次元ユークリッド距離に基づく類似度を
一定のルールに従って複数のブロック分選択し、それら
の和を計算し、その和に応じて判定結果を出力する。認
識用CPU59は、この判定結果をシリアル通信ライン
40を介してCPU32に伝える。CPU32は、この
判定結果をインタフェース30に出力し、インタフェー
ス30は、この判定結果をSCSIによって、ホストコ
ンピュータや画像記録装置などの他の装置31に出力す
る。
The total number of pixels processed by the characteristic color counter 55 is counted and managed by the main / sub-pixel counter 60.
When the counted number of pixels reaches a predetermined amount, the main / sub-pixel counter 60 issues an interrupt signal 63 to the recognition CPU 59.
Occurs. Upon receiving the interrupt signal 63, the recognition CPU 59 reads the contents of the buffer 58 and obtains the characteristic color count result (feature vector), the nearest template number, and the three-dimensional Euclidean distance stored therein. The recognition CPU 59 selects the similarity based on the nearest neighbor template number and the three-dimensional Euclidean distance obtained from the buffer 58 for a plurality of blocks according to a certain rule, calculates the sum thereof, and determines the determination result according to the sum. Output. The recognition CPU 59 transmits the determination result to the CPU 32 via the serial communication line 40. The CPU 32 outputs this determination result to the interface 30, and the interface 30 outputs this determination result to another device 31 such as a host computer or an image recording device by SCSI.

【0136】次に、特徴色カウンタ55の動作につい
て、図9を参照しながら詳細に説明する。
Next, the operation of the characteristic color counter 55 will be described in detail with reference to FIG.

【0137】特徴色カウンタ55は、特定画像に含まれ
る3つの特徴色C1、C2、C3を検出しそれぞれの個
数を検出する。
The characteristic color counter 55 detects three characteristic colors C1, C2, and C3 included in the specific image, and detects the respective numbers.

【0138】ここでは、1つの特徴色C1についての特
徴色カウンタ55の動作を説明する。尚、他の特徴色、
C2、C3についても同様である。
Here, the operation of the characteristic color counter 55 for one characteristic color C1 will be described. In addition, other characteristic colors,
The same applies to C2 and C3.

【0139】まず、特徴色検出部70C1は、入力され
たレッドの信号を比較器71a、71bによって指定色
信号r_ref1、r_ref2と比較し、入力された
グリーンの信号を比較器71c、71dによって指定色
信号g_ref1、g_ref2と比較し、入力された
ブルーの信号を比較器71e、71fによって指定色信
号b_ref1、b_ref2と比較する。この指定色
信号r_ref1、r_ref2、g_ref1、g_
ref2、b_ref1、b_ref2は認識用CPU
59により比較器71a〜71fのレジスタにセットさ
れる。指定色信号r_ref1、r_ref2、g_r
ef1、g_ref2、b_ref1、b_ref2
は、特定画像に含まれる色を指定するものであり、目的
とする特定画像に含まれる色を統計処理することによっ
て予め求められ登録データ格納メモリ43に記憶されて
いる。これら指定色信号は、一般には、特定画像の地肌
色や絵柄に使用され広い範囲に分布する色、又は、押印
の朱色などを用いて得られる。なお、色を指定するにあ
たって、指定色に幅を持たせるためにRGBの各上限、
下限の値を、例えば、r_ref1(R信号に対する下
限値)、r_ref2(R信号に対する上限値)のよう
に指定し、これらの範囲に入る画素を特定色画素として
扱う。ANDゲート72aは、比較器71a〜71fの
出力の積論理を出力する。従って、入力画像信号が特定
色C1の範囲内である場合、比較器72aからの出力が
全て1となるため、ANDゲート72aの出力は1とな
る。
First, the characteristic color detector 70C1 compares the input red signal with the designated color signals r_ref1 and r_ref2 by the comparators 71a and 71b, and compares the input green signal with the designated colors by the comparators 71c and 71d. The signals are compared with the signals g_ref1 and g_ref2, and the input blue signal is compared with the designated color signals b_ref1 and b_ref2 by the comparators 71e and 71f. The designated color signals r_ref1, r_ref2, g_ref1, g_
ref2, b_ref1, b_ref2 are recognition CPUs
59 is set in the registers of the comparators 71a to 71f. Designated color signals r_ref1, r_ref2, g_r
ef1, g_ref2, b_ref1, b_ref2
Designates a color included in the specific image, is obtained in advance by statistically processing the color included in the target specific image, and is stored in the registration data storage memory 43. These designated color signals are generally obtained using a color used for a background color or a pattern of a specific image and distributed over a wide range, or a vermilion of an imprint. When specifying a color, each upper limit of RGB is set so that the specified color has a certain width.
The lower limit value is specified, for example, as r_ref1 (lower limit value for the R signal) and r_ref2 (upper limit value for the R signal), and pixels falling within these ranges are treated as specific color pixels. AND gate 72a outputs the product logic of the outputs of comparators 71a to 71f. Therefore, when the input image signal is within the range of the specific color C1, the outputs from the comparators 72a are all "1", and the output of the AND gate 72a is "1".

【0140】カウンタ73aは、このように検出された
特定色C1に該当する画素の画素数をカウントする。こ
のカウントは、ブロック単位に行う。ここで、ブロック
とは、読み取り画像を主走査方向、副走査方向に複数画
素単位で分けたものである。ここでは、第2解像度変換
部38により変換された所定解像度の画素に対し、50
画素を単位として、50×50画素の矩形領域を1ブロ
ックとする。従って、カウンタ73aは、50画素の入
力毎にカウント結果をカウントバッファ74に保存し、
カウント値をリセットする。カウントバッファ74のカ
ウント結果の記憶領域は、各特定色C1、C2、C3に
対し主走査方向のブロック数分存在し、カウントバッフ
ァ74は、副走査方向に1ブロック分のデータを記憶す
る。カウントバッファ74は、カウンタ73aから入力
されるカウント結果の記憶に際しては、常にカウントバ
ッファ74内にすでに記憶されているカウント値のデー
タと新たに入力されるカウント結果との加算値を求め、
カウント値をその値に更新する。即ち、カウントバッフ
ァ74は、リード・モディファイ・ライトの動作を行う
ことで、副走査方向1ブロックの特徴色画素数を累積す
る。
The counter 73a counts the number of pixels corresponding to the specific color C1 detected in this way. This counting is performed for each block. Here, a block is obtained by dividing a read image in units of a plurality of pixels in the main scanning direction and the sub-scanning direction. Here, 50 pixels are assigned to pixels of a predetermined resolution converted by the second resolution conversion unit 38.
A rectangular area of 50 × 50 pixels is defined as one block in units of pixels. Therefore, the counter 73a stores the count result in the count buffer 74 every time 50 pixels are input,
Reset the count value. The count result storage area of the count buffer 74 exists for the number of blocks in the main scanning direction for each of the specific colors C1, C2, and C3, and the count buffer 74 stores data for one block in the sub-scanning direction. When the count result input from the counter 73a is stored, the count buffer 74 always obtains an added value of the count value data already stored in the count buffer 74 and the newly input count result.
Update the count value to that value. That is, the count buffer 74 accumulates the number of characteristic color pixels of one block in the sub-scanning direction by performing a read-modify-write operation.

【0141】副走査方向に1ブロック分のデータ入力が
完結すると、カウントバッファ74は、記憶された内
容、即ち、ブロック毎に求められた特徴色C1(及びC
2、C3)の計数結果を、バッファ58に格納すると供
に、テンプレート選択部56に渡す。
When data input for one block is completed in the sub-scanning direction, the count buffer 74 stores the stored contents, that is, the characteristic color C1 (and C1) obtained for each block.
The count result of (2, C3) is stored in the buffer 58 and passed to the template selecting unit 56.

【0142】上記の動作は、特徴色検出部70C2、7
0C3でも並列に行なわれ、予め定められた指定色信号
に対して3つの特徴色C1、C2、C3がカウントさ
れ、それぞれのカウント結果は3次元ベクトル、即ち、
特徴ベクトルとしてバッファ58に格納されると供にテ
ンプレート選択部56に渡される。
The above operation is performed by the characteristic color detectors 70C2 and 70C7.
This is also performed in parallel at 0C3, and three characteristic colors C1, C2, and C3 are counted with respect to a predetermined designated color signal. Each count result is a three-dimensional vector, that is,
After being stored in the buffer 58 as a feature vector, it is passed to the template selection unit 56.

【0143】図13はバッファ58に格納されるデータ
のデータ構造を示す図である。
FIG. 13 is a diagram showing a data structure of data stored in the buffer 58. As shown in FIG.

【0144】図13において、太実線が各ブロックの区
切れを示しており、C1(n)、C2(n)、C3(n)
はそれぞで第nブロックでカウントされた特徴色C1、
C2、C3の画素のカウント結果を示す。すなわち、バ
ッファ58に格納されるデータは、1つのブロックの特
徴データを3つの特定色C1、C2、C3の画素数で構
成していることを表している。
In FIG. 13, thick solid lines indicate the boundaries of each block, and C 1 (n), C 2 (n), and C 3 (n)
Are the characteristic colors C1 counted in the n-th block, respectively.
The count results of the pixels C2 and C3 are shown. That is, the data stored in the buffer 58 indicates that the feature data of one block is constituted by the number of pixels of three specific colors C1, C2, and C3.

【0145】次にテンプレート選択部の動作について説
明する。
Next, the operation of the template selecting section will be described.

【0146】図14はテンプレート選択部の動作を示す
フローチャートである。
FIG. 14 is a flowchart showing the operation of the template selection unit.

【0147】テンプレート選択部56は、特徴色カウン
タ55から3つの特徴色C1、C2、C3のカウント値
で構成される特徴ベクトルが、ブロック毎に渡される
と、特徴ベクトルとテンプレートの比較を開始する。
When the feature vector composed of the count values of the three feature colors C1, C2, and C3 from the feature color counter 55 is passed for each block, the template selection unit 56 starts comparing the feature vector with the template. .

【0148】まず、テンプレート選択部56は、ブロッ
ク毎の特徴ベクトルをカウンタバッファ74から取得す
る(ステップS1)。取得したデータは3次元のベクト
ルデータとして、Cn=(C1(n),C2(n),C
3(n))(但し、nはブロックの番号)として表す。
First, the template selecting section 56 acquires a feature vector for each block from the counter buffer 74 (step S1). The acquired data is represented as C n = (C 1 (n), C 2 (n), C
3 (n)) (where n is the block number).

【0149】次に、テンプレート選択部56は、Cn
大きさ|Cn|が一定値以上か否かを判定する(ステッ
プS2)。
[0149] Next, the template selecting unit 56, the size of C n | C n | determines whether more than a predetermined value (step S2).

【0150】|Cn|が一定以上である場合には、テン
プレート選択部56は、テンプレート格納メモリ57に
記憶されているテンプレートから、Cnにもっとも近い
ものを検索する(ステップS3)。テンプレート格納メ
モリ57のテンプレートはT m=(TC1(m),T
C2(m),TC3(m))(但し、mは参照データ番号
m=1〜M)のデータ構造を有しており、距離Dnm=|
n−Tm|(3次元ベクトルのユークリッド距離)が最
も小さくなる時のDnmを検出し、テンプレート番号mと
距離データDminをバッファ58に格納する(ステップ
S4)。
| CnIf | is greater than a certain
The plate selection unit 56 stores the
From the stored template, CnClosest to
Search for a thing (step S3). Template storage
The template for Mori 57 is T m= (TC1(M), T
C2(M), TC3(M)) (where m is the reference data number)
m = 1 to M), and the distance Dnm= |
Cn-Tm| (Euclidean distance of 3D vector)
D when also becomes smallernmIs detected, and the template number m and
Distance data DminIs stored in the buffer 58 (step
S4).

【0151】ステップS2において、|Cn|が一定値
を超えない場合は、テンプレートが定義されていないテ
ンプレート番号(例えばM+1)とDnmの取りうる最大
値以上の値Dmaxをバッファ58に格納する(ステップ
S5)。
In step S2, if | C n | does not exceed the fixed value, the buffer 58 stores the template number (for example, M + 1) for which no template is defined and the value D max that is greater than the maximum value that D nm can take. (Step S5).

【0152】ここで、テンプレート格納メモリ57に収
められているテンプレートについて詳細に説明する。
Here, the template stored in the template storage memory 57 will be described in detail.

【0153】テンプレート格納メモリ57はRAMであ
り、認識用CPU59は、電源が投入されると、登録デ
ータ格納メモリ43に予め格納されたテンプレートデー
タをテンプレート格納メモリ57にコピーする。使用者
は、対象とする特定画像よりテンプレートを予め求めて
おき、これらを登録データ格納メモリ43に格納してお
く。
The template storage memory 57 is a RAM, and the recognition CPU 59 copies the template data stored in advance in the registration data storage memory 43 to the template storage memory 57 when the power is turned on. The user obtains templates in advance from the target specific image and stores them in the registration data storage memory 43.

【0154】図15はテンプレートと特定画像の関係を
示す図である。
FIG. 15 is a diagram showing the relationship between a template and a specific image.

【0155】テンプレートは、図15に示すように、対
象とする特定画像を水平位置に置いたときを基準とし
(図15(a)参照)、対象とする特定画像を水平位置
から微少角度単位で回転させたとき(図15(b)、
(c)参照)、また、ブロックと特定画像の位置関係を
水平及び垂直方向に数画素単位にシフトさせたとき(図
15(d)参照)の各ブロックに対し、各特徴色C1、
C2、C3に値する画素数を求めたものである。但し、
以上のようにして求められるテンプレートは膨大な数に
なるために、ベクトル量子化などのクラスタリング手法
を用いて代表的なものを抽出し、登録データ格納メモリ
43に格納しておく。
As shown in FIG. 15, the template is based on the specific image to be positioned at the horizontal position as a reference (see FIG. 15A). When rotated (FIG. 15B)
(See FIG. 15C), and when the positional relationship between the block and the specific image is shifted in the horizontal and vertical directions by several pixels (see FIG. 15D), each characteristic color C1,
The number of pixels corresponding to C2 and C3 is obtained. However,
Since the number of templates obtained as described above is enormous, a representative one is extracted by using a clustering technique such as vector quantization and stored in the registration data storage memory 43.

【0156】次に、特定画像の認識過程について説明す
る。
Next, the process of recognizing a specific image will be described.

【0157】図8において、テンプレート選択部56の
出力は、バッファ58に一旦格納される。これらの処理
が所定量のブロック分終了した段階で、主・副画素カウ
ンタ60は、割り込み信号63を発生させる。認識用C
PU59は、割り込み信号63が入力されると、バッフ
ァ58にその内容を要求する。認識用CPU59は、バ
ッファ58の内容を読み込み、作業用RAM64に格納
する。
In FIG. 8, the output of the template selecting section 56 is temporarily stored in a buffer 58. When these processes have been completed for a predetermined number of blocks, the main / sub-pixel counter 60 generates an interrupt signal 63. C for recognition
When the interrupt signal 63 is input, the PU 59 requests the buffer 58 for its contents. The recognition CPU 59 reads the contents of the buffer 58 and stores the contents in the work RAM 64.

【0158】図16は作業用RAM64内のデータ構成
を示した図である。
FIG. 16 is a diagram showing a data structure in the working RAM 64. As shown in FIG.

【0159】図16において、TN(n)はそれぞれ各
ブロックに対して求められた特徴ベクトルに最も近いテ
ンプレート番号である。また、D(n)はそれぞれ各ブ
ロックに対して求められた、特徴ベクトルに最も近いテ
ンプレートとの距離DminもしくはDmaxである。
In FIG. 16, TN (n) is a template number closest to the feature vector obtained for each block. D (n) is the distance D min or D max between each block and the template closest to the feature vector.

【0160】図17(a)は特定画像を含んだ画像のイ
メージを示す図であり、図17(b)は実際の特定画像
の各ブロックに対するTN(n)の値を示した図であ
り、図17(c)は各ブロックに対するD(n)の値を
示した図である。
FIG. 17A is a diagram showing an image of an image including a specific image, and FIG. 17B is a diagram showing the value of TN (n) for each block of the actual specific image. FIG. 17C shows the value of D (n) for each block.

【0161】ここではテンプレートの番号は最大254
としており、テンプレートとして定義されてない番号は
254+1=255とする。図17(c)において、0
0の部分はDmaxもしくはそれに近い値を示し、特定画
像と色味が全く似ていない画像だということを意味す
る。また図17(c)において、02はDminであり、
特徴ベクトルとテンプレート間の距離の値が0またはそ
れに近い値、即ち特定画像に色味が非常に類似した画像
を意味している。また図17(c)において、01部分
はその中間の値、即ち曖昧な画像を意味している。
Here, the maximum template number is 254
The number not defined as a template is 254 + 1 = 255. In FIG. 17C, 0
A portion of 0 indicates Dmax or a value close to Dmax, and means that the image has no color similar to the specific image. In FIG. 17C, 02 is D min ,
The value of the distance between the feature vector and the template is 0 or a value close thereto, that is, an image whose color is very similar to the specific image. Also, in FIG. 17C, the 01 portion means an intermediate value, that is, an ambiguous image.

【0162】次に、フレームマスクについて説明する。Next, the frame mask will be described.

【0163】図18はフレームマスクの構造を示す図で
ある。
FIG. 18 is a diagram showing the structure of a frame mask.

【0164】フレームマスクとは、フレームを構成する
ブロックにかけるマスクであり、図18(a)〜(d)
に示すように、マスク角度の異なるものが複数用意され
ている。
The frame mask is a mask applied to blocks constituting a frame, and is shown in FIGS.
As shown in FIG. 7, a plurality of masks having different mask angles are prepared.

【0165】図18において、斜線付き四角がマスクブ
ロック、白四角が非マスクブロックを示し、前者を0、
後者を1とする2値コードのマスクデータを図8の登録
データ格納メモリ43に収めておく。
In FIG. 18, a hatched square indicates a mask block, and a white square indicates a non-mask block.
The mask data of the binary code with the latter being 1 is stored in the registration data storage memory 43 of FIG.

【0166】認識用CPU59は作業用RAM64上に
展開されたTN(n)とD(n)の分布状態とフレーム
マスクとに基き特定画像の有無判定を行う。
The recognition CPU 59 determines the presence or absence of a specific image based on the distribution state of TN (n) and D (n) developed on the work RAM 64 and the frame mask.

【0167】次に、最初にD(n)を用いて行うフレー
ム判定処理について説明する。
Next, a description will be given of a frame determination process performed first using D (n).

【0168】フレーム判定処理では、複数の隣接ブロッ
クの集まりを1つのフレームとし、フレームは、その中
心位置が入力画像左上から水平、垂直方向に1ブロック
単位にシフトするようにしながら処理を行う。
In the frame determination processing, a group of a plurality of adjacent blocks is regarded as one frame, and the processing is performed while the center position of the frame is shifted from the upper left of the input image horizontally and vertically in units of one block.

【0169】図19はフレーム処理における1つのフレ
ームに対する処理内容を示すフローチャートである。
FIG. 19 is a flow chart showing the processing contents for one frame in the frame processing.

【0170】まず、認識用CPU59は、あるフレーム
についてフレーム処理を開始すると、作業用RAM64
に格納されている、以降の処理で使用する変数Dsum
びBn umを0に初期化する(ステップS10)。
First, when the recognition CPU 59 starts frame processing for a certain frame, the work RAM 64
Is stored, the variable D sum and B n um be used in subsequent processing is initialized to 0 (step S10).

【0171】次に、フレームの中央のブロックに対し
て、特徴ベクトルと選択されたテンプレートとのユーク
リッド距離D(n)を読み込み、D(n)と閾値Th1
とを比較する(ステップS11)。
Next, the Euclidean distance D (n) between the feature vector and the selected template is read for the center block of the frame, and D (n) and the threshold Th1 are read.
Are compared (step S11).

【0172】D(n)が閾値Th1より大きい(距離が
遠い)場合は、認識用CPU59は、このフレームに対
しては特定画像はなかったものとし(ステップS2
1)、次のフレームの処理に移行する。
If D (n) is larger than the threshold Th1 (the distance is long), the recognition CPU 59 determines that there is no specific image for this frame (step S2).
1), the process proceeds to the next frame.

【0173】D(n)が閾値Th1以下(距離が近い)
の場合は、認識用CPU59は、登録データ格納メモリ
43からフレームマスクの1つを取得する(ステップS
12)。
D (n) is equal to or less than threshold value Th1 (the distance is short)
In the case of, the recognition CPU 59 acquires one of the frame masks from the registration data storage memory 43 (step S
12).

【0174】次に、認識用CPU59は、登録データ格
納メモリ43から取得したフレームマスクについて各ブ
ロックが非マスクブロックか否かを1ブロック毎に順次
検査する(ステップS13)。
Next, the recognition CPU 59 sequentially checks, for each block, whether or not each block is a non-mask block in the frame mask obtained from the registered data storage memory 43 (step S13).

【0175】ステップS13で検査したブロックが非マ
スクブロックの場合、認識用CPU59は、それに対応
するブロックのD(n)を作業用RAM64から取得す
る(ステップS14)。次いで、認識用CPU59は、
取得したD(n)を作業用RAM64に格納されたD
sumに加算し、その値を更新する(ステップS15)。
If the block inspected in step S13 is a non-mask block, the recognition CPU 59 obtains D (n) of the corresponding block from the work RAM 64 (step S14). Next, the recognition CPU 59
The obtained D (n) is stored in the D
The sum is added to sum , and the value is updated (step S15).

【0176】また、処理を行ったブロック数をカウント
するカウンタ値Bnumをインクリメントする(ステップ
S16)。
The counter value B num for counting the number of blocks subjected to the processing is incremented (step S16).

【0177】ステップS13で検査したブロックがマス
クブロックの場合には、認識用CPU59は、なにもせ
ずに次のブロックについてステップS13を繰り返す。
If the block inspected in step S13 is a mask block, the recognizing CPU 59 repeats step S13 for the next block without doing anything.

【0178】以上のステップS13からステップS16
までの処理を、フレームを構成するブロックの全てにつ
いて行う(ステップS17)。
The above steps S13 to S16
The above processing is performed for all the blocks constituting the frame (step S17).

【0179】次に、認識用CPU59は、ブロック数カ
ウンタ値Bnumと距離の総和Dsumより、平均距離Dmean
=Dsum/Bnumを求め(ステップS18)、これを閾値
Th2と比較する(ステップS19)。
Next, the recognition CPU 59 calculates the average distance D mean from the block number counter value B num and the sum D sum of distances.
= D sum / B num is obtained (step S18), and is compared with the threshold value Th2 (step S19).

【0180】Dmean≦Th2の場合には、画像中に特定
画像が含まれる可能性が高いと判断する(ステップS2
2)。
If D mean ≦ Th2, it is determined that there is a high possibility that the specific image is included in the image (step S2).
2).

【0181】また、Dmean>Th2の場合には、特定画
像はなかったと判定し、認識用CPU59は、次のフレ
ームマスクについてステップS12〜S19を繰り返す
(ステップS20)。
When D mean > Th2, it is determined that there is no specific image, and the recognition CPU 59 repeats steps S12 to S19 for the next frame mask (step S20).

【0182】以上のフレーム判定処理において、処理し
ている画像中に特定画像が含まれる可能性が高いと判断
された場合は最終判定を行う。
In the above frame determination processing, when it is determined that the specific image is likely to be included in the image being processed, a final determination is made.

【0183】以下、最終判定処理について図20と図2
1を用いて説明する。
Hereinafter, the final judgment processing will be described with reference to FIGS.
1 will be described.

【0184】図20は最終判定における回転角補正を示
す図であり、図21は認識用CPUの最終判定における
フレームとブロックと認識処理の関係を示す図である。
FIG. 20 is a diagram showing the rotation angle correction in the final determination, and FIG. 21 is a diagram showing the relationship between the frame, the block, and the recognition processing in the final determination by the recognition CPU.

【0185】最終判定には、各画像ブロックの特徴ベク
トルと最も三次元ユークリッド距離が近いテンプレート
番号が記述されたTN(n)を用いる。しかし、フレー
ム判定処理で切り出された画像には正置配置ではない特
定画像が含まれる可能性もある。
For the final decision, TN (n) in which a template number whose three-dimensional Euclidean distance is closest to the feature vector of each image block is described. However, the image cut out by the frame determination processing may include a specific image that is not in the normal arrangement.

【0186】上述したフレーム判定処理のステップS1
9で、画像中に特定画像が含まれる可能性が高いと判定
された時点で用いられたフレームマスクの種類によっ
て、フレーム判定の段階で特定画像の配置されている角
度の見当をつけることができる。この情報に基づいてT
N(n)そのものを正置位置に配置しなおす。
Step S1 of the above-described frame determination process
In step 9, the angle at which the specific image is arranged can be estimated at the frame determination stage depending on the type of the frame mask used when it is determined that the specific image is likely to be included in the image. T based on this information
N (n) itself is relocated to the normal position.

【0187】図20はその状況を示すものであり、図2
0(a)は回転補正前、図20(b)は回転補正後の状
況を示している。各々の図で、○印、□印、△印の位置
が対応している。
FIG. 20 shows the situation, and FIG.
0 (a) shows the state before rotation correction, and FIG. 20 (b) shows the state after rotation correction. In each of the figures, the positions of ○, □, and Δ correspond to each other.

【0188】上記回転補正が行なわれた後、最終判定処
理が行われる。
After the rotation correction is performed, a final determination process is performed.

【0189】図21において、○印、□印、△印は、そ
れぞれ、図20のものと対応している。図20(b)で
は正置配置後のブロックは、一部階段状になっている
が、最終判定では図21に示すように、特定原稿が正置
配置されたものとみなして処理を行う。
In FIG. 21, the symbols ○, □, and Δ correspond to those in FIG. 20, respectively. In FIG. 20B, the block after the normal placement is partly in a stepped shape, but in the final determination, as shown in FIG. 21, the processing is performed assuming that the specific document has been placed correctly.

【0190】図21において、75はフレーム判定で特
定画像の存在する可能性が高いと判断されたフレームに
含まれるブロックの内、更にTN(n)が255(=テ
ンプレート未定義)以外の値を持つブロックの集合であ
る。76は上記ブロック集合に含まれるブロックであ
り、説明を容易にするため各ブロック毎にテンプレート
をヒストグラムとして記載している。77はニューラル
ネットワークにて構成された最終判定部、78は最終判
定部77のニュラールネットワークの入力層、79は最
終判定部77のニュラールネットワークの中間層、80
は最終判定部77のニュラールネットワークの出力層、
81は出力層80から出力される2つの出力を比較して
大きい方を選択する比較手段である。
In FIG. 21, reference numeral 75 designates a value of TN (n) other than 255 (= template undefined) among the blocks included in the frame determined to have a high possibility that the specific image exists in the frame determination. It is a set of blocks. Reference numeral 76 denotes blocks included in the block set, and a template is described as a histogram for each block for ease of explanation. Reference numeral 77 denotes a final decision unit constituted by a neural network, 78 denotes an input layer of the neural network of the final decision unit 77, 79 denotes an intermediate layer of the neural network of the final decision unit 77, and 80
Is the output layer of the neural network of the final determination unit 77,
Reference numeral 81 denotes a comparison unit that compares two outputs output from the output layer 80 and selects a larger one.

【0191】上記回転補正により、正置配置位置に変換
された各ブロックは、それぞれテンプレート番号TN
(n)を持っている。テンプレート番号とは、実際は、
特定画像に含まれる特徴ベクトルそのものであるから、
これらは、図21のブロック76のようにヒストグラム
で表すことができる。このヒストグラムの度数を最終判
定部77の入力層78に入力する。入力層78は、一つ
の入力ユニットについて、ヒストグララムが有する3次
元情報に対応するため3つのノードを有しており、ヒス
トグラムの度数はそれぞれのノードに対して入力され
る。
Each block converted to the normal arrangement position by the above rotation correction has a template number TN.
(N). The template number is actually
Since it is the feature vector itself included in the specific image,
These can be represented by histograms, as in block 76 of FIG. The frequency of this histogram is input to the input layer 78 of the final determination unit 77. The input layer 78 has three nodes for one input unit in order to correspond to the three-dimensional information included in the histogram, and the frequency of the histogram is input to each node.

【0192】全てのブロックについて対応したノードに
度数入力を行う。ニューラルネットワークは予め学習し
ておいた重み付け演算により中間層79で演算がなさ
れ、出力層80では特定画像らしい度合いと、特定画像
らしくない度合いを出力する。最後に比較手段81で、
より大きな度合いを出力した方を選択して出力する。従
って比較手段81の出力は、入力された画像が特定画像
であるか否かの2値出力となる。以上の動作により特定
画像の検出が可能となる。
The frequency is input to the nodes corresponding to all the blocks. In the neural network, the arithmetic operation is performed in the intermediate layer 79 by weighting operation learned in advance, and the output layer 80 outputs a degree that looks like a specific image and a degree that does not look like a specific image. Finally, in the comparing means 81,
Select the one that output a greater degree and output it. Therefore, the output of the comparing means 81 is a binary output indicating whether or not the input image is a specific image. With the above operation, the specific image can be detected.

【0193】以上のようにして、画像読み取り装置で読
み取った画像中に特定画像が存在するか否かが判定され
るが、この種の認識には必ず誤判定の可能性がある。特
に複写を禁止されている特定画像を検出するような装置
の場合、一般画像を特定画像と認識してしまうと、本来
複写が禁止されてない画像に対して複写ができなくなる
という問題がある。
As described above, it is determined whether or not a specific image exists in an image read by an image reading apparatus. However, this type of recognition always involves an erroneous determination. In particular, in the case of a device that detects a specific image for which copying is prohibited, if a general image is recognized as a specific image, there is a problem that an image for which copying is not normally prohibited cannot be copied.

【0194】以下、図8を用いてこの解決方法について
説明する。
Hereinafter, this solution will be described with reference to FIG.

【0195】図8において、特定画像認識部37はメモ
リ54を有しており、第2解像度変換部38によって所
定の解像度に変換されたRGB画像信号は、一旦、メモ
リ54に格納される。
In FIG. 8, the specific image recognizing section 37 has a memory 54, and the RGB image signal converted to a predetermined resolution by the second resolution converting section 38 is temporarily stored in the memory 54.

【0196】フレーム判定処理のステップS19で、画
像中に特定画像が含まれる可能性が高いと判定された時
点で用いられたフレームマスクの種類によって、フレー
ム判定の段階で特定画像の配置されている角度の見当を
つけることができる。また、画像に対してシフト等を行
ってフレームマスクを当てはめる段階で、特定画像の座
標情報についても見当をつけることができる。
In step S19 of the frame determination processing, the angle at which the specific image is arranged in the frame determination stage depends on the type of the frame mask used when it is determined that the specific image is likely to be included in the image. You can get an idea. In addition, at the stage of applying a frame mask by performing a shift or the like on an image, it is possible to give an estimate of the coordinate information of the specific image.

【0197】認識用CPU59は、メモリ54にアクセ
スできるようにハードウェアが構成されており、上記最
終判定で特定画像と認識された場合は、上記の位置およ
び回転角度情報に基づき、認識用CPU59によりメモ
リ54の該当するアドレスを読み出し、特定画像の特定
の部分について、印刷網などに関する構造情報やより詳
細な色味情報などを入手することができる。
The recognition CPU 59 is configured with hardware so as to be able to access the memory 54. When the final image is recognized as a specific image in the final determination, the recognition CPU 59 performs the processing based on the position and rotation angle information. By reading the corresponding address in the memory 54, it is possible to obtain, for a specific portion of the specific image, structural information on a printing net or the like or more detailed color information.

【0198】詳細判定の後に、これらの情報に基づき再
判定を実施することにより、誤判定が発生する可能性を
非常に少なくすることができる。
By performing the re-determination based on these pieces of information after the detailed determination, the possibility that an erroneous determination will occur can be greatly reduced.

【0199】以上の動作により、読み取った画像中に特
定画像が含まれるか否かが判断される。
By the above operation, it is determined whether or not the read image includes the specific image.

【0200】次に、判定結果が出力された後の動作を説
明する。
Next, the operation after the judgment result is output will be described.

【0201】認識用CPU59は、シリアル通信ライン
40を用いて判定結果をCPU32へ転送する。CPU
32は、インタフェース30を制御し、他の装置31に
判定結果を通知する。SCSIなどの汎用インタフェー
スの場合は、画像読み取り装置から他の装置にAbor
tを出力し強制的に結果を受信させたり、他の装置が結
果を受信するためのコマンドを画像読み取り装置に対し
て出力してもよい。
The recognition CPU 59 transfers the determination result to the CPU 32 using the serial communication line 40. CPU
32 controls the interface 30 and notifies other devices 31 of the determination result. In the case of a general-purpose interface such as SCSI, an image reading device sends an Abor to another device.
t may be output to forcibly receive the result, or a command for another device to receive the result may be output to the image reading apparatus.

【0202】判定動作は、画像読み取り装置1の読み取
り動作が終了した時点から開始されており、判定を開始
した時点では、画像読み取り装置1で読み取られた画像
データは、ホストコンピュータ3や画像記録装置2など
の他の装置31に既に転送されている。他の装置31
は、判定結果を受理するまで、画像の加工や記録動作を
停止している。以上のようにして、特定画像の判定結果
は画像読み取り装置1から通知され、他の装置31は、
それに従って、例えば、画像記録動作へ移行するか否か
が決定される。
The determination operation is started when the reading operation of the image reading device 1 is completed. At the time when the determination is started, the image data read by the image reading device 1 is transferred to the host computer 3 or the image recording device. 2 has already been transferred to another device 31. Other devices 31
, The image processing and the recording operation are stopped until the judgment result is received. As described above, the determination result of the specific image is notified from the image reading device 1, and the other devices 31
Accordingly, for example, it is determined whether or not to shift to the image recording operation.

【0203】次に、特定画像の登録動作の一例について
説明する。
Next, an example of a specific image registration operation will be described.

【0204】図22は特定画像の登録手段を示すフロー
チャートである。
FIG. 22 is a flowchart showing the means for registering a specific image.

【0205】登録データ格納メモリ43には、登録時に
登録する特定画像の特徴量が格納されている(図8参
照)。登録データ格納メモリ43に記憶された特徴量
は、認識時に、認識用CPU59により読み出され、作
業用RAM64に格納され、認識時に参照される。
The registration data storage memory 43 stores the feature amount of a specific image to be registered at the time of registration (see FIG. 8). The feature amount stored in the registration data storage memory 43 is read by the recognition CPU 59 at the time of recognition, is stored in the work RAM 64, and is referred to at the time of recognition.

【0206】使用者は、ホストコンピュータ3又は画像
読み取り装置1に備えられた入力パネル上のモード選択
ボタン(図示せず)等から画像読み取り装置1に対し登
録モードを選択するための認識モード情報を送り、画像
読み取り装置1のモード選択手段41により登録モード
が選択される。
The user inputs recognition mode information for selecting a registration mode to the image reading device 1 from a mode selection button (not shown) on the input panel provided on the host computer 3 or the image reading device 1 or the like. Then, the registration mode is selected by the mode selection means 41 of the image reading apparatus 1.

【0207】この状態で、使用者は、まず、登録する特
定画像を読み取り装置1により読み取る(ステップS3
0)。
In this state, the user first reads the specific image to be registered by the reading device 1 (step S3).
0).

【0208】第2解像度変換部38は、読みとられた画
像を所定の解像度に変換し(ステップS31)、変換し
た画像データをメモリ54に格納する(ステップS3
2)。このとき、原稿台上に置かれた特定画像の位置は
任意の場所で構わないが、角度は0度、すなわち読み取
り装置の主走査方向と特定画像の長辺が平行になるよう
に置き、画像を読み取る。これは、画像読み取り装置1
が両替機等のように入力画像の位置が不変である場合は
必要ないが、画像読み取り装置1が複写装置等の場合、
入力画像の存在位置が特定されないため、角度0度に画
像を読み取り、背景の白地を検出し、背景部以外の意味
のあるデータのみをメモリ54に格納する。
The second resolution converter 38 converts the read image into a predetermined resolution (step S31), and stores the converted image data in the memory 54 (step S3).
2). At this time, the position of the specific image placed on the platen may be at any position, but the angle is 0 degree, that is, the main scanning direction of the reading device and the long side of the specific image are placed in parallel. Read. This is the image reading device 1
Is not necessary when the position of the input image is invariable as in a money changer, but when the image reading device 1 is a copying device or the like,
Since the location of the input image is not specified, the image is read at an angle of 0 °, a white background is detected, and only meaningful data other than the background is stored in the memory 54.

【0209】次に、認識用CPU59は、メモリ54に
格納されたデータを基に特定画像の識別を行うかどうか
の選択を行う(ステップS33)。
Next, the recognition CPU 59 selects whether or not to identify a specific image based on the data stored in the memory 54 (step S33).

【0210】ステップS33において、特定画像の識別
を行わない場合、メモリ54に格納された画像の登録す
べき特徴量を抽出する(ステップS34)。
If the specific image is not identified in step S33, the feature quantity to be registered of the image stored in the memory 54 is extracted (step S34).

【0211】次いで、使用者は、登録データ選択手段
(ホストコンピュータ3のモニタ画面に表示される選択
画面や、画像読み取り装置1に備えられた入力パネル上
の選択ボタン(図示せず)等)により、新規に特徴量を
登録する新規登録手段(ホストコンピュータ3のモニタ
画面に表示される新規登録画面や、画像読み取り装置1
に備えられた入力パネル上の新規登録ボタン(図示せ
ず)等)と、登録データ格納メモリ43に既に格納され
ている特定画像の特徴量を追加変更する書換登録手段
(ホストコンピュータ3のモニタ画面に表示される追加
登録画面や、画像読み取り装置1に備えられた入力パネ
ル上の書換登録ボタン(図示せず)等)とのいずれかの
登録手段を選択する(ステップS35)。
Next, the user operates registration data selection means (a selection screen displayed on the monitor screen of the host computer 3 or a selection button (not shown) on an input panel provided in the image reading apparatus 1). New registration means for newly registering a feature amount (a new registration screen displayed on a monitor screen of the host computer 3 or an image reading apparatus 1)
A new registration button (not shown) on the input panel provided in the printer, and a rewriting registration unit (monitor screen of the host computer 3) for additionally changing the feature amount of the specific image already stored in the registration data storage memory 43. (Step S35), and an additional registration screen displayed on the screen or a rewrite registration button (not shown) on an input panel provided in the image reading apparatus 1.

【0212】登録データ選択手段により、新規登録手段
が選択された場合、認識用CPU59は、ステップS3
4により抽出した特徴量を登録データ格納メモリ43に
追加登録する。
When the new registration means is selected by the registration data selection means, the recognition CPU 59 proceeds to step S3.
The feature amount extracted in step 4 is additionally registered in the registration data storage memory 43.

【0213】(表4)は登録データ格納メモリ43に記
憶されたデータの構造を示したものである。
(Table 4) shows the structure of data stored in the registered data storage memory 43.

【0214】[0214]

【表4】 [Table 4]

【0215】新規登録手段が選択された場合、認識用C
PU59は、(表4)に示した登録データ格納メモリ4
3の新規データ用Xの特徴量X1に、前記抽出された特
徴量を新たに格納する(ステップS36)。
If the new registration means is selected, the recognition C
The PU 59 stores the registration data storage memory 4 shown in (Table 4).
The extracted characteristic amount is newly stored in the characteristic amount X1 of the new data X (step S36).

【0216】また、登録データ選択手段により、書換登
録手段が選択された場合、使用者は、特定画像選択手段
(ホストコンピュータ3のモニタ画面に表示される特定
画像情報の選択画面や、画像読み取り装置1に備えられ
た入力パネル上の特定画像情報選択ボタン等)により、
(表4)に示した登録データ格納メモリ43の既存の特
定画像から登録すべき特定画像を選択し(ステップS3
7)、認識用CPU59は、選択された特定画像に対
し、ステップS34により抽出した特徴量を書換変更し
登録する(ステップS38)。
When the rewriting registration unit is selected by the registration data selection unit, the user can select a specific image selection unit (a selection screen for specific image information displayed on the monitor screen of the host computer 3 or an image reading device). 1) on the input panel provided in 1)
A specific image to be registered is selected from the existing specific images in the registration data storage memory 43 shown in (Table 4) (step S3).
7), the recognition CPU 59 rewrites and registers the feature amount extracted in step S34 for the selected specific image (step S38).

【0217】例えば、特定画像選択手段により選択され
た特定画像が登録済データBである場合、認識用CPU
59は、(表4)に示した登録データ格納メモリの特徴
量B1を追加変更する。
For example, when the specific image selected by the specific image selecting means is the registered data B, the recognition CPU
Reference numeral 59 changes the feature amount B1 of the registered data storage memory shown in (Table 4).

【0218】ステップS33において、特定画像の識別
を行う場合は、識別結果を基に登録する特定画像を選択
する。
In step S33, when identifying a specific image, a specific image to be registered is selected based on the identification result.

【0219】識別結果が既存の登録された全ての特定画
像とも一致しない場合(ステップS40)、新規登録手
段により、(表4)に示した登録データ格納メモリ43
において、ステップ28による特徴量を新規データXの
特徴量X1に新たに格納する(ステップ31)。
If the identification result does not match any of the existing registered specific images (step S40), the new registration means uses the registration data storage memory 43 shown in (Table 4).
In, the feature value obtained in step is newly stored in the feature value X1 of the new data X (step 31).

【0220】また、ステップS40において、識別結果
が既に登録された特定画像と一致した場合、例えば、登
録済データBの特定画像と一致した場合、書換登録手段
により、(表4)に示した登録データ格納メモリ43の
特徴量B1を追加変更する(ステップS42)。
In step S40, if the identification result matches the already registered specific image, for example, if it matches the specific image of the registered data B, the rewriting registration unit registers the registration data shown in (Table 4). The feature amount B1 of the data storage memory 43 is additionally changed (step S42).

【0221】最後に、特徴量の抽出方法および特徴量に
ついて説明する。
Finally, a method of extracting a characteristic amount and a characteristic amount will be described.

【0222】登録するデータとして、入力画像データを
そのまま登録するとメモリの容量が非常に大きなものに
なるので、画像データ以外の特徴量を登録することとす
る。
If the input image data is directly registered as the data to be registered, the capacity of the memory becomes extremely large. Therefore, a feature amount other than the image data is registered.

【0223】認識を行うための特徴量として、まず第1
に特定画像の特徴を明確に表す色を複数抽出する。特徴
色の抽出方法は、上記の特徴色カウンタ55についての
詳細説明内で説明している。
First, as a feature amount for performing recognition, the first
First, a plurality of colors that clearly represent the features of the specific image are extracted. The characteristic color extraction method is described in the detailed description of the characteristic color counter 55 described above.

【0224】第2の特徴量として、図18に示すような
フレームマスクを作成する。登録モードの場合、角度0
度により読み取られる。この角度0度の画像データを基
に、任意の角度例えば5度おきに画像データを回転させ
フレームマスクデータを作成する。
As a second feature, a frame mask as shown in FIG. 18 is created. Angle 0 in registration mode
Read by degree. Based on the image data at the angle of 0 degree, the image data is rotated at an arbitrary angle, for example, every 5 degrees to create frame mask data.

【0225】第3の特徴量として、テンプレートデータ
を作成する。作成方法は、上記のテンプレート選択部5
6についての詳細説明内で説明している。
As the third feature, template data is created. The creation method is the same as the template selection unit 5 described above.
6 is described in the detailed description.

【0226】第4の特徴量として、特徴色の色範囲を抽
出する。色範囲は、例として特徴色の値に対し20%の
値とする。例えば、特徴色のグリーンの値が180の場
合、このときの色範囲を±36とする。
The color range of the characteristic color is extracted as the fourth characteristic amount. The color range is, for example, 20% of the value of the characteristic color. For example, when the value of the characteristic color green is 180, the color range at this time is ± 36.

【0227】第5の特徴量として、図21のニューラル
ネットワークの中間層79における重み係数を抽出す
る。重み係数は、上記第3の特徴量であるテンプレート
データが特定画像らしいかそうでないかを明確にするた
め、特定画像の特徴量と特定画像以外の特徴量である非
識別画像特徴データとをニューラルネットワークにより
学習し求める。
As the fifth feature value, a weight coefficient in the intermediate layer 79 of the neural network shown in FIG. 21 is extracted. The weighting factor is obtained by neurally distinguishing the feature amount of the specific image from the non-identification image feature data that is a feature amount other than the specific image in order to clarify whether the template data as the third feature amount is a specific image or not. Learn by network.

【0228】ニューラルネットワークの学習において、
特定画像の特徴量だけでは、特定画像であるかどうか認
識することができず、特定画像以外のデータを用い、こ
れと比較することにより、特定画像らしさを求めること
ができる。このとき非識別画像特徴データが特定画像の
特徴量と全く異なる場合、ニューラルネットワークによ
る学習効果がなく、曖昧画像を識別することが困難とな
る。そこで、上記第2の特徴量であるフレームマスクに
より、マスクブロックを用いて特定画像が取り得るテン
プレートデータのパターンを基に、特定画像が取り得な
いテンプレートデータのパターンを非識別画像特徴デー
タの特徴量として保存したり、非識別画像特徴データの
中から識別する各特定画像に対応したもの選択するよう
にする。
In learning a neural network,
It is not possible to recognize whether or not the image is a specific image only with the feature amount of the specific image. By using data other than the specific image and comparing it with the data, it is possible to determine the likeness of the specific image. At this time, if the non-identified image feature data is completely different from the feature amount of the specific image, there is no learning effect by the neural network, and it becomes difficult to identify the vague image. Therefore, based on the pattern of the template data that can be taken by the specific image using the mask block, the pattern of the template data that cannot be taken by the specific image is used as the feature of the non-identified image feature data by the frame mask that is the second feature. An image corresponding to each specific image to be stored or selected from the non-identified image feature data is selected.

【0229】例えば、特定画像が取り得るテンプレート
データのパターンをマスクブロック内でランダムに入れ
替える。また、テンプレートデータの任意の組み合わせ
から特定画像が取り得るテンプレートデータのパターン
を削除し、この中でカウント数の合計がある値より近い
テンプレートデータのパターンを非識別画像特徴データ
として選択する。
For example, the pattern of template data that can be taken by a specific image is randomly replaced in a mask block. In addition, a template data pattern that can be taken by a specific image is deleted from an arbitrary combination of template data, and a template data pattern whose total count is closer than a certain value is selected as non-identification image feature data.

【0230】このようにして入力された特定画像より、
この特定画像に対応した非識別画像特徴データを作成
し、特定画像が(表4)において登録済データBである
場合、作成したデータを非識別画像特徴データB2に登
録する。特定画像の特徴量と特定画像以外の特徴量であ
る非識別画像特徴データとをニューラルネットワークに
より学習を行った結果、図21のニューラルネットワー
クの中間層79における重み係数が求まり、またこのと
き同時に第6の特徴量として認識パラメータも求まる。
From the specific image thus input,
Unidentified image feature data corresponding to the specific image is created, and when the specific image is registered data B in (Table 4), the created data is registered in the non-identified image feature data B2. As a result of learning the feature amount of the specific image and the non-identified image feature data which is a feature amount other than the specific image by the neural network, a weight coefficient in the intermediate layer 79 of the neural network in FIG. 21 is obtained. A recognition parameter is also obtained as the feature amount of No. 6.

【0231】以上のように、特定画像に関する複数の特
徴色・フレームマスク・テンプレートデータ・色範囲・
重み係数・認識パラメータなどの複数の特徴量を登録デ
ータとして図8の登録データ格納メモリ43に格納して
おく。
As described above, a plurality of characteristic colors, frame masks, template data, color ranges,
A plurality of feature amounts such as weight coefficients and recognition parameters are stored in the registration data storage memory 43 of FIG. 8 as registration data.

【0232】[0232]

【発明の効果】以上のように、本発明の画像識別装置に
よれば以下のような有利な効果が得られる。
As described above, according to the image recognition apparatus of the present invention, the following advantageous effects can be obtained.

【0233】請求項1に記載の発明によれば、使用環境
に応じた特定画像をいつでも登録することが可能な画像
識別装置を提供することができる。
According to the first aspect of the present invention, it is possible to provide an image identifying apparatus capable of registering a specific image according to a use environment at any time.

【0234】請求項2に記載の発明によれば、識別精度
を調整することが可能な画像識別装置を提供することが
できる。
According to the second aspect of the present invention, it is possible to provide an image identification device capable of adjusting the identification accuracy.

【0235】請求項3に記載の発明によれば、同種の特
定画像を間違って複数登録することを防ぐことが可能な
画像識別装置を提供することができる。
According to the third aspect of the present invention, it is possible to provide an image identification device capable of preventing a plurality of same type specific images from being registered by mistake.

【0236】請求項4に記載の発明によれば、識別すべ
き画像データと他の画像データとの違いを明確にするこ
とができ識別精度の高い画像識別装置を提供することが
できる。
According to the fourth aspect of the present invention, it is possible to clarify the difference between the image data to be identified and the other image data, and to provide an image identifying apparatus with high identification accuracy.

【0237】請求項5に記載の発明によれば、非識別画
像のデータ量を削減でき、登録データ格納メモリの容量
を小さくすることが可能な画像識別装置を提供すること
ができる。
According to the fifth aspect of the present invention, it is possible to provide an image identification device capable of reducing the data amount of a non-identification image and reducing the capacity of a registration data storage memory.

【0238】請求項6に記載の発明によれば、予め非識
別画像特徴データを登録する必要がなく、大幅なデータ
量の削減ができ、登録データ格納メモリの容量を小さく
することが可能な画像識別装置を提供することができ
る。
According to the sixth aspect of the present invention, there is no need to register non-identifying image feature data in advance, so that the amount of data can be greatly reduced and the capacity of the registered data storage memory can be reduced. An identification device can be provided.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の画像識別装置を用いた画像複写システ
ムを示す図
FIG. 1 is a diagram showing an image copying system using an image identification device of the present invention.

【図2】図1の画像複写システムの画像読み取り装置の
要部断面図
FIG. 2 is a sectional view of a main part of the image reading apparatus of the image copying system of FIG. 1;

【図3】図2の画像読み取り装置のキャリッジの内部構
造を示す要部断面図
FIG. 3 is a sectional view of a main part showing an internal structure of a carriage of the image reading apparatus of FIG. 2;

【図4】画像読み取り装置のキャリッジを側面から見た
際の模式図
FIG. 4 is a schematic view of the carriage of the image reading apparatus when viewed from the side.

【図5】画像読み取り装置の光学系の詳細を示す斜視図FIG. 5 is a perspective view showing details of an optical system of the image reading apparatus.

【図6】画像読み取り装置の画像データ処理回路の構成
を表すブロック図
FIG. 6 is a block diagram illustrating a configuration of an image data processing circuit of the image reading device.

【図7】イメージセンサをラインセンサアレイ側から見
た模式平面図
FIG. 7 is a schematic plan view of the image sensor viewed from the line sensor array side.

【図8】画像識別装置の構造を示したブロック図FIG. 8 is a block diagram showing the structure of an image identification device.

【図9】図8の特徴色カウンタの構成を示すブロック図FIG. 9 is a block diagram showing a configuration of a characteristic color counter of FIG. 8;

【図10】ライン補正部の内部に記憶されるデータの構
造を示す図
FIG. 10 is a diagram showing the structure of data stored inside a line correction unit.

【図11】副走査方向に300dpiの解像度で画像を
読み取る場合のライン補正部の動作を示す図
FIG. 11 is a diagram illustrating an operation of a line correction unit when an image is read at a resolution of 300 dpi in the sub-scanning direction.

【図12】解像度変換のアルゴリズムを示す図FIG. 12 is a diagram showing a resolution conversion algorithm.

【図13】バッファに格納されるデータのデータ構造を
示す図
FIG. 13 is a diagram showing a data structure of data stored in a buffer.

【図14】テンプレート選択部の動作を示すフローチャ
ート
FIG. 14 is a flowchart showing the operation of a template selection unit.

【図15】テンプレートと特定画像の関係を示す図FIG. 15 is a diagram showing a relationship between a template and a specific image.

【図16】作業用RAM内のデータ構成を示した図FIG. 16 is a diagram showing a data configuration in a work RAM;

【図17】(a)特定画像を含んだ画像のイメージを示
す図 (b)実際の特定画像の各ブロックに対するTN(n)
の値を示した図 (c)各ブロックに対するD(n)の値を示した図
17A is a diagram showing an image of an image including a specific image. FIG. 17B is a TN (n) for each block of an actual specific image.
(C) Diagram showing the value of D (n) for each block

【図18】フレームマスクの構造を示す図FIG. 18 is a diagram showing a structure of a frame mask.

【図19】フレーム処理における1つのフレームに対す
る処理内容を示すフローチャート
FIG. 19 is a flowchart showing processing contents for one frame in frame processing;

【図20】最終判定における回転角補正を示す図FIG. 20 is a diagram showing rotation angle correction in a final determination.

【図21】認識用CPUの最終判定におけるフレームと
ブロックと認識処理の関係を示す図
FIG. 21 is a diagram illustrating a relationship between a frame, a block, and a recognition process in a final determination of the recognition CPU;

【図22】特定画像の登録手段を示すフローチャートFIG. 22 is a flowchart showing a specific image registration unit.

【符号の説明】[Explanation of symbols]

1 画像読み取り装置 2 画像記録装置 3 ホストコンピュータ 4 ケーブル 5 本体 6 原稿ガラス 7 キャリッジ 7a 開口部 8 駆動源 9 駆動プーリ 10 タイミングベルト 11 ベルト 12 従動プーリ 13 原稿 14 原稿カバー 15 支持部 16 基準取得位置 16a 基準板 17 ランプ 18 アパーチャ 19−1、19−2 反射ミラー 20 イメージセンサ 21 結像レンズ 22R、22G、22B ラインセンサアレイ 23R、23G、23B 読み取りライン 24a 増幅器 24b A/D変換器 25 シェーディング補正部 26 ライン補正部 27 第1解像度変換部 28 色処理部 29 バッファ 30 インタフェース 31 他の装置 32 CPU 33 モータ制御部 34、35、36、36a 制御信号 37 特定画像認識部 38 第2解像度変換部 39 認識部 40 シリアル通信ライン 41 モード選択部 42 登録部 43 登録データ格納メモリ 50、51 メモリ領域 53 画素 54 メモリ 55 特徴色カウンタ 56 テンプレート選択部 57 テンプレート格納メモリ 58 バッファ 59 認識用CPU 60 主・副画素カウンタ 61 ROM 62 制御信号 63 割り込み信号 64 作業用RAM 70C1、70C2、70C3 特徴色検出部 71a、71b、71c、71d、71e、71f、7
1g、71h、71i、71j、71k、71l、71
m、71n、71o、71p、71q、71r比較器 72a、72b、72c ANDゲート 73a、73b、73c カウンタ 74 カウントバッファ 75 ブロックの集合 76 ブロック 77 最終判定部 78 入力層 79 中間層 80 出力層 81 比較手段 d1 副走査方向 d2 主走査方向 P200_0、P200_1、P200_2 200d
piの画素 P300_0、P300_1、P300_2、P300
_3 300dpiの画素 P400_0、P400_1、P400_2、P400
_3、P400_4400dpiの画素 P500_0、P500_1、P500_2、P500
_3、P500_4、P500_5 500dpiの画
素 P600_0、P600_1、P600_2、P600
_3、P600_4、P600_5、P600_6 6
00dpiの画素 po1 ホームポジション
DESCRIPTION OF SYMBOLS 1 Image reading device 2 Image recording device 3 Host computer 4 Cable 5 Main body 6 Original glass 7 Carriage 7a Opening 8 Drive source 9 Drive pulley 10 Timing belt 11 Belt 12 Follower pulley 13 Document 14 Document cover 15 Support 16 Reference acquisition position 16a Reference plate 17 Lamp 18 Aperture 19-1 and 19-2 Reflecting mirror 20 Image sensor 21 Imaging lens 22R, 22G, 22B Line sensor array 23R, 23G, 23B Reading line 24a Amplifier 24b A / D converter 25 Shading correction unit 26 Line correction unit 27 First resolution conversion unit 28 Color processing unit 29 Buffer 30 Interface 31 Other device 32 CPU 33 Motor control unit 34, 35, 36, 36a Control signal 37 Specific image recognition unit 38 Second Image conversion unit 39 Recognition unit 40 Serial communication line 41 Mode selection unit 42 Registration unit 43 Registration data storage memory 50, 51 Memory area 53 Pixel 54 Memory 55 Characteristic color counter 56 Template selection unit 57 Template storage memory 58 Buffer 59 Recognition CPU Reference Signs List 60 main / sub-pixel counter 61 ROM 62 control signal 63 interrupt signal 64 work RAM 70C1, 70C2, 70C3 characteristic color detectors 71a, 71b, 71c, 71d, 71e, 71f, 7
1g, 71h, 71i, 71j, 71k, 71l, 71
m, 71n, 71o, 71p, 71q, 71r Comparator 72a, 72b, 72c AND gate 73a, 73b, 73c Counter 74 Count buffer 75 Set of blocks 76 Block 77 Final decision unit 78 Input layer 79 Middle layer 80 Output layer 81 Comparison Means d1 Sub-scanning direction d2 Main scanning direction P200_0, P200_1, P200_2 200d
pi pixel P300_0, P300_1, P300_2, P300
_3 300 dpi pixel P400_0, P400_1, P400_2, P400
_3, P400_4 400 dpi pixels P500_0, P500_1, P500_2, P500
_3, P500_4, P500_5 500 dpi pixels P600_0, P600_1, P600_2, P600
_3, P600_4, P600_5, P600_66
00 dpi pixel po1 home position

フロントページの続き Fターム(参考) 5B057 BA26 CC02 DA12 DB02 DB06 DC01 DC25 DC33 DC36 DC39 DC40 5C072 AA01 BA20 KA01 LA00 QA00 XA01 5L096 AA02 AA06 BA07 BA18 FA15 GA19 GA40 HA08 JA11 KA04 KA15 9A001 BB02 BB03 BB04 DD04 DD13 EE05 FF03 HH06 HH21 HH24 HH29 HH31 JJ64 KK16 KK37 KK42 KK58 LL02 LL03 Continued on front page F-term (reference) 5B057 BA26 CC02 DA12 DB02 DB06 DC01 DC25 DC33 DC36 DC39 DC40 5C072 AA01 BA20 KA01 LA00 QA00 XA01 5L096 AA02 AA06 BA07 BA18 FA15 GA19 GA40 HA08 JA11 KA04 KA15 9A001 BB02 BB03 BB02 BB03 BB02 BB03 DD03 HH24 HH29 HH31 JJ64 KK16 KK37 KK42 KK58 LL02 LL03

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】入力された画像を所定サイズのブロックに
分割し前記ブロック単位毎に特徴量を抽出する抽出手段
と、前記抽出手段によって抽出された特徴量に基づき前
記入力された画像に特定画像が含まれるか否かを識別す
る識別手段と、前記抽出手段によりブロック単位毎に抽
出された特定画像の特徴量を登録する登録手段と、前記
登録手段により登録される前記特定画像の特徴量を記憶
する登録データ格納メモリと、前記識別手段あるいは前
記登録手段を選択的に動作させるモード選択手段と、を
備えたことを特徴とする画像識別装置。
An extracting means for dividing an input image into blocks of a predetermined size and extracting a feature amount for each block, and a specific image for the input image based on the feature amount extracted by the extracting means. Identification means for identifying whether or not a specific image is included; registration means for registering a feature amount of a specific image extracted for each block unit by the extraction means; and a feature amount of the specific image registered by the registration means. An image identification apparatus, comprising: a registration data storage memory for storing; and a mode selection unit for selectively operating the identification unit or the registration unit.
【請求項2】前記登録手段は、前記抽出手段によってブ
ロック単位に抽出された前記特定画像の特徴量を前記登
録データ格納メモリに新規登録する新規登録手段と、前
記登録データ格納メモリに登録済みの前記特定画像を選
択する特定画像選択手段と、前記特定画像選択手段によ
り選択された前記特定画像の特徴量を前記抽出手段によ
り新たに抽出された前記特定画像の前記特徴量に書換変
更する書換登録手段と、前記新規登録手段あるいは前記
書換登録手段を選択的に動作させる登録データ選択手段
と、を備えたことを特徴とする請求項1に記載の画像識
別装置。
2. The registration unit according to claim 1, wherein said registration unit newly registers a feature amount of said specific image extracted in block units by said extraction unit into said registration data storage memory, and said registration unit stores said feature amount in said registration data storage memory. A specific image selecting means for selecting the specific image; and a rewriting registration for rewriting and changing a characteristic amount of the specific image selected by the specific image selecting means to the characteristic amount of the specific image newly extracted by the extracting means. 2. The image identification apparatus according to claim 1, further comprising: a registration unit that selectively operates the new registration unit or the rewrite registration unit.
【請求項3】入力された前記特定画像に登録済みの前記
特定画像が含まれている場合前記書換登録手段を動作さ
せ、入力された前記特定画像に登録済みの前記特定画像
が含まれていない場合前記新規登録手段を動作させる制
御を行う前記登録データ選択手段を備え、前記識別手段
は、入力された前記特定画像に登録済みの前記特定画像
が含まれるか否かを識別することを特徴とする請求項2
に記載の画像識別装置。
3. When the input specific image includes the registered specific image, the rewriting registration unit is operated, and the input specific image does not include the registered specific image. In the case, the apparatus further comprises the registration data selection means for controlling the operation of the new registration means, wherein the identification means identifies whether or not the input specific image includes the registered specific image. Claim 2
An image identification device according to claim 1.
【請求項4】前記登録手段は、識別する前記特定画像以
外の画像の特徴量を非識別画像特徴データとして登録す
ることを特徴とする請求項1乃至3の何れか一項に記載
の画像識別装置。
4. The image identification apparatus according to claim 1, wherein the registration unit registers a feature amount of an image other than the specific image to be identified as non-identification image feature data. apparatus.
【請求項5】前記登録手段は、登録された前記非識別画
像特徴データの中から、識別する前記特定画像に対応し
た前記非識別画像特徴データを、前記特定画像毎に選択
することを特徴とする請求項4に記載の画像識別装置。
5. The non-identifying image characteristic data corresponding to the specific image to be identified is selected from the registered non-identifying image characteristic data for each of the specific images. The image identification device according to claim 4, wherein:
【請求項6】前記登録手段は、識別する前記特定画像に
対応した前記非識別画像特徴データを、識別する前記特
定画像より作成し前記登録データ格納メモリに記憶する
ことを特徴とする請求項4に記載の画像識別装置。
6. The registration means according to claim 4, wherein said registration means creates said non-identification image characteristic data corresponding to said specific image to be identified from said specific image to be identified and stores it in said registration data storage memory. An image identification device according to claim 1.
JP11015591A 1999-01-25 1999-01-25 Image identifying device Ceased JP2000215314A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11015591A JP2000215314A (en) 1999-01-25 1999-01-25 Image identifying device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11015591A JP2000215314A (en) 1999-01-25 1999-01-25 Image identifying device

Publications (1)

Publication Number Publication Date
JP2000215314A true JP2000215314A (en) 2000-08-04

Family

ID=11892980

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11015591A Ceased JP2000215314A (en) 1999-01-25 1999-01-25 Image identifying device

Country Status (1)

Country Link
JP (1) JP2000215314A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009519532A (en) * 2005-12-16 2009-05-14 エヌ・シー・アール・コーポレイション Bank note confirmation
US8917406B2 (en) 2009-07-31 2014-12-23 Sharp Kabushiki Kaisha Image reading apparatus for determining whether a document contains a distinguishing pattern

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009519532A (en) * 2005-12-16 2009-05-14 エヌ・シー・アール・コーポレイション Bank note confirmation
US8917406B2 (en) 2009-07-31 2014-12-23 Sharp Kabushiki Kaisha Image reading apparatus for determining whether a document contains a distinguishing pattern

Similar Documents

Publication Publication Date Title
AU668335B2 (en) Image processing apparatus and method
JP3052947B2 (en) Pattern recognition device, pattern recognition method, storage medium storing pattern recognition method, and copy prevention system
JP5616958B2 (en) Method for banknote detector device and banknote detector device
JPH08185095A (en) Apparatus and method for detection of paper money pattern for forgery prevention
JPH11126259A (en) Image detecting method, image detector, image processing method, image processor and medium
US8630025B2 (en) Image processing apparatus, image processing method, and image processing program recorded recording medium
CN101569173A (en) Reduced position dependent noise in digital images
KR20100124738A (en) Automatic redeye detection
US7016538B2 (en) Image processor for detecting specified pattern
US7155051B2 (en) Image recognition apparatus, image recognition method and image recognition program for specific pattern
JP7210872B2 (en) Image processing device and image processing program
JP2000215314A (en) Image identifying device
JPH06284283A (en) Special original discrimination device and picture reader using it
JP2000149004A (en) Image reader
CN108460775A (en) A kind of forge or true or paper money recognition methods and device
JP2000341512A (en) Image reader
JP4789526B2 (en) Image processing apparatus and image processing method
JP2000333004A (en) Image copying system
CN107845184A (en) Bank note scanning recognition method, apparatus, ATM and storage medium
JP2000253242A (en) Picture reading system
JP2000155833A (en) Image recognizing device
JP3245154B2 (en) Image processing device
JP3178533B2 (en) Control method
JP2000134469A (en) Image reader
JP3264547B2 (en) Micro film reader and image reading method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060125

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20060214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090226

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20090323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090324

AA92 Notification of invalidation

Free format text: JAPANESE INTERMEDIATE CODE: A971092

Effective date: 20090407