JPH07226839A - Picture processor - Google Patents

Picture processor

Info

Publication number
JPH07226839A
JPH07226839A JP6042003A JP4200394A JPH07226839A JP H07226839 A JPH07226839 A JP H07226839A JP 6042003 A JP6042003 A JP 6042003A JP 4200394 A JP4200394 A JP 4200394A JP H07226839 A JPH07226839 A JP H07226839A
Authority
JP
Japan
Prior art keywords
mark
image
feature
pixel
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6042003A
Other languages
Japanese (ja)
Other versions
JP3555161B2 (en
Inventor
Atsushi Kasao
敦司 笠尾
Ryosuke Toho
良介 東方
Yutaka Nakamura
豊 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP04200394A priority Critical patent/JP3555161B2/en
Publication of JPH07226839A publication Critical patent/JPH07226839A/en
Application granted granted Critical
Publication of JP3555161B2 publication Critical patent/JP3555161B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To effectively prevent the unauthorized use of a reproduced picture by recognizing a mark by providing a means for recognizing the mark in a picture being a processing object and varying a picture processing as against the picture being the processing object in accordance with the presence or absence of the recognition of the mark. CONSTITUTION:A feature extraction means 2 extracts picture feature information from input picture data which is read by a picture read means 1 in a picture element unit, and it is written into a feature buffer 3. A mark registration means 4 previously registers picture feature information of the mark M having the size straddling over plural picture elements and consisting of prescribed picture feature information. A mark judgement means 5 retrieves information in the buffer 3 by a retrieval window 6 which is divided into the same size as the mark M or size smaller than it. When the information pattern of the mark M registered in the means 4 is checked and it is matched with an information pattern in the window 6 or they are approximated, the mark M is judged to exist. When the mark M is judged, a mark picture processing means 8 directly conducts a mark picture processing which the mark M means.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は、スキャナ等で画素単
位毎に取り込まれた画像を画像処理して出力する画像処
理装置に係り、特に、処理対象画像中に所定のマークを
含ませ、このマークを認識することにより画像処理の適
正化を実現できるようにした画像処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus for performing image processing on an image captured by a scanner or the like for each pixel unit and outputting the image, and in particular, including a predetermined mark in an image to be processed. The present invention relates to an image processing device capable of realizing appropriate image processing by recognizing a mark.

【0002】[0002]

【従来の技術】最近、カラー複写機の性能が急速に向上
したことに伴ない、コピー品質が原本に極めて近いもの
として得られるようになってきている。このような状況
下において、カラー複写機を悪用した犯罪が起きてい
る。
2. Description of the Related Art Recently, with the rapid improvement in the performance of color copying machines, it has come to be possible to obtain a copy quality that is very close to that of the original. Under these circumstances, crimes involving misuse of color copiers are occurring.

【0003】また、社内の機密文書も複写機を用いれば
簡単にコピーされてしまうため、機密漏洩等が依然とし
て懸念されている。
Further, confidential documents in a company can be easily copied by using a copying machine, so that there is still concern about leakage of confidential information.

【0004】[0004]

【発明が解決しようとする課題】このような不測の事態
を未然に解決するために、コピーしたくないものはコピ
ー不可にしたり、あるいは、特殊な画像処理を施すとい
うことを可能にする画像処理装置の出現が望まれてい
る。この発明は、このような技術的課題を解決するため
に為されたものであって、処理対象画像中のマークを正
確に認識し、再現画像の悪用を確実に防止できるように
した画像処理装置を提供するものである。
In order to solve such an unexpected situation, the image processing which makes it impossible to copy the object which is not desired to be copied or which can be subjected to a special image processing. The advent of devices is desired. The present invention has been made to solve such a technical problem, and an image processing apparatus capable of accurately recognizing a mark in an image to be processed and reliably preventing the reproduction image from being misused. Is provided.

【0005】[0005]

【課題を解決するための手段】すなわち、この発明は、
図1に示すように、画像読込手段1にて読み込まれた入
力画像データから画像特徴情報を画素単位毎に抽出する
特徴抽出手段2と、この特徴抽出手段2で抽出された画
像特徴情報を画素単位毎に書き込む特徴バッファ3と、
複数画素に跨った大きさで且つ所定の画像特徴情報から
なるマークMの画像特徴情報を予め登録するマーク登録
手段4と、マークMと同じ大きさあるいはそれより小さ
く分割された検索ウインドウ6にて特徴バッファ3内の
画像特徴情報を順次検索し、検索ウインドウ6内の画像
特徴情報パターンがマーク登録手段4に登録されたマー
クMの画像特徴情報パターンの全部若しくは一部と一致
又は類似しているか否かを調べ、一致又は類似していれ
ばマークMの全部若しくは一部であると判定するマーク
判定手段5とを備えたことを特徴とする。
That is, the present invention is
As shown in FIG. 1, a feature extracting unit 2 for extracting image feature information from the input image data read by the image reading unit 1 on a pixel-by-pixel basis, and the image feature information extracted by the feature extracting unit 2 for each pixel. A feature buffer 3 to be written for each unit,
A mark registration means 4 for pre-registering image feature information of a mark M having a size across a plurality of pixels and consisting of predetermined image feature information, and a search window 6 divided into the same size as or smaller than the mark M. The image feature information in the feature buffer 3 is sequentially searched, and whether the image feature information pattern in the search window 6 matches or is similar to all or part of the image feature information pattern of the mark M registered in the mark registration means 4. Mark determination means 5 for determining whether or not the marks M are all or a part of the marks M if they match or are similar to each other is provided.

【0006】このような画像処理装置において、処理対
象画像中のマークMの位置情報を用いる必要性がある場
合には、図1に示すように、マーク判定手段5にてマー
クMであると判定された画像領域の位置が格納されるマ
ーク位置格納手段7を備えるようにすればよい。このよ
うなマーク位置格納手段7を備えていれば、マーク位置
情報を利用することにより2つ以上のマークMの位置関
係を判断したり、あるいは、マーク画像処理手段8にて
マーク位置格納手段7のマーク位置情報に基づいてマー
ク画像領域に対して特定のマーク画像処理(例えば黒塗
り等)を実行するようにすることが可能である。
In such an image processing apparatus, when it is necessary to use the position information of the mark M in the image to be processed, the mark determination means 5 determines that it is the mark M, as shown in FIG. It suffices to provide the mark position storage means 7 for storing the position of the created image area. If such mark position storage means 7 is provided, the positional relationship between the two or more marks M can be determined by using the mark position information, or the mark image processing means 8 can use the mark position storage means 7. It is possible to execute a specific mark image process (for example, black painting) on the mark image area based on the mark position information.

【0007】また、マーク判定手段5にてマークMであ
ると判定された場合において、マーク画像処理手段8に
てマークMの意味する特定のマーク画像処理(例えばコ
ピー不可処理等)を実行するようにしてもよい。
When the mark determination means 5 determines that the mark is M, the mark image processing means 8 executes a specific mark image processing (for example, copy prohibition processing) that the mark M means. You may

【0008】このような技術的手段において、特徴抽出
手段2による特徴画素の抽出アルゴリズムについても適
宜選定して差し支えないが、特徴画素の抽出精度を高め
るという観点からすれば、注目画素の周囲に位置する複
数の画素を参照し、注目画素の特徴画素を抽出する方式
を採用するのが好ましい。また、特徴バッファ3として
は、特徴抽出手段2による特徴画素の抽出方式に応じて
最低限必要な容量が確保されていればよい。また、特徴
バッファ3に書き込む特徴画素の性質の表現形式につい
ては、予め決められたものであれば適宜選定して差し支
えない。更に、特徴画素抽出精度をより高めるという観
点からすれば、特徴バッファ3に書き込まれた特徴画素
がノイズでないか否かを判断し、ノイズであれば当該特
徴画素の性質を特徴バッファ3から削除するノイズ削除
手段が付加されることが好ましい。この場合において、
特徴画素がノイズでないか否かの判断アルゴリズムにつ
いては適宜選定して差し支えない。
In such a technical means, the feature pixel extracting algorithm by the feature extracting means 2 may be appropriately selected, but from the viewpoint of increasing the extraction accuracy of the feature pixel, the position around the pixel of interest is determined. It is preferable to adopt a method of referring to a plurality of pixels that are selected and extracting the characteristic pixel of the target pixel. Further, as the feature buffer 3, a minimum required capacity may be secured according to the feature pixel extraction method by the feature extraction means 2. The expression format of the characteristics of the characteristic pixel written in the characteristic buffer 3 may be appropriately selected as long as it is predetermined. Further, from the viewpoint of further enhancing the characteristic pixel extraction accuracy, it is determined whether or not the characteristic pixel written in the characteristic buffer 3 is noise, and if it is noise, the property of the characteristic pixel is deleted from the characteristic buffer 3. It is preferable to add noise elimination means. In this case,
The algorithm for determining whether or not the characteristic pixel is noise may be appropriately selected.

【0009】また、マーク判定手段5にて判定される処
理対象画像中のマークMとしては、通常の画像と明確に
区別できるものであれば適宜選定して差し支えない。こ
の場合において、マークMとしては、画像特徴情報パタ
ーンが一般には少ない特殊な数の組合わせ又はその比と
一致又は類似するように印刷されていることが好まし
い。そして、画像読取手段1に対しマークMを任意の角
度回転させても、検索ウインドウ6内でマッチする画像
特徴情報パターンの数又はその比が変化しない色を少な
くとも一色含むようにすれば、マークMの回転角度に影
響されることなく、マークMを判定することが可能であ
る。一方、画像読取手段1に対しマークMを任意の角度
回転させた場合、検索ウインドウ6内でマッチする画像
特徴情報パターンの数又はその比が変化する色を少なく
とも一色含むようにすれば、その変化度合に基づいてマ
ークMの回転角度を特定することが可能である。また、
マークMとしては、必ずしも一つの情報のみを含ませる
ものに限られるものではなく、複数の情報を含ませるよ
うにしてもよい。例えば、マークMを周辺部と中心部と
に領域区画し、内側領域と外側領域とで異なる情報を記
録するようにしてもよい。更にまた、処理対象画像中に
マークMを付す場合において、マークMが消去される事
態を有効に回避するには、マークMをその周囲の模様や
色に紛れ込ませ、人間の目にマークMと気づき難くする
ことが好ましい。
Further, the mark M in the image to be processed, which is judged by the mark judging means 5, may be appropriately selected as long as it can be clearly distinguished from a normal image. In this case, it is preferable that the mark M is printed such that the image feature information pattern is generally the same as or similar to a small number of combinations or ratios thereof. Then, even if the mark M is rotated with respect to the image reading means 1 by an arbitrary angle, at least one color that does not change the number or the ratio of the matching image feature information patterns in the search window 6 is included. It is possible to determine the mark M without being affected by the rotation angle of. On the other hand, when the mark M is rotated with respect to the image reading means 1 by an arbitrary angle, if at least one color in which the number or the ratio of the matching image characteristic information patterns changes is included in the search window 6, the change occurs. It is possible to specify the rotation angle of the mark M based on the degree. Also,
The mark M is not necessarily limited to including only one piece of information, and may include a plurality of pieces of information. For example, the mark M may be divided into a peripheral portion and a central portion, and different information may be recorded in the inner area and the outer area. Furthermore, in order to effectively avoid the situation where the mark M is erased when the mark M is added to the image to be processed, the mark M is mixed with the surrounding pattern or color so that the mark M can be recognized by the human eye. It is preferable to make it difficult to notice.

【0010】また、検索ウインドウ6がマークMの大き
さよりも小さく分割されたタイプにおいて、マークMの
判定処理を迅速に行なうには、マーク判定手段5とし
て、マークMに対応する画像領域内で検索ウインドウ6
を当該検索ウインドウ6の区画領域毎に順次移動させ、
検索ウインドウ6内の画像特徴情報パターンがマークM
の一部でないことが判定された時点で当該マークMに対
応する画像領域内での判定処理を終了し、次の処理へ移
行するようにすることが好ましい。
Further, in the type in which the search window 6 is divided into smaller than the size of the mark M, in order to quickly perform the determination process of the mark M, the mark determination means 5 searches within the image area corresponding to the mark M. Window 6
Are sequentially moved to each divided area of the search window 6,
The image feature information pattern in the search window 6 is the mark M.
It is preferable to end the determination process in the image area corresponding to the mark M when it is determined that it is not a part of the above, and to shift to the next process.

【0011】更に、マークMが付された原稿9の傾き角
度をも判定する際には、例えば、マークMに少なくとも
ある区画領域にのみ存在する他のマーク部分と異なる円
弧状の向き判定用成分Maを具備させ、マーク判定手段
5にて向き判定用成分Maがどの位置に存在するかを認
識するようにすればよい。
Further, when the inclination angle of the original 9 with the mark M is also determined, for example, an arc-shaped orientation determining component different from other mark portions existing only in at least a partitioned area of the mark M is determined. Ma may be provided so that the mark determination means 5 recognizes at which position the orientation determination component Ma is present.

【0012】更にまた、マークMに印刷してあるインク
は通常退色するものであるが、退色したとしても、マー
クMを正確に判定するという観点からすれば、特徴抽出
手段2として、マークMの退色変化方向に対して感度の
鈍い方向成分(色空間内でマークMに印刷してあるイン
クが退色していく方向と直角に交わる方向成分)を用い
てマーク判定手段5で用いられる特徴情報を抽出するよ
うにすればよい。
Furthermore, although the ink printed on the mark M usually fades, from the viewpoint of accurately judging the mark M even if the color fades, the feature extracting means 2 can be used as a mark of the mark M. The characteristic information used by the mark determination means 5 is obtained by using a direction component having a low sensitivity to the fading change direction (a direction component intersecting at right angles with the direction in which the ink printed on the mark M is fading in the color space). It should be extracted.

【0013】[0013]

【作用】上述したような技術的手段によれば、特徴抽出
手段2は画像読込手段1にて読み込まれた入力画像デー
タから画像特徴情報を画素単位毎に抽出し、この画像特
徴情報は画素単位毎に特徴バッファ3に書き込まれる。
一方、マーク登録手段4は、複数画素に跨った大きさで
且つ所定の画像特徴情報からなるマークMの画像特徴情
報を予め登録する。そして、マーク判定手段5は、マー
クMと同じ大きさあるいはそれより小さく分割された検
索ウインドウ6にて特徴バッファ3内の画像特徴情報を
順次検索し、検索ウインドウ6内の画像特徴情報パター
ンがマーク登録手段4に登録されているマークMの画像
特徴情報パターンの全部若しくは一部と一致又は類似し
ているか否かを調べ、一致又は類似していればマークM
の全部若しくは一部であると判定する。このようにして
マークMが判定されると、マーク画像処理手段8がマー
クMの意味するマーク画像処理を直接的に実行したり、
あるいは、マーク位置格納手段7のマーク位置情報に基
づいてマーク画像領域に対して特定のマーク画像処理を
実行する。
According to the technical means as described above, the feature extraction means 2 extracts the image feature information from the input image data read by the image reading means 1 on a pixel-by-pixel basis. It is written in the feature buffer 3 every time.
On the other hand, the mark registration means 4 pre-registers the image feature information of the mark M having a size across a plurality of pixels and including predetermined image feature information. Then, the mark determination means 5 sequentially searches the image feature information in the feature buffer 3 in the search window 6 divided into the same size as or smaller than the mark M, and the image feature information pattern in the search window 6 is marked. It is checked whether or not all or part of the image feature information pattern of the mark M registered in the registration means 4 is the same or similar, and if they are the same or similar, the mark M is determined.
Is determined to be all or a part of. When the mark M is determined in this way, the mark image processing means 8 directly executes the mark image processing that the mark M means, or
Alternatively, specific mark image processing is executed on the mark image area based on the mark position information of the mark position storage means 7.

【0014】[0014]

【実施例】以下、添付図面に示す実施例に基づいてこの
発明を詳細に説明する。 ◎実施例1 図2はこの発明が適用されたカラー画像形成装置の一実
施例である。同図において、符号10はカラー原稿を読
取るスキャナであり、このスキャナ10で読取られた入
力画像データは下地除去等の適切な前処理が施された均
等色空間の極座標表示に変換された後に、画像処理部2
0へ送出される。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described in detail below based on the embodiments shown in the accompanying drawings. Example 1 FIG. 2 is an example of a color image forming apparatus to which the present invention is applied. In the figure, reference numeral 10 is a scanner for reading a color original document, and after the input image data read by the scanner 10 is converted into polar coordinate display of a uniform color space that has been subjected to appropriate preprocessing such as background removal, Image processing unit 2
Sent to 0.

【0015】この実施例に係る画像処理部20におい
て、符号21はスキャナ10からの画像データ(量子化
された連続階調データ)を一旦保持する画像バッファで
あり、例えばN(正整数)行分ずつ処理していく場合に
は、少なくともN+2行分の多値画像データを保持し得
る記憶容量を具備することが必要である。
In the image processing unit 20 according to this embodiment, reference numeral 21 is an image buffer for temporarily holding the image data (quantized continuous tone data) from the scanner 10, for example, N (positive integer) rows. In the case of performing the processing one by one, it is necessary to have a storage capacity capable of holding at least N + 2 rows of multivalued image data.

【0016】また、符号22は画像データに基づいて画
像の特徴情報を抽出する特徴抽出部、23は特徴抽出部
22にて抽出された画像の特徴情報を書き込む特徴バッ
ファである。また、個別画像処理部24(具体的には2
4(1)〜24(n))は、特徴バッファ23の情報を元に自
分自身の処理が必要かどうかを判断し、また、必要であ
ればどの程度の強さでその処理が必要かを決め、それに
従い画像バッファ21の画像を処理していく。この処理
を個別画像処理部24(1)から個別画像処理部24(n)ま
で順に繰り返し、最終的に画像バッファ21には必要な
処理が適切に施された画像が入っていることになる。
尚、この実施例では、個別画像処理部24(1)がマーク
認識処理部、他の個別画像処理部24(2)…としてはエ
ッジ強調処理、色圧縮、ノイズの除去等がある。
Reference numeral 22 is a feature extraction unit for extracting the feature information of the image based on the image data, and 23 is a feature buffer for writing the feature information of the image extracted by the feature extraction unit 22. In addition, the individual image processing unit 24 (specifically, 2
4 (1) to 24 (n)) determines whether or not the processing by itself is necessary based on the information in the feature buffer 23, and if necessary, how strong the processing is. The image of the image buffer 21 is processed according to the decision. This process is repeated in order from the individual image processing unit 24 (1) to the individual image processing unit 24 (n), and finally the image buffer 21 contains an image that has been appropriately subjected to the necessary processing.
In this embodiment, the individual image processing unit 24 (1) is a mark recognition processing unit, and the other individual image processing units 24 (2) ... Are edge enhancement processing, color compression, noise removal, and the like.

【0017】この後、処理は画像出力部30に移され、
一般に知られたカラーコレクション31や濃度補正3
2、二値化33等の各処理が行われた後、画像を出力す
る。
Thereafter, the processing is transferred to the image output unit 30,
Commonly known color correction 31 and density correction 3
After each processing such as 2, binarization 33, etc., an image is output.

【0018】次に、マーク認識処理部24(1)を中心と
して、画像処理部20の構成を図3に基づいてより詳細
に説明する。同図において、画像バッファ21からはH
VC(マンセル表色系)の3つの画像信号成分(明度、
色度、彩度)が送出され、特徴抽出部22は、3つの画
像信号成分を線形合成により得られた信号を対象に特徴
画素を抽出する特徴画素抽出部221を備えている。
Next, the configuration of the image processing unit 20 will be described in more detail with reference to FIG. 3, centering on the mark recognition processing unit 24 (1). In the figure, H from the image buffer 21
Three image signal components of VC (Munsell color system) (brightness,
The chromaticity, the saturation) are transmitted, and the feature extraction unit 22 includes a feature pixel extraction unit 221 that extracts a feature pixel for a signal obtained by linearly combining three image signal components.

【0019】この実施例に係る特徴画素抽出部221の
具体例を図4に示す。同図において、特徴画素抽出部2
21は、画像信号合成部41と、画像変化の大きなエッ
ジ画素部分に対応するエッジ特徴画素を抽出するエッジ
特徴画素抽出部42、画像信号に勾配のある画素部分か
らなる勾配特徴画素を抽出する勾配特徴画素抽出部43
とを具備している。この実施例において、上記画像信号
合成部41は、選び出す特徴画素の種類毎に画像信号成
分が線形合成されるときの係数を適切に切り換えるもの
であり、エッジ特徴画素を抽出する場合には明度、色
度、彩度の係数をα1,β1,γ1とし、濃度勾配特徴画
素を抽出する場合には明度、色度、彩度の係数をα2,
β2,γ2とする。本実施例では、明度の影響度合を重視
する場合には、α1,α2=0.6、β1,β2=0、γ
1,γ2=0.4とし、色合いの変化を重視する場合に
は、α1,α2=0、β1,β2=0.6、γ1,γ2=0.
4として使い分ける。
FIG. 4 shows a specific example of the characteristic pixel extraction unit 221 according to this embodiment. In the figure, the characteristic pixel extraction unit 2
Reference numeral 21 denotes an image signal synthesizing unit 41, an edge characteristic pixel extracting unit 42 for extracting edge characteristic pixels corresponding to an edge pixel portion having a large image change, and a gradient for extracting a gradient characteristic pixel including a pixel portion having a gradient in the image signal. Feature pixel extraction unit 43
It has and. In this embodiment, the image signal synthesizing unit 41 appropriately switches the coefficient when the image signal components are linearly synthesized for each type of the feature pixel to be selected, and when extracting the edge feature pixel, the brightness, The coefficients of chromaticity and saturation are α1, β1, and γ1, and when the density gradient feature pixel is extracted, the coefficients of lightness, chromaticity, and saturation are α2,
Let β2 and γ2. In this embodiment, when importance is attached to the degree of influence of lightness, α1, α2 = 0.6, β1, β2 = 0, γ
1 and γ2 = 0.4, and when importance is attached to the change in hue, α1, α2 = 0, β1, β2 = 0.6, γ1, γ2 = 0.
Use properly as 4.

【0020】そして、特徴画素抽出部221にて抽出さ
れた特徴画素の性質が特徴バッファ23に書き込まれる
が、この特徴バッファ23は、図3に示すように、エッ
ジ特徴画素抽出部42並びに勾配特徴画素抽出部43に
対応し、夫々N+2行分の記憶容量のN+2行ラインバ
ッファ231,232を具備している。また、222は
特徴バッファ23に書き込まれた特徴画素がノイズでな
いか否かを判断し、ノイズであれば当該ノイズを削除す
るノイズ削除部である。
Then, the characteristics of the characteristic pixels extracted by the characteristic pixel extracting section 221 are written in the characteristic buffer 23. As shown in FIG. 3, the characteristic buffer 23 has the edge characteristic pixel extracting section 42 and the gradient characteristic pixel. Corresponding to the pixel extracting unit 43, N + 2 row line buffers 231 and 232 each having a storage capacity of N + 2 rows are provided. Reference numeral 222 denotes a noise deleting unit that determines whether or not the characteristic pixel written in the characteristic buffer 23 is noise and, if it is noise, deletes the noise.

【0021】次に、マーク認識処理部24(1)はマーク
判別部241を有し、このマーク判別部241はライン
バッファ231,232に書込まれたエッジ、勾配の各
特徴情報を登録マーク情報記憶部242に予め記憶して
ある登録マークの特徴情報と比較し、処理対象画像を分
類する。ここで、登録マーク候補画像アドレスバッファ
243はマーク判別部241が画像の一部が一致又は類
似していると判別した場合に、このマークが登録されて
いる画像上のアドレス(画像上の位置)を書込んでおく
ものである。
Next, the mark recognition processing unit 24 (1) has a mark discriminating unit 241. The mark discriminating unit 241 registers the characteristic information of the edge and the gradient written in the line buffers 231 and 232 as the registered mark information. The image to be processed is classified by comparing with the characteristic information of the registration mark stored in the storage unit 242 in advance. Here, when the mark discrimination unit 241 discriminates that a part of the image is identical or similar, the registration mark candidate image address buffer 243 has an address (position on the image) on the image where this mark is registered. Is to be written.

【0022】次に、この実施例に係るカラー画像形成装
置にて採用される画像特徴の抽出処理及びマーク認識処
理その他の個別画像処理過程を図5のフローチャートに
従って説明する。同図において、先ず、特徴バッファ2
3のポインタを所定位置に移動し(ステップ1)、特徴
画素抽出部221にて画像信号合成部41から入力され
た必要な行数Nの画像をスキャンしながら特徴画素を選
出し、特徴画素があればその特徴画素の種類記号を特徴
バッファ23の対応する位置に記録する(ステップ
2)。次いで、ノイズ削除部222にて選び出された特
徴画素がノイズかどうかを隣接する他の特徴画素がある
かないかで判断する。なければ、特徴画素の種類記号を
対応する特徴バッファ23の位置から削除する(ステッ
プ3)。この後、入力画像の処理をN行先に移した(ス
テップ4)後、ノイズ除去された特徴画素を利用し、処
理対象画素に選択的にマーク認識処理をする。そして、
処理した画素を画像バッファ21に書き込む。更に他の
画像処理があれば引き続きその処理に移る(ステップ
5)。しかる後、入力画像の全ての行をスキャンしたか
否かを判断し(ステップ6)、全ての行の処理が終了す
るまでステップ1〜ステップ5までの処理を繰り返す。
Next, the image feature extraction process, the mark recognition process, and other individual image processing steps adopted in the color image forming apparatus according to this embodiment will be described with reference to the flow chart of FIG. In the figure, first, the feature buffer 2
The pointer 3 is moved to a predetermined position (step 1), and the characteristic pixel extracting unit 221 selects the characteristic pixel while scanning the image of the required number N of rows input from the image signal synthesizing unit 41. If so, the type symbol of the characteristic pixel is recorded in the corresponding position of the characteristic buffer 23 (step 2). Next, it is determined whether or not the characteristic pixel selected by the noise removing unit 222 is noise depending on whether or not there is another adjacent characteristic pixel. If not, the type symbol of the characteristic pixel is deleted from the corresponding position of the characteristic buffer 23 (step 3). After that, after the processing of the input image is moved to the Nth row ahead (step 4), the noise-removed characteristic pixel is used to selectively perform the mark recognition processing on the processing target pixel. And
The processed pixels are written in the image buffer 21. If there is still another image processing, the processing is continued (step 5). Then, it is determined whether or not all the rows of the input image have been scanned (step 6), and the processing from step 1 to step 5 is repeated until the processing of all the rows is completed.

【0023】更に、この処理をより具体的に説明する。
今、入力画像を400spi、階調数256つまり1画
素を8ビットで記憶するものとし、2行ずつ画像を処理
していく場合(N=2)を説明すると、図6に示すよう
に、画像バッファ21及び特徴バッファ23の容量は最
低N+2行つまり4行必要である。このとき、特徴バッ
ファ23の最上行は既に抽出された特徴情報が書き込ま
れており、ノイズの除去も終了している。また、2行目
は抽出された特徴情報が書き込まれているが、ノイズの
除去は終わっていない。更に、3行目、4行目には既に
抽出され、マーク認識処理部24(1)により使用された
か、または、他の記憶領域にコピーされた使用済みの特
徴情報が入っている。従って、これから新たに抽出され
る特徴情報は3行目、4行目に書き込まれることにな
る。
Further, this processing will be described more specifically.
Now, assuming that the input image is stored at 400 spi and the number of gradations is 256, that is, one pixel is stored at 8 bits, the case of processing the image every two rows (N = 2) will be described. As shown in FIG. The capacity of the buffer 21 and the feature buffer 23 requires at least N + 2 rows, that is, 4 rows. At this time, the extracted feature information is already written in the top row of the feature buffer 23, and the noise removal is also completed. Further, the extracted feature information is written in the second line, but the noise removal is not completed. Further, the third line and the fourth line contain the used characteristic information that has already been extracted and used by the mark recognition processing unit 24 (1) or copied to another storage area. Therefore, the newly extracted feature information will be written in the third and fourth lines.

【0024】次に、特徴画素抽出部221による特徴画
素の選出方法を示す。今、図7に示すように、3×3行
列からなる画素に対し、注目画素aが3×3の画素行列
の中央にあるとし、周辺の画素をb,c,d,e,f,
g,h,iとして、以下の数1(1)(2)に沿った計
算をする。
Next, a method of selecting characteristic pixels by the characteristic pixel extraction unit 221 will be described. Now, as shown in FIG. 7, it is assumed that the pixel of interest a is at the center of the 3 × 3 pixel matrix with respect to the pixel of 3 × 3 matrix, and the peripheral pixels are b, c, d, e, f,
As g, h, and i, the calculation according to the following equations 1 (1) and (2) is performed.

【0025】[0025]

【数1】 [Equation 1]

【0026】数1(2)において、Sumは画素aとそ
の画素の周りの画素b〜iの平均との差を表している。
つまり、Sumの値が小さければ周囲の画素と違いがな
いので特徴画素とはなりえない。具体例を図8(a)
(b)に示す。ここでは、画像信号の中から明度情報の
みを取り出して説明する。図8(a)は略均一な明度分
布を示している。この場合、Sum=−4.375と予
想通り小さい。図8(b)は右上がりの明度勾配を持っ
ている例である。この場合、Sum=1.75とやはり
小さい値を示す。一般的なエッジフィルタではエッジと
して検出されるが、ここではよりきめの細かい処理を行
う必要から、立ち上がりのエッジと立ち下がり(下がり
始め)のエッジとを区別し、なだらかな勾配はエッジ特
徴画素としては判断しないことにする。但し、後の個別
画像処理で勾配情報を使いたい場合には以下の数2の演
算を行えばよい。
In Expression 1 (2), Sum represents the difference between the pixel a and the average of the pixels b to i around the pixel a.
That is, if the value of Sum is small, it is not different from the surrounding pixels and cannot be a characteristic pixel. A specific example is shown in FIG.
It shows in (b). Here, only the brightness information is extracted from the image signal for description. FIG. 8A shows a substantially uniform lightness distribution. In this case, Sum = −4.375, which is small as expected. FIG. 8B is an example having a lightness gradient that rises to the right. In this case, Sum = 1.75, which is also a small value. Although it is detected as an edge by a general edge filter, since it is necessary to perform more detailed processing here, the rising edge and the falling edge (beginning of the falling edge) are distinguished, and a gentle gradient is determined as an edge feature pixel. Will not judge. However, when it is desired to use the gradient information in the subsequent individual image processing, the following mathematical expression 2 may be performed.

【0027】[0027]

【数2】 [Equation 2]

【0028】Sumが小さく特徴画素と判断されなくて
も、数2においてAbsが大きければ勾配があることに
なる。
Even if Sum is small and it is not determined to be a characteristic pixel, if Abs is large in Formula 2, there is a gradient.

【0029】エッジ特徴画素の判定条件としては以下の
数3(1)を採用する。また、たとえ、Sum>CC1
を満たしていてもノイズである可能性がある。ノイズの
判定は次段のノイズ削除部225でも行うがここでも簡
単な方法で行う。Sumが極端に大きい場合は注目画素
だけ明度が低いか高いかのどちらかであり、ノイズであ
る可能性が高い。そこで、数3(2)の条件を満たした
場合にはノイズと判断することにする。従って、Sum
がCC1<Sum<CC2であれば画素aはエッジ特徴
画素であると判断する。更に、勾配特徴画素も検出した
い場合には、注目画素が以下の数3(3)の条件を満た
した時に勾配があると判断する。
The following expression 3 (1) is adopted as the judgment condition of the edge characteristic pixel. Also, even if Sum> CC1
Even if it satisfies, it may be noise. The noise determination is also performed by the noise removal unit 225 in the next stage, but the determination is also performed here by a simple method. When Sum is extremely large, only the pixel of interest has low or high brightness, and is likely to be noise. Therefore, if the condition of Expression 3 (2) is satisfied, it is determined to be noise. Therefore, Sum
If is CC1 <Sum <CC2, it is determined that the pixel a is an edge feature pixel. Further, if the gradient feature pixel is also desired to be detected, it is determined that there is a gradient when the pixel of interest satisfies the condition of the following expression 3 (3).

【0030】[0030]

【数3】 [Equation 3]

【0031】次に、エッジ特徴画素と勾配特徴画素とが
どの方向に特徴をもっているか、つまり画素aのどの方
向の明度変化が大きいかを判断する。そのために、Ma
x=max{|B|,|C|,|D|,|E|,|F
|,|G|,|H|,|I|}を求めて明度変化の方向
を決め、その方向の画素の平均値と注目画素aの差の符
号により、傾きの正負を判断する。例えば、図8(c)
の場合であれば、方向e+ということになる。これをこ
こでは便宜上↓+と表現し、特徴バッファ23に記録し
ておく。また、勾配特徴画素の場合、方向は→+,←−
は同じことを意味しているので、+の向きのみ採用し、
これが勾配を表していることを示すためにアンダライン
を付けと表示する。
Next, it is determined in which direction the edge feature pixel and the gradient feature pixel have the feature, that is, in which direction the brightness change of the pixel a is large. Therefore, Ma
x = max {| B |, | C |, | D |, | E |, | F
|, | G |, | H |, | I |} is determined to determine the direction of brightness change, and the sign of the difference between the average value of the pixels in that direction and the pixel of interest a is used to determine the positive or negative of the slope. For example, FIG. 8 (c)
In the case of, the direction is e +. This is expressed here as ↓ + for convenience, and is recorded in the feature buffer 23. In the case of gradient feature pixels, the directions are → +, ←-
Means the same thing, so only the + direction is adopted,
An underline is added to indicate that this represents a slope and is displayed as .

【0032】図9に画像の明度の変化と対応する記号を
表示した。同図において、二つの特徴画素→+,← −
が向き合っているところではその二つの画素の間で大き
な変化があることがわかる。また、勾配が緩やかであれ
ば幾つかの画素は連続して勾配記号を持っている事がわ
かり、比較的急な変化の場合には、その両端、または、
どちらかに特徴画素→+,←−が現れるはずである。実
際には、画像とエッジ特徴画素・勾配特徴画素のマーク
がこのようにうまく対応するようにCC1,CC1’,
CC2を決定する必要がある。
FIG. 9 shows symbols corresponding to changes in the brightness of the image. In the figure, two characteristic pixels → +, ← −
It can be seen that there is a large change between the two pixels where is facing each other. Also, if the gradient is gentle, it can be seen that some pixels have gradient symbols in succession, and in the case of a relatively sudden change, at both ends or
Characteristic pixels → + and ←-should appear in either one. Actually, CC1, CC1 ', and CC1', so that the image and the marks of the edge feature pixel / gradient feature pixel correspond well in this way.
CC2 needs to be determined.

【0033】次に、ノイズ削除部222の詳細を説明す
る。今、図6において、ノイズ判定が終わっているのは
特徴バッファ23の1行目だけなので、2行目、3行目
を処理していく際には1行目のデータを利用する。ここ
で、2行分の特徴抽出を終えてからノイズ判定を行う場
合には問題ないが、特徴抽出とノイズ判定とを画素毎に
行っていく場合には、図10に示した順に画素を処理し
ていく必要がある。すなわち、ノイズ判定には周囲の画
素の特徴抽出が終わっている必要があるので、図6の画
素*をノイズ判定するには画素D5まで特徴抽出が終わ
っている必要があり、画素D3をノイズ判定するには画
素D6まで特徴抽出が終わっていなくてはならないとい
う事である。
Next, the details of the noise removing section 222 will be described. Now, in FIG. 6, since the noise determination is finished only for the first line of the feature buffer 23, the data of the first line is used when processing the second and third lines. Here, there is no problem in the case of performing the noise determination after the feature extraction for two rows is completed, but in the case of performing the feature extraction and the noise determination for each pixel, the pixels are processed in the order shown in FIG. There is a need to continue to. That is, since it is necessary to finish the feature extraction of the surrounding pixels for noise determination, it is necessary to finish the feature extraction up to pixel D5 in order to perform noise determination for pixel * in FIG. This means that the feature extraction must be completed up to pixel D6.

【0034】また、注目画素がエッジ特徴画素と抽出さ
れていれば、図11に示すように、周りの画素に類似し
た方向成分をもつ特徴画素があるかどうかを調べる。も
しなければ、ノイズと判断しエッジ特徴画素マークを削
除する。ここで、類似した方向成分とは、エッジ特徴画
素の符号が同一で注目画素の方向から±80゜以内にあ
る方向のことである。例えば、注目画素が↓−であれば
↓−,↓(右45゜傾斜)−,↓(左45゜傾斜)−で
ある。従って、図11の注目画素はノイズではなくエッ
ジ特徴画素である。また、図12に示すように、抽出さ
れたエッジ特徴画素が孤立していても、エッジ特徴画素
の向いている方向に勾配をあらわす画素があり、しか
も、エッジ特徴画素が+であれば類似の方向の勾配を、
−であれば逆の方向の勾配を表している場合にも注目画
素が真に特徴画素であると判断する方法を採用してい
る。
If the pixel of interest is extracted as an edge feature pixel, it is checked whether or not there is a feature pixel having a directional component similar to the surrounding pixels, as shown in FIG. If not, it is judged as noise and the edge feature pixel mark is deleted. Here, the similar direction component is a direction in which the edge feature pixels have the same sign and are within ± 80 ° from the direction of the target pixel. For example, if the pixel of interest is ↓-, it is ↓-, ↓ (tilt 45 ° to the right)-, and ↓ (tilt to the left 45 °)-. Therefore, the pixel of interest in FIG. 11 is an edge feature pixel rather than noise. Further, as shown in FIG. 12, even if the extracted edge feature pixel is isolated, there is a pixel showing a gradient in the direction in which the edge feature pixel is facing, and if the edge feature pixel is +, it is similar. The gradient of the direction,
In the case of −, a method of determining that the pixel of interest is truly a feature pixel even when the gradient in the opposite direction is expressed is adopted.

【0035】以上のようにして、ノイズ画素を除去し、
特徴画素の情報を整理した後、マーク認識処理部24
(1)を始め各個別画像処理部24が特徴画素の情報を用
いて入力された画像に所望の画像処理を行う。尚、個別
画像処理部24の処理内容によっては、夫々の要求を満
たすような特徴画素抽出部221を構成することが必要
になる。
As described above, noise pixels are removed,
After organizing the information of the characteristic pixels, the mark recognition processing unit 24
Starting from (1), each individual image processing unit 24 performs desired image processing on the input image using the information of the characteristic pixel. Depending on the processing content of the individual image processing unit 24, it is necessary to configure the characteristic pixel extraction unit 221 that satisfies each request.

【0036】次に、マーク認識処理に関して詳細に説明
する。本実施例では、図13に示すように、80×80
画素の大きさのマークM(この実施例では、内側に太線
状の四分の一円弧、その外側に細線状の円、その最外側
に太破線状の円)が認識対象であり、図14に示すよう
に、上記マークMを4つの小領域(一つの小領域が40
×40画素)R1〜R4に分割して認識するものとする。
従って、マーク認識処理を当該画像領域1行分行うため
には、先ず、特徴バッファ23は40行分、ノイズ判定
を行うのであれば42行分バッファリングされている必
要がある。これ以降は、1行分ずつ特徴抽出処理とマー
ク認識処理を交互に繰り返していく。
Next, the mark recognition processing will be described in detail. In this embodiment, as shown in FIG. 13, 80 × 80
A mark M having a pixel size (in this embodiment, a thick line-shaped quarter arc inside, a thin line circle outside the circle, and a thick broken circle outside the circle) is a recognition target, and FIG. , The mark M is divided into four small areas (one small area is 40
(× 40 pixels) R1 to R4 are divided and recognized.
Therefore, in order to perform the mark recognition processing for one line of the image area, the feature buffer 23 needs to be buffered for 40 lines, and for the noise determination, 42 lines must be buffered. After that, the feature extraction process and the mark recognition process are alternately repeated for each line.

【0037】図15に示すように、40×40の検索用
のウインドウ50を特徴バッファ23上で左から右に移
動させながら特徴抽出処理を行う。この特徴抽出処理の
流れを図16に示す。最初に、ウインドウの左上隅のア
ドレスが登録マーク候補画像アドレスバッファ243に
記憶されているアドレスと比較し値が異なっていた場合
(ステップ1)に関して述べる。このとき、ウインドウ
50は図17(a)に示すようにマークMの左上領域を
検索することになる。先ず、ウインドウ内に表示されて
いる特徴を種類毎に合計し更にその値を集計した総計値
との比(以後この値を特徴比と呼ぶことにする)を計算
する。この処理をより具体的に述べると、立ち上がり、
立ち下がり、勾配の各特徴の合計値が以下の表1のよう
であると仮定する。
As shown in FIG. 15, the feature extraction processing is performed while moving the 40 × 40 search window 50 on the feature buffer 23 from left to right. The flow of this feature extraction processing is shown in FIG. First, the case where the address in the upper left corner of the window is compared with the address stored in the registration mark candidate image address buffer 243 and the value is different (step 1) will be described. At this time, the window 50 will search the upper left area of the mark M as shown in FIG. First, the characteristics displayed in the window are summed up for each type, and the value is calculated as a ratio to the totalized value (hereinafter, this value will be referred to as a characteristic ratio). More specifically, this process starts up,
Assume that the sum of the falling and slope features are as shown in Table 1 below.

【0038】[0038]

【表1】 [Table 1]

【0039】この場合において、以下の数4(1)式の
I1は立ち上がり特徴を種類毎に合計した総計値、I2は
立ち下がり特徴を種類毎に合計した総計値、I3が勾配
特徴を種類毎に合計した総計値であり、数4(2)式が
各特徴の種類毎の特徴比を意味する。
In this case, I1 in the following equation (1) is a total value obtained by summing the rising features by type, I2 is a total value obtained by summing the falling features by type, and I3 is a gradient feature by type. Equation (4) means the feature ratio for each type of feature.

【0040】[0040]

【数4】 [Equation 4]

【0041】そして、各特徴比と予めマークMに対し計
算されている特徴比とを比較し、値が以下の数5の条件
1を満たさなかった場合はウインドウを一つ右にずら
し、また同じ処理を繰り返していく(ステップ2,3,
7)。もし値が条件1を満たした場合は、40画素分ウ
インドウを移動して同じ処理すなわちウインドウ内に表
示されている特徴を種類毎に合計し特徴比の比較を行
う。そこで、種類毎の合計値が以下の条件2を満たした
場合は39画素分ウインドを戻し、その位置での左下に
隣接する画素の位置(アドレス)を登録マーク候補画像
アドレスバッファ243に記憶し処理を初めから繰り返
す(ステップ4,5,7)。条件2を満たさない場合
は、39画素分ウインドを戻し初めの処理に戻る(ステ
ップ4,6,7)。
Then, each feature ratio is compared with the feature ratio calculated for the mark M in advance, and if the value does not satisfy the condition 1 of the following expression 5, the window is shifted to the right by one and the same. The process is repeated (steps 2, 3,
7). If the value satisfies the condition 1, the window is moved by 40 pixels and the same process is performed, that is, the features displayed in the window are summed for each type and the feature ratios are compared. Therefore, when the total value for each type satisfies the following condition 2, the window for 39 pixels is returned, and the position (address) of the pixel adjacent to the lower left at that position is stored in the registration mark candidate image address buffer 243 and processed. Is repeated from the beginning (steps 4, 5, and 7). If the condition 2 is not satisfied, the window for 39 pixels is returned and the process is returned to the initial process (steps 4, 6 and 7).

【0042】次に、ウインドウの左上隅のアドレスが登
録マーク候補画像アドレイバッファ243に記憶されて
いるアドレスと比較し値が一致していた場合(ステップ
1)に関して述べる。このとき、ウインドウ50の重な
っている画像の上領域(図17中の51参照)が登録マ
ークの上半分と一致していることが分かっているので、
ウインドウ50は図17(b)に示すようにマークMの
左下領域を検索していく。今までと同様に、このウイン
ドウ内の画像の特徴比と予め計算されている登録マーク
の左下領域の特徴比とを比較して、登録マークの左下領
域の判定条件である数5の条件3と比較する(ステップ
8)。条件3に合わなければ、この画像は登録マークで
はないと判断し、ウインドウはこのままの位置で一番始
めの処理に戻り、条件1との比較から始める(ステップ
2)。一致していた場合にはウインドウを40画素分右
にずらし、そこでウインドウ内の画像の特徴比と予め計
算されている登録マークの右下領域の特徴比とを比較
し、登録マークの右下領域の判定条件である数5の条件
4と比較する(ステップ9)。一致していれば、すなわ
ち条件4を満たしていれば、当該画像は登録マークであ
ると判断する(ステップ10)。一致しなかった場合に
は40画素分戻して、一番始めの処理に戻り、条件1と
の比較から始める(ステップ11,2)。この様にマー
ク認識処理を続けていく。
Next, the case where the address in the upper left corner of the window is compared with the address stored in the registration mark candidate image adlay buffer 243 and the values match (step 1) will be described. At this time, it is known that the upper area (see 51 in FIG. 17) of the overlapping images of the windows 50 matches the upper half of the registration mark.
The window 50 searches the lower left area of the mark M as shown in FIG. As before, the feature ratio of the image in this window is compared with the pre-calculated feature ratio of the lower left region of the registration mark, and the condition 3 of Equation 5 which is the determination condition of the lower left region of the registration mark is obtained. Compare (step 8). If the condition 3 is not met, it is determined that this image is not a registration mark, the window returns to the first processing at this position, and the process is compared with the condition 1 (step 2). If they match, the window is shifted to the right by 40 pixels, and the feature ratio of the image in the window is compared with the pre-calculated feature ratio of the lower right region of the registration mark, and the lower right region of the registration mark is compared. It is compared with the condition 4 of the equation 5 which is the judgment condition of (step 9). If they match, that is, if Condition 4 is satisfied, it is determined that the image is a registration mark (step 10). If they do not match, the pixel is returned by 40 pixels, the process returns to the beginning, and comparison with Condition 1 is started (steps 11 and 2). In this way, the mark recognition process is continued.

【0043】マークを認識した時点で何らかの別の処理
に戻るのであれば、この時点で処理を中断するが、画像
の中に幾つの登録マークがあるかというような事を判断
するのであれば、対象画像領域の最後までこの処理を続
ける。
If the process returns to some other process at the time of recognizing the mark, the process is interrupted at this time, but if it is judged how many registration marks are in the image, This process is continued until the end of the target image area.

【0044】[0044]

【数5】 [Equation 5]

【0045】数5において、各特徴比の上下限値は登録
マークに対する夫々の領域(左上領域、右上領域,左下
領域,右下領域)の各特徴比の類似範囲を示すものであ
る。また、この実施例では、条件1〜条件4において、
全ての不等式を満たすことを条件にしているが、代表的
などれか一つ、あるいは、予め決められた複数の組み合
わせを満たすようにしてもよい。
In Equation 5, the upper and lower limit values of each feature ratio indicate the similar range of each feature ratio of each region (upper left region, upper right region, lower left region, lower right region) with respect to the registration mark. In addition, in this embodiment, in conditions 1 to 4,
The condition is that all the inequalities are satisfied, but any one of the typical ones or a plurality of predetermined combinations may be satisfied.

【0046】◎実施例2 実施例1では3×3のマスクを持っていてエッジ特徴と
勾配特徴とを抽出する方式を示したが、画像にノイズが
多い場合はマスクが大きい方が良く、また、線画等に対
応するためには、直線も抽出できる処理を採用した方が
適切である。この実施例は、このような要請に応える画
像処理部20を備えたものであり、この画像処理部20
の詳細を図18に示す。この画像処理部20は、実施例
1と異なり、エッジ、勾配に加えてラインに関する特徴
をも抽出する特徴画素抽出部221を備えており、この
ために、特徴バッファ23もエッジ、勾配、ラインに関
する特徴が書込まれる3つのN+2ラインバッファ23
1〜233を備えている。
Example 2 In Example 1, the method of extracting the edge feature and the gradient feature by using the 3 × 3 mask is shown. However, when the image has a lot of noise, it is better to use the larger mask. In order to handle line drawings and the like, it is appropriate to adopt a process that can also extract straight lines. This embodiment is provided with an image processing unit 20 that meets such a request.
The details of the above are shown in FIG. Unlike the first embodiment, the image processing unit 20 includes a feature pixel extraction unit 221 that extracts a feature related to a line in addition to an edge and a gradient. Therefore, the feature buffer 23 also relates to an edge, a slope, and a line. Three N + 2 line buffers 23 into which features are written
1 to 233 are provided.

【0047】この実施例に係る特徴画素抽出部221の
詳細構成を図19に示す。同図において、特徴画素抽出
部221は、画像信号合成部41と、画像変化の大きな
エッジ画素部分に対応するエッジ特徴画素を抽出するエ
ッジ特徴画素抽出部42と、勾配のある画素部分からな
る勾配特徴画素を抽出する勾配特徴画素抽出部43と、
直線状の画素部分からなるライン特徴画素抽出部44と
を具備している。この実施例において、上記画像信号合
成部41は、選び出す特徴画素の種類毎に画像信号成分
が線形合成されるときの係数を適切に切り換えるもので
あり、エッジ特徴画素を抽出する場合には明度、色度、
彩度の係数をα1,β1,γ1とし、濃度勾配特徴画素を
抽出する場合には明度、色度、彩度の係数をα2,β2,
γ2とし、ライン特徴画素を抽出する場合には明度、色
度、彩度の係数をα3,β3,γ3とする。本実施例で
は、明度の影響度合を重視する場合には、α1,α2,α
3=0.6、β1,β2,β3=0、γ1,γ2,γ3=0.
4とし、色合いの変化を重視する場合には、α1,α2,
α3=0、β1,β2,β3=0.6、γ1,γ2,γ3=
0.4とした。
FIG. 19 shows the detailed arrangement of the characteristic pixel extraction unit 221 according to this embodiment. In the figure, the feature pixel extraction unit 221 includes an image signal synthesis unit 41, an edge feature pixel extraction unit 42 that extracts an edge feature pixel corresponding to an edge pixel portion having a large image change, and a gradient including a gradient pixel portion. A gradient feature pixel extraction unit 43 for extracting feature pixels,
A line characteristic pixel extraction unit 44 including a linear pixel portion is provided. In this embodiment, the image signal synthesizing unit 41 appropriately switches the coefficient when the image signal components are linearly synthesized for each type of the feature pixel to be selected, and when extracting the edge feature pixel, the brightness, Chromaticity,
Saturation coefficients are α1, β1, γ1, and when extracting density gradient feature pixels, brightness, chromaticity, and saturation coefficients are α2, β2,
γ2, and when extracting line characteristic pixels, the coefficients of lightness, chromaticity, and saturation are α3, β3, and γ3. In this embodiment, when importance is attached to the degree of influence of lightness, α1, α2, α
3 = 0.6, β1, β2, β3 = 0, γ1, γ2, γ3 = 0.
4 and when emphasizing the change in hue, α1, α2,
α3 = 0, β1, β2, β3 = 0.6, γ1, γ2, γ3 =
It was set to 0.4.

【0048】以下に16方向のエッジ(立ち上がり、立
ち下がり)、勾配、直線(稜線、谷線)を抽出するため
に必要なマスクとアルゴリズムを説明する。図20に示
すように、16方向に一番上から時計と反対回りに1か
ら16まで番号を付ける。ここで、方向1を検出するマ
スクを図21(a)に示す。方向5、方向9、方向13
を検出するマスクはこのマスクを時計と反対回りに90
度、180度、270度と回転したものになる。また、
方向15を検出するマスクを図21(b)に示す。方向
3、方向7、方向11を検出するマスクは反時計回りに
90度、180度、270度と回転したものになる。更
に、方向16を検出するマスクを図21(c)に示す。
方向4、方向8、方向12を検出するマスクは反時計回
りに90度、180度、270度と回転したものにな
る。更にまた、方向14を検出するマスクを図21
(d)に示す。方向2、方向6、方向10を検出するマ
スクは反時計回りに90度、180度、270度と回転
したものになる。
The masks and algorithms necessary for extracting edges (rising edges, falling edges), gradients, and straight lines (ridge lines, valley lines) in 16 directions will be described below. As shown in FIG. 20, numbers are assigned from 1 to 16 in the counterclockwise direction from the top in 16 directions. Here, a mask for detecting the direction 1 is shown in FIG. Direction 5, Direction 9, Direction 13
The mask that detects
It is rotated 180 degrees and 270 degrees. Also,
A mask for detecting the direction 15 is shown in FIG. The mask for detecting the directions 3, 7, and 11 is rotated 90 degrees, 180 degrees, and 270 degrees counterclockwise. Further, a mask for detecting the direction 16 is shown in FIG.
The mask for detecting the directions 4, 8 and 12 is rotated 90 degrees counterclockwise, 180 degrees and 270 degrees. Furthermore, a mask for detecting the direction 14 is shown in FIG.
It shows in (d). The mask for detecting the directions 2, 6, and 10 is rotated 90 degrees counterclockwise, 180 degrees, and 270 degrees.

【0049】対象画像領域を1画素毎にスキャンしなが
ら以上の方向検出マスクを順に当てはめていく。具体的
には、以下の2つの処理ステップに分けられる。
The above direction detection masks are sequentially applied while scanning the target image area pixel by pixel. Specifically, it is divided into the following two processing steps.

【0050】ステップ1 対応するマスク内に示された重み(1または−1、0)
をウインドウの重なった当該画像エリアの対応する画素
に乗算してその和の絶対値をとる。これをすべてのウイ
ンドウに対して行い次にその値同志を比較し一番大きな
値をもつ方向を見つける。より具体的に述べると、図2
2に示すように、今、画素x,yを処理しているものと
する。このとき、例えばx,yを中心に9×9画素のウ
インドウW(i,j)を考える。また、このウインドウ
W(i,j)に対応する図21(a)〜(d)の16方
向を検出するマスクM1(i,j)…M16(i,j)及
び当該マスクM1(i,j)〜M16(i,j)の“1”
と“−1”とを交換した逆の傾きを検出するマスクM17
(i,j)…M32(i,j)を求め、各マスクMk
(i,j) とウインドウW(i,j)との相乗和PK
(k=1〜32)を求める。
Step 1 Weights shown in the corresponding mask (1 or -1,0)
Is multiplied by the corresponding pixel in the image area where the windows overlap, and the absolute value of the sum is obtained. Do this for all windows and then compare their values to find the direction with the largest value. More specifically, FIG.
As shown in FIG. 2, it is assumed that pixels x and y are being processed. At this time, for example, consider a window W (i, j) of 9 × 9 pixels centered on x, y. Further, masks M1 (i, j) ... M16 (i, j) for detecting the 16 directions in FIGS. 21 (a) to 21 (d) corresponding to the window W (i, j) and the mask M1 (i, j). ) -M16 (i, j) "1"
A mask M17 for detecting the reverse inclination in which "-1" is exchanged
(I, j) ... M32 (i, j) is obtained, and each mask Mk
Synergistic sum PK of (i, j) and window W (i, j)
(K = 1 to 32) is calculated.

【0051】この絶対値が予め決められたノイズと区別
される下限値S1より大きければ当該画像エリアは特徴
をもっているとみなし、その方向と傾きの正負(マスク
を当該画像エリアの対応する画素に乗算し和を取ったと
きの値の正負)を記録しておく。
If this absolute value is larger than the lower limit value S1 which is distinguished from the predetermined noise, it is considered that the image area has a characteristic, and the direction and the positive / negative of the inclination (the mask is multiplied by the corresponding pixel of the image area). Make a note of the positive and negative values of the sum.

【0052】ステップ2 次に、最大の傾きをもつ方向に対して180度反対方向
の傾きの値を最大傾きの絶対値に1/2を乗じた値S2
と比較して当該エリアの特徴の種類を決定する。ステッ
プ1で抽出された方向の傾きが正である場合をまず考え
てみる。抽出された方向の180度反対方向の傾きが負
でその絶対値がS2より大きければこの特徴は「勾配」
と分類し、抽出された方向の180度反対方向の傾きの
絶対値がS2より小さければこの特徴は「立ち上がり」
と分類し、抽出された方向の180度反対方向の傾きも
正でその絶対値がS2より大きければこの特徴は「谷
線」と分類される。また、ステップ1で抽出された方向
の傾きが負である場合を考えてみる。抽出された方向の
180度反対方向の傾きが正でその絶対値がS2より大
きければこの特徴は「勾配」と分類し、抽出された方向
の180度反対方向の傾きの絶対値がS2より小さけれ
ばこの特徴は「立ち下がり」と分類し、抽出された方向
の180度反対方向の傾きも負でその絶対値がS2より
大きければこの特徴は「稜線」と分類される。以上の手
続により5種類の特徴の抽出がなされる。この結果をも
とに実施例1で示したのと同様のマーク認識処理に処理
を移す。
Step 2 Next, a value S2 obtained by multiplying the absolute value of the maximum inclination by 1/2 the value of the inclination 180 degrees opposite to the direction having the maximum inclination.
And the type of feature of the area is determined. First, consider the case where the inclination in the direction extracted in step 1 is positive. If the inclination 180 degrees opposite to the extracted direction is negative and its absolute value is larger than S2, this feature is "gradient".
If the absolute value of the inclination of 180 degrees opposite to the extracted direction is smaller than S2, this feature is
If the inclination in the direction opposite to the extracted direction by 180 degrees is also positive and its absolute value is larger than S2, this feature is classified as a "valley line". Also, consider the case where the inclination in the direction extracted in step 1 is negative. If the inclination in the opposite direction of 180 degrees to the extracted direction is positive and its absolute value is larger than S2, this feature is classified as "gradient", and the absolute value of the inclination in the opposite direction of 180 degrees to the extracted direction is smaller than S2. For example, this feature is classified as "falling", and if the inclination in the direction opposite to the extracted direction by 180 degrees is negative and its absolute value is larger than S2, this feature is classified as "ridgeline". Through the above procedure, five types of features are extracted. Based on this result, the process shifts to the mark recognition process similar to that shown in the first embodiment.

【0053】◎実施例3 この実施例は、単にマークの判定をするだけでなく、予
めマークに持たせてある暗号をも解読するようにしたも
のである。この実施例においては、マークを認識する時
に用いる小領域を図23に示すように8つの領域に区分
けし、例えば内側の4つの領域61でマークの認識を行
い、外側の4つの領域62でマークの暗号を解読するも
のである。尚、内側と外側との関係を逆に設定してもよ
いことは勿論である。
[Embodiment 3] In this embodiment, not only is the mark judged, but the code previously given to the mark is also deciphered. In this embodiment, a small area used for recognizing a mark is divided into eight areas as shown in FIG. 23. For example, four areas 61 on the inner side recognize the mark, and four areas 62 on the outer side mark the mark. It is to decipher the code. Of course, the relationship between the inside and the outside may be reversed.

【0054】この実施例において、内側4つの領域61
に関しては、実施例1、2と同様の手法によりマークを
判別する。一方、外側の4つの領域62に関しても特徴
抽出の処理は同様である。そして、外側の4つの領域6
2に関して抽出された特徴比にいろいろな情報を予め持
たせておけば、マークの判定処理方式をそのまま用いて
情報を読取ることが可能である。勿論これには特徴比以
外の一般に知られる暗号バーコード等を用いることも可
能である。
In this embodiment, the four inner regions 61
Regarding the above, the mark is discriminated by the same method as in the first and second embodiments. On the other hand, the process of feature extraction is the same for the four outer regions 62. And the four outer regions 6
If various information is given in advance to the feature ratio extracted for 2, it is possible to read the information by using the mark determination processing method as it is. Of course, it is also possible to use a generally known cryptographic barcode other than the feature ratio.

【0055】暗号として記録されていると便利な情報と
しては、スキャナで読み込まれた原稿の種類等である
が、この暗号を応用することで原稿がスキャナの上に置
かれたときの配置角度を知ることも可能である。例えば
図23に示すように、暗号部分に1/4円弧Maをマー
クの他の部分の色と変えていれておく。マークの部分を
4つの小領域(R1〜R4)に分けて認識している場合に
は、図24に示すように、小領域(R1〜R4)に1/4
円弧Maが跨るので、1/4円弧Maに使われている色
で表現されている特徴の総数の比から原稿70の向きを
判断することが可能である。図24では、右2つの小領
域(R2,R4)に同じ割合でこの色のマークMaが存在
するので、マークが45度傾いていることがわかる。こ
の情報からマークの印刷されている原稿70自体の位置
が把握され、マークをシステムが発見したときに塗りつ
ぶす等の処理を行なうことが可能である。但し、スキャ
ナに読み込まれたマークの付いている印刷物だけにこの
ような処理を行うには、予めシステムが対象となる印刷
物の大きさ、マークの位置、マークの方向を記憶してお
く必要がある。
The information that is conveniently stored as a cipher is the type of the manuscript read by the scanner. By applying this cipher, the arrangement angle when the manuscript is placed on the scanner can be determined. It is also possible to know. For example, as shown in FIG. 23, the 1/4 arc Ma in the encrypted part is changed from the color of the other part of the mark. When the mark portion is recognized by being divided into four small regions (R1 to R4), as shown in FIG. 24, the small regions (R1 to R4) are divided into quarters.
Since the arc Ma extends, it is possible to determine the orientation of the document 70 from the ratio of the total number of features represented by the colors used for the quarter arc Ma. In FIG. 24, since the marks Ma of this color are present at the same ratio in the two right small areas (R2, R4), it can be seen that the marks are inclined by 45 degrees. This information is the position of the document 70 itself being printed marks from being grasped, One coating when the mark system has found
It is possible to perform processing such as dusting . However, in order to perform such processing only on the printed matter with the mark read by the scanner, the system needs to store the size of the target printed matter, the position of the mark, and the direction of the mark in advance. .

【0056】◎実施例4 この実施例に係る特徴抽出部22は、実施例1,2と異
なり、色空間内でマークの印刷してあるインクが退色し
ていく方向と直角に交わる方向成分を用い、検索ウイン
ドウ内の特徴比を求めたものであり、マーク認識処理部
24(1)が算出された特徴比と予め求められているマー
クの特徴比とを比較して一致又は類似するか否かを判定
するものである。この実施例によれば、インクの退色方
向の色域変化感度を鈍くすることが可能になるので、マ
ークの印刷してあるインクが退色したとしても、マーク
を正確に認識することが可能である。例えば、マークが
付された新しい印刷物、古い印刷物を含めてマークのイ
ンクの色分布を模式的に二次元で示したものを図25
(a)に示す。同図において、2つの閉ループ曲線内が
インクA,インクBの色分布領域を示し、その中でハッ
チング領域は古いインクの分布領域を示す。そして、図
25(a)に示された色分布の主成分を計算し、図25
(b)にその主成分(第1主成分、第2主成分)を示す
と、第2主成分が第1主成分に対して直角に交わり、第
1主成分の退色変化は大きいが、第2主成分の退色変化
は小さいことが把握される。従って、第2主成分に沿っ
てマークの特徴比を比較するようにすれば、インク退色
に強いマーク認識が可能になるのである。
Example 4 Unlike the first and second examples, the feature extraction unit 22 according to this example determines the direction component intersecting at right angles with the direction in which the ink on which the mark is printed is fading in the color space. The mark recognition processing unit 24 (1) compares the calculated feature ratio with the previously obtained feature ratio of the mark to determine whether they match or are similar to each other. It is to determine whether or not. According to this embodiment, the sensitivity of the color gamut change in the fading direction of the ink can be made dull, so that the mark can be accurately recognized even if the ink on which the mark is printed is fading. . For example, FIG. 25 is a schematic two-dimensional view showing the color distribution of the ink of the mark including the new printed matter and the old printed matter with the mark.
It shows in (a). In the figure, the two closed loop curves show the color distribution areas of ink A and ink B, and the hatched area shows the old ink distribution area. Then, the main component of the color distribution shown in FIG.
When the main components (first main component and second main component) are shown in (b), the second main component intersects the first main component at a right angle, and although the first main component has a large fading change, It is understood that the fading changes of the two main components are small. Therefore, if the feature ratios of the marks are compared along the second principal component, it is possible to recognize marks that are resistant to ink fading.

【0057】[0057]

【発明の効果】以上説明してきたように、本願発明によ
れば、処理対象画像中のマークを認識する手段を具備さ
せるようにしたので、マークの認識の有無に応じて処理
対象画像に対する画像処理を相違させることが可能にな
り、その分、マークの認識に応じて再現画像の悪用を有
効に防止することができる。
As described above, according to the present invention, since the means for recognizing the mark in the image to be processed is provided, the image processing for the image to be processed is performed depending on whether the mark is recognized or not. Can be made different, and the abuse of the reproduced image can be effectively prevented according to the recognition of the mark.

【0058】特に、請求項2記載の発明によれば、マー
ク位置情報の格納手段を付加したので、マーク位置情報
を有効利用し、マーク認識処理やマーク画像処理をより
効率的に実現することが可能である。また、請求項3記
載の発明によれば、認識されたマークの意味するマーク
画像処理手段を付加したので、マークが認識された段階
でマークの意味する画像処理内容を直ちに実行し、例え
ば再現不可の処理対象画像に対する再現画像の出力を停
止させるというような対処を実現することができる。更
にまた、請求項4記載の発明によれば、マーク位置格納
手段からのマーク位置情報を利用し、マーク部分に対し
て特定のマーク画像処理を施すようにしたので、例えば
マーク部分を黒塗りするとか、逆に白抜きにする等、処
理対象画像と再現画像とをマーク部分で相違させるとい
う対処を実現することができる。
In particular, according to the second aspect of the invention, since the mark position information storage means is added, the mark position information can be effectively used and the mark recognition processing and the mark image processing can be realized more efficiently. It is possible. According to the third aspect of the invention, since the mark image processing means that the recognized mark means is added, the image processing content that the mark means is immediately executed when the mark is recognized, and for example, reproduction is not possible. It is possible to realize a measure such as stopping the output of the reproduced image for the processing target image. Furthermore, according to the invention of claim 4, the mark position information from the mark position storing means is used to perform the specific mark image processing on the mark part. Therefore, for example, the mark part is painted black. On the contrary, it is possible to implement a measure such that the image to be processed and the reproduced image are made different at the mark portion, such as whitening out.

【0059】また、請求項5記載の発明によれば、検索
ウインドウがマークの大きさよりも小さく分割されたタ
イプにおいて、検索ウインドウ内の画像特徴パターンが
マークの一部でないと判定された時点で、当該マークに
対する判定処理を終了し、次の処理へ移行するようにし
たので、マークの判定処理を迅速に行うことができる。
According to the invention of claim 5, in the type in which the search window is divided into smaller than the size of the mark, at the time when it is determined that the image feature pattern in the search window is not part of the mark, Since the determination process for the mark is completed and the process proceeds to the next process, the mark determination process can be performed quickly.

【0060】また、請求項6記載の発明によれば、マー
クの一部を工夫することにより、原稿の配置関係をも容
易に判定することができる。
Further, according to the invention of claim 6, by devising a part of the mark, it is possible to easily determine the layout relationship of the document.

【0061】また、請求項7記載の発明によれば、マー
クの退色変化方向に対して感度の鈍い色座標系を用いて
マーク判定手段で用いられる特徴情報を抽出するように
したので、マークが退色変化したとしても、マークを常
時正確に認識することができる。
Further, according to the invention described in claim 7, since the characteristic information used in the mark judging means is extracted by using the color coordinate system which is insensitive to the fading change direction of the mark, the mark can be determined. Even if the color changes, the mark can always be recognized accurately.

【図面の簡単な説明】[Brief description of drawings]

【図1】 この発明に係る画像処理装置の構成を示す説
明図である。
FIG. 1 is an explanatory diagram showing a configuration of an image processing apparatus according to the present invention.

【図2】 実施例1に係るカラー画像形成装置の構成を
示す説明図である。
FIG. 2 is an explanatory diagram illustrating a configuration of a color image forming apparatus according to a first embodiment.

【図3】 実施例1に係る画像処理部の詳細を示すブロ
ック図である。
FIG. 3 is a block diagram illustrating details of an image processing unit according to the first embodiment.

【図4】 実施例1に係る特徴画素抽出部の詳細を示す
ブロック図である。
FIG. 4 is a block diagram showing details of a characteristic pixel extraction unit according to the first embodiment.

【図5】 実施例1に係る画像処理過程の概要を示すフ
ローチャートである。
FIG. 5 is a flowchart showing an outline of an image processing process according to the first embodiment.

【図6】 実施例1に係る特徴バッファの使用例を示す
説明図である。
FIG. 6 is an explanatory diagram illustrating a usage example of a feature buffer according to the first embodiment.

【図7】 実施例1における注目画素及び周囲画素の関
係を示す説明図である。
FIG. 7 is an explanatory diagram showing a relationship between a target pixel and surrounding pixels in the first embodiment.

【図8】 (a)〜(c)は実施例1において抽出され
る特徴画素の例を示す説明図である。
8A to 8C are explanatory diagrams showing examples of characteristic pixels extracted in the first embodiment.

【図9】 実施例1における画像の濃淡と特徴画素の対
応関係の一例を示す説明図である。
FIG. 9 is an explanatory diagram showing an example of a correspondence relationship between image shades and characteristic pixels in the first embodiment.

【図10】 実施例1におけるノイズ削除部による画素
の処理順序を示す説明図である。
FIG. 10 is an explanatory diagram showing a pixel processing order by a noise removing unit according to the first embodiment.

【図11】 実施例1におけるノイズ削除部にてノイズ
として削除されない一態様を示す説明図である。
FIG. 11 is an explanatory diagram showing a mode in which noise is not deleted as noise by the noise deletion unit according to the first exemplary embodiment.

【図12】 実施例1におけるノイズ削除部にてノイズ
として削除されない他の態様を示す説明図である。
FIG. 12 is an explanatory diagram showing another mode in which noise is not deleted as noise by the noise deletion unit according to the first exemplary embodiment.

【図13】 実施例1に係るマークの具体例を示す説明
図である。
FIG. 13 is an explanatory diagram showing a specific example of a mark according to the first embodiment.

【図14】 実施例1におけるマークを認識する際の区
画領域を示す説明図である。
FIG. 14 is an explanatory diagram showing a partitioned area when a mark is recognized in the first embodiment.

【図15】 実施例1に係る検索用ウインドウの動作例
を示す説明図である。
FIG. 15 is an explanatory diagram illustrating an operation example of a search window according to the first embodiment.

【図16】 実施例1に係るマーク認識処理過程を示す
フローチャートである。
FIG. 16 is a flowchart showing a mark recognition process according to the first embodiment.

【図17】 図16の処理フローにおける検索用ウイン
ドウ位置を模式的に示す説明図である。
17 is an explanatory diagram schematically showing the position of a search window in the processing flow of FIG.

【図18】 実施例2に係る画像処理部を示すブロック
図である。
FIG. 18 is a block diagram illustrating an image processing unit according to a second embodiment.

【図19】 実施例2に係る特徴画素抽出部の詳細を示
すブロック図である。
FIG. 19 is a block diagram showing details of a characteristic pixel extraction unit according to the second embodiment.

【図20】 実施例2で用いられる16方向検出用マス
クの概念説明図である。
FIG. 20 is a conceptual explanatory diagram of a 16-direction detection mask used in the second embodiment.

【図21】 (a)〜(d)は実施例2で用いられるマ
スクの代表構成例を示す説明図である。
21A to 21D are explanatory diagrams showing a typical configuration example of a mask used in the second embodiment.

【図22】 実施例2に係る特徴抽出過程の一部を示す
説明図である。
FIG. 22 is an explanatory diagram showing a part of a feature extraction process according to the second embodiment.

【図23】 実施例3に係るマーク認識の際の区画領域
を示す説明図である。
FIG. 23 is an explanatory diagram showing a partitioned area at the time of mark recognition according to the third embodiment.

【図24】 実施例3に係るマーク認識過程を示す説明
図である。
FIG. 24 is an explanatory diagram showing a mark recognition process according to the third embodiment.

【図25】 (a)は実施例4に係るマーク認識におい
て用いられるマークのインクの色分布を模式的に二次元
で示した説明図、(b)は(a)の色分布の主成分を示
す説明図である。
25A is an explanatory diagram schematically and two-dimensionally showing the color distribution of the ink of the mark used in the mark recognition according to Example 4, and FIG. 25B is the main component of the color distribution of FIG. It is an explanatory view shown.

【符号の説明】[Explanation of symbols]

1…画像読取手段,2…特徴抽出手段,3…特徴バッフ
ァ,4…マーク登録手段,5…マーク判定手段,6…検
索ウインドウ,7…マーク位置格納手段,8…マーク画
像処理手段,9…原稿,M…マーク,Ma…向き判定用
成分
DESCRIPTION OF SYMBOLS 1 ... Image reading means, 2 ... Feature extraction means, 3 ... Feature buffer, 4 ... Mark registration means, 5 ... Mark determination means, 6 ... Search window, 7 ... Mark position storage means, 8 ... Mark image processing means, 9 ... Manuscript, M ... Mark, Ma ... Orientation determination component

フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 7459−5L G06F 15/70 330 Z H04N 1/46 Z Continuation of front page (51) Int.Cl. 6 Identification number Office reference number FI technical display location 7459-5L G06F 15/70 330 Z H04N 1/46 Z

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 画像読込手段(1)にて読み込まれた入
力画像データから画像特徴情報を画素単位毎に抽出する
特徴抽出手段(2)と、この特徴抽出手段(2)で抽出
された画像特徴情報を画素単位毎に書き込む特徴バッフ
ァ(3)と、複数画素に跨った大きさで且つ所定の画像
特徴情報からなるマーク(M)の画像特徴情報を予め登
録するマーク登録手段(4)と、マーク(M)と同じ大
きさあるいはそれより小さく分割された検索ウインドウ
(6)にて特徴バッファ(3)内の画像特徴情報を順次
検索し、検索ウインドウ(6)内の画像特徴情報パター
ンがマーク登録手段(4)に登録されているマーク
(M)の画像特徴情報パターンの全部若しくは一部と一
致又は類似しているか否かを調べ、一致又は類似してい
ればマーク(M)の全部若しくは一部であると判定する
マーク判定手段(5)とを備えたことを特徴とする画像
処理装置。
1. A feature extraction means (2) for extracting image feature information pixel by pixel from input image data read by the image reading means (1), and an image extracted by this feature extraction means (2). A feature buffer (3) for writing the feature information for each pixel, and a mark registration means (4) for pre-registering the image feature information of the mark (M) having a size across a plurality of pixels and consisting of predetermined image feature information. , The image feature information in the feature buffer (3) is sequentially searched in the search window (6) divided into the same size as the mark (M) or smaller, and the image feature information pattern in the search window (6) is It is checked whether or not all or some of the image feature information patterns of the mark (M) registered in the mark registration means (4) match or resemble, and if they match or resemble, all of the mark (M). Alternatively, the image processing apparatus is provided with a mark determination means (5) for determining that the image is a part.
【請求項2】 請求項1記載のものにおいて、更に、マ
ーク判定手段(5)にてマーク(M)であると判定され
た画像領域の位置が格納されるマーク位置格納手段
(7)を備えていることを特徴とする画像処理装置。
2. The apparatus according to claim 1, further comprising mark position storing means (7) for storing the position of the image area determined to be the mark (M) by the mark determining means (5). An image processing apparatus characterized in that.
【請求項3】 請求項1記載のものにおいて、更に、マ
ーク判定手段(5)にてマーク(M)であると判定され
た時点で、マーク(M)の意味する特定のマーク画像処
理を実行するマーク画像処理手段(8)を備えているこ
とを特徴とする画像処理装置。
3. The apparatus according to claim 1, further comprising the step of executing a specific mark image processing meaning of the mark (M) when the mark determining means (5) determines that the mark (M) is present. An image processing device comprising a mark image processing means (8) for performing.
【請求項4】 請求項1記載のものにおいて、更に、マ
ーク判定手段(5)にてマーク(M)であると判定され
た画像領域の位置が格納されるマーク位置格納手段
(7)と、このマーク位置格納手段(7)のマーク位置
情報に基づいてマーク画像領域に対して特定のマーク画
像処理を実行するマーク画像処理手段(8)とを備えて
いることを特徴とする画像処理装置。
4. The mark position storage means (7) according to claim 1, further comprising a mark position storage means (7) for storing the position of the image area determined to be the mark (M) by the mark determination means (5). An image processing apparatus comprising: a mark image processing means (8) for executing a specific mark image processing on a mark image area based on the mark position information of the mark position storing means (7).
【請求項5】 請求項1ないし4いずれかに記載のもの
のうち、検索ウインドウ(6)がマークの大きさよりも
小さく分割されたタイプにおいて、マーク判定手段
(5)は、マーク(M)に対応する画像領域内で検索ウ
インドウ(6)を当該検索ウインドウ(6)の区画領域
毎に順次移動させ、検索ウインドウ(6)内の画像特徴
情報パターンがマーク(M)の一部でないことが判定さ
れた時点で当該マーク(M)に対応する画像領域内での
判定処理を終了し、次の処理へ移行するものであること
を特徴とする画像処理装置。
5. A mark determination means (5) corresponding to a mark (M) in a type according to claim 1, wherein the search window (6) is divided into smaller pieces than the mark size. The search window (6) is sequentially moved within the image area to be searched for each divided area of the search window (6), and it is determined that the image feature information pattern in the search window (6) is not a part of the mark (M). The image processing apparatus ends the determination process in the image area corresponding to the mark (M) at the point of time, and shifts to the next process.
【請求項6】 請求項1ないし4いずれかに記載のもの
において、マーク(M)は少なくともある区画領域にの
み存在する他のマーク部分と異なる円弧状の向き判定用
成分(Ma)を有し、マーク判定手段(5)は向き判定
用成分(Ma)がどの位置に存在するかを認識し、画像
読取手段(1)にて読み込まれる原稿(9)の傾き角度
をも判定するものであることを特徴とする画像処理装
置。
6. The mark (M) according to any one of claims 1 to 4, wherein the mark (M) has an arc-shaped orientation determining component (Ma) different from other mark portions existing only in at least a certain partitioned area. The mark determination means (5) recognizes at which position the orientation determination component (Ma) exists, and also determines the tilt angle of the document (9) read by the image reading means (1). An image processing device characterized by the above.
【請求項7】 請求項1ないし4いずれかに記載のもの
において、特徴抽出手段(2)はマーク(M)の退色変
化方向に対して感度の鈍い方向成分を用いてマーク判定
手段(5)で用いられる特徴情報を抽出するものである
ことを特徴とする画像処理装置。
7. The mark extracting means (5) according to any one of claims 1 to 4, wherein the feature extracting means (2) uses a direction component having a low sensitivity to a fading change direction of the mark (M). An image processing device characterized by extracting feature information used in.
JP04200394A 1994-02-15 1994-02-15 Image processing device Expired - Fee Related JP3555161B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP04200394A JP3555161B2 (en) 1994-02-15 1994-02-15 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP04200394A JP3555161B2 (en) 1994-02-15 1994-02-15 Image processing device

Publications (2)

Publication Number Publication Date
JPH07226839A true JPH07226839A (en) 1995-08-22
JP3555161B2 JP3555161B2 (en) 2004-08-18

Family

ID=12624026

Family Applications (1)

Application Number Title Priority Date Filing Date
JP04200394A Expired - Fee Related JP3555161B2 (en) 1994-02-15 1994-02-15 Image processing device

Country Status (1)

Country Link
JP (1) JP3555161B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6888962B1 (en) 1995-06-30 2005-05-03 Omron Corporation Image processing device for detecting one-color marks of a number of colors and image processing method thereof
US8035866B2 (en) 2006-09-28 2011-10-11 Brother Kogyo Kabushiki Kaisha Image reading device, copy apparatus, and image reading method
US8358848B2 (en) 2006-09-27 2013-01-22 Brother Kogyo Kabushiki Kaisha Image recognition device, copy apparatus and image recognition method
CN110390635A (en) * 2018-04-19 2019-10-29 张佳炜 Two-dimensional barcode information encryption method, coding/decoding method and device based on image procossing

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6888962B1 (en) 1995-06-30 2005-05-03 Omron Corporation Image processing device for detecting one-color marks of a number of colors and image processing method thereof
US8358848B2 (en) 2006-09-27 2013-01-22 Brother Kogyo Kabushiki Kaisha Image recognition device, copy apparatus and image recognition method
US8035866B2 (en) 2006-09-28 2011-10-11 Brother Kogyo Kabushiki Kaisha Image reading device, copy apparatus, and image reading method
CN110390635A (en) * 2018-04-19 2019-10-29 张佳炜 Two-dimensional barcode information encryption method, coding/decoding method and device based on image procossing

Also Published As

Publication number Publication date
JP3555161B2 (en) 2004-08-18

Similar Documents

Publication Publication Date Title
EP1011064B1 (en) Image pattern detection method and apparatus
US7593545B2 (en) Determining whether two or more creative works correspond
US6370271B2 (en) Image processing apparatus and methods for pattern recognition
US5077811A (en) Character and picture image data processing system
US6393147B2 (en) Color region based recognition of unidentified objects
US6542629B1 (en) Digital imaging method and apparatus for detection of document security marks
JP2002252753A (en) Method for generating water-marked image, method for generating watermarking plane, and method for detecting watermark
JPWO2004051575A1 (en) Feature region extraction apparatus, feature region extraction method, and feature region extraction program
JPH10302059A (en) Data resolution increase method
JPH07226839A (en) Picture processor
CA2637150C (en) Color form dropout using dynamic geometric solid thresholding
JP2006252562A (en) Image recognition method
JP4001446B2 (en) Method, apparatus and computer-readable recording medium for specifying image background color
JP3090070B2 (en) Form identification method and device
JPH0856287A (en) Image discrimination device
JP4235352B2 (en) Image discrimination apparatus, copying machine, and image discrimination method
JP2008159049A (en) Image recording system
JP6798309B2 (en) Image processing equipment, image processing methods and programs
Patil et al. Digital image alteration detection using advance processing
JP4395932B2 (en) Image detection apparatus, image detection method, and recording medium
JP3023375B2 (en) Image processing device for each image area of copier
JPH0522593A (en) Picture processor
JPH0744682A (en) Picture reader
JP4327317B2 (en) Person image photographing method and person image photographing apparatus
JPH09259273A (en) Image similarity decision device

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040420

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040503

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees