JP2006172291A - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP2006172291A
JP2006172291A JP2004366103A JP2004366103A JP2006172291A JP 2006172291 A JP2006172291 A JP 2006172291A JP 2004366103 A JP2004366103 A JP 2004366103A JP 2004366103 A JP2004366103 A JP 2004366103A JP 2006172291 A JP2006172291 A JP 2006172291A
Authority
JP
Japan
Prior art keywords
data
feature quantity
image
feature
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004366103A
Other languages
Japanese (ja)
Inventor
Tsutomu Sakagami
努 坂上
Sanae Ikeda
早苗 池田
Reiji Misawa
玲司 三沢
Naoki Ito
直樹 伊藤
Atsushi Nagai
淳 永井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004366103A priority Critical patent/JP2006172291A/en
Publication of JP2006172291A publication Critical patent/JP2006172291A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing device capable of calling data held in a storage device only by reading an outputted item by means of a reader for allowing simple setting change/correction on the spot. <P>SOLUTION: An MFP holds data in the storage device after outputting PDL data. In this process, the PDL data and index information associated with the PDL data are held simultaneously. In correction, the outputted item is read by a scanner, and then, the read data and the data held in the storage device are searched by means of some search means, recognized, and extracted. After extraction the data are displayed for urging the user to make a correction, and after correction, the data are outputted. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、一時記憶装置に保持されるデータを、読取装置で読み取った画像データと照合・抽出し、一時記憶装置に保持されるデータを効率良く出力する画像処理装置に関するものである。   The present invention relates to an image processing apparatus that collates and extracts data held in a temporary storage device with image data read by a reading device, and efficiently outputs the data held in the temporary storage device.

読取装置で読み取った画像データと、あらかじめ記憶装置に保持されるデータとを、照合・抽出するものとしては、画像中にIDを示すコードを埋め込み、読み取り時にそのIDを検出し、IDコードと一致するデータを検索するのが一般的であった(例えば、特許文献1を参照。)。
特開平10−285378号公報
As a means for collating and extracting image data read by a reading device and data stored in a storage device in advance, a code indicating an ID is embedded in the image, the ID is detected at the time of reading, and matches the ID code. It is common to search for data to be performed (see, for example, Patent Document 1).
Japanese Patent Laid-Open No. 10-285378

しかしながら、上述した従来の技術では、あらかじめ画像中にIDを埋め込み、出力時に印字しておく必要があるため、特定の原稿しか扱えなく、汎用性はなかった。   However, in the conventional technique described above, since it is necessary to embed an ID in an image in advance and print it at the time of output, only a specific document can be handled, and there is no versatility.

本発明は、上述の問題点に着目してなされたものであって、過去に出力された出力物を読取装置で読み取るだけで、記憶装置に保持されるデータを読み出すことができる画像処理装置を提供することを目的とする。   The present invention has been made paying attention to the above-described problems, and an image processing apparatus that can read data held in a storage device by simply reading an output output in the past with a reading device. The purpose is to provide.

上述した課題を解決するために、本発明は、
外部から入力される外部入力データを保持するデータ保持手段と、
前記外部入力データから第1の特徴量を生成する第1の特徴量生成手段と、
前記第1の特徴量生成手段により生成される第1の特徴量を保持する特徴量保持手段と、
前記データ保持手段にて保持された前記外部入力データを出力する出力手段と、
前記出力手段により出力された出力画像を読み取る画像読み取り手段と、を備える画像処理装置であって、
前記読み取り手段によって読み取られた前記画像から第2の特徴量を生成する第2の特徴量生成手段と、
前記第2の特徴量生成手段により生成される第2の特徴量と前記特徴量保持手段に保持される第1の特徴量とを照合する特徴量照合手段と、
前記特徴量照合手段の結果に応じて、前記データ保持手段に保持される外部入力データから特定の外部入力データを選択することを特徴とする。
In order to solve the problems described above, the present invention provides:
Data holding means for holding external input data input from the outside;
First feature value generation means for generating a first feature value from the external input data;
Feature quantity holding means for holding the first feature quantity generated by the first feature quantity generation means;
Output means for outputting the external input data held by the data holding means;
An image reading unit that reads an output image output by the output unit,
Second feature quantity generation means for generating a second feature quantity from the image read by the reading means;
Feature quantity matching means for matching the second feature quantity generated by the second feature quantity generation means with the first feature quantity held in the feature quantity holding means;
Specific external input data is selected from the external input data held in the data holding means in accordance with the result of the feature amount matching means.

本発明によって、読取装置で読み取った画像データと、あらかじめ記憶装置に保持されるデータとを容易に照合・抽出することができるようになる。その結果、過去に出力された出力物を読取装置で読み取るだけで、記憶装置に保持されるデータを読み出すことができ、再プリント時にユーザーの利便性が向上する。   According to the present invention, it is possible to easily collate and extract image data read by a reading device and data previously stored in a storage device. As a result, the data held in the storage device can be read simply by reading the output product output in the past with the reading device, and the convenience for the user is improved during reprinting.

以下本発明を実施するための最良の形態を、実施例により詳しく説明する。   Hereinafter, the best mode for carrying out the present invention will be described in detail with reference to examples.

以下、本発明の一実施例を、図面を用いて説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

図1は、本発明を実施するための構成の一例を示すブロック図である。   FIG. 1 is a block diagram showing an example of a configuration for carrying out the present invention.

[読みとり部]
複写すべき原稿は、101のスキャナ部の図示しない原稿載置台ガラス上に置かれ、読み取られる。スキャナ部は図10と同様、カラーの3ラインCCDにより原稿画像を画素ごとにデジタル的に読み取って、第一の入力画像処理部102にカラー画像信号を転送する。入力画像処理部102では、スキャナ部から送られてきたRGBのカラー画像信号に対しシェーディング補正、CCDライン間補正、色補正など、周知の画像処理を行う。
[Reading section]
A document to be copied is placed on a document placing table glass (not shown) of the scanner unit 101 and read. As in FIG. 10, the scanner unit digitally reads an original image pixel by pixel with a color 3-line CCD and transfers a color image signal to the first input image processing unit 102. The input image processing unit 102 performs known image processing such as shading correction, CCD line correction, and color correction on the RGB color image signal sent from the scanner unit.

103は、102から出力される入力画像処理済みのカラー画像信号に対し像域分離処理を行うブロックであり、入力画像の画素ごとに写真領域、文字領域、網点領域、といった画像の特徴を検出して、像域ごとの属性を表すフラグデータを生成する像域分離処理部である。   Reference numeral 103 denotes a block that performs image area separation processing on the color image signal that has been processed by the input image output from 102, and detects image features such as a photo area, a character area, and a dot area for each pixel of the input image. Thus, the image area separation processing unit generates flag data representing an attribute for each image area.

[像域分離処理]
ここで像域分離処理部について説明する。
[Image area separation processing]
Here, the image area separation processing unit will be described.

像域分離処理とは、原稿画像に含まれる画像の特徴に応じて最適な画像処理を施すために原稿画像の特徴を抽出して像域属性を示す信号(以後フラグデータという)を生成するために行われる。例えば原稿中には連続階調のフルカラーの写真領域や、黒一色の文字領域、あるいは新聞印刷のような網点印刷領域など、様々な画像領域が混在しているのが普通である。   The image area separation process is for extracting a feature of an original image and generating a signal indicating an image area attribute (hereinafter referred to as flag data) in order to perform optimum image processing according to the feature of the image included in the original image. To be done. For example, in a document, various image areas such as a continuous tone full-color photographic area, a black-colored character area, or a halftone dot printing area such as newspaper printing are usually mixed.

これらを一律に同一の画像処理手順で処理して出力すると、その出力画像は一般に好ましい画質が得られない場合が多い。   If these are uniformly processed by the same image processing procedure and output, the output image generally does not often have a desirable image quality.

そこで本発明では102から入力されるカラー画像信号を用いて原稿画像中に含まれる画像データの属性を検出し、それを識別するためのフラグデータを生成する。具体的な手順を図2に示す。   Therefore, in the present invention, the attribute of the image data included in the document image is detected using the color image signal input from 102, and flag data for identifying the attribute is generated. A specific procedure is shown in FIG.

図2は原稿画像の一例を示すものであり、ひとつのページ201内に銀塩写真領域202、黒文字領域203、網点印刷領域204、カラーのグラフィック領域205が混在している様子を示している。   FIG. 2 shows an example of an original image, and shows a state in which a silver halide photograph area 202, a black character area 203, a halftone dot print area 204, and a color graphic area 205 are mixed in one page 201. .

ここでスキャナ部はこの原稿画像をカラーのCCDセンサによって走査し画素ごとのカラーデジタル信号(R、G、B)として読み取る。読み取られたRGB信号は画像の領域ごとの属性によって決まる特徴を持っている。各領域においてCCDセンサが読み取る信号値(R、G、B)のうちのG信号をCCDの並び方向にプロットしてみると例えば図3のようになる。   Here, the scanner unit scans the original image with a color CCD sensor and reads it as a color digital signal (R, G, B) for each pixel. The read RGB signal has a characteristic determined by an attribute for each region of the image. FIG. 3 shows, for example, a plot of the G signal among the signal values (R, G, B) read by the CCD sensor in each region in the CCD arrangement direction.

図3で302、303、304、305はそれぞれ図2の202から205までの領域を読み取った場合に特徴的に現れる特性の一例であり、横軸はCCD並び方向の画素位置、縦軸は読み取り信号値で上に行くほど白に近い(明るい)画素であることを表している。   3, 302, 303, 304, and 305 are examples of characteristics that appear characteristically when the areas 202 to 205 in FIG. 2 are read. The horizontal axis represents the pixel position in the CCD arrangement direction, and the vertical axis represents the read. This indicates that the pixel value is closer to white (brighter) as it goes upward in the signal value.

領域ごとの特徴を説明すると、202は写真領域であるので、読み取られる画像信号の位置による変化302は比較的ゆるやかであり、近距離の画素値の差分312は小さな値となる。   The characteristics of each region will be described. Since 202 is a photographic region, the change 302 depending on the position of the image signal to be read is relatively gentle, and the difference 312 between the pixel values in the short distance is a small value.

303は黒文字領域203の特性であり、白地に黒い文字が書かれているので、その信号値のプロットは白地部313から文字部323にかけて急激に読み取り信号値が変化するような特性となる。   Reference numeral 303 denotes a characteristic of the black character region 203. Since black characters are written on a white background, the signal value plot has such a characteristic that the read signal value changes rapidly from the white background portion 313 to the character portion 323.

304は網点領域204の特性であり、網点領域というのは白地314とその上に印刷された網点324との繰り返しとなるので信号値のプロットしたものは図のように白と黒が高い頻度で繰り返す特性となる。   Reference numeral 304 denotes a characteristic of the halftone dot area 204. The halftone dot area is a repetition of the white background 314 and the halftone dot 324 printed thereon, so that the signal values plotted are white and black as shown in the figure. It becomes a characteristic that repeats frequently.

305はグラフ領域のプロット図である。グラフィックのエッジ部315では信号値は急激に小さくなり、内部の色塗り部分325は一定の中間レベルがつづくような特性となる。   305 is a plot diagram of the graph area. In the graphic edge portion 315, the signal value is abruptly decreased, and the internal colored portion 325 has a characteristic that a certain intermediate level continues.

これらの属性を判定するためには、上で説明したような領域ごとの特徴を読み取り信号値から検出して判定するようにすればよい。そのためには注目画素近傍での画像データの変化量、あるいは変化量の一定区間内の積算値、周辺画素の輝度値(白地か色のついた背景か)、一定区間内の画像データの白から黒への変化の回数、など周知の手法を用いた特徴抽出手法を用い、それに基づいた周知の属性判別手法を用いることができる。   In order to determine these attributes, the characteristics for each region as described above may be detected and determined from the read signal value. For this purpose, the amount of change in the image data in the vicinity of the target pixel, or the integrated value of the amount of change within a certain interval, the luminance value of the surrounding pixels (whether white or colored background), the white of the image data within the certain interval A feature extraction method using a known method such as the number of changes to black can be used, and a known attribute discrimination method based on the feature extraction method can be used.

このようにして、図2の原稿画像に対して生成された属性フラグの一例を図4に示す。ここでは属性フラグ(フラグデータ)として文字フラグ、図形フラグ、網点フラグの3種類のフラグを生成しているが、もちろんそれに限定されるわけではない。図4(a)は文字フラグであり、図中の黒で表す画素が文字属性を持つ画素であり文字フラグ=1が生成され、それ以外は文字フラグ=0(図では白い部分)となっている。(b)は図形フラグであり、グラフィック領域で1となりそれ以外で0となる領域、(c)は網点フラグであり、網点領域で1となりそれ以外で0となるような領域を表している。   FIG. 4 shows an example of the attribute flag generated for the document image shown in FIG. Here, three types of flags, a character flag, a graphic flag, and a halftone dot flag, are generated as attribute flags (flag data), but of course the invention is not limited thereto. FIG. 4A shows a character flag. Pixels represented by black in the drawing are pixels having character attributes, and character flag = 1 is generated. Otherwise, character flag = 0 (white portion in the figure). Yes. (B) is a graphic flag which is 1 in the graphic area and 0 otherwise. (C) is a halftone dot flag which represents an area which is 1 in the halftone area and 0 otherwise. Yes.

写真領域はこれらのいずれにもあてはまらないので、すべてのフラグが0となり、図4には表れてこないことになる。   Since the photographic area does not correspond to any of these, all the flags are 0, and they do not appear in FIG.

次に、色フラグの生成方法の一例を説明する。   Next, an example of a color flag generation method will be described.

画像データのある画素が色か否かを判別するには、画素の色度を色空間上にマッピングすることで容易に判別される。一例として、Lab色空間を例に説明する。   In order to determine whether a certain pixel of image data is a color, it is easily determined by mapping the chromaticity of the pixel on the color space. As an example, a Lab color space will be described as an example.

Lab色空間とは、均等知覚色空間として1976年にCIE(Commission Internationale de l‘Eclairage:国際照明委員会)より提案された色空間である。Lは明度(明るさ)、aは赤から緑への色度、bは青から黄色への色度を表わしている。Lab色空間ではこの3次元色空間における変化量とその変化によって受ける視覚の色変化の印象とが比例するよう補正されているため、精度の高い色判別が可能になる。   The Lab color space is a color space proposed by the CIE (Commission Internationale de l'Eclairage) in 1976 as a uniform perceptual color space. L represents lightness (brightness), a represents chromaticity from red to green, and b represents chromaticity from blue to yellow. In the Lab color space, the amount of change in the three-dimensional color space is corrected so as to be proportional to the impression of the visual color change caused by the change, so that highly accurate color discrimination is possible.

RGB信号からLab信号に変換する例を示す。通常は、RGB信号からいったんXYZ三刺激値を算出し、その後、XZY三刺激値からLab信号値を導出する。一例を示す。例における変換式の係数はデバイスに依存するため、この限りではない。
X=0.412391×R+0.357584×G+0.180481×B
Y=0.212639×R+0.715169×G+0.072192×B
Z=0.019331×R+0.119195×G+0.950532×B
L=116(Y/Y0)(1/3)−16
a=500((X/X0)(1/3)−(Y/Y0)(1/3)
b=200( (Y/Y0)(1/3)−(Z/Z0)(1/3)
ただし、X0、Y0、Z0は、標準光における三刺激値
上式から算出した各画素のab値を直交座標系にマッピングし、その画素が有彩色か無彩色かを判定する。図9にて例を示す。a軸901、b軸902は、直交座標系のそれぞれの軸を表す。有彩色か無彩色かの判定において、例えば彩度を基準とした場合、この座標系では、a軸901とb軸902の交点、つまり原点が色成分ゼロの点になる。原点から離れる、つまり、aとbの値が大きくなるに連れ、彩度は大きくなる。この彩度が変化する過程において、ある大きさを閾値に、有彩色か無彩色かを判定する。例えば、斜線部903を無彩色の領域と仮定すると、ある画素のab値が斜線部903の内側の904にある場合、この画素は無彩色と判定する。ある画素のab値が斜線部903の外側の905にある場合、この画素は有彩色と判定する。
An example of converting RGB signals into Lab signals is shown. Usually, XYZ tristimulus values are once calculated from RGB signals, and then Lab signal values are derived from the XZY tristimulus values. An example is shown. The coefficient of the conversion formula in the example is not limited because it depends on the device.
X = 0.412391 × R + 0.357584 × G + 0.180481 × B
Y = 0.1212639 * R + 0.715169 * G + 0.072192 * B
Z = 0.0193331 × R + 0.119195 × G + 0.950532 × B
L = 116 (Y / Y0) (1/3) −16
a = 500 ((X / X0) (1/3) -(Y / Y0) (1/3) )
b = 200 ((Y / Y0) (1/3) -(Z / Z0) (1/3) )
However, X0, Y0, and Z0 are tristimulus values in standard light. The ab value of each pixel calculated from the above equation is mapped to an orthogonal coordinate system to determine whether the pixel is chromatic or achromatic. An example is shown in FIG. The a-axis 901 and the b-axis 902 represent respective axes of the orthogonal coordinate system. In the determination of chromatic or achromatic color, for example, when saturation is used as a reference, in this coordinate system, the intersection of the a-axis 901 and the b-axis 902, that is, the origin is a point where the color component is zero. The saturation increases as the distance from the origin increases, that is, as the values of a and b increase. In the process of changing the saturation, it is determined whether the color is a chromatic color or an achromatic color with a certain size as a threshold value. For example, assuming that the hatched portion 903 is an achromatic region, if the ab value of a certain pixel is at 904 inside the hatched portion 903, this pixel is determined to be an achromatic color. When the ab value of a certain pixel is at 905 outside the shaded portion 903, this pixel is determined to be a chromatic color.

以上のような手法をとることで、画素が有彩色か無彩色かを判定することが出来る。   By taking the above method, it is possible to determine whether a pixel is a chromatic color or an achromatic color.

色度への変換は、Labを用いて説明したがこれに限るものではない。また、計算量を減らすため、簡易的な変換式に置き換えてもかまわない。   The conversion to chromaticity has been described using Lab, but is not limited thereto. In order to reduce the amount of calculation, a simple conversion formula may be used.

以上の像域分離処理により画像の属性が画素ごとに検出されると、次に104の第二の入力画像処理部で画像属性に応じた画像処理が施される。   When the image attributes are detected for each pixel by the above image area separation processing, the second input image processing unit 104 performs image processing according to the image attributes.

ここでは、例えば文字領域に対して画像の高周波成分を強調して文字の鮮鋭度を強調し、また、網点領域に対してはいわゆるローパスフィルター処理を行い、デジタル画像に特有のモアレ成分を除去する、といった処理を行うことができる。これらの処理の切り替えを103で生成した属性フラグデータに応じて画素単位で行うことが可能である。   Here, for example, the high frequency component of the image is emphasized for the character area to enhance the sharpness of the character, and the so-called low-pass filter processing is performed for the dot area to remove the moire component peculiar to the digital image. Can be performed. These processes can be switched in units of pixels according to the attribute flag data generated in 103.

[画像データの蓄積]
スキャナで読み取られ、種々の入力画像処理を施された画像データ、および上記の手順で生成された属性フラグデータはそれぞれ105の画像メモリ1および106のフラグメモリ1に一時的に記憶される。このとき画像データおよび属性フラグデータは原稿1ページ分全体もしくは1ページのうちのあらかじめ決められたサイズ分の部分画像として記憶される。
[Storage of image data]
The image data read by the scanner and subjected to various input image processing and the attribute flag data generated by the above procedure are temporarily stored in the image memory 1 105 and the flag memory 1 106. At this time, the image data and the attribute flag data are stored as a partial image of the entire original page or a predetermined size of one page.

一時記憶された画像データおよび属性フラグデータは、データ圧縮部109で圧縮されて記憶装置110に記憶される。110は半導体記憶装置のような高速の記憶手段であることが望ましい。またデータ圧縮部では画像データ、およびフラグデータに対し、それぞれ異なるデータ圧縮処理を行う。すなわち、画像データに対してはJPEG圧縮のような非可逆であるが、人間の視覚特性を考慮して画像の劣化が目立たなくするような高能率の圧縮処理を施し、またフラグデータに対しては属性フラグ情報の欠落や変化が発生しないためにJBIG圧縮のような可逆圧縮方式を用いるのが望ましい。   The temporarily stored image data and attribute flag data are compressed by the data compression unit 109 and stored in the storage device 110. 110 is preferably a high-speed storage means such as a semiconductor memory device. The data compression unit performs different data compression processes on the image data and the flag data. In other words, image data is irreversible like JPEG compression, but it is subjected to highly efficient compression processing that makes image degradation inconspicuous in consideration of human visual characteristics. Therefore, it is desirable to use a reversible compression method such as JBIG compression because no attribute flag information is lost or changed.

このようにして110には異なる圧縮処理を施された画像データおよびフラグデータが原稿1ページ単位で記憶される。記憶されたデータはまた111の補助記憶装置に書き出す場合もある。補助記憶装置は、望ましくはハードディスクのような、記録スピードは若干遅いが大容量のデータの記憶が可能な媒体を用いる。こうすることにより、多数ページの原稿画像を効率的に記憶蓄積することができるようになる。   In this way, the image data and the flag data subjected to different compression processes are stored in the original 110 in units of one page. The stored data may also be written to 111 auxiliary storage devices. The auxiliary storage device is preferably a medium such as a hard disk that can store a large amount of data although the recording speed is slightly slow. By doing so, it is possible to efficiently store and accumulate a large number of pages of document images.

[画像データの読み出し]
110または111に記憶された画像データおよび属性フラグデータは、プリント部から出力するために読み出され、それぞれ112のデータ伸長部で圧縮データの解凍が行われ、それぞれ114の画像メモリ2および115のフラグメモリ2に書き出される。
[Reading image data]
The image data and attribute flag data stored in 110 or 111 are read out for output from the print unit, and the compressed data is decompressed by 112 data decompression units, respectively. It is written to the flag memory 2.

このとき113の画素密度変換部では、記憶された画像データの画素密度の変換を行う場合がある。これは、例えば蓄積された画像データを拡大、または縮小してプリント出力したい場合、あるいは蓄積された複数ページを1枚のプリント出力用紙上に合成して出力したい、といった場合に使用される。   At this time, the pixel density conversion unit 113 may convert the pixel density of the stored image data. This is used, for example, when it is desired to print out the enlarged image data by enlarging or reducing the accumulated image data, or when it is desired to combine and output a plurality of accumulated pages on one print output sheet.

複数ページの合成出力は例えば図5に示すような場合である。すなわち2つの原稿画像501と502があらかじめ記憶装置に記憶されているものとする。これを原稿と同一サイズの出力用紙に2枚を合成して503のようなプリント出力を得ようとする場合である。   For example, the composite output of a plurality of pages is as shown in FIG. That is, it is assumed that two document images 501 and 502 are stored in the storage device in advance. This is a case where a print output such as 503 is obtained by combining two sheets on output paper of the same size as the original.

そのために、まず記憶されている画像データ501を記憶手段から読み出し圧縮データの解凍を行い、113の画素密度変換部で所定の倍率で縮小し、かつ図示しない回転処理部で左90度回転して画像メモリ2の所定の領域に書き込まれる(図5の504に相当する領域)。   For this purpose, first, the stored image data 501 is read from the storage means, and the compressed data is decompressed, reduced at a predetermined magnification by the pixel density conversion unit 113, and rotated 90 degrees to the left by a rotation processing unit (not shown). It is written in a predetermined area of the image memory 2 (area corresponding to 504 in FIG. 5).

次に画像データ502を読み出し、同様に解凍、解像度変換、回転処理を行い画像メモリ2の505に相当する領域に書き込む。   Next, the image data 502 is read out, similarly decompressed, converted in resolution, and rotated, and written in an area corresponding to 505 in the image memory 2.

このとき、原稿A、Bに対応するフラグデータも同様に解凍、解像度変換、回転処理されフラグメモリ2の対応する領域に書き込まれる。   At this time, the flag data corresponding to the originals A and B are similarly decompressed, resolution-converted and rotated, and written in the corresponding area of the flag memory 2.

ここで画像データの解像度変換とフラグデータの解像度変換はそれぞれ異なる手法を適用することが望ましい。例えば画像データに対しては線形補間法や双3次スプライン補間法などの周知の手法を適用することができる。またフラグデータの解像度変換には最近傍処理法などの2値データに適した解像度変換方法を用いることが望ましい。   Here, it is desirable to apply different methods to the resolution conversion of image data and the resolution conversion of flag data. For example, a known method such as a linear interpolation method or a bicubic spline interpolation method can be applied to image data. For the resolution conversion of flag data, it is desirable to use a resolution conversion method suitable for binary data such as nearest neighbor processing.

[画像データの出力]
画像メモリ2およびフラグメモリ2に一時的に記憶された画像データおよびフラグデータは所定のサイズに達すると出力画像処理部116に転送される。
[Output image data]
The image data and flag data temporarily stored in the image memory 2 and the flag memory 2 are transferred to the output image processing unit 116 when reaching a predetermined size.

出力画像処理部116ではRGBの画像データをプリント出力するための周知の画像処理、すなわち輝度濃度変換、RGB→CMYK変換、ガンマ補正、2値化処理、などといった処理を行い、プリンタ部117へ転送する。   The output image processing unit 116 performs well-known image processing for printing out RGB image data, that is, luminance density conversion, RGB → CMYK conversion, gamma correction, binarization processing, and the like, and transfers them to the printer unit 117. To do.

プリンタ部117は転送されたCMYKの画像信号によってレーザー駆動し図10と同様の手順で転写紙上に可視画像を形成し出力する。   The printer unit 117 is laser-driven by the transferred CMYK image signal, and forms and outputs a visible image on the transfer paper in the same procedure as in FIG.

ここでフラグメモリ2に記憶されたフラグデータは出力画像処理部116の処理の切り替えに用いられる。すなわち写真領域と文字領域ではRGB→CMYK変換の係数を異ならせることにより出力画像の画質を向上させることができる。例えば文字領域すなわち文字フラグ=1である画素に対しては黒文字が黒トナーのみで再現できるような変換係数(すなわち画像データが無彩色の場合はC、M、Y=0となるような係数)を適用し、それ以外では無彩色であってもC、M、Yが0とならず、深みのある黒を再現できるような係数を用いることができる。   Here, the flag data stored in the flag memory 2 is used for switching the processing of the output image processing unit 116. That is, the image quality of the output image can be improved by making the coefficient of RGB → CMYK conversion different between the photo area and the character area. For example, for a pixel having a character region, ie, a character flag = 1, a conversion coefficient such that a black character can be reproduced only with black toner (that is, a coefficient such that C, M, Y = 0 when the image data is achromatic) In other cases, C, M, and Y do not become 0 even if the color is achromatic, and a coefficient that can reproduce deep black can be used.

また、2値化処理においてはC、M、Y、K信号を周知の誤差拡散処理やディザ処理を用いて0または1の2値信号に変換するが、このとき文字領域やグラフ領域では出力画像の鮮鋭度が優先されるので誤差拡散処理を適用し、写真や網点領域では階調性が重視されるのでディザ処理を適用する、というように2値化処理の内容を、やはり属性フラグデータにより切り替えることで出力画像の画質向上を図ることができる。   In the binarization process, the C, M, Y, and K signals are converted into a binary signal of 0 or 1 using a known error diffusion process or dither process. At this time, an output image is output in the character area or the graph area. Since the sharpness of the image is given priority, the error diffusion process is applied, and the dithering process is applied because the gradation is emphasized in the photograph and the halftone area. The image quality of the output image can be improved by switching according to.

このときの構成のブロック図の一例を図6に示す。   An example of a block diagram of the configuration at this time is shown in FIG.

114の画像メモリ2、115のフラグメモリ2、およびプリンタ部117は図1と同一である。画像メモリ2から読み出されたRGBのカラー画像データは並列に601、602の2つのRGB→CMYK変換回路に入力され、それぞれ独立にCMYK画像信号に変換される。601、602の出力はフラグメモリのフラグ信号に従って603のセレクタ1でいずれか一方が選択される。601に文字領域用の変換係数が設定されており602にそれ以外の場合の係数が設定されている場合にはフラグメモリ内の文字フラグ=1のときに601の出力を選択し、文字フラグ=0のときは602の出力を選択する。   The image memory 2 114, the flag memory 2 115, and the printer unit 117 are the same as those in FIG. The RGB color image data read from the image memory 2 is input to two RGB → CMYK conversion circuits 601 and 602 in parallel, and converted into CMYK image signals, respectively. One of the outputs 601 and 602 is selected by the selector 1 603 in accordance with the flag signal of the flag memory. When the conversion coefficient for the character area is set in 601 and the coefficient in other cases is set in 602, the output of 601 is selected when the character flag in the flag memory = 1, and the character flag = When 0, the output of 602 is selected.

セレクタ1の出力は、やはり並列に2系統に分離され、一方は604のガンマ補正回路1と606の誤差拡散2値化処理部を通って2値のCMYK信号として608のセレクタ2に入力される。   The output of the selector 1 is also separated into two systems in parallel, one of which passes through the gamma correction circuit 1 of 604 and the error diffusion binarization processing unit of 606 and is input to the selector 2 of 608 as a binary CMYK signal. .

もう一方は605のガンマ補正回路2、607のディザ処理2値化回路を通ってやはり2値のCMYK信号として608のセレクタ2に入力される。   The other is passed through the gamma correction circuit 2 of 605 and the dither processing binarization circuit of 607 and is also inputted to the selector 2 of 608 as a binary CMYK signal.

セレクタ2では606または607のいずれかの出力を選択してプリンタ部へ転送するが、ここでは文字領域およびグラフ領域で誤差拡散処理を選択するので、文字フラグ=1または図形フラグ=1の場合セレクタ2は606の出力を選択し、そうでない場合は607の出力を選択するようにすればよい。   The selector 2 selects either the output 606 or 607 and transfers it to the printer unit. Here, since error diffusion processing is selected in the character area and the graph area, the selector when the character flag = 1 or the graphic flag = 1 is selected. 2 may select the output of 606, otherwise the output of 607 may be selected.

[プリント画像]
外部通信路119から通信インタフェース118を介して入力される画像データとして代表的なものは、いわゆるPDL(Page Discription Language:ページ記述言語)で記述された画像データである。
[Print image]
Typical image data input from the external communication path 119 through the communication interface 118 is image data described in a so-called PDL (Page Description Language).

通信インタフェース118から入力されたPDLデータはインタプリタ108でディスプレーリストと呼ばれる中間言語形式に変換される。このディスプレーリストを107のRIP(Raster Image Processor)に送り、ビットマップデータに展開する。展開された画像データは105の画像メモリ1に記憶されるが、このときRIP107は同時に展開した画像データの属性情報をフラグデータとして生成して106のフラグメモリ1に記憶させる。フラグデータは、RIPに入力されるPDLデータがその部品ごとに保持している属性情報(写真であるとか文字やグラフィックである、など)を参照して、展開画像の対応する画素のフラグデータを生成するようにすればよい。つまり文字部品を生成するPDLコマンドがRIPに入力されたら、RIPはこの文字データのビットマップ画像を生成すると同時に、文字が生成された領域に対応するフラグデータとして文字フラグ=1を生成すればよい。   The PDL data input from the communication interface 118 is converted into an intermediate language format called a display list by the interpreter 108. This display list is sent to a RIP (Raster Image Processor) 107 and developed into bitmap data. The developed image data is stored in the image memory 1 105. At this time, the RIP 107 generates attribute information of the developed image data as flag data and stores it in the flag memory 1 106. The flag data refers to the attribute information (such as a photograph or text or graphic) held in each part of the PDL data input to the RIP, and the flag data of the corresponding pixel of the developed image is obtained. It may be generated. That is, when a PDL command for generating a character part is input to the RIP, the RIP generates a bitmap image of the character data, and at the same time, generates a character flag = 1 as flag data corresponding to the area where the character is generated. .

[偽造判定処理]
偽造判定処理120で行われる紙幣などの偽造判定処理には幾つか方法があるが、代表的な方法はパターンマッチングである。紙幣の形状、色などの特徴、あるいは、意図的に埋め込まれた特徴を抽出し、あらかじめ記憶されたものとの一致度を見て、判定するものである。一例を図7に示す。
[Forgery determination processing]
There are several methods for forgery determination processing such as banknotes performed in the forgery determination processing 120, but a typical method is pattern matching. Features such as the shape and color of banknotes, or features that are intentionally embedded are extracted, and the degree of coincidence with those stored in advance is determined for determination. An example is shown in FIG.

判定回路700に、判定用の画像信号RGBが入力される。RGB信号は、二値化部701にて二値化される。二値化の閾値は可変であり、メモリに702に記憶されている。二値化された信号は、特徴点抽出部703に入力され、メモリ704に記憶されている特徴に該当する場合は、その部位を切り出す。メモリ704に記憶される特徴は、紙幣の特徴を表す形状、色、特定マークなどである。また、意図的に埋め込まれた特徴も含まれる。   An image signal RGB for determination is input to the determination circuit 700. The RGB signal is binarized by the binarization unit 701. The threshold for binarization is variable and is stored in the memory 702. The binarized signal is input to the feature point extraction unit 703, and when it corresponds to the feature stored in the memory 704, the part is cut out. The features stored in the memory 704 are a shape, a color, a specific mark, and the like representing the features of the banknote. It also includes intentionally embedded features.

切り出された信号は、パターンマッチング部705に入力され、メモリ706に該当するパターンに合致した場合、制御CPU707に判定結果を送信する。偽造との結果を受けた制御CPU707は、プリンタ部で出力されるべき画像を塗りつぶしたりして、偽造を阻止する。   The cut out signal is input to the pattern matching unit 705, and when it matches the pattern corresponding to the memory 706, the determination result is transmitted to the control CPU 707. The control CPU 707 that has received the result of forgery prevents the forgery by painting an image to be output by the printer unit.

以上が複写機で行われる偽造判定処理の一例であるが、これに限るものではない。   The above is an example of the forgery determination process performed by the copying machine, but is not limited thereto.

このような画像処理システムは、一般的に、MFP(Multi Function Peripheral)と呼ばれている。このMFPを用いることで、ユーザーは、PC(Personal Computer)上で作成したデータを容易に印刷することができる。   Such an image processing system is generally called an MFP (Multi Function Peripheral). By using this MFP, the user can easily print data created on a PC (Personal Computer).

しかし、出力後にユーザーが印刷物を見て、その印刷物の不備に気が付いたとき、それが簡易な設定変更やわずかな修正であっても、ユーザーはわざわざPCのある場所に戻り、設定の変更、内容の修正を行った上、再印刷しなければならなかった。   However, when the user sees the printed matter after output and notices that the printed matter is deficient, even if it is a simple setting change or slight modification, the user purposely returns to the place where the PC is located, and the setting change, contents I had to fix it and reprint it.

そこで本発明では、ユーザーがわざわざPCに戻らず、MFP上で簡単に設定変更や修正を行い、再印刷し、ユーザーの利便性を向上させることを目的とする。具体的には、出力した印刷物をMFPにて読み取り、PDLデータを検索・表示し、MFP上で設定変更、修正を行うものである。   In view of the above, an object of the present invention is to improve the convenience of the user by making a setting change or correction on the MFP and reprinting the user without returning to the PC. Specifically, the output printed matter is read by the MFP, the PDL data is searched and displayed, and the setting is changed and corrected on the MFP.

以下、本発明を詳細に説明する。図10は、処理全体の流れを示す図である。   Hereinafter, the present invention will be described in detail. FIG. 10 is a diagram showing the flow of the entire process.

ユーザーは、PCからPDLデータをMFPにて印刷(1002)し、一時印刷物1003を得る。ユーザーは、一時印刷物1003を見て、修正の必要があるか否かを決定する(1004)。なければ一時印刷物1003が最終印刷物となるが、修正が必要な場合、一時印刷物をMFPのスキャナで読み取る(1005)。一時印刷物を読み取ったMFPは、読み取ったデータを解析し、MFP内部にその元となるデータを検索する(1006)。データがない場合は、UI(User Interface)上に、『データなし』の表示をユーザーに対して行う(1014)。データがある場合は、検索結果をUIに表示する(100)。ユーザーは、UI上で、印刷設定を変更したり、PDLデータに対して修正を加えたりする(1009)。その後、再度MFPより出力し(1010)、出力画像を確認する(1011)。問題があれば、再度UI上で変更・修正する。問題がある限り、これを繰り返す。問題がない場合、修正した個所や設定を、ユーザーのPCに通知する(1012)。   The user prints PDL data from the PC with the MFP (1002), and obtains a temporary print 1003. The user looks at the temporary printed material 1003 and determines whether correction is necessary (1004). If not, the temporary printed material 1003 becomes the final printed material, but if correction is necessary, the temporary printed material is read by the scanner of the MFP (1005). The MFP that has read the temporarily printed material analyzes the read data and searches the MFP for the original data (1006). If there is no data, “NO DATA” is displayed to the user on the UI (User Interface) (1014). If there is data, the search result is displayed on the UI (100). The user changes the print setting or modifies the PDL data on the UI (1009). Thereafter, the image is output again from the MFP (1010), and the output image is confirmed (1011). If there is a problem, change or correct it on the UI again. Repeat as long as there is a problem. If there is no problem, the user is notified of the corrected location and setting (1012).

データ検索部1006を具体的に説明する。検索の対象となるPDLデータについて、図11を用いて説明する。   The data search unit 1006 will be specifically described. The PDL data to be searched will be described with reference to FIG.

ユーザーのPCから出力されたPDLデータ1101は、インタプリタ1102において、いったん中間言語方式のDL(Display List)1103に変換される。DL1103は、RIP1104にて、ビットマップデータに展開され、ラスタデータ1105を得る。通常、ラスタデータ1105がプリンタ部に送られ、印字される。   The PDL data 1101 output from the user's PC is once converted into an intermediate language DL (Display List) 1103 by an interpreter 1102. The DL 1103 is expanded into bitmap data by the RIP 1104 to obtain raster data 1105. Usually, the raster data 1105 is sent to the printer unit and printed.

このとき、ラスタデータ1105から、サムネイル画像を生成し(1107)、サムネイルデータ1108を記憶装置1110に保持する。また、この記憶装置1110には、PDLデータ1101、あるいは、展開されたラスタデータ1105も保持される(1109)。両方持つことが望ましいが、記憶装置の容量に制限もあるため、いずれか一方を保持するだけでも良い。画像品位の観点からは、PDLデータを保持することが望ましい。   At this time, a thumbnail image is generated from the raster data 1105 (1107), and the thumbnail data 1108 is held in the storage device 1110. The storage device 1110 also holds PDL data 1101 or expanded raster data 1105 (1109). Although it is desirable to have both, since there is a limit to the capacity of the storage device, it is sufficient to hold either one. From the viewpoint of image quality, it is desirable to retain PDL data.

なお、あるPDLデータから生成されるラスタデータと、そのラスタデータから生成されるサムネイルデータとは、関連付けて保持されている。   Note that raster data generated from certain PDL data and thumbnail data generated from the raster data are held in association with each other.

次に、読み込んだ画像から、保持しているPDLデータないしラスタデータを検索する方法について、図12を用いて説明する。   Next, a method for searching the stored PDL data or raster data from the read image will be described with reference to FIG.

MFPより出力された出力物1106を、MFPのスキャナにて読み込む(1201)。読み取った画像データを補正し(1202)、さらに、サムネイルのサイズに合わせるために解像度変換(1203)を行い、ラスタデータ1204を得る。画像補正1202は、読み取りの斜行や、ひずみなどを補正したり、プリント時に低下するMTFなどを補正したりして、もとのPDLデータと同等の信号を生成するために行う。   The output 1106 output from the MFP is read by the scanner of the MFP (1201). The read image data is corrected (1202), and further, resolution conversion (1203) is performed in order to match the thumbnail size, thereby obtaining raster data 1204. The image correction 1202 is performed in order to generate a signal equivalent to the original PDL data by correcting skew reading, distortion, etc., or correcting MTF that decreases during printing.

ラスタデータ1204を得たら、記憶装置1110に保持されるサムネイルデータ1108とマッチングを行い(1205)、結果1206を得る。結果1206がサムネイルデータの特定ができた場合、そのサムネイルに関係付けられているPDLデータ、あるいは、ラスタデータをUIに表示する(1008)。   When the raster data 1204 is obtained, matching is performed with the thumbnail data 1108 held in the storage device 1110 (1205), and a result 1206 is obtained. If the result 1206 identifies the thumbnail data, the PDL data or raster data associated with the thumbnail is displayed on the UI (1008).

ラスタデータ1204とサムネイルデータ1108のマッチング1206について、図13を用いて説明する。   The matching 1206 between the raster data 1204 and the thumbnail data 1108 will be described with reference to FIG.

ラスタデータ1204とサムネイルデータ1108のそれぞれを、N値化し(1301/1302)、それぞれN−1個の1ビット画像を得る。このときN値化する閾値は、それぞれ独立に設定できる。同じ信号レベルを閾値に用いても良いが、それぞれ異なる閾値を用いても良い。次に、N値化1301の結果画像1(1303)とN値化1302の結果画像1(1306)のマッチング1(1309)を行う。ここでは周知のパターンマッチングを行い、類似度を算出する。例えば、完全に一致すれば、類似度100、まったく一致しなければ、類似度0で表す。N値化1301の結果画像2(1304)、・・・、N−1(1305)とN値化1302の結果画像2(1307)、・・・、N−1(1308)のそれぞれについてマッチングを行い、それぞれの類似度を算出する。算出されたN個の類似度をもとに、ラスタデータ1205とサムネイルデータ1108が一致するかを判定する(1312)。判定の結果を結果1206として出力する。   Each of the raster data 1204 and the thumbnail data 1108 is converted into N values (1301/1302), and N−1 1-bit images are obtained. At this time, the threshold value for N-value can be set independently. Although the same signal level may be used as the threshold value, different threshold values may be used. Next, matching 1 (1309) of the result image 1 (1303) of the N-value conversion 1301 and the result image 1 (1306) of the N-value conversion 1302 is performed. Here, a well-known pattern matching is performed and the similarity is calculated. For example, the degree of similarity is represented by 100 when the two coincide completely, and the degree of similarity is represented by 0 when they do not coincide at all. .., N-1 (1305) and N-valued 1302 result image 2 (1307),..., N-1 (1308) are matched. To calculate each similarity. Whether the raster data 1205 and the thumbnail data 1108 match is determined based on the calculated N similarities (1312). The determination result is output as a result 1206.

このマッチング方法は一例に過ぎない。周知のパターンマッチング技術を用いても良いし、多値の状態で画像をマッチングさせても良い。   This matching method is only an example. A well-known pattern matching technique may be used, or images may be matched in a multivalued state.

上述の方法を用いることで、MFPのスキャナで読み取った原稿とMFPに保持されるPDLデータ、あるいは、ラスタデータを検索することができる。検索の結果、データがある場合は、UIに表示し、画像を確認した上で、出力方法を変更したりして、画像を出力する。ラスタデータを用いるときは、ラスタライズすることなしに出力するため、高速に処理ができる。PDLデータを用いるときは、変倍などを行う際は、オリジナルデータを用いてラスタライズするため、高品位な画像を提供することができる。   By using the above-described method, it is possible to retrieve a document read by the MFP scanner and PDL data or raster data held in the MFP. If there is data as a result of the search, the data is displayed on the UI, the image is confirmed, the output method is changed, and the image is output. When raster data is used, the data is output without being rasterized, so that it can be processed at high speed. When PDL data is used, when scaling is performed, the original data is used for rasterization, so that a high-quality image can be provided.

なお、本実施例ではサムネイル画像を用いたが、サムネイル画像の解像度は任意で良い。また、記憶装置の容量に限界があるため、サムネイル画像、ラスタデータ、PDLデータは、任意の数のみ保持すれば良い。   In this embodiment, a thumbnail image is used, but the resolution of the thumbnail image may be arbitrary. Further, since the capacity of the storage device is limited, it is only necessary to hold an arbitrary number of thumbnail images, raster data, and PDL data.

以上のように、いったん出力した画像をMFPのスキャナで読み取り、記憶装置に保持されるデータを自動で検索/表示することで、簡単な設定変更や修正などによる再プリント時にユーザーの利便性が向上する。また、サムネイル画像を使うことで、高速に検索することが可能となる。   As described above, once the output image is read by the scanner of the MFP, and the data stored in the storage device is automatically searched / displayed, the convenience of the user is improved during reprinting by simple setting change or correction. To do. In addition, it is possible to search at high speed by using thumbnail images.

実施例1では、サムネイル画像とスキャン画像を用い、画像データのパターンマッチングによる画像の検索と照合を行ったが、ラスタデータを保持する必要があるため、記憶装置の容量に左右される。そこで、サムネイル画像をそのまま保持するのではなく、平均値、最大値、最小値、標準偏差、ヒストグラムなどの統計量を算出し、その統計量を保持する構成をとる。図14に構成図を示す。   In the first embodiment, thumbnail images and scanned images are used to search and collate images by pattern matching of image data. However, since it is necessary to hold raster data, it depends on the capacity of the storage device. Therefore, instead of holding thumbnail images as they are, statistics such as average value, maximum value, minimum value, standard deviation, and histogram are calculated and the statistics are held. FIG. 14 shows a configuration diagram.

以上のように、いったん出力した画像をMFPのスキャナで読み取り、記憶装置に保持されるデータを自動で検索/表示することで、簡単な設定変更や修正などによる再プリント時にユーザーの利便性が向上する。また、プリント時に生成されるラスタデータからその統計量を算出して保持するため、記憶装置の容量に制限を受けることが少ない。   As described above, once the output image is read by the scanner of the MFP, and the data stored in the storage device is automatically searched / displayed, the convenience of the user is improved during reprinting by simple setting change or correction. To do. Further, since the statistics are calculated and stored from the raster data generated at the time of printing, there is little restriction on the capacity of the storage device.

本実施例では、画像の特徴をあらわす属性情報を用いて画像の検索する方法を説明する。図15にその構成図を示す。像域分離処理1507は、図1に示される像域分離処理103と同一のものである。   In this embodiment, a method for searching for an image using attribute information representing the feature of the image will be described. FIG. 15 shows a configuration diagram thereof. The image area separation processing 1507 is the same as the image area separation processing 103 shown in FIG.

実施例1で説明した通り、属性情報とは画像を構成する特徴を示している。例えば図2に示す原稿画像の場合、ひとつのページ201内に銀塩写真領域202、黒文字領域203、網点印刷領域204、カラーのグラフィック領域205が混在している様子を示している。図2の原稿画像を像域分離処理し、生成された属性フラグの一例を図4に示す。ここでは属性フラグ(フラグデータ)として文字フラグ、図形フラグ、網点フラグの3種類のフラグを生成しているが、もちろんそれに限定されるわけではない。   As described in the first embodiment, the attribute information indicates the characteristics constituting the image. For example, in the case of the original image shown in FIG. 2, a silver salt photograph area 202, a black character area 203, a halftone print area 204, and a color graphic area 205 are mixed in one page 201. FIG. 4 shows an example of attribute flags generated by subjecting the original image of FIG. 2 to image area separation processing. Here, three types of flags, a character flag, a graphic flag, and a halftone dot flag, are generated as attribute flags (flag data), but of course the invention is not limited thereto.

図4(a)は文字フラグであり、図中の黒で表す画素が文字属性を持つ画素であり文字フラグ=1が生成され、それ以外は文字フラグ=0(図では白い部分)となっている。(b)は図形フラグであり、グラフィック領域で1となりそれ以外で0となる領域、(c)は網点フラグであり、網点領域で1となりそれ以外で0となるような領域を表している。写真領域はこれらのいずれにもあてはまらないので、すべてのフラグが0となり、図4には表れてこないことになる。また、図9にて説明した色フラグを属性情報として扱っても良い。   FIG. 4A shows a character flag. Pixels represented by black in the drawing are pixels having character attributes, and character flag = 1 is generated. Otherwise, character flag = 0 (white portion in the figure). Yes. (B) is a graphic flag which is 1 in the graphic area and 0 otherwise. (C) is a halftone dot flag which represents an area which is 1 in the halftone area and 0 otherwise. Yes. Since the photographic area does not correspond to any of these, all the flags are 0, and they do not appear in FIG. Further, the color flag described in FIG. 9 may be handled as attribute information.

上述の属性情報を生成するため、図15に示すように、PDLデータをMFPで出力する際、ラスタデータ1105を像域分離処理して(1507)、そのフラグデータ1508を記憶装置1110に保持しておく。   In order to generate the above-described attribute information, as shown in FIG. 15, when the PDL data is output by the MFP, the raster data 1105 is subjected to image area separation processing (1507), and the flag data 1508 is held in the storage device 1110. Keep it.

検索方法は、図16に示す構成をとる。出力物1106とMFPでスキャンし(1601)、その画像データを補正する(1602)。画像補正1602は、読み取りの斜行や、ひずみなどを補正したり、プリント時に低下するMTFなどを補正したりして、もとのPDLデータと同等の信号を生成するために行う。画像補正1602を終えた信号に対し、像域分離処理1603を行い、フラグデータ1604を生成する。フラグデータ1604を得たら、記憶装置1110に保持されるフラグデータ1508とマッチングを行い(1605)、結果1606を得る。結果1606がフラグデータの特定ができた場合、そのフラグデータに関係付けられているPDLデータ、あるいは、ラスタデータをUIに表示する(1008)。その表示画像を見て、ユーザーは出力方法を変更したりして、画像を出力する。   The search method has the configuration shown in FIG. The output product 1106 and the MFP are scanned (1601), and the image data is corrected (1602). The image correction 1602 is performed in order to generate a signal equivalent to the original PDL data by correcting skew reading, distortion, etc., or correcting MTF that decreases during printing. An image area separation process 1603 is performed on the signal for which the image correction 1602 has been completed, and flag data 1604 is generated. When the flag data 1604 is obtained, matching is performed with the flag data 1508 held in the storage device 1110 (1605), and a result 1606 is obtained. If the flag data can be identified from the result 1606, the PDL data or raster data related to the flag data is displayed on the UI (1008). The user sees the displayed image and changes the output method or outputs the image.

以上のように、いったん出力した画像をMFPのスキャナで読み取り、記憶装置に保持されるデータを自動で検索/表示することで、簡単な設定変更や修正などによる再プリント時にユーザーの利便性が向上する。また、属性情報を使うことで、データの特定が容易となり、精度が高くなる。   As described above, once the output image is read by the scanner of the MFP, and the data stored in the storage device is automatically searched / displayed, the convenience of the user is improved during reprinting by simple setting change or correction. To do. Further, by using attribute information, it becomes easy to specify data and the accuracy is improved.

実施例3では、保持していた属性情報と新たに読み取った画像で生成した属性情報のパターンマッチングによる画像の検索と照合を行ったが、ラスタデータを保持する必要があるため、記憶装置の容量に左右される。そこで、属性情報をそのまま保持するのではなく、平均値、最大値、最小値、標準偏差、ヒストグラムなどの統計量を算出し、その統計量を保持する構成をとる。検索時には、その統計量を元にマッチングを行う。   In the third embodiment, image retrieval and collation are performed by pattern matching between the attribute information that has been retained and the attribute information that is generated from the newly read image. However, since it is necessary to retain raster data, the capacity of the storage device Depends on. Therefore, the attribute information is not held as it is, but a statistic such as an average value, a maximum value, a minimum value, a standard deviation, or a histogram is calculated and the statistic is held. When searching, matching is performed based on the statistics.

以上のように、いったん出力した画像をMFPのスキャナで読み取り、記憶装置に保持されるデータを自動で検索/表示することで、簡単な設定変更や修正などによる再プリント時にユーザーの利便性が向上する。また、プリント時に生成される属性情報からその統計量を算出して保持するため、記憶装置の容量に制限を受けることが少ない。   As described above, once the output image is read by the scanner of the MFP, and the data stored in the storage device is automatically searched / displayed, the convenience of the user is improved during reprinting by simple setting change or correction. To do. In addition, since the statistics are calculated and stored from the attribute information generated at the time of printing, the capacity of the storage device is not limited.

本実施例では、画像の圧縮の特定成分を用いて画像の検索する方法を説明する。
図17にその構成図を示す。圧縮処理1707は、JPEG(Joint Photographic Experts Group)のような、周波数成分に分解する圧縮が好ましい。JPEGの場合、8×8(=64画素)を1単位として符号化される。このとき、DCT変換後の周波数成分に関し、そのDC成分に着目し、その成分のみを保持するようにする。そうすることで、単純にデータ量は1/64になる。そのデータを保持する際に圧縮することで、さらにデータ量低減が期待される。
In the present embodiment, a method for searching for an image using a specific component of image compression will be described.
FIG. 17 shows a configuration diagram thereof. The compression processing 1707 is preferably compression that decomposes into frequency components, such as JPEG (Joint Photographic Experts Group). In the case of JPEG, encoding is performed with 8 × 8 (= 64 pixels) as one unit. At this time, regarding the frequency component after DCT conversion, attention is paid to the DC component, and only the component is held. By doing so, the amount of data is simply 1/64. A further reduction in the amount of data is expected by compressing the data when it is held.

上述の圧縮DC成分を生成するため、図17に示すように、PDLデータをMFPで出力する際、ラスタデータ1105を圧縮処理して(1707)、その圧縮DCデータ1708を記憶装置1110に保持しておく。   In order to generate the compressed DC component described above, as shown in FIG. 17, when outputting the PDL data by the MFP, the raster data 1105 is compressed (1707), and the compressed DC data 1708 is held in the storage device 1110. Keep it.

検索方法は、図18に示す構成をとる。出力物1106とMFPでスキャンし(1801)、その画像データを補正する(1802)。画像補正1802は、読み取りの斜行や、ひずみなどを補正したり、プリント時に低下するMTFなどを補正したりして、もとのPDLデータと同等の信号を生成するために行う。画像補正1802を終えた信号に対し、圧縮処理1803を行い、圧縮DCデータ1804を生成する。圧縮DCデータ1804を得たら、記憶装置1110に保持される圧縮DCデータ1708とマッチングを行い(1805)、結果1806を得る。結果1806が圧縮DCデータの特定ができた場合、その圧縮DCデータに関係付けられているPDLデータ、あるいは、ラスタデータをUIに表示する(1008)。その表示画像を見て、ユーザーは出力方法を変更したりして、画像を出力する。   The search method has the configuration shown in FIG. The output product 1106 and the MFP are scanned (1801), and the image data is corrected (1802). The image correction 1802 is performed in order to generate a signal equivalent to the original PDL data by correcting skew reading, distortion, etc., or correcting MTF that decreases during printing. A compression process 1803 is performed on the signal for which the image correction 1802 has been completed, and compressed DC data 1804 is generated. When the compressed DC data 1804 is obtained, matching is performed with the compressed DC data 1708 held in the storage device 1110 (1805), and a result 1806 is obtained. If the result 1806 identifies the compressed DC data, the PDL data or raster data related to the compressed DC data is displayed on the UI (1008). The user sees the displayed image and changes the output method or outputs the image.

以上のように、いったん出力した画像をMFPのスキャナで読み取り、記憶装置に保持されるデータを自動で検索/表示することで、簡単な設定変更や修正などによる再プリント時にユーザーの利便性が向上する。また、圧縮情報を使うことで、データの保持容量が少なくなる。また、圧縮時のDC成分を使うことで、画像信号の階調成分は保持されるため、パターンマッチングの際、精度が向上する。   As described above, once the output image is read by the scanner of the MFP, and the data stored in the storage device is automatically searched / displayed, the convenience of the user is improved during reprinting by simple setting change or correction. To do. In addition, the use of compressed information reduces the data storage capacity. Further, since the gradation component of the image signal is retained by using the DC component at the time of compression, the accuracy is improved at the time of pattern matching.

実施例5では、保持していた圧縮DCデータと新たに読み取った画像で生成した圧縮DCデータのパターンマッチングによる画像の検索と照合を行ったが、ラスタデータを保持する必要があるため、記憶装置の容量に左右される。そこで、圧縮DCデータをそのまま保持するのではなく、平均値、最大値、最小値、標準偏差、ヒストグラムなどの統計量を算出し、その統計量を保持する構成をとる。検索時には、その統計量を元にマッチングを行う。   In the fifth embodiment, an image search and collation is performed by pattern matching between the compressed DC data that has been held and the compressed DC data generated from the newly read image. However, since the raster data needs to be held, the storage device Depends on capacity. Therefore, the compressed DC data is not held as it is, but a statistic such as an average value, a maximum value, a minimum value, a standard deviation, or a histogram is calculated and the statistic is held. When searching, matching is performed based on the statistics.

以上のように、いったん出力した画像をMFPのスキャナで読み取り、記憶装置に保持されるデータを自動で検索/表示することで、簡単な設定変更や修正などによる再プリント時にユーザーの利便性が向上する。また、プリント時に生成される圧縮DCデータからその統計量を算出して保持するため、記憶装置の容量に制限を受けることが少ない。   As described above, once the output image is read by the scanner of the MFP, and the data stored in the storage device is automatically searched / displayed, the convenience of the user is improved during reprinting by simple setting change or correction. To do. Further, since the statistics are calculated and stored from the compressed DC data generated at the time of printing, there is little restriction on the capacity of the storage device.

実施例1のサムネイルによるパターンマッチング、実施例3の属性情報によるパターンマッチング、実施例5の圧縮DC成分によるパターンマッチングのうち、ふたつ以上の組み合わせによる検索方法。   A search method using a combination of two or more of the pattern matching by the thumbnail of the first embodiment, the pattern matching by the attribute information of the third embodiment, and the pattern matching by the compressed DC component of the fifth embodiment.

以上のように、複数の検索方法で構成することで、いったん出力した画像をMFPのスキャナで読み取り、記憶装置に保持されるデータを自動で検索/表示することで、簡単な設定変更や修正などによる再プリント時にユーザーの利便性が向上する。特に、複数の方法で検索するため、検索精度が向上する。   As described above, by configuring with multiple search methods, once output images are read with the scanner of the MFP, and data stored in the storage device is automatically searched / displayed, making simple setting changes and corrections, etc. Improves user convenience when reprinting with. In particular, since the search is performed by a plurality of methods, the search accuracy is improved.

本発明を実施する構成の一例を示すブロック図The block diagram which shows an example of the structure which implements this invention 本発明に適用される原稿画像の一例を示す図The figure which shows an example of the original image applied to this invention 本発明の像域分離処理を説明する図The figure explaining the image area separation processing of this invention 本発明によるフラグデータを説明する図The figure explaining the flag data by this invention 本発明によるレイアウト合成出力を説明する図The figure explaining the layout synthetic output by this invention 本発明の出力画像処理構成の一例を示すブロック図The block diagram which shows an example of the output image processing structure of this invention 本発明に適用される偽造判定処理の一例を示す図The figure which shows an example of the forgery determination process applied to this invention 本発明に適用される色変換処理を説明する図The figure explaining the color conversion process applied to this invention 本発明の像域分離処理を説明する図The figure explaining the image area separation processing of this invention 実施例1にかかる、処理構成のブロック図A block diagram of a processing configuration according to the first embodiment. 実施例1にかかる、サムネイル生成を説明する図Diagram for explaining thumbnail generation according to the first embodiment. 実施例1にかかる、検索手段を説明する図The figure explaining the search means concerning Example 1. 実施例1にかかる、画像のマッチングを説明する図The figure explaining the matching of the image concerning Example 1. 実施例2にかかる、統計量の生成を説明する図The figure explaining the production | generation of a statistic according to Example 2. 実施例3にかかる、属性情報の生成を説明する図The figure explaining the production | generation of attribute information concerning Example 3. 実施例3にかかる、検索手段を説明する図The figure explaining the search means concerning Example 3. 実施例1にかかる、圧縮情報の生成を説明する図The figure explaining the production | generation of compression information concerning Example 1. 実施例1にかかる、検索手段を説明する図The figure explaining the search means concerning Example 1.

符号の説明Explanation of symbols

101 スキャナ
102 入力画像処理1
103 像域分離処理
104 入力画像処理2
105 画像メモリ1
106 フラグメモリ1
107 RIP
108 インタプリタ
109 データ圧縮
110 記憶装置
111 補助記憶装置
112 データ伸長
113 画素密度変換
114 画像メモリ2
115 フラグメモリ2
116 出力画像処理
117 プリンタ
118 通信I/F
119 外部通信路
120 偽造判定処理
101 Scanner 102 Input Image Processing 1
103 Image area separation processing 104 Input image processing 2
105 Image memory 1
106 Flag memory 1
107 RIP
108 Interpreter 109 Data compression 110 Storage device 111 Auxiliary storage device 112 Data expansion 113 Pixel density conversion 114 Image memory 2
115 Flag memory 2
116 Output Image Processing 117 Printer 118 Communication I / F
119 External communication channel 120 Forgery determination processing

Claims (11)

外部から入力される外部入力データを保持するデータ保持手段と、
前記外部入力データから第1の特徴量を生成する第1の特徴量生成手段と、
前記第1の特徴量生成手段により生成される第1の特徴量を保持する特徴量保持手段と、
前記データ保持手段にて保持された前記外部入力データを出力する出力手段と、
前記出力手段により出力された出力画像を読み取る画像読み取り手段と、を備える画像処理装置であって、
前記読み取り手段によって読み取られた前記画像から第2の特徴量を生成する第2の特徴量生成手段と、
前記第2の特徴量生成手段により生成される第2の特徴量と前記特徴量保持手段に保持される第1の特徴量とを照合する特徴量照合手段と、
前記特徴量照合手段の結果に応じて、前記データ保持手段に保持される外部入力データから特定の外部入力データを選択することを特徴とする画像処理装置。
Data holding means for holding external input data input from the outside;
First feature value generation means for generating a first feature value from the external input data;
Feature quantity holding means for holding the first feature quantity generated by the first feature quantity generation means;
Output means for outputting the external input data held by the data holding means;
An image reading unit that reads an output image output by the output unit,
Second feature quantity generation means for generating a second feature quantity from the image read by the reading means;
Feature quantity matching means for matching the second feature quantity generated by the second feature quantity generation means with the first feature quantity held in the feature quantity holding means;
An image processing apparatus, wherein specific external input data is selected from external input data held in the data holding means in accordance with a result of the feature amount matching means.
前記第1の特徴量と前記第2の特徴量が、ビットマップデータであることを特徴とする請求項1に記載される画像処理装置。   The image processing apparatus according to claim 1, wherein the first feature amount and the second feature amount are bitmap data. 前記第1の特徴量と前記第2の特徴量の解像度が、前記外部入力データと同じであることを特徴とする請求項1に記載される画像処理装置。   The image processing apparatus according to claim 1, wherein the resolution of the first feature amount and the second feature amount is the same as that of the external input data. 前記第1の特徴量と前記第2の特徴量の解像度が、前記外部入力データより小さいことを特徴とする請求項1に記載される画像処理装置。   The image processing apparatus according to claim 1, wherein a resolution of the first feature quantity and the second feature quantity is smaller than the external input data. 前記第1の特徴量と前記第2の特徴量を照合する前記特徴量照合手段において、ビットマップデータをN値化し、各レベルにて照合・判定することを特徴とする請求項1に記載される画像処理装置。   2. The feature quantity matching means for matching the first feature quantity and the second feature quantity, the bitmap data is converted into N-values, and collation / determination is performed at each level. Image processing apparatus. 前記第1の特徴量と前記第2の特徴量が、統計データであることを特徴とする請求項1に記載される画像処理装置。   The image processing apparatus according to claim 1, wherein the first feature amount and the second feature amount are statistical data. 外部から入力される外部入力データを保持するデータ保持手段と、
前記データ保持手段にて前記外部入力データを保持する際、符号化する符号化手段と、
前記符号化手段により生成される符号量の要素から第1の特徴量を生成する第1の特徴量生成手段と、
前記第1の特徴量生成手段により生成される第1の特徴量を保持する特徴量保持手段と、
前記データ保持手段にて保持された前記外部入力データを出力する出力手段と、
前記出力手段により出力された出力画像を読み取る画像読み取り手段と、を備える画像処理装置であって、
前記読み取り手段によって読み取られた前記画像を前記符号化手段にて符号化し、生成される符号量の要素から第2の特徴量を生成する第2の特徴量生成手段と、
前記第2の特徴量生成手段により生成される第2の特徴量と前記特徴量保持手段に保持される第1の特徴量とを照合する特徴量照合手段と、
前記特徴量照合手段の結果に応じて、前記データ保持手段に保持される外部入力データから特定の外部入力データを選択することを特徴とする画像処理装置。
Data holding means for holding external input data input from the outside;
Encoding means for encoding when the external input data is held by the data holding means;
First feature quantity generating means for generating a first feature quantity from an element of the code quantity generated by the encoding means;
Feature quantity holding means for holding the first feature quantity generated by the first feature quantity generation means;
Output means for outputting the external input data held by the data holding means;
An image reading unit that reads an output image output by the output unit,
A second feature quantity generating means for encoding the image read by the reading means with the encoding means and generating a second feature quantity from the generated code quantity elements;
Feature quantity matching means for matching the second feature quantity generated by the second feature quantity generation means with the first feature quantity held in the feature quantity holding means;
An image processing apparatus, wherein specific external input data is selected from external input data held in the data holding means in accordance with a result of the feature amount matching means.
前記第1の特徴量と前記第2の特徴量が、前記符号量の直流成分であることを特徴とする請求項7に記載される画像処理装置。   The image processing apparatus according to claim 7, wherein the first feature amount and the second feature amount are DC components of the code amount. 前記第1の特徴量と前記第2の特徴量が、統計データであることを特徴とする請求項8に記載される画像処理装置。   The image processing apparatus according to claim 8, wherein the first feature amount and the second feature amount are statistical data. 外部から入力される外部入力データを保持するデータ保持手段と、
前記外部入力データから属性情報を生成する属性情報生成手段と、
前記属性情報から第1の特徴量を生成する第1の特徴量生成手段と、
前記第1の特徴量生成手段により生成される第1の特徴量を保持する特徴量保持手段と、
前記データ保持手段にて保持された前記外部入力データを出力する出力手段と、
前記出力手段により出力された出力画像を読み取る画像読み取り手段と、を備える画像処理装置であって、
前記読み取り手段によって読み取られた画像から、前記属性情報生成手段にて属性情報を生成し、生成される属性情報から第2の特徴量を生成する第2の特徴量生成手段と、
前記第2の特徴量生成手段により生成される第2の特徴量と前記特徴量保持手段に保持される第1の特徴量とを照合する特徴量照合手段と、
前記特徴量照合手段の結果に応じて、前記データ保持手段に保持される外部入力データから特定の外部入力データを選択することを特徴とする画像処理装置。
Data holding means for holding external input data input from the outside;
Attribute information generating means for generating attribute information from the external input data;
First feature value generation means for generating a first feature value from the attribute information;
Feature quantity holding means for holding the first feature quantity generated by the first feature quantity generation means;
Output means for outputting the external input data held by the data holding means;
An image reading unit that reads an output image output by the output unit,
Second feature quantity generation means for generating attribute information from the attribute information generation means from the image read by the reading means, and generating a second feature quantity from the generated attribute information;
Feature quantity matching means for matching the second feature quantity generated by the second feature quantity generation means with the first feature quantity held in the feature quantity holding means;
An image processing apparatus, wherein specific external input data is selected from external input data held in the data holding means in accordance with a result of the feature amount matching means.
前記第1の特徴量と前記第2の特徴量が、統計データであることを特徴とする請求項10に記載される画像処理装置。   The image processing apparatus according to claim 10, wherein the first feature amount and the second feature amount are statistical data.
JP2004366103A 2004-12-17 2004-12-17 Image processing device Withdrawn JP2006172291A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004366103A JP2006172291A (en) 2004-12-17 2004-12-17 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004366103A JP2006172291A (en) 2004-12-17 2004-12-17 Image processing device

Publications (1)

Publication Number Publication Date
JP2006172291A true JP2006172291A (en) 2006-06-29

Family

ID=36672958

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004366103A Withdrawn JP2006172291A (en) 2004-12-17 2004-12-17 Image processing device

Country Status (1)

Country Link
JP (1) JP2006172291A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008112420A (en) * 2006-10-31 2008-05-15 Canon Inc Data update processor and data update processing system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008112420A (en) * 2006-10-31 2008-05-15 Canon Inc Data update processor and data update processing system

Similar Documents

Publication Publication Date Title
US7319548B2 (en) Image processing device having functions for detecting specified images
US7308155B2 (en) Image processing apparatus, image processing method, image processing program, and storage medium
JP4557843B2 (en) Image processing apparatus and method
US8165402B2 (en) Image processing method, image processing apparatus, image forming apparatus and storage medium
JP4115460B2 (en) Image processing apparatus and method, and computer program and recording medium
JPH08235346A (en) Picture processor
JP2005045404A (en) Image processor and method, and program
JP2008193409A (en) Image processing apparatus
JP2000175031A (en) Image processing unit, image processing method and image input device
JP4208369B2 (en) Image processing apparatus, image processing method, storage medium, and image processing system
JP3899872B2 (en) Image processing apparatus, image processing method, image processing program, and computer-readable recording medium recording the same
JP2004350240A (en) Image processing apparatus and image processing method
JP2015015599A (en) Image processing apparatus, image forming apparatus, image processing method, and program and recording medium of the same
JP4659789B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP2007088912A (en) Image processing apparatus and program
JP3346051B2 (en) Image processing device
JP2006172291A (en) Image processing device
JP2001309183A (en) Image processing unit and method
US20100188670A1 (en) Image processing apparatus, image processing method and program executing the image processing method
JP5090969B2 (en) Image processing device
JP4474001B2 (en) Image processing apparatus and method
JP2000227848A (en) Image processor
JPH11127353A (en) Image processor and image processing method
JP2007189275A (en) Image processor
JP2006311193A (en) Image processor, image reader provided with the same and image processing method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080304