JP2008244611A - Image processing unit and image processing method - Google Patents

Image processing unit and image processing method Download PDF

Info

Publication number
JP2008244611A
JP2008244611A JP2007079446A JP2007079446A JP2008244611A JP 2008244611 A JP2008244611 A JP 2008244611A JP 2007079446 A JP2007079446 A JP 2007079446A JP 2007079446 A JP2007079446 A JP 2007079446A JP 2008244611 A JP2008244611 A JP 2008244611A
Authority
JP
Japan
Prior art keywords
image
data
unit
feature data
recording medium
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007079446A
Other languages
Japanese (ja)
Inventor
Masataka Yasuda
昌孝 保田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2007079446A priority Critical patent/JP2008244611A/en
Publication of JP2008244611A publication Critical patent/JP2008244611A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Accessory Devices And Overall Control Thereof (AREA)
  • Cleaning In Electrography (AREA)
  • Control Or Security For Electrophotography (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing unit capable of recording paper fingerprint information in a non-image area. <P>SOLUTION: Paper fingerprints in a plurality of fixed areas (1401, A, B, C) of a white paper 1405 are read and stored by a scanner part for reading the whole white paper. The non-image areas A, B, C are detected and stored by referring to the stored information and image data 1402, 1403, 1404 in one page. In printing, the paper fingerprints in an area equivalent to a white paper area C are read on a carrying path in a device by another scanner for reading only part of paper in a width direction in the device. The read information is compared with the stored paper fingerprints in the non-image area. When there is the corresponding information, the image data 1402, 1403, 1404 and coding information of the area C are synthesized and printed in the white paper. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、画像記録媒体の表面上の複数個所の光学的に検出された特徴データを取り扱うことができる画像処理装置及び画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method that can handle optically detected feature data at a plurality of locations on the surface of an image recording medium.

画像記録媒体の表面上の複数個所の光学的に検出された特徴データとしては紙指紋(以下では、紙指紋のことを紙紋とも称する)情報が知られている。   Paper fingerprint (hereinafter referred to as a paper fingerprint) information is known as optically detected feature data at a plurality of locations on the surface of an image recording medium.

住民票などの公的文書や、保険の証書など、またはその他の機密文書に関して原本を保証することが重要な文書がある。印刷技術の向上により前記したような紙の書類をプリンタや複写機などの画像形成装置で印刷することも行われてくるようになったのと同時に、カラースキャナやカラー複写機を使用した偽造を防止することが必要になってきている。   There are documents where it is important to guarantee the original with respect to official documents such as resident cards, insurance certificates, or other confidential documents. Improving printing technology has led to the printing of paper documents as described above with image forming devices such as printers and copiers. At the same time, counterfeiting using color scanners and color copiers has been implemented. It is becoming necessary to prevent it.

偽造を防止するための技術として、紙に印刷するときに地紋などのパターンを埋め込み、複写した際に地紋が浮き出て印刷されるようにするなどの対処がされてきている。また、紙自体に非接触IC、RFIDのような半導体の部品を付加し、これらの半導体部品に原本を保証するためのデータを書き込み、複写することがある。この場合はスキャナまたは複写機がこれらの半導体部品から読み取った情報を記録し、複写の履歴を残す。またはユーザ認証と組み合わせて、半導体部品から読み取った情報の記録とユーザ認証が行われない限り複写機で複写が行えないようにすることなどが行われつつある。   As a technique for preventing forgery, measures such as embedding a pattern such as a tint block when printing on paper and embossing a pattern when printing are made have been taken. In addition, semiconductor parts such as non-contact ICs and RFIDs may be added to the paper itself, and data for guaranteeing the original may be written and copied on these semiconductor parts. In this case, information read from these semiconductor components by the scanner or copying machine is recorded, and a copy history is recorded. Or in combination with user authentication, copying of information read from a semiconductor component and making it impossible to perform copying with a copying machine unless user authentication is performed are being performed.

さらに、印刷する際にユーザにとって視認性の悪いハーフトーンで特定のパターン情報を不可視情報として埋め込んでおき、複写する場合スキャナや複写機が前記情報を読み込んだ際、印刷動作を停止させることなども行われつつある。   Furthermore, when printing, specific pattern information is embedded as invisible information in a halftone that is invisible to the user, and when copying, the printing operation is stopped when the scanner or copier reads the information. It is happening.

しかしながら、前記半導体部品などを紙に付加するためには紙自体の価格が上がってしまうという課題があった。また不可視情報を付加したり、非接触ICやRFIDなどに対応するためにスキャナや複写機に特別なハードウェアが必要になることもあり、コストが上がってしまうという課題があった。また、前記不可視の情報もスキャナや複写機で読み取ることによって偽造される可能性もあることが課題としてあった。   However, in order to add the semiconductor component or the like to paper, there is a problem that the price of the paper itself increases. In addition, special hardware is required for scanners and copiers in order to add invisible information and support non-contact ICs and RFIDs, resulting in increased costs. Another problem is that the invisible information may be counterfeited by being read by a scanner or a copying machine.

このような課題に対して、近年になり画像記録媒体である紙などの表面の繊維の並び方などが紙などの記録媒体1枚、1枚で異なることを利用してその紙(印刷物)が原本であるか否かを判断することが行われている。即ち、スキャナや複写機などの読み取り手段によって、前記紙などの記録媒体の表面を読み取り、読み取った繊維の並び方などをパターンデータとしてデジタル情報に変換し、このデジタル情報を印刷時に紙に例えば不可視のハーフトーンなどで記録しておく。これにより、一度印刷された紙などの記録媒体を再び複写するために読み取った際、紙自体がもつ繊維のパターン情報と、紙に印字されているデジタル情報に変換されたパターンデータを比較することにより、原本であるか否かを保証することが行われつつある。この場合、すでにあるスキャナやプリンタ、複写機を使用して、ソフトウェアの一部を修正することにより低コストで原本の保証を行うことが可能となる。   In response to such a problem, the original paper (printed material) is utilized by utilizing the fact that the arrangement of fibers on the surface of paper, which is an image recording medium, is different for each recording medium such as paper. It is performed to determine whether or not. That is, the surface of a recording medium such as paper is read by a reading unit such as a scanner or a copying machine, and the read fiber arrangement is converted into digital information as pattern data. Record in halftone. Thus, when a recording medium such as paper once printed is read for copying again, the pattern information of the fiber that the paper itself has is compared with the pattern data converted into digital information printed on the paper. As a result, whether or not it is an original is being performed. In this case, it is possible to guarantee the original document at low cost by modifying a part of the software using an existing scanner, printer, or copying machine.

特開2004−102562号公報JP 2004-102562 A

しかしながら上記従来技術においては、次のような問題がある。即ち、まず、住民票などの公的文書や、保険の証書など、またはその他の機密文書をプリンタや複写機で紙などの記録媒体に印刷して原本を作成するとする。その作成の前に、例えば、複写機のスキャナなどの読み取り手段でこれからプリンタまたは複写機で印字がされてしまうような領域の紙の特徴データを読み取ることができる。しかしながら、特徴データ読み取り後にその領域に例えばベタ黒で印字が行われてしまうと、その印刷物が原本か否かを判断すべく、再び読み取る際に紙の特徴データが正しく読めない可能性があるという問題点があった。   However, the above prior art has the following problems. That is, first, an original document is created by printing a public document such as a resident's card, an insurance certificate, or other confidential documents on a recording medium such as paper with a printer or a copying machine. Before the creation, it is possible to read the characteristic data of the paper in an area where printing will be performed by a printer or copier, for example, by a reading unit such as a scanner of the copier. However, if, for example, solid black is printed in the area after the feature data is read, the feature data of the paper may not be read correctly when reading again to determine whether the printed matter is the original. There was a problem.

そこで本発明の目的は以上のような問題を解消した画像処理装置及び画像処理方法及びプログラム及び記憶媒体を提供することにある。   Accordingly, an object of the present invention is to provide an image processing apparatus, an image processing method, a program, and a storage medium that have solved the above problems.

本発明は、画像記録媒体の表面上の複数個所の光学的に検出された特徴データを記憶する第1の記憶手段と、前記画像記録媒体上に画像形成する画像データを参照して、当該画像データが前記画像記録媒体上で記録されない非画像の領域を検出する非画像領域検出手段と、前記第1の記憶手段に記憶されている前記画像記録媒体の複数箇所の特徴データのうち、前記非画像領域検出手段によって検出された非画像領域に該当する特徴データを選択する特徴データ選択手段と、前記特徴データ選択手段によって選択された特徴データを画像記録媒体を特定するための特徴データとして記憶する第2の記憶手段とを備えたことを特徴とする。   The present invention refers to first storage means for storing optically detected feature data at a plurality of locations on the surface of an image recording medium, and image data to form an image on the image recording medium. Non-image area detecting means for detecting a non-image area in which data is not recorded on the image recording medium, and the non-image area among feature data at a plurality of locations of the image recording medium stored in the first storage means. Feature data selection means for selecting feature data corresponding to the non-image area detected by the image area detection means, and feature data selected by the feature data selection means are stored as feature data for specifying an image recording medium And a second storage means.

本発明によれば、紙などの画像記録媒体上の複数箇所の光学的に検出された特徴データを予め記憶しておき、そのうちの非画像領域に相当する特徴データを検出し記憶する。これによって非画像領域と判断された領域の特徴データを使用することができ、その結果、例えばベタ黒で印字が行われ、特徴データを後で正確に読み取れなくなってしまわないようにすることが可能となる。   According to the present invention, feature data optically detected at a plurality of locations on an image recording medium such as paper is stored in advance, and feature data corresponding to a non-image area is detected and stored. This makes it possible to use the feature data of the area determined to be a non-image area. As a result, for example, printing is performed in solid black so that the feature data cannot be read accurately later. It becomes.

また、画像記録媒体の幅方向の一部の特徴データのみ読み取り、同一の画像記録媒体の他の領域の特徴データを予め読みとって記憶している記憶手段へ問い合わせをして、全ての特徴データを扱えるようにすることができる。これによって、機体内部の読み取り手段およびその読み取り結果の処理手段は簡単な構造で実現することができる。   Also, only a part of the feature data in the width direction of the image recording medium is read, the feature data of other areas of the same image recording medium are read in advance and inquired to the storage means, and all the feature data is read. It can be handled. Thereby, the reading means inside the machine body and the processing means for the reading result can be realized with a simple structure.

以下では、図面を参照して本発明を実施するための最良の形態について説明する。
[実施例1]
<印刷システム(図1)>
続いて、実施例1について図面を参照して詳細に説明する。図1は本発明の実施形態に係る印刷システムの構成を示すブロック図である。このシステムではホストコンピュータ40及び3台の画像形成装置(10,20,30)がLAN50に接続されているが、本発明における印刷システムにおいては、これらの接続数に限られることはない。また、本実施例では接続方法としてLANを適用しているが、これに限られることはない。例えば、WAN(公衆回線)などの任意のネットワーク、USBなどのシリアル伝送方式、セントロニクスやSCSIなどのパラレル伝送方式なども適用可能である。
The best mode for carrying out the present invention will be described below with reference to the drawings.
[Example 1]
<Printing system (Fig. 1)>
Next, Example 1 will be described in detail with reference to the drawings. FIG. 1 is a block diagram showing a configuration of a printing system according to an embodiment of the present invention. In this system, the host computer 40 and the three image forming apparatuses (10, 20, 30) are connected to the LAN 50. However, in the printing system according to the present invention, the number of connections is not limited. In this embodiment, LAN is applied as a connection method, but the present invention is not limited to this. For example, an arbitrary network such as a WAN (public line), a serial transmission method such as USB, and a parallel transmission method such as Centronics and SCSI can be applied.

ホストコンピュータ(以下、PCと称する)40はパーソナルコンピュータの機能を有している。このPC40はLAN50やWANを介してFTPやSMBプロトコルを用いファイルを送受信したり電子メールを送受信したりすることができる。またPC40から画像形成装置10、20、30に対して、プリンタドライバを介した印字命令を送出することが可能となっている。   A host computer (hereinafter referred to as a PC) 40 has a function of a personal computer. The PC 40 can send and receive files and send and receive e-mails using the FTP and SMB protocols via the LAN 50 and WAN. Further, it is possible to send a print command from the PC 40 to the image forming apparatuses 10, 20, and 30 via a printer driver.

画像形成装置10と20は同じ構成を有する装置である。画像形成装置30はプリント機能のみの画像形成装置であり、画像形成装置10や20が有するスキャナ部を有していない。以下では、説明の簡単のために、画像形成装置10、20のうちの画像形成装置10に注目して、その構成を詳細に説明する。   The image forming apparatuses 10 and 20 are apparatuses having the same configuration. The image forming apparatus 30 is an image forming apparatus having only a print function, and does not have the scanner unit included in the image forming apparatuses 10 and 20. In the following, for the sake of simplicity of explanation, the configuration will be described in detail focusing on the image forming apparatus 10 of the image forming apparatuses 10 and 20.

画像形成装置10は、画像入力デバイスであるスキャナ部13、画像出力デバイスであるプリンタ部14を有する。画像形成装置10は、さらに、画像形成装置10全体の動作制御を司るコントローラ(Controller Unit)11、ユーザインターフェース(UI)である操作部12を有する。   The image forming apparatus 10 includes a scanner unit 13 that is an image input device and a printer unit 14 that is an image output device. The image forming apparatus 10 further includes a controller 11 that controls operation of the entire image forming apparatus 10 and an operation unit 12 that is a user interface (UI).

<画像形成装置10(図2)>
画像形成装置10の外観を図2に示す。スキャナ部13は、複数のCCDを有している。この各CCDの感度が夫々異なっていると、たとえ原稿上の各画素の濃度が同じであったとしても、各画素が夫々違う濃度であると認識されてしまう。そのため、スキャナ部では、最初に白板(一様に白い板)を露光走査し、露光走査して得られた反射光の量を電気信号に変換してコントローラ11に出力する。なお、後述するように、コントローラ11内のシェーディング補正部500は、各CCDから得られた電気信号を元に、各CCDの感度の違いを認識する。そして、この認識された感度の違いを利用して、原稿上の画像をスキャンして得られた電気信号の値を補正する。さらに、シェーディング補正部500は、後述するコントローラ11内のCPU301からゲイン調整の情報を受取ると、当該情報に応じたゲイン調整を行う。ゲイン調整の情報は、原稿を露光走査して得られた電気信号の値を、どのように0〜255の輝度信号値に割り付けるかを調整するために用いられる。このゲイン調整により、原稿を露光走査して得られた電気信号の値を高い輝度信号値に変換したり、低い輝度信号値に変換したりすることができる。続いて、この原稿上の画像をスキャンする構成について説明する。
<Image Forming Apparatus 10 (FIG. 2)>
An appearance of the image forming apparatus 10 is shown in FIG. The scanner unit 13 has a plurality of CCDs. If the sensitivity of each CCD is different, it is recognized that each pixel has a different density even if the density of each pixel on the document is the same. Therefore, the scanner unit first performs exposure scanning on a white plate (uniformly white plate), converts the amount of reflected light obtained by the exposure scanning into an electrical signal, and outputs it to the controller 11. As will be described later, the shading correction unit 500 in the controller 11 recognizes the difference in sensitivity of each CCD based on the electric signal obtained from each CCD. Then, using the recognized difference in sensitivity, the value of the electric signal obtained by scanning the image on the document is corrected. Further, when the shading correction unit 500 receives gain adjustment information from a CPU 301 in the controller 11 described later, the shading correction unit 500 performs gain adjustment according to the information. The gain adjustment information is used to adjust how the electric signal value obtained by exposing and scanning the original is assigned to the luminance signal value of 0 to 255. By this gain adjustment, the value of the electrical signal obtained by exposing and scanning the document can be converted into a high luminance signal value or converted into a low luminance signal value. Next, a configuration for scanning the image on the document will be described.

スキャナ部13は、原稿上の画像を露光走査して得られた反射光をCCDに入力することで画像の情報を電気信号に変換する。スキャナ部13はさらに電気信号をR,G,B各色からなる輝度信号に変換し、当該輝度信号を画像データとしてコントローラ11に対して出力する。   The scanner unit 13 converts information of an image into an electrical signal by inputting reflected light obtained by exposing and scanning the image on the document to the CCD. The scanner unit 13 further converts the electrical signal into a luminance signal composed of R, G, and B colors, and outputs the luminance signal to the controller 11 as image data.

なお、原稿は原稿フィーダ201のトレイ202にセットされる。ユーザが操作部12から読み取り開始を指示すると、コントローラ11からスキャナ部13に原稿読み取り指示が与えられる。操作部12の詳細は後述する。スキャナ部13は、この指示を受けると原稿フィーダ201のトレイ202から原稿を1枚ずつフィードして、原稿の読み取り動作を行う。なお、原稿の読み取り方法は原稿フィーダ201による自動送り方式ではなく、原稿を不図示のガラス面上に載置し露光部を移動させることで原稿の走査を行う方法であってもよい。   The document is set on the tray 202 of the document feeder 201. When the user instructs to start reading from the operation unit 12, a document reading instruction is given from the controller 11 to the scanner unit 13. Details of the operation unit 12 will be described later. Upon receiving this instruction, the scanner unit 13 feeds the documents one by one from the tray 202 of the document feeder 201 and performs a document reading operation. Note that the document reading method is not an automatic feeding method by the document feeder 201, but a method of scanning the document by placing the document on a glass surface (not shown) and moving the exposure unit.

プリンタ部14は、コントローラ11から受取った画像データを用紙上に形成する画像形成デバイスである。なお、本実施例において画像形成方式は感光体ドラムや感光体ベルトを用いた電子写真方式となっているが、本発明はこれに限られることはない。例えば、微少ノズルアレイからインクを吐出して用紙上に印字するインクジェット方式などでも適用可能である。また、プリンタ部14には、異なる用紙サイズ又は異なる用紙向きを選択可能とする複数の用紙カセット203、204、205が設けられている。排紙トレイ206には印字後の用紙が排出される。   The printer unit 14 is an image forming device that forms image data received from the controller 11 on a sheet. In this embodiment, the image forming method is an electrophotographic method using a photosensitive drum or a photosensitive belt, but the present invention is not limited to this. For example, the present invention can also be applied to an ink jet system that prints on paper by ejecting ink from a micro nozzle array. The printer unit 14 is provided with a plurality of paper cassettes 203, 204, and 205 that allow selection of different paper sizes or different paper orientations. The paper after printing is discharged to the paper discharge tray 206.

また、図17にプリンタ部14およびスキャナ部13の断面図を示す。プリンタ部14は、レーザ露光部1701、作像部1702、定着部1703、給紙/搬送部1704を有する。これらの構成は、コントローラ11によって制御される。レーザ露光部1701は、前記画像データに応じて変調されたレーザ光などの光線を等角速度で回転する回転多面鏡(ポリゴンミラー)に入射させ、反射走査光として感光ドラム1709に照射する。   FIG. 17 is a cross-sectional view of the printer unit 14 and the scanner unit 13. The printer unit 14 includes a laser exposure unit 1701, an image forming unit 1702, a fixing unit 1703, and a paper feeding / conveying unit 1704. These components are controlled by the controller 11. The laser exposure unit 1701 causes a light beam such as a laser beam modulated according to the image data to enter a rotating polygonal mirror (polygon mirror) that rotates at a constant angular velocity, and irradiates the photosensitive drum 1709 as reflected scanning light.

作像部1702は、感光ドラム1709を回転駆動し、帯電器によって帯電させ、前記レーザ露光部1701によって感光ドラム1709上に形成された潜像をトナーによって現像化する。さらに、作像部1702は、そのトナー像をシートに転写し、その際に転写されずに感光ドラム1709上に残った微小トナーを回収するといった一連の電子写真プロセスを実行して作像する。その際、シートが転写ドラムの所定位置に巻きつき、4回転する。即ちこの4回転の間に、マゼンタ(M)、シアン(C)、イエロー(Y)、ブラック(K)のトナーを持つそれぞれの現像ユニット(現像ステーション)が入れ替わりで順次前述の電子写真プロセスを繰り返し実行する。現像ユニットは図17では1730,1731,1732,1733で示されている。4回転の後、4色のフルカラートナー像を転写されたシートは、転写ドラムを離れ、定着部1703へ搬送される。定着部1703は、ローラやベルトの組み合わせによって構成され、ハロゲンヒータなどの熱源を内蔵し、前記作像部1702によってトナー像が転写されたシート上のトナーを、熱と圧力によって溶解、定着させる。給紙/搬送部1704は、シートカセットやペーパーデッキに代表されるシート収納庫を一つ以上持っており、コントローラ11の指示に応じてシート収納庫に収納された複数のシートの中から一枚分離し、作像部1702・定着部1703へ搬送する。シートは作像部1702の転写ドラム1711に巻きつけられ、4回転した後に定着部1703へ搬送される。4回転する間に前述のYMCK各色のトナー像がシートに転写される。また、シートの両面に画像形成する場合は、定着部1703を通過したシートを再度作像部1702へ搬送する搬送経路を通るように制御する。   The image forming unit 1702 rotates the photosensitive drum 1709 and charges it with a charger, and develops the latent image formed on the photosensitive drum 1709 by the laser exposure unit 1701 with toner. Further, the image forming unit 1702 performs image formation by executing a series of electrophotographic processes in which the toner image is transferred to a sheet, and minute toner remaining on the photosensitive drum 1709 without being transferred at that time is collected. At that time, the sheet is wound around a predetermined position of the transfer drum and rotated four times. That is, during the four rotations, the above-described electrophotographic processes are sequentially repeated with each developing unit (developing station) having magenta (M), cyan (C), yellow (Y), and black (K) toners being replaced. Execute. The developing units are indicated by 1730, 1731, 1732 and 1733 in FIG. After four rotations, the sheet on which the four color full-color toner images have been transferred leaves the transfer drum and is conveyed to the fixing unit 1703. The fixing unit 1703 includes a combination of a roller and a belt, and includes a heat source such as a halogen heater. The toner on the sheet onto which the toner image has been transferred by the image forming unit 1702 is melted and fixed by heat and pressure. The sheet feeding / conveying unit 1704 has one or more sheet storages represented by a sheet cassette or a paper deck, and one sheet is selected from a plurality of sheets stored in the sheet storage according to an instruction from the controller 11. Separated and conveyed to the image forming unit 1702 and the fixing unit 1703. The sheet is wound around the transfer drum 1711 of the image forming unit 1702, and after four rotations, the sheet is conveyed to the fixing unit 1703. During the four rotations, the above-described toner images of each color of YMCK are transferred to the sheet. Further, when forming an image on both sides of the sheet, control is performed so that the sheet that has passed through the fixing unit 1703 passes through a conveyance path for conveying the sheet to the image forming unit 1702 again.

また、給紙された用紙の紙指紋を読み取るための内部スキャナ部1705を構成する紙指紋読み取りセンサをプリンタ部14の用紙搬送路1706上に設ける。この内部スキャナ部1705を構成する紙指紋読み取りセンサは、給紙され作像部に供給される途中の用紙の繊維の凹凸を読み取り、読み取った繊維の凹凸画像の情報を電気信号に変換する。さらに電気信号をR,G,B各色からなる輝度信号に変換し、当該輝度信号を画像データとしてコントローラ11に対して出力する。出力された信号に後述するような処理(<スキャナ画像処理部312の詳細説明(図6)>における紙指紋情報取得部607の処理)と同様な処理を行って紙指紋情報を取得する。即ち、紙指紋情報は光学的に検出された特徴データを構成する。なお、この内部スキャナ部1705を構成する紙指紋読み取りセンサは移動手段によって用紙の搬送方向(用紙の幅方向)と直交する方向に移動可能にすることもできる。この場合、用紙の幅方向の所望の位置の紙指紋を読み取ることができる。移動手段は後述するコントローラ11内のCPU301によって制御することができ、その制御のための指示情報は操作部12上から行うことができる。   In addition, a paper fingerprint reading sensor constituting an internal scanner unit 1705 for reading a paper fingerprint of the fed paper is provided on the paper transport path 1706 of the printer unit 14. The paper fingerprint reading sensor that constitutes the internal scanner unit 1705 reads the fiber irregularities of the paper that is being fed and supplied to the image forming unit, and converts the read information on the irregular image of the fibers into an electrical signal. Further, the electric signal is converted into a luminance signal composed of R, G, and B colors, and the luminance signal is output to the controller 11 as image data. The output signal is subjected to processing similar to that described later (<processing by the paper fingerprint information acquisition unit 607 in <detailed description of the scanner image processing unit 312 (FIG. 6)>) to acquire paper fingerprint information. That is, the paper fingerprint information constitutes optically detected feature data. The paper fingerprint reading sensor constituting the internal scanner unit 1705 can be moved in a direction orthogonal to the paper transport direction (paper width direction) by the moving means. In this case, a paper fingerprint at a desired position in the width direction of the paper can be read. The moving means can be controlled by a CPU 301 in the controller 11 described later, and instruction information for the control can be performed from the operation unit 12.

<コントローラ11の詳細説明(図3)>
図3は、画像形成装置10のコントローラ11の構成をより詳細に説明するためのブロック図である。
<Detailed Description of Controller 11 (FIG. 3)>
FIG. 3 is a block diagram for explaining the configuration of the controller 11 of the image forming apparatus 10 in more detail.

コントローラ11はスキャナ部13やプリンタ部14と電気的に接続されており、一方ではLAN50やWAN331を介してPC40や外部の装置などと接続されている。これにより画像データやデバイス情報の入出力が可能となっている。   The controller 11 is electrically connected to the scanner unit 13 and the printer unit 14. On the other hand, the controller 11 is connected to the PC 40 or an external device via the LAN 50 or the WAN 331. As a result, image data and device information can be input and output.

CPU301は、記憶手段であるROM303に記憶された制御プログラム等に基づいて接続中の各種デバイスとのアクセスを統括的に制御すると共に、コントローラ内部で行われる各種処理についても統括的に制御する。RAM302は、CPU301が動作するためのシステムワークメモリであり、かつ画像データを一時記憶するためのメモリでもある。このRAM302は、記憶した内容を電源off後も保持しておくSRAM及び電源off後には記憶した内容が消去されてしまうDRAMにより構成されている。ROM303には装置のブートプログラムなどが格納されている。HDD304はハードディスクドライブであり、システムソフトウェアや画像データを格納することが可能となっている。   The CPU 301 comprehensively controls access to various connected devices based on a control program or the like stored in the ROM 303 serving as storage means, and also comprehensively controls various processes performed in the controller. A RAM 302 is a system work memory for the operation of the CPU 301 and also a memory for temporarily storing image data. The RAM 302 includes an SRAM that retains stored content even after the power is turned off, and a DRAM that erases the stored content after the power is turned off. The ROM 303 stores a boot program for the apparatus. An HDD 304 is a hard disk drive and can store system software and image data.

操作部I/F305は、システムバス310と操作部12とを接続するためのインターフェース部である。操作部12は画像形成装置10の本体上に操作表示画面を有する。操作部12の操作表示画面は、所定の複数箇所の各々においてタッチキー入力可能なセンサを構成している。操作部I/F305は、操作部12の操作表示画面の所定の位置に各々表示するためのタブ情報としての画像データをシステムバス310から受取り操作部12に出力する。また操作部I/F305は、操作部12の操作表示画面の所定位置のタッチセンサの押下(タッチ)によって入力された情報をシステムバス310へと出力する。   The operation unit I / F 305 is an interface unit for connecting the system bus 310 and the operation unit 12. The operation unit 12 has an operation display screen on the main body of the image forming apparatus 10. The operation display screen of the operation unit 12 constitutes a sensor capable of touch key input at each of a plurality of predetermined locations. The operation unit I / F 305 receives image data as tab information to be displayed at predetermined positions on the operation display screen of the operation unit 12 from the system bus 310 and outputs the image data to the operation unit 12. The operation unit I / F 305 outputs information input by pressing (touching) the touch sensor at a predetermined position on the operation display screen of the operation unit 12 to the system bus 310.

図8は画像形成装置10における操作部12の操作表示画面の初期画面である。領域801は、画像形成装置10がコピーできる状態にあるか否かを示し、かつ設定したコピー部数を示す。原稿選択タブ804は原稿のタイプを選択するためのタブであり、このタブが押し下げられると文字、写真、文字/写真モードの3種類の選択メニューがポップアップ表示される。フィニッシングタブ806は各種フィニッシングに関わる設定を行うためのタブである。両面設定タブ807は両面読込み及び両面印刷に関する設定を行うためのタブである。読み取りモードタブ802は原稿の読み取りモードを選択するためのタブである。このタブが押し下げられるとカラー/ブラック/自動(ACS)の3種類の選択メニューがポップアップ表示される。なお、カラーが選択された場合にはカラーコピーが、ブラックが選択された場合にはモノクロコピーが行われる。また、ACSが選択された場合には、上述したモノクロカラー判定信号によりコピーモードが決定される。領域808は、紙指紋情報登録処理を選択するためのタブである。紙指紋情報登録処理については、後述する。領域809は、紙指紋情報照合処理を選択するためのタブである。この紙指紋情報照合処理については、後述する。   FIG. 8 is an initial screen of the operation display screen of the operation unit 12 in the image forming apparatus 10. An area 801 indicates whether or not the image forming apparatus 10 is ready to copy, and indicates the set number of copies. A document selection tab 804 is a tab for selecting a document type, and when this tab is depressed, three types of selection menus of text, photo, and text / photo mode are popped up. A finishing tab 806 is a tab for performing settings related to various finishings. A duplex setting tab 807 is a tab for performing settings relating to duplex reading and duplex printing. A reading mode tab 802 is a tab for selecting an original reading mode. When this tab is depressed, three types of selection menus of color / black / automatic (ACS) are popped up. Note that color copy is performed when color is selected, and monochrome copy is performed when black is selected. When ACS is selected, the copy mode is determined by the monochrome color determination signal described above. An area 808 is a tab for selecting a paper fingerprint information registration process. The paper fingerprint information registration process will be described later. An area 809 is a tab for selecting a paper fingerprint information matching process. This paper fingerprint information matching process will be described later.

NetworkI/F306はLAN50及びシステムバス310に接続し、情報の入出力を行う。Modem307はWAN331及びシステムバス310に接続しており、情報の入出力を行う。2値画像回転部308は送信前の画像データの方向を変換する。2値画像圧縮・伸張部309は、送信前の画像データの解像度を所定の解像度や相手能力に合わせた解像度に変換する。なお圧縮及び伸張にあたってはJBIG、MMR、MR、MHなどの方式が用いられる。画像バス330は画像データをやり取りするための伝送路であり、PCIバス又はIEEE1394で構成されている。   A network I / F 306 is connected to the LAN 50 and the system bus 310 to input / output information. The Modem 307 is connected to the WAN 331 and the system bus 310, and inputs and outputs information. A binary image rotation unit 308 converts the direction of image data before transmission. The binary image compression / decompression unit 309 converts the resolution of the image data before transmission into a resolution that matches a predetermined resolution or the partner's ability. For compression and expansion, methods such as JBIG, MMR, MR, and MH are used. The image bus 330 is a transmission path for exchanging image data, and is configured by a PCI bus or IEEE1394.

スキャナ画像処理部312は、スキャナ部13からスキャナI/F311を介して受取った画像データに対して、補正、加工、及び編集を行う。なお、スキャナ画像処理部312は、受取った画像データがカラー原稿か白黒原稿かや、文字原稿か写真原稿かなどを判定する。そして、その判定結果を画像データに付随させる。こうした付随情報を属性データと称する。さらに、属性データでは画像が存在する領域であるか否かを判定するための情報も出力することが可能であり、後述する非画像領域の紙指紋情報を登録する際に、この属性データが使用される。このスキャナ画像処理部312で行われる処理の詳細については後述する。   The scanner image processing unit 312 corrects, processes, and edits image data received from the scanner unit 13 via the scanner I / F 311. The scanner image processing unit 312 determines whether the received image data is a color document or a monochrome document, a character document, or a photographic document. Then, the determination result is attached to the image data. Such accompanying information is referred to as attribute data. Furthermore, the attribute data can also output information for determining whether or not the image is in an area, and this attribute data is used when registering paper fingerprint information of a non-image area to be described later. Is done. Details of processing performed by the scanner image processing unit 312 will be described later.

圧縮部313はスキャナ画像処理部312から画像データを受取り、この画像データを32画素×32画素のブロック単位に分割する。なお、この32×32画素の画像データをタイルデータと称する。図4は、このタイルデータを概念的に表している。原稿(読み取り前の紙媒体)400において、このタイルデータに対応する領域をタイル画像と称する。なおタイルデータには、その32×32画素のブロックにおける平均輝度情報やタイル画像の原稿上の座標位置がヘッダ情報として付加されている。さらに圧縮部313は、複数のタイルデータからなる画像データを圧縮して画像バス330上に供給する。   The compression unit 313 receives the image data from the scanner image processing unit 312 and divides the image data into blocks of 32 pixels × 32 pixels. The 32 × 32 pixel image data is referred to as tile data. FIG. 4 conceptually shows this tile data. In the document (paper medium before reading) 400, an area corresponding to the tile data is referred to as a tile image. The tile data is added with the average luminance information in the 32 × 32 pixel block and the coordinate position of the tile image on the document as header information. Further, the compression unit 313 compresses image data including a plurality of tile data and supplies the compressed image data onto the image bus 330.

内部スキャナ部1705を構成する紙指紋読み取りセンサは、図5に示されるような紙550の予め定められている固定領域501(縦横がx画素、y画素)を読み取り、前記固定領域501の紙上の紙指紋を取り込むためのものである。スキャナI/F331、スキャナ画像処理部332、圧縮部333は、前記したスキャナI/F311、スキャナ画像処理部312、圧縮部313と同機能である。しかしこれらは、紙全体を読み取るわけではなく、図5に示したような固定の領域を読み取るためのものであるので、スキャナI/F311、スキャナ画像処理部312、圧縮部313と比べ、回路規模は小さくてすむ。   The paper fingerprint reading sensor constituting the internal scanner unit 1705 reads a predetermined fixed area 501 (x and y pixels in the vertical and horizontal directions) of the paper 550 as shown in FIG. It is for capturing paper fingerprints. The scanner I / F 331, the scanner image processing unit 332, and the compression unit 333 have the same functions as the scanner I / F 311, the scanner image processing unit 312, and the compression unit 313. However, these are not for reading the entire paper, but for reading a fixed area as shown in FIG. 5, so that the circuit scale is larger than that of the scanner I / F 311, the scanner image processing unit 312, and the compression unit 313. Is small.

伸張部316は、画像バス330を介して受け取った複数のタイルデータからなる画像データを伸張した後にラスタ展開してプリンタ画像処理部315に送る。   The decompression unit 316 decompresses image data including a plurality of tile data received via the image bus 330, rasterizes the image data, and sends the raster data to the printer image processing unit 315.

プリンタ画像処理部315は、伸張部316から送られた画像データを受取り、この画像データに付随させられている属性データを参照しながら画像データに画像処理を施す。画像処理後の画像データは、プリンタI/F314を介してプリンタ部14に出力される。このプリンタ画像処理部315で行われる処理の詳細については後述する。   The printer image processing unit 315 receives the image data sent from the decompression unit 316 and performs image processing on the image data while referring to attribute data attached to the image data. The image data after the image processing is output to the printer unit 14 via the printer I / F 314. Details of processing performed by the printer image processing unit 315 will be described later.

画像バス330上にデータ授受可能に接続された画像変換部317は、画像データに対して所定の変換処理を施す。この処理部は以下に符号318乃至327で示すような構成要素を含んでいる。   An image conversion unit 317 connected to the image bus 330 so as to be able to exchange data performs a predetermined conversion process on the image data. This processing unit includes components as indicated by reference numerals 318 to 327 below.

伸張部318は受取った画像データを伸張する。圧縮部319は受取った画像データを圧縮する。回転部320は受取った画像データを回転する。変倍部321は受取った画像データに対し解像度変換処理(例えば600dpiから200dpi)を行う。色空間変換部322は受取った画像データの色空間を変換する。この色空間変換部322は、マトリクス又はテーブルを用いて公知の下地飛ばし処理を行ったり、公知のLOG変換処理(RGB→CMY)を行ったり、公知の出力色補正処理(CMY→CMYK)を行ったりすることができる。2値多値変換部323は受取った2階調の画像データを256階調の画像データに変換する。逆に多値2値変換部324は受取った256階調の画像データを誤差拡散処理などの手法により2階調の画像データに変換する。   A decompression unit 318 decompresses received image data. A compression unit 319 compresses the received image data. A rotation unit 320 rotates received image data. The scaling unit 321 performs resolution conversion processing (for example, 600 dpi to 200 dpi) on the received image data. The color space conversion unit 322 converts the color space of the received image data. The color space conversion unit 322 performs a known background removal process using a matrix or a table, performs a known LOG conversion process (RGB → CMY), or performs a known output color correction process (CMY → CMYK). Can be. The binary multi-value conversion unit 323 converts the received two-gradation image data into 256-gradation image data. Conversely, the multi-level binary conversion unit 324 converts the received 256-gradation image data into 2-gradation image data using a technique such as error diffusion processing.

合成部327は受取った2つの画像データを合成し1枚の画像データを生成する。なお、2つの画像データを合成する際には、合成対象の画素同士が持つ輝度値の平均値を合成輝度値とする方法や、輝度レベルで明るい方の画素の輝度値を合成後の画素の輝度値とする方法が適用される。また、暗い方を合成後の画素とする方法の利用も可能である。さらに合成対象の画素同士の論理和演算、論理積演算、排他的論理和演算などで合成後の輝度値を決定する方法なども適用可能である。これらの合成方法はいずれも周知の手法である。間引き部326は受取った画像データの画素を間引くことで解像度変換を行い、1/2,1/4,1/8などの画像データを生成する。移動部325は受取った画像データに余白部分をつけたり余白部分を削除したりする。以上が画像変換部317の構成である。   The synthesizer 327 synthesizes the received two pieces of image data to generate one piece of image data. When combining two pieces of image data, a method of using an average value of luminance values of pixels to be combined as a combined luminance value, or a luminance value of a pixel having a brighter luminance level, A method for obtaining a luminance value is applied. In addition, it is possible to use a method in which the darker pixel is used as a synthesized pixel. Furthermore, a method of determining a luminance value after synthesis by a logical sum operation, a logical product operation, an exclusive logical sum operation, or the like between pixels to be synthesized is also applicable. These synthesis methods are all well-known methods. The thinning unit 326 performs resolution conversion by thinning out the pixels of the received image data, and generates image data such as 1/2, 1/4, and 1/8. The moving unit 325 adds a margin part to the received image data or deletes the margin part. The above is the configuration of the image conversion unit 317.

RIP328は、PC40などから送信されたPDLコードデータを元に生成された中間データをシステムバス310を介して受取り、ビットマップデータ(多値)を生成する。ビットマップを生成する際、RIP328は中間データを参照して画像の領域情報を生成することが可能であ。例えば画像がJPEGであるか、テキストであるか、また画像が存在しない非画像領域であるかを示す領域情報を、ビットマップデータとは別に生成する。さらに、後述する紙指紋を登録する際にこの領域情報を使用して、非画像領域にある紙指紋を登録することが可能となる。   The RIP 328 receives intermediate data generated based on PDL code data transmitted from the PC 40 or the like via the system bus 310, and generates bitmap data (multi-value). When generating the bitmap, the RIP 328 can generate the region information of the image with reference to the intermediate data. For example, region information indicating whether the image is JPEG, text, or a non-image region where no image exists is generated separately from the bitmap data. Furthermore, it is possible to register a paper fingerprint in a non-image area by using this area information when registering a paper fingerprint to be described later.

<スキャナ画像処理部312の詳細説明(図6)>
図6にスキャナ画像処理部312の内部構成を示す。
<Detailed Description of Scanner Image Processing Unit 312 (FIG. 6)>
FIG. 6 shows an internal configuration of the scanner image processing unit 312.

スキャナ画像処理部312はRGB各8bitの輝度信号からなる画像データを受取る。   The scanner image processing unit 312 receives image data composed of RGB 8-bit luminance signals.

シェーディング補正部600は、この輝度信号に対してシェーディング補正する。シェーディング補正とは、上述したように、CCDの感度のばらつきによって原稿の明るさが誤認識されてしまうことを防止するための処理である。さらに、上述したように、このシェーディング補正部500は、CPU301からの指示によりゲイン調整を行うことができるようになっている。   The shading correction unit 600 performs shading correction on the luminance signal. As described above, the shading correction is a process for preventing the brightness of the document from being erroneously recognized due to variations in CCD sensitivity. Further, as described above, the shading correction unit 500 can perform gain adjustment according to an instruction from the CPU 301.

続いて、この輝度信号は、マスキング処理部601によりCCDのフィルタ色に依存しない標準的な輝度信号に変換される。   Subsequently, the luminance signal is converted into a standard luminance signal that does not depend on the CCD filter color by the masking processing unit 601.

フィルタ処理部602は、受取った画像データの空間周波数を任意に補正する。この処理部は、受取った画像データに対して、例えば7×7のマトリクスを用いた演算処理を行う。ところで、複写機や複合機では、図8におけるタブ804の押下によりコピーモードとして文字モードや写真モードや文字/写真モードを選択することができる(詳細は後述する)。ここでユーザにより文字モードが選択された場合には、フィルタ処理部602602502は文字用のフィルタを画像データ全体にかける。また、写真モードが選択された場合には、写真用のフィルタを画像データ全体にかける。また、文字/写真モードが選択された場合には、後述の文字写真判定信号(属性データの一部)に応じて画素ごとに適応的にフィルタを切り替える。つまり、画素ごとに写真用のフィルタをかけるか文字用のフィルタをかけるかが決定される。なお、写真用のフィルタには高周波成分のみ平滑化が行われるような係数が設定されている。これは、画像のざらつきを目立たせないためである。また、文字用のフィルタには強めのエッジ強調を行うような係数が設定されている。これは、文字のシャープさを出すためである。   The filter processing unit 602 arbitrarily corrects the spatial frequency of the received image data. This processing unit performs arithmetic processing using, for example, a 7 × 7 matrix on the received image data. By the way, in a copying machine or a multifunction machine, a character mode, a photo mode, or a character / photo mode can be selected as a copy mode by pressing a tab 804 in FIG. 8 (details will be described later). If the character mode is selected by the user, the filter processing unit 602602502 applies a character filter to the entire image data. When the photo mode is selected, a photo filter is applied to the entire image data. When the character / photo mode is selected, the filter is adaptively switched for each pixel in accordance with a character photo determination signal (part of attribute data) described later. In other words, it is determined for each pixel whether to apply a photo filter or a character filter. Note that coefficients for smoothing only high-frequency components are set in the photographic filter. This is because the roughness of the image is not noticeable. In addition, a coefficient for performing strong edge enhancement is set in the character filter. This is to increase the sharpness of the characters.

ヒストグラム生成部603は、フィルタ処理部602から受取った画像データを構成する各画素の輝度データをサンプリングする。より詳細に説明すると、主走査方向、副走査方向にそれぞれ指定した開始点から終了点で囲まれた矩形領域内の輝度データを、主走査方向、副走査方向に一定のピッチでサンプリングする。そして、サンプリング結果を元にヒストグラムデータを生成する。生成されたヒストグラムデータは、下地飛ばし処理を行う際に下地レベルを推測するために用いられる。入力側ガンマ補正部604は、ヒストグラム生成部603からのデータをテーブル等を利用して非線形特性を持つ輝度データに変換し、圧縮部313に出力する。   The histogram generation unit 603 samples the luminance data of each pixel constituting the image data received from the filter processing unit 602. More specifically, luminance data in a rectangular area surrounded by a start point and an end point specified in the main scanning direction and the sub scanning direction are sampled at a constant pitch in the main scanning direction and the sub scanning direction. Then, histogram data is generated based on the sampling result. The generated histogram data is used to estimate the background level when performing background removal processing. The input side gamma correction unit 604 converts the data from the histogram generation unit 603 into luminance data having nonlinear characteristics using a table or the like, and outputs the luminance data to the compression unit 313.

カラーモノクロ判定部605は、マスキング処理部601から受取った画像データを構成する各画素が有彩色であるか無彩色であるかを判定し、その判定結果をカラーモノクロ判定信号(属性データの一部)として画像データに付随させる。   The color / monochrome determination unit 605 determines whether each pixel constituting the image data received from the masking processing unit 601 is a chromatic color or an achromatic color, and the determination result is a color / monochrome determination signal (part of attribute data). ) As image data.

文字写真判定部606は、マスキング処理部601から受取った画像データに関して次のような処理を行う。即ち、受取った画像データを構成する各画素が文字を構成する画素なのか、網点を構成する画素なのか、網点中の文字を構成する画素なのか、ベタ画像を構成する画素なのかを各画素の画素値と各画素の周辺画素の画素値とに基づいて判定する。なお、どれにもあてはまらない画素は、白領域を構成している画素であると判定する。そして、その判定結果を文字写真判定信号(属性データの一部)として画像データに付随させる。   The character photo determination unit 606 performs the following processing on the image data received from the masking processing unit 601. That is, whether each pixel constituting the received image data is a pixel constituting a character, a pixel constituting a halftone dot, a pixel constituting a character in a halftone dot, or a pixel constituting a solid image. The determination is made based on the pixel value of each pixel and the pixel values of surrounding pixels of each pixel. It should be noted that a pixel that does not correspond to any one is determined to be a pixel constituting a white area. Then, the determination result is attached to the image data as a character / photo determination signal (part of the attribute data).

紙指紋情報取得部607は、シェーディング補正部600から入力されたRGBの画像データのうち所定の複数の領域の画像データを取得する。この複数の領域は例えば入力されたRGBの画像データのうち、図14の四角で示す各々の領域(例えば領域A,B,C,1401)に相当する。   The paper fingerprint information acquisition unit 607 acquires image data of a plurality of predetermined areas among the RGB image data input from the shading correction unit 600. The plurality of areas correspond to, for example, the respective areas (for example, areas A, B, C, and 1401) indicated by the squares in FIG. 14 in the input RGB image data.

図9は、この紙指紋情報取得部607が行う紙指紋情報取得処理を示すフローチャートである。   FIG. 9 is a flowchart showing a paper fingerprint information acquisition process performed by the paper fingerprint information acquisition unit 607.

ステップ901では紙指紋情報取得部607において抽出された画像データをグレイスケールの画像データに変換する。ステップ902では、ステップ901においてグレイスケールの画像データへ変換された画像において、印刷や手書きの文字といった誤判定の要因となりうるものを取り除いて照合を行うためのマスクデータを作成する。マスクデータは“ 0 ”or“ 1 ”の2値データである。グレイスケールの画像データにおいて、輝度信号値が第1の閾値(つまり、明るい)以上である画素については、マスクデータの値を“ 1 ”に設定する。また、輝度信号値が第1の閾値未満である画素についてはマスクデータの値を“ 0 ”に設定する。以上の処理を、グレイスケールの画像データに含まれる各画素に対して行う。ステップ903では、ステップ901においてグレイスケールに変換された画像データ及び、ステップ902において作成されたマスクデータの2つのデータを紙指紋情報として取得する。次にステップ904に処理を移行し、紙全体の予め定められた複数の領域全ての紙指紋情報の読み取りが終了したかを判断する。もしまだ全ての領域の紙指紋情報が読み取られていない場合は、再び処理をS901のステップに戻して、残りの領域の紙指紋情報を読み取る。   In step 901, the image data extracted by the paper fingerprint information acquisition unit 607 is converted into grayscale image data. In step 902, mask data for collation is created by removing from the image converted to grayscale image data in step 901 what may cause erroneous determination such as printing or handwritten characters. The mask data is binary data of “0” or “1”. In the grayscale image data, the value of the mask data is set to “1” for a pixel whose luminance signal value is equal to or greater than the first threshold (that is, bright). Further, the mask data value is set to “0” for a pixel whose luminance signal value is less than the first threshold value. The above processing is performed on each pixel included in the grayscale image data. In step 903, the image data converted to gray scale in step 901 and the mask data created in step 902 are acquired as paper fingerprint information. Next, the processing shifts to step 904, and it is determined whether or not the reading of the paper fingerprint information of all the predetermined areas of the entire paper has been completed. If the paper fingerprint information of all the areas has not been read yet, the process returns to step S901 again to read the paper fingerprint information of the remaining areas.

紙全体の予め定められた複数の領域全ての紙指紋情報の読み取りが終了した場合は、紙指紋情報取得部607は、上記所定領域の紙指紋情報を不図示のデータバスを用いてRAM302に送る。そして、RAM302に一時保存された紙指紋情報は、紙ごとにHDD304へ転送され、保存される。   When the reading of the paper fingerprint information of all the predetermined areas of the entire paper is completed, the paper fingerprint information acquisition unit 607 sends the paper fingerprint information of the predetermined area to the RAM 302 using a data bus (not shown). . The paper fingerprint information temporarily stored in the RAM 302 is transferred to the HDD 304 and stored for each paper.

復号部608は、マスキング処理部601から出力された画像データ内に後述するようにして生成した紙指紋情報を符号化したデータを含む符号画像データが存在する場合には、その存在を検知する。そして、検知された符号画像データを復号化して情報を取出す。   When the image data output from the masking processing unit 601 includes code image data including data obtained by encoding paper fingerprint information generated as described later, the decoding unit 608 detects the presence. Then, the detected code image data is decoded to extract information.

<プリンタ画像処理部315の詳細説明(図7)>
図7にプリンタ画像処理315においてなされる処理の流れを示す。
<Detailed Description of Printer Image Processing Unit 315 (FIG. 7)>
FIG. 7 shows the flow of processing performed in the printer image processing 315.

下地飛ばし処理部701は、スキャナ画像処理部312で生成されたヒストグラムを用いて画像データの下地色を飛ばす(除去する)。モノクロ生成部702は下地飛ばし処理部701からのカラーデータをモノクロデータに変換する。Log変換部703はモノクロ生成部702からの画像データの輝度濃度変換を行う。このLog変換部703は、例えば、RGB入力された画像データを、CMYの画像データに変換する。出力色補正部704はLog変換部703からの画像データの出力色補正を行う。例えばCMY入力された画像データを、テーブルやマトリックスを用いてCMYKの画像データに変換する。出力側ガンマ補正部705は、この出力側ガンマ補正部705に出力色補正部704から入力される信号値と、複写出力後の反射濃度値とが比例するように入力信号値の補正を行う。符合画像合成部707は、出力側ガンマ補正部705で補正された(原稿)画像データと、後述する<紙指紋情報符号化処理>で生成された符合画像データとを合成する。中間調補正部706は、出力するプリンタ部の階調数に合わせて出力側ガンマ補正部705からの画像データまたは符号画像合成部707からの合成画像データに対して中間調処理を行う。例えば、受取った高階調の画像データに対し2値化や32値化などを行う。   The background removal processing unit 701 uses the histogram generated by the scanner image processing unit 312 to remove (remove) the background color of the image data. The monochrome generation unit 702 converts the color data from the background removal processing unit 701 into monochrome data. The Log conversion unit 703 performs luminance density conversion of the image data from the monochrome generation unit 702. For example, the log conversion unit 703 converts RGB input image data into CMY image data. The output color correction unit 704 corrects the output color of the image data from the log conversion unit 703. For example, image data input as CMY is converted into CMYK image data using a table or matrix. The output-side gamma correction unit 705 corrects the input signal value so that the signal value input from the output color correction unit 704 to the output-side gamma correction unit 705 is proportional to the reflection density value after copy output. The code image synthesis unit 707 synthesizes (original) image data corrected by the output-side gamma correction unit 705 and code image data generated by <paper fingerprint information encoding processing> described later. The halftone correction unit 706 performs halftone processing on the image data from the output-side gamma correction unit 705 or the composite image data from the code image synthesis unit 707 in accordance with the number of gradations of the printer unit to be output. For example, the received high gradation image data is binarized or binarized.

なお、スキャナ画像処理部312やプリンタ画像処理部315における各処理部では、受取った画像データに各処理を施さずに出力させることも可能となっている。このような、ある処理部において処理を施さずにデータを通過させることを、以下では「処理部をスルーさせる」と表現することにする。   Each processing unit in the scanner image processing unit 312 or the printer image processing unit 315 can output the received image data without performing each processing. Such passing of data without performing processing in a certain processing unit will be expressed as “through the processing unit” below.

<紙指紋情報符号化処理>
紙指紋情報符号化処理では、CPU301は、紙指紋情報取得部607からRAM302に送られ、HDD304に記憶された紙の所定領域の紙指紋情報を読出し、当該読出された紙指紋情報の符号化処理を行って符号画像データを生成する。即ち、HDD304内の紙毎の登録情報としては、グレイスケール画像データ、マスクデータ及び符号画像データがある。
<Paper fingerprint information encoding process>
In the paper fingerprint information encoding process, the CPU 301 reads the paper fingerprint information of a predetermined area of the paper sent from the paper fingerprint information acquisition unit 607 to the RAM 302 and stored in the HDD 304, and encodes the read paper fingerprint information. To generate code image data. That is, the registration information for each paper in the HDD 304 includes gray scale image data, mask data, and code image data.

なお、本明細書では、符号画像とは、二次元コード画像やバーコード画像といった画像のことを示す。   In this specification, the code image indicates an image such as a two-dimensional code image or a barcode image.

さらに、CPU301は、生成された符号画像データを不図示のデータバスを用いて、プリンタ画像処理部315内の符号画像合成部707に送信する。   Further, the CPU 301 transmits the generated code image data to the code image synthesis unit 707 in the printer image processing unit 315 using a data bus (not shown).

なお、上記制御(符号画像の生成制御、送信制御)は、例えば、HDD304から読み出されRAM302内に格納されたプログラムを実行することによって行われる。   The above control (code image generation control, transmission control) is performed, for example, by executing a program read from the HDD 304 and stored in the RAM 302.

<紙指紋情報照合処理>
紙指紋情報照合処理では、CPU301は、RAM302上の別々の紙指紋情報同士のマッチング処理を行ってそのマッチング度合いを算出し、その結果のマッチング度合いと閾値との比較を行う。そして、両者が一致することを示す「有効」または一致しないことを示す「無効」を決定することが基本である。詳細は後述する。具体的には、2つの紙指紋情報照合処理の態様がある。1つは、紙指紋情報照合タブが押下された場合、他の1つは、紙指紋情報登録処理のタブが押下された場合である。これらは特徴データの照合処理指示に相当し、これに応答して、紙指紋情報照合処理が実行される。
<Paper fingerprint information matching process>
In the paper fingerprint information matching processing, the CPU 301 performs matching processing between different paper fingerprint information on the RAM 302, calculates the matching degree, and compares the matching degree with the threshold value. Then, “valid” indicating that the two match or “invalid” indicating that they do not match is basically determined. Details will be described later. Specifically, there are two forms of paper fingerprint information matching processing. One is when the paper fingerprint information collation tab is pressed, and the other is when the paper fingerprint information registration processing tab is pressed. These correspond to feature data matching processing instructions, and in response to this, paper fingerprint information matching processing is executed.

紙指紋情報照合タブが押下された場合の紙指紋情報照合処理では、CPU301は、紙指紋情報取得部607からRAM302に送られ、HDD304に記憶された紙指紋情報をRAM302上に読出す。また、当該読出された紙指紋情報とRAM302上に読み出した他の紙指紋情報とを照合する。なお、他の紙指紋情報とは、HDD304内の他の紙指紋情報、HDD304内の他の符号画像データを復号して得られた紙指紋情報やサーバに登録されている紙指紋情報のことを意味する。また、サーバから紙指紋情報を符号化した符号画像データを取得した場合は、CPU301はその符号画像データを一旦RAM302に記憶してから復号処理し、その結果得られた紙指紋情報を前記紙指紋情報照合処理に用いる。   In the paper fingerprint information matching process when the paper fingerprint information matching tab is pressed, the CPU 301 reads the paper fingerprint information sent from the paper fingerprint information acquisition unit 607 to the RAM 302 and stored in the HDD 304 onto the RAM 302. Also, the read paper fingerprint information is collated with other paper fingerprint information read out on the RAM 302. The other paper fingerprint information refers to other paper fingerprint information in the HDD 304, paper fingerprint information obtained by decoding other code image data in the HDD 304, and paper fingerprint information registered in the server. means. When the encoded image data obtained by encoding the paper fingerprint information from the server is obtained, the CPU 301 temporarily stores the encoded image data in the RAM 302 and performs a decoding process. The obtained paper fingerprint information is converted into the paper fingerprint information. Used for information verification processing.

紙指紋情報登録処理のタブが押下された場合の紙指紋情報照合処理では、RAM302上に読み出す一方の紙指紋情報は、スキャナ画像処理部332または圧縮部333から供給されRAM302に送られたものである。この一方の紙指紋情報は、必要に応じてHDD304に記憶され、RAM302上に読み出される。他方の紙指紋情報は、対象である用紙をスキャナ部13で光学的に読み取り、紙指紋情報取得部607からRAM302に送られ、HDD304に記憶された紙指紋情報のうち、次のようにしてさらに選択された情報である。即ち、HDD304に記憶された紙指紋情報のうち、図13のステップ1306で選択された領域の紙指紋情報をRAM302上に読出したものである。さらに、他方の紙指紋情報としては、HDD304内の他の紙指紋情報、HDD304内の符号画像データを復号して得られた他の紙指紋情報やサーバに登録されている紙指紋情報がある。また、サーバから紙指紋情報を符号化した符号画像データを取得した場合は、CPU301はその符号画像データを一旦RAM302に記憶してから復号処理し、その結果得られた紙指紋情報を前記紙指紋情報照合処理に用いる。   In the paper fingerprint information matching process when the tab of the paper fingerprint information registration process is pressed, the paper fingerprint information read out on the RAM 302 is supplied from the scanner image processing unit 332 or the compression unit 333 and sent to the RAM 302. is there. The one paper fingerprint information is stored in the HDD 304 as needed and is read out on the RAM 302. The other paper fingerprint information is obtained by optically reading the target paper with the scanner unit 13, sent from the paper fingerprint information acquisition unit 607 to the RAM 302, and stored in the HDD 304 as follows. Selected information. That is, the paper fingerprint information of the area selected in step 1306 in FIG. 13 among the paper fingerprint information stored in the HDD 304 is read out on the RAM 302. Further, the other paper fingerprint information includes other paper fingerprint information in the HDD 304, other paper fingerprint information obtained by decoding the encoded image data in the HDD 304, and paper fingerprint information registered in the server. When the encoded image data obtained by encoding the paper fingerprint information from the server is obtained, the CPU 301 temporarily stores the encoded image data in the RAM 302 and performs a decoding process. The obtained paper fingerprint information is converted into the paper fingerprint information. Used for information verification processing.

図10は、この紙指紋情報照合処理を示すフローチャートである。本フローチャートの各ステップは、CPU301により統括的に制御される。   FIG. 10 is a flowchart showing the paper fingerprint information matching process. Each step of this flowchart is centrally controlled by the CPU 301.

本処理は紙指紋情報の照合指示である紙指紋情報照合タブ809の押下によってスタートし、ステップ1001では、符号画像データを復号して得られた紙指紋情報やサーバに登録されている紙指紋情報をRAM302から取出す。   This process starts when the paper fingerprint information collation tab 809, which is a collation instruction for paper fingerprint information, is pressed. In step 1001, paper fingerprint information obtained by decoding the encoded image data or paper fingerprint information registered in the server. Is taken out from the RAM 302.

ステップ1002では、紙指紋情報取得部607から送られてきた紙指紋情報と、ステップ1001において取出された紙指紋情報との照合をするために、式(1)を用いて2つの紙指紋情報のマッチング度合いを算出する。一方の紙指紋情報はもう一方の紙指紋情報をずらしたものであると仮定し、次のようにして2つの紙指紋情報の誤差イメージ(E)を求める。即ち、式(1)に示した関数において、1画素ごとにずらし、式(1)の関数により求まる値が最小になるところ、つまり2つの紙指紋情報の差が最も小さくなるところで、2つの紙指紋情報の誤差イメージ(E)を求める。   In step 1002, in order to collate the paper fingerprint information sent from the paper fingerprint information acquisition unit 607 with the paper fingerprint information taken out in step 1001, the two pieces of paper fingerprint information are obtained using equation (1). The matching degree is calculated. Assuming that one paper fingerprint information is obtained by shifting the other paper fingerprint information, an error image (E) between the two paper fingerprint information is obtained as follows. That is, in the function shown in Expression (1), the position is shifted for each pixel and the value obtained by the function of Expression (1) is minimized, that is, where the difference between the two pieces of paper fingerprint information is the smallest. An error image (E) of fingerprint information is obtained.

Figure 2008244611
Figure 2008244611

式(1)においてαはステップ1001で取出された(登録されていた)紙指紋情報中のマスクデータである。fはステップ1001で取出された(登録されていた)紙指紋情報中のグレイスケール画像データである。αはステップ1002で紙指紋情報取得部507から送られてきた(今、取出されたばかりの)紙指紋情報中のマスクデータである。fはステップ1002で紙指紋情報取得部507から送られてきた(今、取出されたばかりの)紙指紋情報中のグレイスケール画像データである。 In the equation (1), α 1 is mask data in the paper fingerprint information extracted (registered) in step 1001. f 1 is gray scale image data in the paper fingerprint information extracted (registered) in step 1001. alpha 2 is the mask data of the sent from the paper fingerprint information acquisition unit 507 in (now retrieved freshly) paper fingerprint information in step 1002. f 2 is a grayscale image data sent from the paper fingerprint information acquisition unit 507 in (now retrieved freshly) paper fingerprint information in step 1002.

具体的な方法を図19,20、21、22を用いて説明する。図19の(A)および(B)は、それぞれ登録されている紙指紋情報と今回得られた紙指紋情報のイメージ図を表す。それぞれ、横n画素、縦m画素から構成されているものとする。   A specific method will be described with reference to FIGS. FIGS. 19A and 19B are image diagrams of the registered paper fingerprint information and the paper fingerprint information obtained this time, respectively. Assume that each pixel is composed of horizontal n pixels and vertical m pixels.

式(1)に示した関数において、i,jをそれぞれ−n+1〜n−1、−m+1〜m−1の範囲でそれぞれ1画素毎にずらし、登録されていた紙指紋情報と今回得られたばかりの紙指紋情報の誤差値E(i,j)を(2n−1)×(2m−1)個求める。即ち、E(−n+1,−m+1)〜E(n−1,m−1)を求める。   In the function shown in Expression (1), i and j are shifted by 1 pixel in the range of −n + 1 to n−1 and −m + 1 to m−1, respectively, and the registered paper fingerprint information and just obtained this time. (2n−1) × (2m−1) error values E (i, j) of the paper fingerprint information of are obtained. That is, E (−n + 1, −m + 1) to E (n−1, m−1) are obtained.

図20の(A)は、登録されている紙指紋情報の左上1画素に対して、今回得られた紙指紋情報の右下1画素だけ重なっているイメージ図を表す。この状態において、式(1)の関数により求まる値をE(−n+1,−m+1)とする。図20の(B)は、図20の(A)よりも今回得られた紙指紋情報を右に1画素分だけ移動したイメージ図を表す。この状態において、式(1)の関数により求まる値をE(−n+2,−m+1)とする。同様に今回得られたばかりの紙指紋情報を移動させながら演算を行う。図20の(C)では、今回得られたばかりの紙指紋情報を、登録されていた紙指紋情報と重なるところまで移動させており、これによりE(0,−(m−1))が求まる。さらに、図20の(D)では、今回得られた紙指紋情報を右端まで移動して、E(n−1,−m+1)を求める。このように、横方向にずらすと、E(i,j)のうちのiが1づつ加算される。   FIG. 20A shows an image diagram in which the upper left pixel of the registered paper fingerprint information is overlapped by the lower right pixel of the obtained paper fingerprint information. In this state, the value obtained by the function of Expression (1) is E (−n + 1, −m + 1). FIG. 20B shows an image diagram in which the paper fingerprint information obtained this time is moved to the right by one pixel as compared with FIG. In this state, a value obtained by the function of Expression (1) is E (−n + 2, −m + 1). Similarly, calculation is performed while moving the paper fingerprint information just obtained this time. In FIG. 20C, the paper fingerprint information just obtained this time is moved to a position where it overlaps with the registered paper fingerprint information, and E (0,-(m-1)) is obtained. Further, in FIG. 20D, the paper fingerprint information obtained this time is moved to the right end to obtain E (n−1, −m + 1). Thus, when shifted in the horizontal direction, i of E (i, j) is added one by one.

同様に図21の(A)では、図20の(A)よりも、縦方向である下に1画素だけ今回得られた紙指紋情報を移動して、E(−n+1,−m+2)の値を求める。   Similarly, in FIG. 21A, the paper fingerprint information obtained this time is moved by one pixel downward in the vertical direction as compared with FIG. 20A, and the value of E (−n + 1, −m + 2) is obtained. Ask for.

さらに図21の(B)は、図21の(A)に対して、今回得られた紙指紋情報を右端まで移動してE(n−1,−m+2)の値を求める。   Furthermore, FIG. 21 (B) moves the paper fingerprint information obtained this time to the right end with respect to FIG. 21 (A) and obtains the value of E (n−1, −m + 2).

図22の(A)は、登録されている紙指紋情報と今回得られた紙指紋情報が,同じ位置の場合を表し、このときのE(i,j)の値をE(0,0)とする。   FIG. 22A shows the case where the registered paper fingerprint information and the paper fingerprint information obtained this time are at the same position, and the value of E (i, j) at this time is represented by E (0,0). And

同様に、それぞれの紙指紋情報が少なくとも1画素以上重なるように画像をずらしながら演算を行う。最後に図22の(B)のように、E(n−1,m−1)を求める。   Similarly, the calculation is performed while shifting the images so that each paper fingerprint information overlaps at least one pixel. Finally, E (n−1, m−1) is obtained as shown in FIG.

このようにして、(2n−1)×(2m−1)個の誤差値E(i,j)の集合を求める。   In this way, a set of (2n−1) × (2m−1) error values E (i, j) is obtained.

ここで、この式(1)の意味を考えるために、i=0,j=0であり、かつ、α(x,y)=1(ただし、x=0〜n,y=0〜m)であり、かつ、α(x−i,y−j)=1(ただし、x=0〜n,y=0〜m)の場合を考えてみることにする。つまり、α(x,y)=1(ただし、x=0〜n,y=0〜m)であり、かつ、α(x−i,y−j)=1(ただし、x=0〜n,y=0〜m)の場合のE(0,0)を求めることにする。 Here, in order to consider the meaning of the equation (1), i = 0, j = 0, and α 1 (x, y) = 1 (where x = 0 to n, y = 0 to m ) And α 2 (x−i, y−j) = 1 (where x = 0 to n and y = 0 to m). That is, α 1 (x, y) = 1 (where x = 0 to n, y = 0 to m), and α 2 (xi, y−j) = 1 (where x = 0). E (0,0) in the case of .about.n, y = 0 to m).

なお、i=0,j=0とは、図22の(A)のように、登録されていた紙指紋情報と今回得られた紙指紋情報が同じ位置であることを示す。   Note that i = 0 and j = 0 indicate that the registered paper fingerprint information and the paper fingerprint information obtained this time are at the same position as shown in FIG.

ここで、α(x,y)=1(ただし、x=0〜n,y=0〜m)は、登録されていた紙指紋情報の全ての画素が明るいことを示す。言い換えると、登録されていた紙指紋情報が取得された際には、紙指紋取得領域上には一切トナーやインクなどの色材やゴミがのっていなかったことを示す。 Here, α 1 (x, y) = 1 (where x = 0 to n, y = 0 to m) indicates that all pixels of the registered paper fingerprint information are bright. In other words, when the registered paper fingerprint information is acquired, it indicates that no color material such as toner or ink or dust has been placed on the paper fingerprint acquisition area.

また、α(x−i,y−j)=1(ただし、x=0〜n,y=0〜m)は、今回取得した紙指紋情報の全ての画素が明るいことを示す。言い換えると、今取得されたばかりの紙指紋情報が取得された際には、紙指紋取得領域上には一切トナーやインクなどの色材やゴミがのっていなかったことを示す。 Further, α 2 (x−i, y−j) = 1 (where x = 0 to n, y = 0 to m) indicates that all pixels of the paper fingerprint information acquired this time are bright. In other words, when the paper fingerprint information just acquired is acquired, it indicates that no color material such as toner or ink or dust is on the paper fingerprint acquisition area.

このように、α(x,y)=1とα(x−i,y−j)=1とが全ての画素において成り立つ時、(1)式は、 Thus, when α 1 (x, y) = 1 and α 2 (x−i, y−j) = 1 hold in all pixels, the equation (1) becomes

Figure 2008244611
Figure 2008244611

と表されることになる。 Will be expressed.

この{f(x,y)−f(x,y)}は、登録されていた紙指紋情報中のグレイスケール画像データと、今取出されたばかりの紙指紋情報中のグレイスケール画像データとの差の二乗値を示す。従って、この(1)式は、二つの紙指紋情報同士の各画素における差の二乗を合計したものになる。つまり、f(x,y)とf(x,y)とが似ている画素が多ければ多いほど、このE(0,0)は、小さな値を取ることになる。 This {f 1 (x, y) −f 2 (x, y)} 2 is the gray scale image data in the registered paper fingerprint information and the gray scale image data in the paper fingerprint information just extracted. The square value of the difference between Therefore, this equation (1) is the sum of the squares of the differences in each pixel between the two pieces of paper fingerprint information. That is, the more pixels f 1 (x, y) and f 2 (x, y) are similar, the smaller this E (0, 0) will be.

以上説明したのは、E(0,0)の求め方であるが、同じようにして他のE(i,j)を求めていく。ちなみに、f(x,y)とf(x,y)とが似ている画素が多ければ多いほどE(i,j)が小さな値を取ることから、
E(k,l)=min{E(i,j)}である場合、登録されていた紙指紋情報を取得した際の位置と、今取得されたばかりの紙指紋情報を取得した際の位置とは、互いにk,lずれていたことがわかる。
What has been described above is how to obtain E (0,0), but other E (i, j) are obtained in the same manner. Incidentally, since E (i, j) takes a smaller value as the number of pixels in which f 1 (x, y) and f 2 (x, y) are similar is larger,
If E (k, l) = min {E (i, j)}, the position when the registered paper fingerprint information is acquired, and the position when the paper fingerprint information just acquired is acquired It can be seen that they were shifted from each other by k and l.

<αの意義>
式(1)の分子は、{f(x,y)−f(x−i,y−j)}に対してαとαとがかけられた結果を意味する(正確には、さらにΣ記号により合計値が求められている)。このαとαは、濃い色の画素は0、薄い色の画素は1を示す。
<Significance of α>
The numerator of formula (1) means the result of multiplying {f 1 (x, y) -f 2 (xi, yj)} 2 by α 1 and α 2 (exactly Is further determined by the Σ symbol). Α 1 and α 2 indicate 0 for a dark pixel and 1 for a light pixel.

従って、αとαとのうちどちらか一方(又は両方)が0の場合には、αα{f(x,y)−f(x−i,y−j)}は0になることになる。 Accordingly, when one (or both) of α 1 and α 2 is 0, α 1 α 2 {f 1 (x, y) −f 2 (xi, y−j)} 2 Will be 0.

即ち、どちらか一方(または両方)の紙指紋情報において対象とする画素が濃い色であった場合には、その画素における濃度差は考慮しないことを示している。これは、ゴミや色材がのってしまった画素を無視するためである。   That is, when one or both (or both) of the paper fingerprint information has a dark pixel, the density difference between the pixels is not considered. This is for ignoring pixels on which dust or color material has been placed.

この処理により、Σ記号により合計する数が増減するため、総数Σα(x,y)α(x−i,y−j)で割ることで正規化を行う。なお、式(1)の分母にあるΣα(x,y)α(x−i,y−j)が0になる誤差値E(i,j)は、後述の誤差値の集合(E(−(n−1),−(m−1))〜E(n−1,m−1))には含めないものとする。 As a result of this processing, the total number increases or decreases depending on the Σ symbol, so normalization is performed by dividing by the total number Σα 1 (x, y) α 2 (xi, y−j). Note that an error value E (i, j) in which Σα 1 (x, y) α 2 (x−i, y−j) in the denominator of Expression (1) becomes 0 is a set of error values (E (-(N-1),-(m-1)) to E (n-1, m-1)) are not included.

<マッチング度合いの決定方法>
上述したように、E(k,l)=min{E(i,j)}である場合、登録されていた紙指紋情報を取得した際の位置と、今取得されたばかりの紙指紋情報を取得した際の位置とは互いにk,lずれていたことがわかる。
<Determination method of matching degree>
As described above, when E (k, l) = min {E (i, j)}, the position when the registered paper fingerprint information is acquired and the paper fingerprint information just acquired are acquired. It can be seen that the positions were shifted by k and l from each other.

続いて、二つの紙指紋情報がどれだけ似ているのかを示す値(この値を、マッチング度合いと称する)を、そのE(k,l)及び他のE(i,j)を使って求める。   Subsequently, a value indicating how much the two pieces of paper fingerprint information are similar (this value is referred to as a matching degree) is obtained using the E (k, l) and other E (i, j). .

まず、(1)の関数により求まった誤差値の集合(例えば、E(0,0)=10※,E(0,1)=50,E(1,0)=50,E(1,1)=50)から平均値(40)を求める。・・・(A)
なお、※は、値とは関係がない。単に注目すべき数値であることを示す記号である。
First, a set of error values obtained by the function of (1) (for example, E (0,0) = 10 *, E (0,1) = 50, E (1,0) = 50, E (1,1 ) = 50) to obtain the average value (40). ... (A)
Note that * is not related to the value. It is simply a symbol indicating that it should be noted.

次に、平均値(40)から各誤差値(10※,50,50,50)を引いて、新たな集合(30※,−10,−10,−10)を求める。・・・・(B)
そして、この新たな集合から標準偏差(30×30+10×10+10×10+10×10=1200,1200/4=300,√300=10√3=約17)を求める。そして、上記新たな集合を17で割り、商を求める(1※,−1,−1,−1)。・・・・(C)
そして、求められた値のうちの最大値をマッチング度合い(1※)とする。なお、この1※という値は、E(0,0)=10※という値と対応した値である。E(0,0)というのは、今回の場合、E(0,0)=min{E(i,j)}を満たす値である。
Next, each error value (10 *, 50, 50, 50) is subtracted from the average value (40) to obtain a new set (30 *, −10, −10, −10). .... (B)
Then, a standard deviation (30 × 30 + 10 × 10 + 10 × 10 + 10 × 10 = 1200, 1200/4 = 300, √300 = 10√3 = about 17) is obtained from this new set. Then, the new set is divided by 17 to obtain a quotient (1 *, -1, -1, -1). .... (C)
And let the maximum value of the calculated | required values be a matching degree (1 *). The value 1 * corresponds to the value E (0,0) = 10 *. In this case, E (0,0) is a value that satisfies E (0,0) = min {E (i, j)}.

<マッチング度合いの決定方法の概念的な説明>
上記マッチング度合いの決定方法を行う処理は、結局、複数の誤差値集合の中で最も小さな誤差値が、平均的な誤差値とどれだけ離れているかを計算する(A及びB)。
<Conceptual explanation of how to determine the degree of matching>
The process of performing the matching degree determination method eventually calculates how far the smallest error value in the plurality of error value sets is from the average error value (A and B).

そして、その離れ具合を標準偏差で割ることでマッチング度合いを求める(C)。   Then, the degree of matching is obtained by dividing the degree of separation by the standard deviation (C).

最後にマッチング度合いを閾値と比較することで、照合結果を得る(D)。   Finally, a matching result is obtained by comparing the matching degree with a threshold (D).

なお、標準偏差は、「各誤差値と平均値との差」の平均的な値を意味する。言い換えると、標準偏差は、集合の中で大体どれくらいのばらつきが全体的に生じているかを示す値である。   The standard deviation means an average value of “difference between each error value and the average value”. In other words, the standard deviation is a value indicating how much variation occurs in the entire set.

このような全体的なばらつき値で上記離れ具合を割ることで、min{E(i,j)}が集合E(i,j)の中でどれだけ小さいか(突出して小さいか、ちょっと小さいか)がわかることになる。   By dividing the above degree of separation by such an overall variation value, how small is min {E (i, j)} in the set E (i, j) (projectingly small or slightly small) ) Will be understood.

そして、min{E(i,j)}が集合E(i,j)の中で非常に突出して小さい場合に有効と判断し、それ以外の場合に無効と判断する(D)。   Then, it is determined to be valid when min {E (i, j)} is very prominent and small in the set E (i, j), and is invalid otherwise (D).

<min{E(i,j)}が集合E(i,j)の中で非常に突出して小さい場合のみ有効と判断する理由>
ここで、登録されていた紙指紋情報と、今取得されたばかりの紙指紋情報とが、同じ紙から取得されたと仮定する。
<Reason why min {E (i, j)} is determined to be effective only when it is very small in the set E (i, j)>
Here, it is assumed that the registered paper fingerprint information and the paper fingerprint information just acquired are acquired from the same paper.

すると、登録されていた紙指紋情報と、今取得されたばかりの紙指紋情報とが極めて一致する場所(ずれ位置)があるはずである。この時、このずれ位置では、登録されていた紙指紋情報と、今取得されたばかりの紙指紋情報とが極めて一致するため、E(i,j)は非常に小さくなるはずである。   Then, there should be a place (shift position) where the registered paper fingerprint information and the paper fingerprint information just acquired are very consistent. At this time, at this misalignment position, the registered paper fingerprint information and the paper fingerprint information just acquired are very coincident, so E (i, j) should be very small.

一方、このずれ位置から少しでもずらすと、登録されていた紙指紋情報と今取得されたばかりの紙指紋情報には何ら関連性がなくなる。従って、E(i,j)は通常の大きな値になるはずである。   On the other hand, if the position is slightly shifted from this position, the registered paper fingerprint information and the paper fingerprint information just acquired are no longer relevant. Therefore, E (i, j) should be a normal large value.

そのため、「二つの紙指紋情報が同じ紙から取得された」という条件は、「最も小さなE(i,j)が集合E(i,j)の中で突出して小さい」という条件と一致する。   Therefore, the condition that “two pieces of paper fingerprint information are acquired from the same paper” matches the condition that “the smallest E (i, j) protrudes and is small in the set E (i, j)”.

<紙指紋情報照合処理>に戻る。   Return to <paper fingerprint information collation processing>.

ステップ1003では、ステップ1002において求められた2つの紙指紋情報のマッチング度合いと所定の閾値との比較を行って、「有効」「無効」を決定する。なお、マッチング度合いのことを類似度と称することもある。また、マッチング度合いと所定の閾値との比較結果のことを、照合結果と称することもある。   In step 1003, “valid” and “invalid” are determined by comparing the matching degree of the two pieces of paper fingerprint information obtained in step 1002 with a predetermined threshold value. Note that the degree of matching may be referred to as similarity. A comparison result between the matching degree and a predetermined threshold value may be referred to as a matching result.

コントローラ11の説明は以上である。   The description of the controller 11 has been described above.

<紙指紋情報登録処理のタブが押下された際の動作>
続いて、図8に示す紙指紋情報登録タブ808がユーザにより押下された後にスタートキーが押下された際に、実行される紙指紋情報登録処理について図11のフローチャートを用いて説明する。紙指紋情報登録タブ808のユーザによる押下は、特徴データの登録処理指示に相当し、これに応答して、紙指紋情報登録処理が実行される。
<Operation when the tab for paper fingerprint information registration processing is pressed>
Next, a paper fingerprint information registration process executed when the user presses the paper fingerprint information registration tab 808 shown in FIG. 8 and then presses the start key will be described with reference to the flowchart of FIG. Pressing the paper fingerprint information registration tab 808 by the user corresponds to a feature data registration processing instruction, and in response to this, paper fingerprint information registration processing is executed.

ユーザが白紙の用紙を201の原稿フィーダにセットして、紙指紋情報登録処理のタブを押下する。するとステップ1101では、CPU301は、スキャナ部13で白紙を読み取って得られた画像データをスキャナI/F311を介してスキャナ画像処理部312に送るように制御する。   The user sets a blank sheet in the document feeder 201 and presses the tab for the paper fingerprint information registration process. In step 1101, the CPU 301 controls to send the image data obtained by reading the blank paper with the scanner unit 13 to the scanner image processing unit 312 via the scanner I / F 311.

ステップ1102では、スキャナ画像処理部312は、一般的なゲイン調整値よりも小さいゲイン調整値を、シェーディング補正部600に設定する。そして、画像データに対して上記小さいゲイン調整値を適用することで得られた各輝度信号値を紙指紋情報取得部607に対して出力する。その後、図9に示すように出力データに基づいて、紙指紋情報取得部607は、紙指紋情報を取得する。そして、当該取得された紙指紋情報を不図示のデータバスを用いてRAM302に送る。この動作を、図14に示すような紙1405上の予め定められた複数の領域(1401等で例示する合計20の領域)に対して行い、紙上の全ての紙指紋情報をRAM302に記憶した後、紙1枚の全ての紙指紋情報をHDD304へ転送し記憶する。さらにRAM302に記憶された紙指紋情報に関しては、ステップ1102での処理が終了すると、ステップ1103の処理が開始される。   In step 1102, the scanner image processing unit 312 sets a gain adjustment value smaller than a general gain adjustment value in the shading correction unit 600. Then, each luminance signal value obtained by applying the small gain adjustment value to the image data is output to the paper fingerprint information acquisition unit 607. Thereafter, as shown in FIG. 9, the paper fingerprint information acquisition unit 607 acquires the paper fingerprint information based on the output data. Then, the obtained paper fingerprint information is sent to the RAM 302 using a data bus (not shown). After this operation is performed on a plurality of predetermined areas (total of 20 areas exemplified by 1401 etc.) on the paper 1405 as shown in FIG. 14 and all the paper fingerprint information on the paper is stored in the RAM 302, All the paper fingerprint information of one sheet is transferred to the HDD 304 and stored. Further, regarding the paper fingerprint information stored in the RAM 302, when the processing in step 1102 is completed, the processing in step 1103 is started.

ステップ1103では、CPU301は、紙指紋情報を符号化して符号画像を生成し、一度RAM302上にその符号化情報(符号化データ)を記憶し、ついで、紙上の複数の紙指紋情報と対応づけて、図14の各領域ごとに符号化情報をHDD304へ記憶する。次にステップ1104において、201の原稿フィーダにまだ紙が残っているか否かを判定する。白紙の用紙がまだ201の原稿フィーダに残っている場合は、ステップ1101からの処理を繰り返し、白紙の用紙全ての紙指紋情報を読み込み、符号化する処理を繰り返す。201の原稿フィーダ上の紙がなくなった時点で、CPU301は処理を終了する。   In step 1103, the CPU 301 encodes the paper fingerprint information to generate a code image, temporarily stores the encoded information (encoded data) in the RAM 302, and then associates it with a plurality of paper fingerprint information on the paper. The encoded information is stored in the HDD 304 for each area in FIG. Next, in step 1104, it is determined whether or not paper remains in the document feeder 201. If blank paper still remains in the 201 document feeder, the processing from step 1101 is repeated, and the paper fingerprint information of all blank paper is read and encoded. When the paper on the document feeder 201 runs out, the CPU 301 ends the processing.

次にユーザは、紙指紋情報を読み取り、符号化処理が終了した白紙の用紙を201の原稿フィーダから取り出し、用紙カセットの203、204、205または手差しの紙を給紙する部分で当該紙指紋を読み取った紙をセットする。次にユーザは、図8の810に示す印刷開始タブを押下することにより、画像処理装置は前記したように紙指紋情報を読み取った後の白紙の用紙を給紙して当該用紙に画像を形成する動作を開始する。   Next, the user reads the paper fingerprint information, takes out the blank paper that has been encoded, from the document feeder 201, and prints the paper fingerprint at the portion of the paper cassette where 203, 204, 205 or manual paper is fed. Load the scanned paper. Next, when the user presses a print start tab indicated by reference numeral 810 in FIG. 8, the image processing apparatus feeds the blank paper after reading the paper fingerprint information as described above, and forms an image on the paper. The operation to start is started.

次に図12のフロチャートを使用して、例えば1頁分のPDLデータをレンダリングして保存する際の動作について説明を行う。   Next, using the flowchart of FIG. 12, for example, an operation when rendering and saving one page of PDL data will be described.

CPU301は、まず外部のホストコンピュータからLAN50を介して転送されたネットワークのパケットデータを、ネットワークI/F306を介して、一度RAM302に格納する。CPU301は格納されたパケットデータを解析してPDLデータを取り出し、そのPDLデータをHDD304へ格納する。次にHDD304から再びPDLデータを取り出し、RIP部328でレンダリングを行う。   First, the CPU 301 once stores the network packet data transferred from the external host computer via the LAN 50 in the RAM 302 via the network I / F 306. The CPU 301 analyzes the stored packet data, extracts PDL data, and stores the PDL data in the HDD 304. Next, the PDL data is taken out from the HDD 304 again and rendered by the RIP unit 328.

ステップ1202では、圧縮部329で、RIP部328で生成された新たな画像データを32画素×32画素のブロック単位に分割しタイルデータを生成する。さらに圧縮部329は、この複数のタイルデータからなる画像データを圧縮する。   In step 1202, the compression unit 329 divides the new image data generated by the RIP unit 328 into blocks of 32 pixels × 32 pixels to generate tile data. Further, the compression unit 329 compresses the image data including the plurality of tile data.

ステップ1203では、CPU301は、圧縮部329で圧縮された画像データをRAM302に送って格納する。なお、この画像データは必要に応じて画像変換部317に送られ所定の画像処理が施された上で再びRAM302に送られ格納される。次にCPU301は、HDD304にRAM302上の画像データを格納し、処理を終了する。   In step 1203, the CPU 301 sends the image data compressed by the compression unit 329 to the RAM 302 and stores it. The image data is sent to the image conversion unit 317 as necessary, subjected to predetermined image processing, and then sent to the RAM 302 again for storage. Next, the CPU 301 stores the image data on the RAM 302 in the HDD 304 and ends the processing.

次に図13のフローチャートを用いて、CPU301で前記のようにレンダリングされた画像の非画像領域を検出する際の動作の説明を行う。CPU301が図13のフローチャートに従って動作することによって、非画像領域検出手段の機能が実現される。まずステップ1301において、HDD304に格納された画像データを読み出し、RAM302に転送を行う。次にステップ1302において、伸張部318を使用して圧縮された画像を伸張し、次にステップ1303において変倍部321を使用してたとえば1200dpiでレンダリングされた画像を300dpiの画像に変倍を行う。次にCPU301は、ステップ1304において多値2値部324を使用して、例えば1画素あたり8bitの多値画像データをモノクロ2値の画像に変換を行う。2値データに変換された画像データは再びRAM302に記憶される。RAM302に記憶された画像データは例えば図14のような1頁上の画像1402,1403,1404が記憶される。次にCPU301は、ステップ1305において、図14に示されるような2値画像データをRAM302を読み取ることによって解析を行い、1ページ中の非画像領域を判定する。ついで、ステップ1306で、次の処理を行う。即ち、非画像領域の解析の結果、先に図11で説明したスキャナ部13を用いて紙指紋を読み取った白紙の複数の固定領域の中で、図14の例えば領域Aや領域Bや領域Cなど、非画像領域に位置しているものを紙指紋領域として選択し処理を終了する。ここで、CPU301は、選択した紙指紋領域情報と、前記紙指紋を読み取った白紙に印字する画像とを関連付けてRAM302に記憶することができる。即ち、前記紙指紋を読み取った白紙に印字する画像としては、図13で説明したレンダリングされた画像データまたはスキャナ部で読み取ってHDD内に記憶されている画像データがある。さらに、画像データを特定するための情報である属性データに、特徴データである選択した紙指紋領域情報を関連付けてRAM302に記憶することができる。CPU301はこの関連付け手段を構成する。なお、ステップ1306で選択されなかった固定領域のデータは破棄することもできる。   Next, the operation when the CPU 301 detects the non-image area of the image rendered as described above will be described using the flowchart of FIG. The function of the non-image area detecting means is realized by the CPU 301 operating according to the flowchart of FIG. First, in step 1301, image data stored in the HDD 304 is read and transferred to the RAM 302. Next, in step 1302, the compressed image is expanded using the expansion unit 318, and then in step 1303, the image rendered at, for example, 1200 dpi is scaled to a 300 dpi image using the scaling unit 321. . Next, in step 1304, the CPU 301 uses the multi-value binary unit 324 to convert, for example, 8-bit multi-value image data per pixel into a monochrome binary image. The image data converted into binary data is stored in the RAM 302 again. As the image data stored in the RAM 302, for example, images 1402, 1403, and 1404 on one page as shown in FIG. 14 are stored. Next, in step 1305, the CPU 301 analyzes binary image data as shown in FIG. 14 by reading the RAM 302, and determines a non-image area in one page. Next, in step 1306, the following processing is performed. That is, as a result of the analysis of the non-image area, among the plurality of white fixed areas obtained by reading the paper fingerprint using the scanner unit 13 described above with reference to FIG. 11, for example, the area A, area B, and area C in FIG. For example, the one located in the non-image area is selected as the paper fingerprint area, and the process is terminated. Here, the CPU 301 can store the selected paper fingerprint area information in the RAM 302 in association with the image to be printed on the white paper obtained by reading the paper fingerprint. That is, the image to be printed on the white paper obtained by reading the paper fingerprint includes the rendered image data described in FIG. 13 or the image data read by the scanner unit and stored in the HDD. Furthermore, the selected paper fingerprint area information, which is characteristic data, can be stored in the RAM 302 in association with attribute data, which is information for specifying image data. The CPU 301 constitutes this association means. Note that the fixed area data not selected in step 1306 can be discarded.

次に印刷時の動作について、図15のフローチャートを使用して説明を行う。まずステップ1501において、CPU301は前記したようにHDD304に記憶されている印刷する画像データを読み出し、RAM302に転送を行う。なお、HDD304に記憶されている印刷する画像データとしては、前述したレンダリングされた画像データの他に、スキャナ部13を用いて読み取った画像データも含まれる。次にステップ1502においてCPU301はプリンタ部14へ指示を行い、先に紙指紋を複数箇所読み取った後ユーザが手差しまたは用紙カセット203、204、205にセットした紙を給紙させる。即ち、これは、前記の印刷する画像データを印刷する原本としての用紙を給紙させることに相当する。次にステップ1503においてCPU301は、装置内部スキャナ部1705,スキャナ画像処理部332,圧縮部333を使用して、給紙された紙の前述のステップ1306で選択された領域に対応する領域の紙指紋情報を紙搬送路上で取得する。この装置内部スキャナ部705は、搬送される紙上の1306で選択された領域が読めればよい。例えば、紙の幅方向の一部が読めればよく、原稿全面をよめる読み取り手段より小型化できる。もちろん、原稿全面を読めてもよい。例えば図14における、領域Cの紙指紋情報を取得し、RAM302にそのデータを転送させる。次にCPU301はステップ1504において、HDD304に記憶されている紙指紋情報の中に、RAM302に転送されている給紙された紙上(記録媒体表面上)の領域Cの紙指紋情報と一致するデータがあるか否かを検索する。ステップ1505でHDD304中に一致する紙指紋情報が存在しないと判断した場合は、ステップ1506へ処理を移行し、操作部12へエラーのメッセージを表示して処理を終了する。ステップ1505でHDD304内部に一致する紙指紋情報が存在した場合は、ステップ1507において、図14の領域AとBに相当する位置の、先(S1103)に符号化したデータをHDD304から読み出し、符号画像データとしてRAM302に記憶する。この時点で、A、B以外の位置の紙指紋情報の符号化情報は使用されないので、HD304から消去してよい。その結果HD304の容量を有効に使える。この符号画像データは紙指紋情報をバーコード化した画像であったり、電子透かしに変換した透かし画像である。   Next, the operation during printing will be described using the flowchart of FIG. First, in step 1501, the CPU 301 reads the image data to be printed stored in the HDD 304 as described above and transfers it to the RAM 302. Note that the image data to be printed stored in the HDD 304 includes image data read using the scanner unit 13 in addition to the rendered image data described above. In step 1502, the CPU 301 instructs the printer unit 14 to read paper fingerprints at a plurality of locations before feeding the paper manually or set in paper cassettes 203, 204, and 205. That is, this corresponds to feeding a sheet as an original on which the image data to be printed is printed. In step 1503, the CPU 301 uses the internal scanner unit 1705, the scanner image processing unit 332, and the compression unit 333 to use the paper fingerprint of the area corresponding to the area selected in step 1306 of the fed paper. Information is acquired on the paper transport path. This internal scanner unit 705 only needs to read the area selected in 1306 on the conveyed paper. For example, it is only necessary to read a part of the paper in the width direction, and it can be made smaller than a reading unit that reads the entire surface of the document. Of course, the entire original may be read. For example, the paper fingerprint information of area C in FIG. 14 is acquired, and the data is transferred to the RAM 302. Next, in step 1504, the CPU 301 includes data that matches the paper fingerprint information of the area C on the supplied paper (on the surface of the recording medium) transferred to the RAM 302 in the paper fingerprint information stored in the HDD 304. Search whether there is. If it is determined in step 1505 that matching paper fingerprint information does not exist in the HDD 304, the process proceeds to step 1506, an error message is displayed on the operation unit 12, and the process ends. If there is matching paper fingerprint information in the HDD 304 in step 1505, in step 1507, the data encoded in the previous (S1103) at the position corresponding to the areas A and B in FIG. The data is stored in the RAM 302 as data. At this point, the encoded information of the paper fingerprint information at positions other than A and B is not used, and may be deleted from the HD 304. As a result, the capacity of HD304 can be used effectively. The code image data is an image obtained by converting paper fingerprint information into a barcode or a watermark image converted into a digital watermark.

次にステップ1508では、プリンタ画像処理部315は、画像データに付随されている属性データに応じた画像データ編集を行う。この処理は図7で示した処理である。このステップでは、ステップ1507で読み出された符号画像データと(原稿の)画像データとが合成される。そして、当該合成により得られた合成画像データを中間調補正部706が、出力するプリンタ部の階調数に合わせて中間調処理を行う。中間調処理後の合成画像データはプリンタI/F314を介してプリンタ部14に送られる。プリンタ部14は合成画像データを出力用紙上に画像形成し、終了する。これによって、原本用の用紙として正しく認識された用紙上に画像を正しく印刷することができる。   In step 1508, the printer image processing unit 315 performs image data editing according to attribute data attached to the image data. This process is the process shown in FIG. In this step, the encoded image data read in step 1507 and the (original) image data are combined. Then, the halftone correction unit 706 performs halftone processing on the composite image data obtained by the synthesis in accordance with the number of gradations of the printer unit to be output. The composite image data after the halftone process is sent to the printer unit 14 via the printer I / F 314. The printer unit 14 forms an image of the composite image data on the output paper, and the process ends. As a result, the image can be correctly printed on the paper that is correctly recognized as the original paper.

<紙紋紙指紋情報照合処理のタブが押下された際の動作>
続いて、図8に示す紙紋紙指紋情報照合タブ809がユーザにより押下された後にスタートキーが押下された際の動作について図16を用いて説明する。
<Operation when the tab for fingerprint information collation processing on the paper pattern is pressed>
Next, an operation when the start key is pressed after the user has pressed the paper fingerprint information collation tab 809 shown in FIG. 8 will be described with reference to FIG.

ステップ1601では、CPU301は、スキャナ部13で読み取られた原稿を、画像データとしてスキャナI/F311を介してスキャナ画像処理部312に送るように制御する。   In step 1601, the CPU 301 controls the document read by the scanner unit 13 to be sent as image data to the scanner image processing unit 312 via the scanner I / F 311.

ステップ1602では、スキャナ画像処理部312は、この画像データに対して<スキャナ画像処理部312の詳細説明(図6)>で述べたような処理を行い、新たな画像データと共に属性データを生成する。また、この属性データを画像データに付随させる。   In step 1602, the scanner image processing unit 312 performs the processing described in <Detailed description of the scanner image processing unit 312 (FIG. 6)> on the image data, and generates attribute data together with new image data. . Further, this attribute data is attached to the image data.

さらに、このステップ1602では、スキャナ画像処理部312内の紙指紋情報取得部607は、紙指紋情報を取得する(紙指紋情報を取得するために、シェーディング補正部600のゲイン調整を行うなどの構成は上述した通りである)。そして、当該取得された紙指紋情報を不図示のデータバスを用いてRAM302に送る。   Further, in step 1602, the paper fingerprint information acquisition unit 607 in the scanner image processing unit 312 acquires paper fingerprint information (such as gain adjustment of the shading correction unit 600 to acquire paper fingerprint information). Is as described above). Then, the obtained paper fingerprint information is sent to the RAM 302 using a data bus (not shown).

さらに、このステップ1602では、スキャナ画像処理部312内の復号部608は、符号画像が存在する場合に、当該符号画像を復号して情報を取得する。そして、当該取得された情報を不図示のデータバスを用いてRAM302に送る。   Further, in step 1602, when there is a code image, the decoding unit 608 in the scanner image processing unit 312 decodes the code image to obtain information. Then, the acquired information is sent to the RAM 302 using a data bus (not shown).

ステップ1603では、CPU301は、紙指紋情報照合処理を行う。この紙指紋情報照合処理については、<紙指紋情報照合処理>で説明した通りである。   In step 1603, the CPU 301 performs a paper fingerprint information matching process. This paper fingerprint information matching process is as described in <Paper fingerprint information matching process>.

ステップ1604では、CPU301は、<紙指紋情報照合処理>により得られた結果(有効か無効か)を操作部12の表示画面上に表示するように制御する。   In step 1604, the CPU 301 controls to display the result (valid or invalid) obtained by the <paper fingerprint information matching process> on the display screen of the operation unit 12.

以上説明したように、紙などの画像記録媒体上の複数の紙指紋情報を予め読み取っておき、機体内部のスキャナでは、ある固定領域の紙指紋情報を読み取るだけで、予め読み取った1ページのすべての紙指紋情報と一致判断を行うことが出来る。このため、機体内部のスキャナは1ページ全てを読み込む必要がなくなり、機体内部のスキャナのコストを下げることが可能となる。   As described above, a plurality of paper fingerprint information on an image recording medium such as paper is read in advance, and the scanner inside the machine simply reads the paper fingerprint information in a certain fixed area. It is possible to make a match with the paper fingerprint information. For this reason, it is not necessary for the scanner inside the machine to read the entire page, and the cost of the scanner inside the machine can be reduced.

[実施例2]
第二の実施例では、紙などの画像記録媒体の紙指紋情報をサーバに記憶しておき、印刷する際にサーバから紙指紋情報を取得する。第一の実施例と同様の部分は詳細な説明を省略する。
[Example 2]
In the second embodiment, paper fingerprint information of an image recording medium such as paper is stored in a server, and the paper fingerprint information is acquired from the server when printing. Detailed description of the same parts as those in the first embodiment will be omitted.

第二の実施例が第一の実施例と異なる点は、図18に示されるようにネットワーク上に紙指紋情報を記憶しておくサーバ1801を設けたことである。紙指紋情報を記憶する手段が画像形成装置から、サーバ1801に代わっただけで、その処理自体は第一の実施例で詳述した内容と同様である。プリンタや複写機において使用する紙などは、紙を製造しているメーカから得られるが、紙製造時に紙上の複数箇所の紙指紋情報を取得し、図10で示されたような1ページの紙上の複数箇所の紙指紋情報を、紙ごとにサーバに登録しておく。紙指紋の登録方法に関しては、第一の実施例で説明した図9に示したフローチャートに沿って紙毎に紙指紋情報を取得し、さらに必要なら、<紙指紋情報符号化処理>も実行して、サーバ171801に記憶しておくものとする。   The second embodiment differs from the first embodiment in that a server 1801 for storing paper fingerprint information is provided on the network as shown in FIG. The means for storing the paper fingerprint information is merely replaced with the server 1801 from the image forming apparatus, and the processing itself is the same as the details described in the first embodiment. Paper used in printers and copiers can be obtained from the manufacturer that manufactures the paper, but when the paper is manufactured, paper fingerprint information at a plurality of locations on the paper is obtained and the paper on one page as shown in FIG. Are registered in the server for each paper. Regarding the paper fingerprint registration method, paper fingerprint information is acquired for each paper according to the flowchart shown in FIG. 9 described in the first embodiment, and <paper fingerprint information encoding processing> is also executed if necessary. It is assumed that the data is stored in the server 171801.

次に紙上に印刷データを印字する場合を説明する。これは、図15のフローチャートにしたがって行われ、ステップ1504においてHDD304ではなく、ネットワークI/F306を介して、ネットワーク50上にアクセスし、サーバ1801に対して紙指紋情報の問い合わせを行う。前述した<紙指紋情報照合処理>はサーバ上で行う。サーバのネットワーク上のアドレスはユーザが予め登録しておいても、例えば紙の包装紙にあるバーコードなどからアドレスがリンク付けされており、プリンタもしくは複写機でサーバ1801を自動的に登録しておくことなども可能である。問い合わせの結果、紙指紋情報が検出された場合は、図15のステップS1507以降の処理を行うことで紙指紋の符号データを印刷したい画像データに合成して印刷することが可能となる。   Next, a case where print data is printed on paper will be described. This is performed according to the flowchart of FIG. 15. In step 1504, the network 50 is accessed via the network I / F 306 instead of the HDD 304, and the paper fingerprint information is inquired to the server 1801. The <paper fingerprint information collation process> described above is performed on the server. Even if the user registers the server address on the network in advance, the address is linked from, for example, a barcode on a paper wrapping paper, and the server 1801 is automatically registered by a printer or copier. It is also possible to leave it. If paper fingerprint information is detected as a result of the inquiry, the processing after step S1507 in FIG. 15 can be performed to synthesize the paper fingerprint code data with the image data to be printed and print it.

サーバ1801で紙指紋情報(さらにはその符号化画像)を記憶させることにより、ユーザ以外が紙指紋をユーザが使用しているスキャナや複写機を使用せず登録することも可能となる。さらに、複写機やプリンタ、スキャナを複数所有しているユーザにとって、紙指紋情報を1つのサーバで管理することも可能となる。   By storing the paper fingerprint information (and the encoded image thereof) in the server 1801, it becomes possible for a person other than the user to register the paper fingerprint without using the scanner or copying machine used by the user. Furthermore, for a user who owns a plurality of copiers, printers, and scanners, paper fingerprint information can be managed by a single server.

(その他の実施例)
さらに本発明は、複数の機器(例えばコンピュータ、インターフェース機器、リーダ、プリンタなど)から構成されるシステムに適用することも、一つの機器からなる装置(複合機、プリンタ、ファクシミリ装置など)に適用することも可能である。
(Other examples)
Further, the present invention can be applied to a system constituted by a plurality of devices (for example, a computer, an interface device, a reader, a printer, etc.), and can also be applied to an apparatus (multifunction device, printer, facsimile machine, etc.) comprising a single device. It is also possible.

また本発明の目的は、上述した実施例で示したフローチャートの手順を実現するプログラムコードを記憶した記憶媒体から、システムあるいは装置のコンピュータ(またはCPUやMPU)が、そのプログラムコードを読出し実行することによっても達成される。この場合、記憶媒体から読み出されたプログラムコード自体が上述した実施形態の機能を実現することになる。そのため、このプログラムコード及びプログラムコードを記憶した記憶媒体も本発明の一つを構成することになる。   Another object of the present invention is that a computer (or CPU or MPU) of a system or apparatus reads and executes the program code from a storage medium that stores the program code for realizing the procedure of the flowchart shown in the above-described embodiment. Is also achieved. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment. Therefore, the program code and a storage medium storing the program code also constitute one of the present invention.

プログラムコードを供給するための記憶媒体としては、例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。   As a storage medium for supplying the program code, for example, a floppy (registered trademark) disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, magnetic tape, nonvolatile memory card, ROM, or the like is used. be able to.

またコンピュータが読み出したプログラムコードを実行することにより、上述した実施形態の機能が実現されるだけでなく、次の場合も含まれる。即ち、そのプログラムコードの指示に基づきコンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって上述した実施形態の機能が実現される場合も含まれる。   Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also the following cases are included. That is, the case where the OS (operating system) running on the computer performs part or all of the actual processing based on the instruction of the program code, and the functions of the above-described embodiments are realized by the processing. It is.

更に、記憶媒体から読出されたプログラムコードを、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込むこともできる。この場合、その書き込まれたプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって上述した実施形態の機能が実現される。   Furthermore, the program code read from the storage medium can be written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. In this case, based on the instruction of the written program code, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing. The

画像形成システムの全体構成を示す図である。1 is a diagram illustrating an overall configuration of an image forming system. 画像形成装置の入出力デバイス外観図である。1 is an external view of an input / output device of an image forming apparatus. 画像形成装置の全体構成を示す図である。1 is a diagram illustrating an overall configuration of an image forming apparatus. タイルデータを概念的に示す図である。It is a figure which shows tile data notionally. 紙上の紙指紋の読み取り領域を示す概略図である。It is the schematic which shows the reading area | region of the paper fingerprint on paper. スキャナ画像処理部のブロック図である。It is a block diagram of a scanner image processing unit. プリンタ画像処理部のブロック図である。It is a block diagram of a printer image processing unit. 操作部のコピー画面の説明図である。It is explanatory drawing of the copy screen of an operation part. 紙指紋情報取得処理のフローチャートである。It is a flowchart of a paper fingerprint information acquisition process. 紙指紋情報照合処理のフローチャートである。It is a flowchart of a paper fingerprint information collation process. 白紙用紙から紙指紋を読み取る処理のフローチャートである。It is a flowchart of the process which reads a paper fingerprint from blank paper. レンダリング処理のフローチャートである。It is a flowchart of a rendering process. 画像の非画像領域検出処理のフローチャートである。It is a flowchart of a non-image area detection process of an image. 紙の紙指紋領域と画像を示す図である。It is a figure which shows the paper fingerprint area | region and image of paper. 印刷処理のフローチャートである。It is a flowchart of a printing process. 紙指紋照合処理のフローチャートである。It is a flowchart of a paper fingerprint collation process. 画像形成装置の内部構成図である。1 is an internal configuration diagram of an image forming apparatus. 画像形成システムの全体構成を示す図である。1 is a diagram illustrating an overall configuration of an image forming system. 登録された紙指紋情報と、今回得られた紙指紋情報とを示す図である。It is a figure which shows the registered paper fingerprint information and the paper fingerprint information obtained this time. (A)はE1×1の求め方を示す図、(B)はE2×1の求め方を示す図、(C)はEn×1の求め方を示す図、(D)はE2n−1×1の求め方を示す図である。(A) is a diagram showing how to determine E 1 × 1 , (B) is a diagram illustrating how to determine E 2 × 1 , (C) is a diagram illustrating how to determine En × 1 , and (D) is E It is a figure which shows how to obtain | require 2n-1x1 . (A)はE1×2の求め方を示す図、(B)はE2n−1×2の求め方を示す図である。(A) is a figure which shows how to obtain | require E1 * 2 , (B) is a figure which shows how to obtain | require E2n-1 * 2 . (A)はEn×mの求め方を示す図、(B)はE2n−1×2m−1の求め方を示す図である。(A) is a figure which shows how to obtain | require En * m , (B) is a figure which shows how to obtain | require E2n-1 * 2m-1 .

符号の説明Explanation of symbols

1401,A,B,C 領域
1402,1403,1404 画像
1405 紙
1401, A, B, C area 1402, 1403, 1404 image 1405 paper

Claims (13)

画像記録媒体の表面上の複数個所の光学的に検出された特徴データを記憶する第1の記憶手段と、前記画像記録媒体上に画像形成する画像データを参照して、当該画像データが前記画像記録媒体上で記録されない非画像の領域を検出する非画像領域検出手段と、前記第1の記憶手段に記憶されている前記画像記録媒体の複数箇所の特徴データのうち、前記非画像領域検出手段によって検出された非画像領域に該当する特徴データを選択する特徴データ選択手段と、前記特徴データ選択手段によって選択された特徴データを画像記録媒体を特定するための特徴データとして記憶する第2の記憶手段とを備えたことを特徴とする画像処理装置。   Referring to first storage means for storing optically detected feature data at a plurality of locations on the surface of the image recording medium, and image data to form an image on the image recording medium, the image data is the image Non-image area detecting means for detecting a non-image area not recorded on the recording medium, and the non-image area detecting means among the feature data of a plurality of locations of the image recording medium stored in the first storage means Feature data selection means for selecting feature data corresponding to the non-image area detected by the second feature, and second storage for storing the feature data selected by the feature data selection means as feature data for specifying an image recording medium And an image processing apparatus. 前記特徴データ選択手段によって選択されなかった特徴データを破棄する手段を更に有することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising means for discarding feature data not selected by the feature data selection means. 前記第2の記憶手段によって記憶された特徴データを符号化する符号化手段を更に有することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising an encoding unit that encodes the feature data stored in the second storage unit. 前記画像データに前記符号化手段によって符号化されたデータを合成する合成手段を更に有することを特徴とする請求項3に記載の画像処理装置。   The image processing apparatus according to claim 3, further comprising a combining unit configured to combine the data encoded by the encoding unit with the image data. 前記第2の記憶手段に記憶された特徴データと、前記画像データとを関連付けて記憶する第3の記憶手段を更に有することを特徴とする請求項1記載の画像処理装置。   2. The image processing apparatus according to claim 1, further comprising third storage means for storing the feature data stored in the second storage means in association with the image data. 前記第3の記憶手段は、前記関連付けられた特徴データと画像データとを特定するための情報をさらに記憶することを特徴とする請求項5記載の画像処理装置。   The image processing apparatus according to claim 5, wherein the third storage unit further stores information for specifying the associated feature data and image data. 前記画像処理装置は画像形成装置であり、画像記録媒体上に前記画像データに対応する画像を形成するための画像形成手段と、前記画像形成手段に供給される途中の搬送路上で画像記録媒体表面上の幅方向の一部を光学的に読み取る第1の読み取り手段と、前記第1の読み取り手段による読み取り結果に基づいて検出された前記画像記録媒体表面上の特徴データと前記第2の記憶手段に記憶されている複数の特徴データとを比較する比較手段と、前記比較手段による比較結果に基づいて前記画像形成手段に供給される画像記録媒体を特定する手段とを備えたことを特徴とする請求項1,2,5及び6のいずれかに記載の画像処理装置。   The image processing apparatus is an image forming apparatus, and an image forming unit for forming an image corresponding to the image data on an image recording medium, and a surface of the image recording medium on a conveyance path in the middle of being supplied to the image forming unit First reading means for optically reading a part in the upper width direction, feature data on the surface of the image recording medium detected based on a reading result by the first reading means, and the second storage means Comparing means for comparing a plurality of feature data stored in the recording means, and means for specifying an image recording medium supplied to the image forming means based on a comparison result by the comparing means The image processing apparatus according to claim 1. 画像記録媒体の表面上を光学的に読み取って前記第1の記憶手段に記憶する特徴データの検出に供する第2の読み取り手段を更に有することを特徴とする請求項7に記載の画像処理装置。   The image processing apparatus according to claim 7, further comprising second reading means for optically reading the surface of the image recording medium and detecting characteristic data stored in the first storage means. 前記第2の記憶手段によって記憶された特徴データを符号化する符号化手段を更に有し、前記画像形成手段は、前記符号化手段によって符号化されたデータに対応する画像を画像記録媒体上に形成することを特徴とする請求項7または8に記載の画像処理装置。   The image forming unit further includes an encoding unit that encodes the feature data stored in the second storage unit, and the image forming unit displays an image corresponding to the data encoded by the encoding unit on an image recording medium. The image processing apparatus according to claim 7, wherein the image processing apparatus is formed. 前記画像データに前記符号化手段によって符号化されたデータを合成する合成手段を更に有し、前記画像形成手段は、前記符号化手段によって符号化されたデータを合成した前記画像データに対応する画像を画像記録媒体上に形成することを特徴とする請求項9に記載の画像処理装置。   The image data further includes a combining unit that combines the data encoded by the encoding unit with the image data, and the image forming unit includes an image corresponding to the image data combined with the data encoded by the encoding unit. The image processing apparatus according to claim 9, wherein the image processing apparatus is formed on an image recording medium. 画像記録媒体の表面上の複数箇所の光学的に検出された特徴データを保持するサーバから、当該特徴データをネットワークを介して取得する手段を更に有し、前記第1の記憶手段は、前記取得した特徴データを記憶することを特徴とする請求項7〜10のいずれかに記載の画像処理装置。   The server further includes means for acquiring the feature data via a network from a server that holds optically detected feature data at a plurality of locations on the surface of the image recording medium, and the first storage means includes the acquisition The image processing apparatus according to claim 7, wherein the feature data is stored. 請求項7〜11のいずれかの画像処理装置を使用し、
特徴データ照合処理指示に応答して、前記第1の読み取り手段を使用して前記画像形成手段に供給される前の画像記録媒体の表面の特徴データを取得し、
前記比較手段によって、前記取得した特徴データと、前記第2の記憶手段内の他の特徴データとを比較することを特徴とする画像処理方法。
Using the image processing device according to any one of claims 7 to 11,
In response to the feature data collation processing instruction, the feature data of the surface of the image recording medium before being supplied to the image forming unit using the first reading unit is acquired,
An image processing method, wherein the comparison means compares the acquired feature data with other feature data in the second storage means.
請求項10の画像処理装置を使用し、
特徴データ登録処理指示に応答して、前記第2の読み取り手段によって画像記録媒体を光学的に読み取り、
前記第2の読み取り手段による読み取り結果に基づいて検出された特徴データを前記第1の記憶手段に記憶し、
前記非画像領域検出手段によって、前記画像記録媒体上に記録する画像データを参照して、当該画像データが前記画像記録媒体上で記録されない非画像の領域を検出し、
前記特徴データ選択手段によって、前記第1の記憶手段に記憶されている前記画像記録媒体の複数箇所の特徴データのうち、前記非画像領域検出手段によって検出された非画像領域に該当する特徴データを選択し、
前記選択された特徴データを画像記録媒体を特定するための特徴データとして前記第2の記憶手段に記憶し、
前記第1の読み取り手段によって、前記画像形成手段に供給される途中の搬送路上で画像記録媒体表面上の幅方向の一部を光学的に読み取り、
前記比較手段によって、前記第1の読み取り手段による読み取り結果に基づいて検出された前記画像記録媒体表面上の特徴データと前記第2の記憶手段に記憶されている複数の特徴データとを比較し、
前記比較手段による比較結果に基づいて前記第1の読み取り手段によって読み取られた前記画像記録媒体表面上の特徴データが前記第2の記憶手段に記憶されている複数の特徴データのいずれかと一致すると判断された場合は前記第1の読み取り手段によって特徴データが読み取られた前記画像記録媒体に、前記合成手段による合成後の前記画像データに対応する画像を前記画像形成手段によって形成することを特徴とする画像処理方法。
Using the image processing apparatus of claim 10;
In response to the characteristic data registration processing instruction, the second reading unit optically reads the image recording medium,
Storing feature data detected based on a reading result by the second reading unit in the first storage unit;
The non-image area detecting means refers to image data to be recorded on the image recording medium, detects a non-image area in which the image data is not recorded on the image recording medium,
Feature data corresponding to the non-image area detected by the non-image area detection means among the feature data of the plurality of locations of the image recording medium stored in the first storage means by the feature data selection means. Selected,
Storing the selected feature data in the second storage means as feature data for specifying an image recording medium;
The first reading unit optically reads a part in the width direction on the surface of the image recording medium on a conveyance path in the middle of being supplied to the image forming unit,
Comparing the feature data on the surface of the image recording medium detected based on the reading result by the first reading means with the plurality of feature data stored in the second storage means by the comparing means;
Based on the comparison result by the comparison means, it is determined that the feature data on the surface of the image recording medium read by the first reading means matches any one of the plurality of feature data stored in the second storage means. In this case, the image forming unit forms an image corresponding to the image data combined by the combining unit on the image recording medium from which the characteristic data is read by the first reading unit. Image processing method.
JP2007079446A 2007-03-26 2007-03-26 Image processing unit and image processing method Pending JP2008244611A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007079446A JP2008244611A (en) 2007-03-26 2007-03-26 Image processing unit and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007079446A JP2008244611A (en) 2007-03-26 2007-03-26 Image processing unit and image processing method

Publications (1)

Publication Number Publication Date
JP2008244611A true JP2008244611A (en) 2008-10-09

Family

ID=39915441

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007079446A Pending JP2008244611A (en) 2007-03-26 2007-03-26 Image processing unit and image processing method

Country Status (1)

Country Link
JP (1) JP2008244611A (en)

Similar Documents

Publication Publication Date Title
JP4810413B2 (en) Image processing apparatus and image processing method
JP4732315B2 (en) Image processing apparatus and method
JP4886584B2 (en) Image processing apparatus, image processing method, and program thereof
KR100805594B1 (en) Density determination method, image forming apparatus, and image processing system
JP4836260B2 (en) Image forming apparatus, image forming method, recording medium, and program
US8031378B2 (en) Device for controlling image processing based on paper fingerprint
US7379214B2 (en) Image processing apparatus capable of processing image embedded with digital watermark, method for controlling the image processing apparatus, and storage medium storing program to execute the method
JP4834531B2 (en) Image processing apparatus, image processing apparatus control method, and program
JP4812106B2 (en) Image reading apparatus and control method thereof
JP2009005312A (en) Image processing apparatus and image processing method, computer program, and storage medium
JP2009077049A (en) Image reader
JP2009075751A (en) Image processing apparatus, image processing method, program of same, and computer-readable storage medium
JP4663682B2 (en) Image processing apparatus, image processing method, program, and storage medium
JP4709090B2 (en) Image processing apparatus, image processing apparatus control method, and program
JP2008283586A (en) Image processor, control method of image processor, program and storage medium
JP2008141683A (en) Image processor, method and program, and storage medium
JP4267029B2 (en) Image processing apparatus, image processing method, image processing method program, and storage medium therefor
US8059296B2 (en) Image forming apparatus that synthesizes fiber information extracted from pages of a paper medium having a plurality of pages, and an image forming apparatus control method, a program, and a storage medium relating thereto
JP2007043656A (en) Density determination method, image forming apparatus, and image processing system
JP2010050551A (en) Image formation device
JP2008227910A (en) Image forming apparatus, image forming method, image forming program, and storage medium stored with image forming program
JP2008066840A (en) Image processor, image processing method, program of image processing method and its storage medium
JP2008244611A (en) Image processing unit and image processing method
JP2008289093A (en) Method of certifying copy, and image processing system and apparatus related thereto
JP2010056912A (en) Image processing apparatus