JP2008244611A - Image processing unit and image processing method - Google Patents
Image processing unit and image processing method Download PDFInfo
- Publication number
- JP2008244611A JP2008244611A JP2007079446A JP2007079446A JP2008244611A JP 2008244611 A JP2008244611 A JP 2008244611A JP 2007079446 A JP2007079446 A JP 2007079446A JP 2007079446 A JP2007079446 A JP 2007079446A JP 2008244611 A JP2008244611 A JP 2008244611A
- Authority
- JP
- Japan
- Prior art keywords
- image
- data
- unit
- feature data
- recording medium
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 118
- 238000003672 processing method Methods 0.000 title claims description 5
- 238000003860 storage Methods 0.000 claims description 31
- 230000004044 response Effects 0.000 claims description 5
- 238000001514 detection method Methods 0.000 claims description 3
- 238000000034 method Methods 0.000 description 68
- WBMKMLWMIQUJDP-STHHAXOLSA-N (4R,4aS,7aR,12bS)-4a,9-dihydroxy-3-prop-2-ynyl-2,4,5,6,7a,13-hexahydro-1H-4,12-methanobenzofuro[3,2-e]isoquinolin-7-one hydrochloride Chemical compound Cl.Oc1ccc2C[C@H]3N(CC#C)CC[C@@]45[C@@H](Oc1c24)C(=O)CC[C@@]35O WBMKMLWMIQUJDP-STHHAXOLSA-N 0.000 description 38
- 230000006870 function Effects 0.000 description 18
- 238000006243 chemical reaction Methods 0.000 description 15
- 230000006835 compression Effects 0.000 description 14
- 238000007906 compression Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 14
- 238000003705 background correction Methods 0.000 description 10
- 238000012937 correction Methods 0.000 description 10
- 238000001444 catalytic combustion detection Methods 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 6
- 230000015572 biosynthetic process Effects 0.000 description 6
- 239000000835 fiber Substances 0.000 description 5
- 239000004065 semiconductor Substances 0.000 description 5
- 238000003786 synthesis reaction Methods 0.000 description 5
- 239000002131 composite material Substances 0.000 description 4
- 230000006837 decompression Effects 0.000 description 4
- 230000000873 masking effect Effects 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 230000035945 sensitivity Effects 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 239000000428 dust Substances 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000003825 pressing Methods 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 230000000994 depressogenic effect Effects 0.000 description 2
- 239000002421 finishing Substances 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 238000004049 embossing Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 229910052736 halogen Inorganic materials 0.000 description 1
- 150000002367 halogens Chemical class 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000001308 synthesis method Methods 0.000 description 1
Images
Landscapes
- Accessory Devices And Overall Control Thereof (AREA)
- Cleaning In Electrography (AREA)
- Control Or Security For Electrophotography (AREA)
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
Abstract
Description
本発明は、画像記録媒体の表面上の複数個所の光学的に検出された特徴データを取り扱うことができる画像処理装置及び画像処理方法に関する。 The present invention relates to an image processing apparatus and an image processing method that can handle optically detected feature data at a plurality of locations on the surface of an image recording medium.
画像記録媒体の表面上の複数個所の光学的に検出された特徴データとしては紙指紋(以下では、紙指紋のことを紙紋とも称する)情報が知られている。 Paper fingerprint (hereinafter referred to as a paper fingerprint) information is known as optically detected feature data at a plurality of locations on the surface of an image recording medium.
住民票などの公的文書や、保険の証書など、またはその他の機密文書に関して原本を保証することが重要な文書がある。印刷技術の向上により前記したような紙の書類をプリンタや複写機などの画像形成装置で印刷することも行われてくるようになったのと同時に、カラースキャナやカラー複写機を使用した偽造を防止することが必要になってきている。 There are documents where it is important to guarantee the original with respect to official documents such as resident cards, insurance certificates, or other confidential documents. Improving printing technology has led to the printing of paper documents as described above with image forming devices such as printers and copiers. At the same time, counterfeiting using color scanners and color copiers has been implemented. It is becoming necessary to prevent it.
偽造を防止するための技術として、紙に印刷するときに地紋などのパターンを埋め込み、複写した際に地紋が浮き出て印刷されるようにするなどの対処がされてきている。また、紙自体に非接触IC、RFIDのような半導体の部品を付加し、これらの半導体部品に原本を保証するためのデータを書き込み、複写することがある。この場合はスキャナまたは複写機がこれらの半導体部品から読み取った情報を記録し、複写の履歴を残す。またはユーザ認証と組み合わせて、半導体部品から読み取った情報の記録とユーザ認証が行われない限り複写機で複写が行えないようにすることなどが行われつつある。 As a technique for preventing forgery, measures such as embedding a pattern such as a tint block when printing on paper and embossing a pattern when printing are made have been taken. In addition, semiconductor parts such as non-contact ICs and RFIDs may be added to the paper itself, and data for guaranteeing the original may be written and copied on these semiconductor parts. In this case, information read from these semiconductor components by the scanner or copying machine is recorded, and a copy history is recorded. Or in combination with user authentication, copying of information read from a semiconductor component and making it impossible to perform copying with a copying machine unless user authentication is performed are being performed.
さらに、印刷する際にユーザにとって視認性の悪いハーフトーンで特定のパターン情報を不可視情報として埋め込んでおき、複写する場合スキャナや複写機が前記情報を読み込んだ際、印刷動作を停止させることなども行われつつある。 Furthermore, when printing, specific pattern information is embedded as invisible information in a halftone that is invisible to the user, and when copying, the printing operation is stopped when the scanner or copier reads the information. It is happening.
しかしながら、前記半導体部品などを紙に付加するためには紙自体の価格が上がってしまうという課題があった。また不可視情報を付加したり、非接触ICやRFIDなどに対応するためにスキャナや複写機に特別なハードウェアが必要になることもあり、コストが上がってしまうという課題があった。また、前記不可視の情報もスキャナや複写機で読み取ることによって偽造される可能性もあることが課題としてあった。 However, in order to add the semiconductor component or the like to paper, there is a problem that the price of the paper itself increases. In addition, special hardware is required for scanners and copiers in order to add invisible information and support non-contact ICs and RFIDs, resulting in increased costs. Another problem is that the invisible information may be counterfeited by being read by a scanner or a copying machine.
このような課題に対して、近年になり画像記録媒体である紙などの表面の繊維の並び方などが紙などの記録媒体1枚、1枚で異なることを利用してその紙(印刷物)が原本であるか否かを判断することが行われている。即ち、スキャナや複写機などの読み取り手段によって、前記紙などの記録媒体の表面を読み取り、読み取った繊維の並び方などをパターンデータとしてデジタル情報に変換し、このデジタル情報を印刷時に紙に例えば不可視のハーフトーンなどで記録しておく。これにより、一度印刷された紙などの記録媒体を再び複写するために読み取った際、紙自体がもつ繊維のパターン情報と、紙に印字されているデジタル情報に変換されたパターンデータを比較することにより、原本であるか否かを保証することが行われつつある。この場合、すでにあるスキャナやプリンタ、複写機を使用して、ソフトウェアの一部を修正することにより低コストで原本の保証を行うことが可能となる。 In response to such a problem, the original paper (printed material) is utilized by utilizing the fact that the arrangement of fibers on the surface of paper, which is an image recording medium, is different for each recording medium such as paper. It is performed to determine whether or not. That is, the surface of a recording medium such as paper is read by a reading unit such as a scanner or a copying machine, and the read fiber arrangement is converted into digital information as pattern data. Record in halftone. Thus, when a recording medium such as paper once printed is read for copying again, the pattern information of the fiber that the paper itself has is compared with the pattern data converted into digital information printed on the paper. As a result, whether or not it is an original is being performed. In this case, it is possible to guarantee the original document at low cost by modifying a part of the software using an existing scanner, printer, or copying machine.
しかしながら上記従来技術においては、次のような問題がある。即ち、まず、住民票などの公的文書や、保険の証書など、またはその他の機密文書をプリンタや複写機で紙などの記録媒体に印刷して原本を作成するとする。その作成の前に、例えば、複写機のスキャナなどの読み取り手段でこれからプリンタまたは複写機で印字がされてしまうような領域の紙の特徴データを読み取ることができる。しかしながら、特徴データ読み取り後にその領域に例えばベタ黒で印字が行われてしまうと、その印刷物が原本か否かを判断すべく、再び読み取る際に紙の特徴データが正しく読めない可能性があるという問題点があった。 However, the above prior art has the following problems. That is, first, an original document is created by printing a public document such as a resident's card, an insurance certificate, or other confidential documents on a recording medium such as paper with a printer or a copying machine. Before the creation, it is possible to read the characteristic data of the paper in an area where printing will be performed by a printer or copier, for example, by a reading unit such as a scanner of the copier. However, if, for example, solid black is printed in the area after the feature data is read, the feature data of the paper may not be read correctly when reading again to determine whether the printed matter is the original. There was a problem.
そこで本発明の目的は以上のような問題を解消した画像処理装置及び画像処理方法及びプログラム及び記憶媒体を提供することにある。 Accordingly, an object of the present invention is to provide an image processing apparatus, an image processing method, a program, and a storage medium that have solved the above problems.
本発明は、画像記録媒体の表面上の複数個所の光学的に検出された特徴データを記憶する第1の記憶手段と、前記画像記録媒体上に画像形成する画像データを参照して、当該画像データが前記画像記録媒体上で記録されない非画像の領域を検出する非画像領域検出手段と、前記第1の記憶手段に記憶されている前記画像記録媒体の複数箇所の特徴データのうち、前記非画像領域検出手段によって検出された非画像領域に該当する特徴データを選択する特徴データ選択手段と、前記特徴データ選択手段によって選択された特徴データを画像記録媒体を特定するための特徴データとして記憶する第2の記憶手段とを備えたことを特徴とする。 The present invention refers to first storage means for storing optically detected feature data at a plurality of locations on the surface of an image recording medium, and image data to form an image on the image recording medium. Non-image area detecting means for detecting a non-image area in which data is not recorded on the image recording medium, and the non-image area among feature data at a plurality of locations of the image recording medium stored in the first storage means. Feature data selection means for selecting feature data corresponding to the non-image area detected by the image area detection means, and feature data selected by the feature data selection means are stored as feature data for specifying an image recording medium And a second storage means.
本発明によれば、紙などの画像記録媒体上の複数箇所の光学的に検出された特徴データを予め記憶しておき、そのうちの非画像領域に相当する特徴データを検出し記憶する。これによって非画像領域と判断された領域の特徴データを使用することができ、その結果、例えばベタ黒で印字が行われ、特徴データを後で正確に読み取れなくなってしまわないようにすることが可能となる。 According to the present invention, feature data optically detected at a plurality of locations on an image recording medium such as paper is stored in advance, and feature data corresponding to a non-image area is detected and stored. This makes it possible to use the feature data of the area determined to be a non-image area. As a result, for example, printing is performed in solid black so that the feature data cannot be read accurately later. It becomes.
また、画像記録媒体の幅方向の一部の特徴データのみ読み取り、同一の画像記録媒体の他の領域の特徴データを予め読みとって記憶している記憶手段へ問い合わせをして、全ての特徴データを扱えるようにすることができる。これによって、機体内部の読み取り手段およびその読み取り結果の処理手段は簡単な構造で実現することができる。 Also, only a part of the feature data in the width direction of the image recording medium is read, the feature data of other areas of the same image recording medium are read in advance and inquired to the storage means, and all the feature data is read. It can be handled. Thereby, the reading means inside the machine body and the processing means for the reading result can be realized with a simple structure.
以下では、図面を参照して本発明を実施するための最良の形態について説明する。
[実施例1]
<印刷システム(図1)>
続いて、実施例1について図面を参照して詳細に説明する。図1は本発明の実施形態に係る印刷システムの構成を示すブロック図である。このシステムではホストコンピュータ40及び3台の画像形成装置(10,20,30)がLAN50に接続されているが、本発明における印刷システムにおいては、これらの接続数に限られることはない。また、本実施例では接続方法としてLANを適用しているが、これに限られることはない。例えば、WAN(公衆回線)などの任意のネットワーク、USBなどのシリアル伝送方式、セントロニクスやSCSIなどのパラレル伝送方式なども適用可能である。
The best mode for carrying out the present invention will be described below with reference to the drawings.
[Example 1]
<Printing system (Fig. 1)>
Next, Example 1 will be described in detail with reference to the drawings. FIG. 1 is a block diagram showing a configuration of a printing system according to an embodiment of the present invention. In this system, the
ホストコンピュータ(以下、PCと称する)40はパーソナルコンピュータの機能を有している。このPC40はLAN50やWANを介してFTPやSMBプロトコルを用いファイルを送受信したり電子メールを送受信したりすることができる。またPC40から画像形成装置10、20、30に対して、プリンタドライバを介した印字命令を送出することが可能となっている。
A host computer (hereinafter referred to as a PC) 40 has a function of a personal computer. The PC 40 can send and receive files and send and receive e-mails using the FTP and SMB protocols via the
画像形成装置10と20は同じ構成を有する装置である。画像形成装置30はプリント機能のみの画像形成装置であり、画像形成装置10や20が有するスキャナ部を有していない。以下では、説明の簡単のために、画像形成装置10、20のうちの画像形成装置10に注目して、その構成を詳細に説明する。
The
画像形成装置10は、画像入力デバイスであるスキャナ部13、画像出力デバイスであるプリンタ部14を有する。画像形成装置10は、さらに、画像形成装置10全体の動作制御を司るコントローラ(Controller Unit)11、ユーザインターフェース(UI)である操作部12を有する。
The
<画像形成装置10(図2)>
画像形成装置10の外観を図2に示す。スキャナ部13は、複数のCCDを有している。この各CCDの感度が夫々異なっていると、たとえ原稿上の各画素の濃度が同じであったとしても、各画素が夫々違う濃度であると認識されてしまう。そのため、スキャナ部では、最初に白板(一様に白い板)を露光走査し、露光走査して得られた反射光の量を電気信号に変換してコントローラ11に出力する。なお、後述するように、コントローラ11内のシェーディング補正部500は、各CCDから得られた電気信号を元に、各CCDの感度の違いを認識する。そして、この認識された感度の違いを利用して、原稿上の画像をスキャンして得られた電気信号の値を補正する。さらに、シェーディング補正部500は、後述するコントローラ11内のCPU301からゲイン調整の情報を受取ると、当該情報に応じたゲイン調整を行う。ゲイン調整の情報は、原稿を露光走査して得られた電気信号の値を、どのように0〜255の輝度信号値に割り付けるかを調整するために用いられる。このゲイン調整により、原稿を露光走査して得られた電気信号の値を高い輝度信号値に変換したり、低い輝度信号値に変換したりすることができる。続いて、この原稿上の画像をスキャンする構成について説明する。
<Image Forming Apparatus 10 (FIG. 2)>
An appearance of the
スキャナ部13は、原稿上の画像を露光走査して得られた反射光をCCDに入力することで画像の情報を電気信号に変換する。スキャナ部13はさらに電気信号をR,G,B各色からなる輝度信号に変換し、当該輝度信号を画像データとしてコントローラ11に対して出力する。
The
なお、原稿は原稿フィーダ201のトレイ202にセットされる。ユーザが操作部12から読み取り開始を指示すると、コントローラ11からスキャナ部13に原稿読み取り指示が与えられる。操作部12の詳細は後述する。スキャナ部13は、この指示を受けると原稿フィーダ201のトレイ202から原稿を1枚ずつフィードして、原稿の読み取り動作を行う。なお、原稿の読み取り方法は原稿フィーダ201による自動送り方式ではなく、原稿を不図示のガラス面上に載置し露光部を移動させることで原稿の走査を行う方法であってもよい。
The document is set on the
プリンタ部14は、コントローラ11から受取った画像データを用紙上に形成する画像形成デバイスである。なお、本実施例において画像形成方式は感光体ドラムや感光体ベルトを用いた電子写真方式となっているが、本発明はこれに限られることはない。例えば、微少ノズルアレイからインクを吐出して用紙上に印字するインクジェット方式などでも適用可能である。また、プリンタ部14には、異なる用紙サイズ又は異なる用紙向きを選択可能とする複数の用紙カセット203、204、205が設けられている。排紙トレイ206には印字後の用紙が排出される。
The
また、図17にプリンタ部14およびスキャナ部13の断面図を示す。プリンタ部14は、レーザ露光部1701、作像部1702、定着部1703、給紙/搬送部1704を有する。これらの構成は、コントローラ11によって制御される。レーザ露光部1701は、前記画像データに応じて変調されたレーザ光などの光線を等角速度で回転する回転多面鏡(ポリゴンミラー)に入射させ、反射走査光として感光ドラム1709に照射する。
FIG. 17 is a cross-sectional view of the
作像部1702は、感光ドラム1709を回転駆動し、帯電器によって帯電させ、前記レーザ露光部1701によって感光ドラム1709上に形成された潜像をトナーによって現像化する。さらに、作像部1702は、そのトナー像をシートに転写し、その際に転写されずに感光ドラム1709上に残った微小トナーを回収するといった一連の電子写真プロセスを実行して作像する。その際、シートが転写ドラムの所定位置に巻きつき、4回転する。即ちこの4回転の間に、マゼンタ(M)、シアン(C)、イエロー(Y)、ブラック(K)のトナーを持つそれぞれの現像ユニット(現像ステーション)が入れ替わりで順次前述の電子写真プロセスを繰り返し実行する。現像ユニットは図17では1730,1731,1732,1733で示されている。4回転の後、4色のフルカラートナー像を転写されたシートは、転写ドラムを離れ、定着部1703へ搬送される。定着部1703は、ローラやベルトの組み合わせによって構成され、ハロゲンヒータなどの熱源を内蔵し、前記作像部1702によってトナー像が転写されたシート上のトナーを、熱と圧力によって溶解、定着させる。給紙/搬送部1704は、シートカセットやペーパーデッキに代表されるシート収納庫を一つ以上持っており、コントローラ11の指示に応じてシート収納庫に収納された複数のシートの中から一枚分離し、作像部1702・定着部1703へ搬送する。シートは作像部1702の転写ドラム1711に巻きつけられ、4回転した後に定着部1703へ搬送される。4回転する間に前述のYMCK各色のトナー像がシートに転写される。また、シートの両面に画像形成する場合は、定着部1703を通過したシートを再度作像部1702へ搬送する搬送経路を通るように制御する。
The
また、給紙された用紙の紙指紋を読み取るための内部スキャナ部1705を構成する紙指紋読み取りセンサをプリンタ部14の用紙搬送路1706上に設ける。この内部スキャナ部1705を構成する紙指紋読み取りセンサは、給紙され作像部に供給される途中の用紙の繊維の凹凸を読み取り、読み取った繊維の凹凸画像の情報を電気信号に変換する。さらに電気信号をR,G,B各色からなる輝度信号に変換し、当該輝度信号を画像データとしてコントローラ11に対して出力する。出力された信号に後述するような処理(<スキャナ画像処理部312の詳細説明(図6)>における紙指紋情報取得部607の処理)と同様な処理を行って紙指紋情報を取得する。即ち、紙指紋情報は光学的に検出された特徴データを構成する。なお、この内部スキャナ部1705を構成する紙指紋読み取りセンサは移動手段によって用紙の搬送方向(用紙の幅方向)と直交する方向に移動可能にすることもできる。この場合、用紙の幅方向の所望の位置の紙指紋を読み取ることができる。移動手段は後述するコントローラ11内のCPU301によって制御することができ、その制御のための指示情報は操作部12上から行うことができる。
In addition, a paper fingerprint reading sensor constituting an
<コントローラ11の詳細説明(図3)>
図3は、画像形成装置10のコントローラ11の構成をより詳細に説明するためのブロック図である。
<Detailed Description of Controller 11 (FIG. 3)>
FIG. 3 is a block diagram for explaining the configuration of the controller 11 of the
コントローラ11はスキャナ部13やプリンタ部14と電気的に接続されており、一方ではLAN50やWAN331を介してPC40や外部の装置などと接続されている。これにより画像データやデバイス情報の入出力が可能となっている。
The controller 11 is electrically connected to the
CPU301は、記憶手段であるROM303に記憶された制御プログラム等に基づいて接続中の各種デバイスとのアクセスを統括的に制御すると共に、コントローラ内部で行われる各種処理についても統括的に制御する。RAM302は、CPU301が動作するためのシステムワークメモリであり、かつ画像データを一時記憶するためのメモリでもある。このRAM302は、記憶した内容を電源off後も保持しておくSRAM及び電源off後には記憶した内容が消去されてしまうDRAMにより構成されている。ROM303には装置のブートプログラムなどが格納されている。HDD304はハードディスクドライブであり、システムソフトウェアや画像データを格納することが可能となっている。
The
操作部I/F305は、システムバス310と操作部12とを接続するためのインターフェース部である。操作部12は画像形成装置10の本体上に操作表示画面を有する。操作部12の操作表示画面は、所定の複数箇所の各々においてタッチキー入力可能なセンサを構成している。操作部I/F305は、操作部12の操作表示画面の所定の位置に各々表示するためのタブ情報としての画像データをシステムバス310から受取り操作部12に出力する。また操作部I/F305は、操作部12の操作表示画面の所定位置のタッチセンサの押下(タッチ)によって入力された情報をシステムバス310へと出力する。
The operation unit I /
図8は画像形成装置10における操作部12の操作表示画面の初期画面である。領域801は、画像形成装置10がコピーできる状態にあるか否かを示し、かつ設定したコピー部数を示す。原稿選択タブ804は原稿のタイプを選択するためのタブであり、このタブが押し下げられると文字、写真、文字/写真モードの3種類の選択メニューがポップアップ表示される。フィニッシングタブ806は各種フィニッシングに関わる設定を行うためのタブである。両面設定タブ807は両面読込み及び両面印刷に関する設定を行うためのタブである。読み取りモードタブ802は原稿の読み取りモードを選択するためのタブである。このタブが押し下げられるとカラー/ブラック/自動(ACS)の3種類の選択メニューがポップアップ表示される。なお、カラーが選択された場合にはカラーコピーが、ブラックが選択された場合にはモノクロコピーが行われる。また、ACSが選択された場合には、上述したモノクロカラー判定信号によりコピーモードが決定される。領域808は、紙指紋情報登録処理を選択するためのタブである。紙指紋情報登録処理については、後述する。領域809は、紙指紋情報照合処理を選択するためのタブである。この紙指紋情報照合処理については、後述する。
FIG. 8 is an initial screen of the operation display screen of the
NetworkI/F306はLAN50及びシステムバス310に接続し、情報の入出力を行う。Modem307はWAN331及びシステムバス310に接続しており、情報の入出力を行う。2値画像回転部308は送信前の画像データの方向を変換する。2値画像圧縮・伸張部309は、送信前の画像データの解像度を所定の解像度や相手能力に合わせた解像度に変換する。なお圧縮及び伸張にあたってはJBIG、MMR、MR、MHなどの方式が用いられる。画像バス330は画像データをやり取りするための伝送路であり、PCIバス又はIEEE1394で構成されている。
A network I /
スキャナ画像処理部312は、スキャナ部13からスキャナI/F311を介して受取った画像データに対して、補正、加工、及び編集を行う。なお、スキャナ画像処理部312は、受取った画像データがカラー原稿か白黒原稿かや、文字原稿か写真原稿かなどを判定する。そして、その判定結果を画像データに付随させる。こうした付随情報を属性データと称する。さらに、属性データでは画像が存在する領域であるか否かを判定するための情報も出力することが可能であり、後述する非画像領域の紙指紋情報を登録する際に、この属性データが使用される。このスキャナ画像処理部312で行われる処理の詳細については後述する。
The scanner
圧縮部313はスキャナ画像処理部312から画像データを受取り、この画像データを32画素×32画素のブロック単位に分割する。なお、この32×32画素の画像データをタイルデータと称する。図4は、このタイルデータを概念的に表している。原稿(読み取り前の紙媒体)400において、このタイルデータに対応する領域をタイル画像と称する。なおタイルデータには、その32×32画素のブロックにおける平均輝度情報やタイル画像の原稿上の座標位置がヘッダ情報として付加されている。さらに圧縮部313は、複数のタイルデータからなる画像データを圧縮して画像バス330上に供給する。
The
内部スキャナ部1705を構成する紙指紋読み取りセンサは、図5に示されるような紙550の予め定められている固定領域501(縦横がx画素、y画素)を読み取り、前記固定領域501の紙上の紙指紋を取り込むためのものである。スキャナI/F331、スキャナ画像処理部332、圧縮部333は、前記したスキャナI/F311、スキャナ画像処理部312、圧縮部313と同機能である。しかしこれらは、紙全体を読み取るわけではなく、図5に示したような固定の領域を読み取るためのものであるので、スキャナI/F311、スキャナ画像処理部312、圧縮部313と比べ、回路規模は小さくてすむ。
The paper fingerprint reading sensor constituting the
伸張部316は、画像バス330を介して受け取った複数のタイルデータからなる画像データを伸張した後にラスタ展開してプリンタ画像処理部315に送る。
The
プリンタ画像処理部315は、伸張部316から送られた画像データを受取り、この画像データに付随させられている属性データを参照しながら画像データに画像処理を施す。画像処理後の画像データは、プリンタI/F314を介してプリンタ部14に出力される。このプリンタ画像処理部315で行われる処理の詳細については後述する。
The printer
画像バス330上にデータ授受可能に接続された画像変換部317は、画像データに対して所定の変換処理を施す。この処理部は以下に符号318乃至327で示すような構成要素を含んでいる。
An
伸張部318は受取った画像データを伸張する。圧縮部319は受取った画像データを圧縮する。回転部320は受取った画像データを回転する。変倍部321は受取った画像データに対し解像度変換処理(例えば600dpiから200dpi)を行う。色空間変換部322は受取った画像データの色空間を変換する。この色空間変換部322は、マトリクス又はテーブルを用いて公知の下地飛ばし処理を行ったり、公知のLOG変換処理(RGB→CMY)を行ったり、公知の出力色補正処理(CMY→CMYK)を行ったりすることができる。2値多値変換部323は受取った2階調の画像データを256階調の画像データに変換する。逆に多値2値変換部324は受取った256階調の画像データを誤差拡散処理などの手法により2階調の画像データに変換する。
A
合成部327は受取った2つの画像データを合成し1枚の画像データを生成する。なお、2つの画像データを合成する際には、合成対象の画素同士が持つ輝度値の平均値を合成輝度値とする方法や、輝度レベルで明るい方の画素の輝度値を合成後の画素の輝度値とする方法が適用される。また、暗い方を合成後の画素とする方法の利用も可能である。さらに合成対象の画素同士の論理和演算、論理積演算、排他的論理和演算などで合成後の輝度値を決定する方法なども適用可能である。これらの合成方法はいずれも周知の手法である。間引き部326は受取った画像データの画素を間引くことで解像度変換を行い、1/2,1/4,1/8などの画像データを生成する。移動部325は受取った画像データに余白部分をつけたり余白部分を削除したりする。以上が画像変換部317の構成である。
The
RIP328は、PC40などから送信されたPDLコードデータを元に生成された中間データをシステムバス310を介して受取り、ビットマップデータ(多値)を生成する。ビットマップを生成する際、RIP328は中間データを参照して画像の領域情報を生成することが可能であ。例えば画像がJPEGであるか、テキストであるか、また画像が存在しない非画像領域であるかを示す領域情報を、ビットマップデータとは別に生成する。さらに、後述する紙指紋を登録する際にこの領域情報を使用して、非画像領域にある紙指紋を登録することが可能となる。
The
<スキャナ画像処理部312の詳細説明(図6)>
図6にスキャナ画像処理部312の内部構成を示す。
<Detailed Description of Scanner Image Processing Unit 312 (FIG. 6)>
FIG. 6 shows an internal configuration of the scanner
スキャナ画像処理部312はRGB各8bitの輝度信号からなる画像データを受取る。
The scanner
シェーディング補正部600は、この輝度信号に対してシェーディング補正する。シェーディング補正とは、上述したように、CCDの感度のばらつきによって原稿の明るさが誤認識されてしまうことを防止するための処理である。さらに、上述したように、このシェーディング補正部500は、CPU301からの指示によりゲイン調整を行うことができるようになっている。
The
続いて、この輝度信号は、マスキング処理部601によりCCDのフィルタ色に依存しない標準的な輝度信号に変換される。
Subsequently, the luminance signal is converted into a standard luminance signal that does not depend on the CCD filter color by the masking
フィルタ処理部602は、受取った画像データの空間周波数を任意に補正する。この処理部は、受取った画像データに対して、例えば7×7のマトリクスを用いた演算処理を行う。ところで、複写機や複合機では、図8におけるタブ804の押下によりコピーモードとして文字モードや写真モードや文字/写真モードを選択することができる(詳細は後述する)。ここでユーザにより文字モードが選択された場合には、フィルタ処理部602602502は文字用のフィルタを画像データ全体にかける。また、写真モードが選択された場合には、写真用のフィルタを画像データ全体にかける。また、文字/写真モードが選択された場合には、後述の文字写真判定信号(属性データの一部)に応じて画素ごとに適応的にフィルタを切り替える。つまり、画素ごとに写真用のフィルタをかけるか文字用のフィルタをかけるかが決定される。なお、写真用のフィルタには高周波成分のみ平滑化が行われるような係数が設定されている。これは、画像のざらつきを目立たせないためである。また、文字用のフィルタには強めのエッジ強調を行うような係数が設定されている。これは、文字のシャープさを出すためである。
The
ヒストグラム生成部603は、フィルタ処理部602から受取った画像データを構成する各画素の輝度データをサンプリングする。より詳細に説明すると、主走査方向、副走査方向にそれぞれ指定した開始点から終了点で囲まれた矩形領域内の輝度データを、主走査方向、副走査方向に一定のピッチでサンプリングする。そして、サンプリング結果を元にヒストグラムデータを生成する。生成されたヒストグラムデータは、下地飛ばし処理を行う際に下地レベルを推測するために用いられる。入力側ガンマ補正部604は、ヒストグラム生成部603からのデータをテーブル等を利用して非線形特性を持つ輝度データに変換し、圧縮部313に出力する。
The
カラーモノクロ判定部605は、マスキング処理部601から受取った画像データを構成する各画素が有彩色であるか無彩色であるかを判定し、その判定結果をカラーモノクロ判定信号(属性データの一部)として画像データに付随させる。
The color / monochrome determination unit 605 determines whether each pixel constituting the image data received from the masking
文字写真判定部606は、マスキング処理部601から受取った画像データに関して次のような処理を行う。即ち、受取った画像データを構成する各画素が文字を構成する画素なのか、網点を構成する画素なのか、網点中の文字を構成する画素なのか、ベタ画像を構成する画素なのかを各画素の画素値と各画素の周辺画素の画素値とに基づいて判定する。なお、どれにもあてはまらない画素は、白領域を構成している画素であると判定する。そして、その判定結果を文字写真判定信号(属性データの一部)として画像データに付随させる。
The character
紙指紋情報取得部607は、シェーディング補正部600から入力されたRGBの画像データのうち所定の複数の領域の画像データを取得する。この複数の領域は例えば入力されたRGBの画像データのうち、図14の四角で示す各々の領域(例えば領域A,B,C,1401)に相当する。
The paper fingerprint
図9は、この紙指紋情報取得部607が行う紙指紋情報取得処理を示すフローチャートである。
FIG. 9 is a flowchart showing a paper fingerprint information acquisition process performed by the paper fingerprint
ステップ901では紙指紋情報取得部607において抽出された画像データをグレイスケールの画像データに変換する。ステップ902では、ステップ901においてグレイスケールの画像データへ変換された画像において、印刷や手書きの文字といった誤判定の要因となりうるものを取り除いて照合を行うためのマスクデータを作成する。マスクデータは“ 0 ”or“ 1 ”の2値データである。グレイスケールの画像データにおいて、輝度信号値が第1の閾値(つまり、明るい)以上である画素については、マスクデータの値を“ 1 ”に設定する。また、輝度信号値が第1の閾値未満である画素についてはマスクデータの値を“ 0 ”に設定する。以上の処理を、グレイスケールの画像データに含まれる各画素に対して行う。ステップ903では、ステップ901においてグレイスケールに変換された画像データ及び、ステップ902において作成されたマスクデータの2つのデータを紙指紋情報として取得する。次にステップ904に処理を移行し、紙全体の予め定められた複数の領域全ての紙指紋情報の読み取りが終了したかを判断する。もしまだ全ての領域の紙指紋情報が読み取られていない場合は、再び処理をS901のステップに戻して、残りの領域の紙指紋情報を読み取る。
In
紙全体の予め定められた複数の領域全ての紙指紋情報の読み取りが終了した場合は、紙指紋情報取得部607は、上記所定領域の紙指紋情報を不図示のデータバスを用いてRAM302に送る。そして、RAM302に一時保存された紙指紋情報は、紙ごとにHDD304へ転送され、保存される。
When the reading of the paper fingerprint information of all the predetermined areas of the entire paper is completed, the paper fingerprint
復号部608は、マスキング処理部601から出力された画像データ内に後述するようにして生成した紙指紋情報を符号化したデータを含む符号画像データが存在する場合には、その存在を検知する。そして、検知された符号画像データを復号化して情報を取出す。
When the image data output from the masking
<プリンタ画像処理部315の詳細説明(図7)>
図7にプリンタ画像処理315においてなされる処理の流れを示す。
<Detailed Description of Printer Image Processing Unit 315 (FIG. 7)>
FIG. 7 shows the flow of processing performed in the
下地飛ばし処理部701は、スキャナ画像処理部312で生成されたヒストグラムを用いて画像データの下地色を飛ばす(除去する)。モノクロ生成部702は下地飛ばし処理部701からのカラーデータをモノクロデータに変換する。Log変換部703はモノクロ生成部702からの画像データの輝度濃度変換を行う。このLog変換部703は、例えば、RGB入力された画像データを、CMYの画像データに変換する。出力色補正部704はLog変換部703からの画像データの出力色補正を行う。例えばCMY入力された画像データを、テーブルやマトリックスを用いてCMYKの画像データに変換する。出力側ガンマ補正部705は、この出力側ガンマ補正部705に出力色補正部704から入力される信号値と、複写出力後の反射濃度値とが比例するように入力信号値の補正を行う。符合画像合成部707は、出力側ガンマ補正部705で補正された(原稿)画像データと、後述する<紙指紋情報符号化処理>で生成された符合画像データとを合成する。中間調補正部706は、出力するプリンタ部の階調数に合わせて出力側ガンマ補正部705からの画像データまたは符号画像合成部707からの合成画像データに対して中間調処理を行う。例えば、受取った高階調の画像データに対し2値化や32値化などを行う。
The background
なお、スキャナ画像処理部312やプリンタ画像処理部315における各処理部では、受取った画像データに各処理を施さずに出力させることも可能となっている。このような、ある処理部において処理を施さずにデータを通過させることを、以下では「処理部をスルーさせる」と表現することにする。
Each processing unit in the scanner
<紙指紋情報符号化処理>
紙指紋情報符号化処理では、CPU301は、紙指紋情報取得部607からRAM302に送られ、HDD304に記憶された紙の所定領域の紙指紋情報を読出し、当該読出された紙指紋情報の符号化処理を行って符号画像データを生成する。即ち、HDD304内の紙毎の登録情報としては、グレイスケール画像データ、マスクデータ及び符号画像データがある。
<Paper fingerprint information encoding process>
In the paper fingerprint information encoding process, the
なお、本明細書では、符号画像とは、二次元コード画像やバーコード画像といった画像のことを示す。 In this specification, the code image indicates an image such as a two-dimensional code image or a barcode image.
さらに、CPU301は、生成された符号画像データを不図示のデータバスを用いて、プリンタ画像処理部315内の符号画像合成部707に送信する。
Further, the
なお、上記制御(符号画像の生成制御、送信制御)は、例えば、HDD304から読み出されRAM302内に格納されたプログラムを実行することによって行われる。
The above control (code image generation control, transmission control) is performed, for example, by executing a program read from the
<紙指紋情報照合処理>
紙指紋情報照合処理では、CPU301は、RAM302上の別々の紙指紋情報同士のマッチング処理を行ってそのマッチング度合いを算出し、その結果のマッチング度合いと閾値との比較を行う。そして、両者が一致することを示す「有効」または一致しないことを示す「無効」を決定することが基本である。詳細は後述する。具体的には、2つの紙指紋情報照合処理の態様がある。1つは、紙指紋情報照合タブが押下された場合、他の1つは、紙指紋情報登録処理のタブが押下された場合である。これらは特徴データの照合処理指示に相当し、これに応答して、紙指紋情報照合処理が実行される。
<Paper fingerprint information matching process>
In the paper fingerprint information matching processing, the
紙指紋情報照合タブが押下された場合の紙指紋情報照合処理では、CPU301は、紙指紋情報取得部607からRAM302に送られ、HDD304に記憶された紙指紋情報をRAM302上に読出す。また、当該読出された紙指紋情報とRAM302上に読み出した他の紙指紋情報とを照合する。なお、他の紙指紋情報とは、HDD304内の他の紙指紋情報、HDD304内の他の符号画像データを復号して得られた紙指紋情報やサーバに登録されている紙指紋情報のことを意味する。また、サーバから紙指紋情報を符号化した符号画像データを取得した場合は、CPU301はその符号画像データを一旦RAM302に記憶してから復号処理し、その結果得られた紙指紋情報を前記紙指紋情報照合処理に用いる。
In the paper fingerprint information matching process when the paper fingerprint information matching tab is pressed, the
紙指紋情報登録処理のタブが押下された場合の紙指紋情報照合処理では、RAM302上に読み出す一方の紙指紋情報は、スキャナ画像処理部332または圧縮部333から供給されRAM302に送られたものである。この一方の紙指紋情報は、必要に応じてHDD304に記憶され、RAM302上に読み出される。他方の紙指紋情報は、対象である用紙をスキャナ部13で光学的に読み取り、紙指紋情報取得部607からRAM302に送られ、HDD304に記憶された紙指紋情報のうち、次のようにしてさらに選択された情報である。即ち、HDD304に記憶された紙指紋情報のうち、図13のステップ1306で選択された領域の紙指紋情報をRAM302上に読出したものである。さらに、他方の紙指紋情報としては、HDD304内の他の紙指紋情報、HDD304内の符号画像データを復号して得られた他の紙指紋情報やサーバに登録されている紙指紋情報がある。また、サーバから紙指紋情報を符号化した符号画像データを取得した場合は、CPU301はその符号画像データを一旦RAM302に記憶してから復号処理し、その結果得られた紙指紋情報を前記紙指紋情報照合処理に用いる。
In the paper fingerprint information matching process when the tab of the paper fingerprint information registration process is pressed, the paper fingerprint information read out on the
図10は、この紙指紋情報照合処理を示すフローチャートである。本フローチャートの各ステップは、CPU301により統括的に制御される。
FIG. 10 is a flowchart showing the paper fingerprint information matching process. Each step of this flowchart is centrally controlled by the
本処理は紙指紋情報の照合指示である紙指紋情報照合タブ809の押下によってスタートし、ステップ1001では、符号画像データを復号して得られた紙指紋情報やサーバに登録されている紙指紋情報をRAM302から取出す。
This process starts when the paper fingerprint
ステップ1002では、紙指紋情報取得部607から送られてきた紙指紋情報と、ステップ1001において取出された紙指紋情報との照合をするために、式(1)を用いて2つの紙指紋情報のマッチング度合いを算出する。一方の紙指紋情報はもう一方の紙指紋情報をずらしたものであると仮定し、次のようにして2つの紙指紋情報の誤差イメージ(E)を求める。即ち、式(1)に示した関数において、1画素ごとにずらし、式(1)の関数により求まる値が最小になるところ、つまり2つの紙指紋情報の差が最も小さくなるところで、2つの紙指紋情報の誤差イメージ(E)を求める。
In step 1002, in order to collate the paper fingerprint information sent from the paper fingerprint
式(1)においてα1はステップ1001で取出された(登録されていた)紙指紋情報中のマスクデータである。f1はステップ1001で取出された(登録されていた)紙指紋情報中のグレイスケール画像データである。α2はステップ1002で紙指紋情報取得部507から送られてきた(今、取出されたばかりの)紙指紋情報中のマスクデータである。f2はステップ1002で紙指紋情報取得部507から送られてきた(今、取出されたばかりの)紙指紋情報中のグレイスケール画像データである。 In the equation (1), α 1 is mask data in the paper fingerprint information extracted (registered) in step 1001. f 1 is gray scale image data in the paper fingerprint information extracted (registered) in step 1001. alpha 2 is the mask data of the sent from the paper fingerprint information acquisition unit 507 in (now retrieved freshly) paper fingerprint information in step 1002. f 2 is a grayscale image data sent from the paper fingerprint information acquisition unit 507 in (now retrieved freshly) paper fingerprint information in step 1002.
具体的な方法を図19,20、21、22を用いて説明する。図19の(A)および(B)は、それぞれ登録されている紙指紋情報と今回得られた紙指紋情報のイメージ図を表す。それぞれ、横n画素、縦m画素から構成されているものとする。 A specific method will be described with reference to FIGS. FIGS. 19A and 19B are image diagrams of the registered paper fingerprint information and the paper fingerprint information obtained this time, respectively. Assume that each pixel is composed of horizontal n pixels and vertical m pixels.
式(1)に示した関数において、i,jをそれぞれ−n+1〜n−1、−m+1〜m−1の範囲でそれぞれ1画素毎にずらし、登録されていた紙指紋情報と今回得られたばかりの紙指紋情報の誤差値E(i,j)を(2n−1)×(2m−1)個求める。即ち、E(−n+1,−m+1)〜E(n−1,m−1)を求める。
In the function shown in Expression (1), i and j are shifted by 1 pixel in the range of −
図20の(A)は、登録されている紙指紋情報の左上1画素に対して、今回得られた紙指紋情報の右下1画素だけ重なっているイメージ図を表す。この状態において、式(1)の関数により求まる値をE(−n+1,−m+1)とする。図20の(B)は、図20の(A)よりも今回得られた紙指紋情報を右に1画素分だけ移動したイメージ図を表す。この状態において、式(1)の関数により求まる値をE(−n+2,−m+1)とする。同様に今回得られたばかりの紙指紋情報を移動させながら演算を行う。図20の(C)では、今回得られたばかりの紙指紋情報を、登録されていた紙指紋情報と重なるところまで移動させており、これによりE(0,−(m−1))が求まる。さらに、図20の(D)では、今回得られた紙指紋情報を右端まで移動して、E(n−1,−m+1)を求める。このように、横方向にずらすと、E(i,j)のうちのiが1づつ加算される。
FIG. 20A shows an image diagram in which the upper left pixel of the registered paper fingerprint information is overlapped by the lower right pixel of the obtained paper fingerprint information. In this state, the value obtained by the function of Expression (1) is E (−
同様に図21の(A)では、図20の(A)よりも、縦方向である下に1画素だけ今回得られた紙指紋情報を移動して、E(−n+1,−m+2)の値を求める。
Similarly, in FIG. 21A, the paper fingerprint information obtained this time is moved by one pixel downward in the vertical direction as compared with FIG. 20A, and the value of E (−
さらに図21の(B)は、図21の(A)に対して、今回得られた紙指紋情報を右端まで移動してE(n−1,−m+2)の値を求める。 Furthermore, FIG. 21 (B) moves the paper fingerprint information obtained this time to the right end with respect to FIG. 21 (A) and obtains the value of E (n−1, −m + 2).
図22の(A)は、登録されている紙指紋情報と今回得られた紙指紋情報が,同じ位置の場合を表し、このときのE(i,j)の値をE(0,0)とする。 FIG. 22A shows the case where the registered paper fingerprint information and the paper fingerprint information obtained this time are at the same position, and the value of E (i, j) at this time is represented by E (0,0). And
同様に、それぞれの紙指紋情報が少なくとも1画素以上重なるように画像をずらしながら演算を行う。最後に図22の(B)のように、E(n−1,m−1)を求める。 Similarly, the calculation is performed while shifting the images so that each paper fingerprint information overlaps at least one pixel. Finally, E (n−1, m−1) is obtained as shown in FIG.
このようにして、(2n−1)×(2m−1)個の誤差値E(i,j)の集合を求める。 In this way, a set of (2n−1) × (2m−1) error values E (i, j) is obtained.
ここで、この式(1)の意味を考えるために、i=0,j=0であり、かつ、α1(x,y)=1(ただし、x=0〜n,y=0〜m)であり、かつ、α2(x−i,y−j)=1(ただし、x=0〜n,y=0〜m)の場合を考えてみることにする。つまり、α1(x,y)=1(ただし、x=0〜n,y=0〜m)であり、かつ、α2(x−i,y−j)=1(ただし、x=0〜n,y=0〜m)の場合のE(0,0)を求めることにする。 Here, in order to consider the meaning of the equation (1), i = 0, j = 0, and α 1 (x, y) = 1 (where x = 0 to n, y = 0 to m ) And α 2 (x−i, y−j) = 1 (where x = 0 to n and y = 0 to m). That is, α 1 (x, y) = 1 (where x = 0 to n, y = 0 to m), and α 2 (xi, y−j) = 1 (where x = 0). E (0,0) in the case of .about.n, y = 0 to m).
なお、i=0,j=0とは、図22の(A)のように、登録されていた紙指紋情報と今回得られた紙指紋情報が同じ位置であることを示す。 Note that i = 0 and j = 0 indicate that the registered paper fingerprint information and the paper fingerprint information obtained this time are at the same position as shown in FIG.
ここで、α1(x,y)=1(ただし、x=0〜n,y=0〜m)は、登録されていた紙指紋情報の全ての画素が明るいことを示す。言い換えると、登録されていた紙指紋情報が取得された際には、紙指紋取得領域上には一切トナーやインクなどの色材やゴミがのっていなかったことを示す。 Here, α 1 (x, y) = 1 (where x = 0 to n, y = 0 to m) indicates that all pixels of the registered paper fingerprint information are bright. In other words, when the registered paper fingerprint information is acquired, it indicates that no color material such as toner or ink or dust has been placed on the paper fingerprint acquisition area.
また、α2(x−i,y−j)=1(ただし、x=0〜n,y=0〜m)は、今回取得した紙指紋情報の全ての画素が明るいことを示す。言い換えると、今取得されたばかりの紙指紋情報が取得された際には、紙指紋取得領域上には一切トナーやインクなどの色材やゴミがのっていなかったことを示す。 Further, α 2 (x−i, y−j) = 1 (where x = 0 to n, y = 0 to m) indicates that all pixels of the paper fingerprint information acquired this time are bright. In other words, when the paper fingerprint information just acquired is acquired, it indicates that no color material such as toner or ink or dust is on the paper fingerprint acquisition area.
このように、α1(x,y)=1とα2(x−i,y−j)=1とが全ての画素において成り立つ時、(1)式は、 Thus, when α 1 (x, y) = 1 and α 2 (x−i, y−j) = 1 hold in all pixels, the equation (1) becomes
と表されることになる。 Will be expressed.
この{f1(x,y)−f2(x,y)}2は、登録されていた紙指紋情報中のグレイスケール画像データと、今取出されたばかりの紙指紋情報中のグレイスケール画像データとの差の二乗値を示す。従って、この(1)式は、二つの紙指紋情報同士の各画素における差の二乗を合計したものになる。つまり、f1(x,y)とf2(x,y)とが似ている画素が多ければ多いほど、このE(0,0)は、小さな値を取ることになる。 This {f 1 (x, y) −f 2 (x, y)} 2 is the gray scale image data in the registered paper fingerprint information and the gray scale image data in the paper fingerprint information just extracted. The square value of the difference between Therefore, this equation (1) is the sum of the squares of the differences in each pixel between the two pieces of paper fingerprint information. That is, the more pixels f 1 (x, y) and f 2 (x, y) are similar, the smaller this E (0, 0) will be.
以上説明したのは、E(0,0)の求め方であるが、同じようにして他のE(i,j)を求めていく。ちなみに、f1(x,y)とf2(x,y)とが似ている画素が多ければ多いほどE(i,j)が小さな値を取ることから、
E(k,l)=min{E(i,j)}である場合、登録されていた紙指紋情報を取得した際の位置と、今取得されたばかりの紙指紋情報を取得した際の位置とは、互いにk,lずれていたことがわかる。
What has been described above is how to obtain E (0,0), but other E (i, j) are obtained in the same manner. Incidentally, since E (i, j) takes a smaller value as the number of pixels in which f 1 (x, y) and f 2 (x, y) are similar is larger,
If E (k, l) = min {E (i, j)}, the position when the registered paper fingerprint information is acquired, and the position when the paper fingerprint information just acquired is acquired It can be seen that they were shifted from each other by k and l.
<αの意義>
式(1)の分子は、{f1(x,y)−f2(x−i,y−j)}2に対してα1とα2とがかけられた結果を意味する(正確には、さらにΣ記号により合計値が求められている)。このα1とα2は、濃い色の画素は0、薄い色の画素は1を示す。
<Significance of α>
The numerator of formula (1) means the result of multiplying {f 1 (x, y) -f 2 (xi, yj)} 2 by α 1 and α 2 (exactly Is further determined by the Σ symbol). Α 1 and α 2 indicate 0 for a dark pixel and 1 for a light pixel.
従って、α1とα2とのうちどちらか一方(又は両方)が0の場合には、α1α2{f1(x,y)−f2(x−i,y−j)}2は0になることになる。 Accordingly, when one (or both) of α 1 and α 2 is 0, α 1 α 2 {f 1 (x, y) −f 2 (xi, y−j)} 2 Will be 0.
即ち、どちらか一方(または両方)の紙指紋情報において対象とする画素が濃い色であった場合には、その画素における濃度差は考慮しないことを示している。これは、ゴミや色材がのってしまった画素を無視するためである。 That is, when one or both (or both) of the paper fingerprint information has a dark pixel, the density difference between the pixels is not considered. This is for ignoring pixels on which dust or color material has been placed.
この処理により、Σ記号により合計する数が増減するため、総数Σα1(x,y)α2(x−i,y−j)で割ることで正規化を行う。なお、式(1)の分母にあるΣα1(x,y)α2(x−i,y−j)が0になる誤差値E(i,j)は、後述の誤差値の集合(E(−(n−1),−(m−1))〜E(n−1,m−1))には含めないものとする。 As a result of this processing, the total number increases or decreases depending on the Σ symbol, so normalization is performed by dividing by the total number Σα 1 (x, y) α 2 (xi, y−j). Note that an error value E (i, j) in which Σα 1 (x, y) α 2 (x−i, y−j) in the denominator of Expression (1) becomes 0 is a set of error values (E (-(N-1),-(m-1)) to E (n-1, m-1)) are not included.
<マッチング度合いの決定方法>
上述したように、E(k,l)=min{E(i,j)}である場合、登録されていた紙指紋情報を取得した際の位置と、今取得されたばかりの紙指紋情報を取得した際の位置とは互いにk,lずれていたことがわかる。
<Determination method of matching degree>
As described above, when E (k, l) = min {E (i, j)}, the position when the registered paper fingerprint information is acquired and the paper fingerprint information just acquired are acquired. It can be seen that the positions were shifted by k and l from each other.
続いて、二つの紙指紋情報がどれだけ似ているのかを示す値(この値を、マッチング度合いと称する)を、そのE(k,l)及び他のE(i,j)を使って求める。 Subsequently, a value indicating how much the two pieces of paper fingerprint information are similar (this value is referred to as a matching degree) is obtained using the E (k, l) and other E (i, j). .
まず、(1)の関数により求まった誤差値の集合(例えば、E(0,0)=10※,E(0,1)=50,E(1,0)=50,E(1,1)=50)から平均値(40)を求める。・・・(A)
なお、※は、値とは関係がない。単に注目すべき数値であることを示す記号である。
First, a set of error values obtained by the function of (1) (for example, E (0,0) = 10 *, E (0,1) = 50, E (1,0) = 50, E (1,1 ) = 50) to obtain the average value (40). ... (A)
Note that * is not related to the value. It is simply a symbol indicating that it should be noted.
次に、平均値(40)から各誤差値(10※,50,50,50)を引いて、新たな集合(30※,−10,−10,−10)を求める。・・・・(B)
そして、この新たな集合から標準偏差(30×30+10×10+10×10+10×10=1200,1200/4=300,√300=10√3=約17)を求める。そして、上記新たな集合を17で割り、商を求める(1※,−1,−1,−1)。・・・・(C)
そして、求められた値のうちの最大値をマッチング度合い(1※)とする。なお、この1※という値は、E(0,0)=10※という値と対応した値である。E(0,0)というのは、今回の場合、E(0,0)=min{E(i,j)}を満たす値である。
Next, each error value (10 *, 50, 50, 50) is subtracted from the average value (40) to obtain a new set (30 *, −10, −10, −10). .... (B)
Then, a standard deviation (30 × 30 + 10 × 10 + 10 × 10 + 10 × 10 = 1200, 1200/4 = 300, √300 = 10√3 = about 17) is obtained from this new set. Then, the new set is divided by 17 to obtain a quotient (1 *, -1, -1, -1). .... (C)
And let the maximum value of the calculated | required values be a matching degree (1 *). The
<マッチング度合いの決定方法の概念的な説明>
上記マッチング度合いの決定方法を行う処理は、結局、複数の誤差値集合の中で最も小さな誤差値が、平均的な誤差値とどれだけ離れているかを計算する(A及びB)。
<Conceptual explanation of how to determine the degree of matching>
The process of performing the matching degree determination method eventually calculates how far the smallest error value in the plurality of error value sets is from the average error value (A and B).
そして、その離れ具合を標準偏差で割ることでマッチング度合いを求める(C)。 Then, the degree of matching is obtained by dividing the degree of separation by the standard deviation (C).
最後にマッチング度合いを閾値と比較することで、照合結果を得る(D)。 Finally, a matching result is obtained by comparing the matching degree with a threshold (D).
なお、標準偏差は、「各誤差値と平均値との差」の平均的な値を意味する。言い換えると、標準偏差は、集合の中で大体どれくらいのばらつきが全体的に生じているかを示す値である。 The standard deviation means an average value of “difference between each error value and the average value”. In other words, the standard deviation is a value indicating how much variation occurs in the entire set.
このような全体的なばらつき値で上記離れ具合を割ることで、min{E(i,j)}が集合E(i,j)の中でどれだけ小さいか(突出して小さいか、ちょっと小さいか)がわかることになる。 By dividing the above degree of separation by such an overall variation value, how small is min {E (i, j)} in the set E (i, j) (projectingly small or slightly small) ) Will be understood.
そして、min{E(i,j)}が集合E(i,j)の中で非常に突出して小さい場合に有効と判断し、それ以外の場合に無効と判断する(D)。 Then, it is determined to be valid when min {E (i, j)} is very prominent and small in the set E (i, j), and is invalid otherwise (D).
<min{E(i,j)}が集合E(i,j)の中で非常に突出して小さい場合のみ有効と判断する理由>
ここで、登録されていた紙指紋情報と、今取得されたばかりの紙指紋情報とが、同じ紙から取得されたと仮定する。
<Reason why min {E (i, j)} is determined to be effective only when it is very small in the set E (i, j)>
Here, it is assumed that the registered paper fingerprint information and the paper fingerprint information just acquired are acquired from the same paper.
すると、登録されていた紙指紋情報と、今取得されたばかりの紙指紋情報とが極めて一致する場所(ずれ位置)があるはずである。この時、このずれ位置では、登録されていた紙指紋情報と、今取得されたばかりの紙指紋情報とが極めて一致するため、E(i,j)は非常に小さくなるはずである。 Then, there should be a place (shift position) where the registered paper fingerprint information and the paper fingerprint information just acquired are very consistent. At this time, at this misalignment position, the registered paper fingerprint information and the paper fingerprint information just acquired are very coincident, so E (i, j) should be very small.
一方、このずれ位置から少しでもずらすと、登録されていた紙指紋情報と今取得されたばかりの紙指紋情報には何ら関連性がなくなる。従って、E(i,j)は通常の大きな値になるはずである。 On the other hand, if the position is slightly shifted from this position, the registered paper fingerprint information and the paper fingerprint information just acquired are no longer relevant. Therefore, E (i, j) should be a normal large value.
そのため、「二つの紙指紋情報が同じ紙から取得された」という条件は、「最も小さなE(i,j)が集合E(i,j)の中で突出して小さい」という条件と一致する。 Therefore, the condition that “two pieces of paper fingerprint information are acquired from the same paper” matches the condition that “the smallest E (i, j) protrudes and is small in the set E (i, j)”.
<紙指紋情報照合処理>に戻る。 Return to <paper fingerprint information collation processing>.
ステップ1003では、ステップ1002において求められた2つの紙指紋情報のマッチング度合いと所定の閾値との比較を行って、「有効」「無効」を決定する。なお、マッチング度合いのことを類似度と称することもある。また、マッチング度合いと所定の閾値との比較結果のことを、照合結果と称することもある。 In step 1003, “valid” and “invalid” are determined by comparing the matching degree of the two pieces of paper fingerprint information obtained in step 1002 with a predetermined threshold value. Note that the degree of matching may be referred to as similarity. A comparison result between the matching degree and a predetermined threshold value may be referred to as a matching result.
コントローラ11の説明は以上である。 The description of the controller 11 has been described above.
<紙指紋情報登録処理のタブが押下された際の動作>
続いて、図8に示す紙指紋情報登録タブ808がユーザにより押下された後にスタートキーが押下された際に、実行される紙指紋情報登録処理について図11のフローチャートを用いて説明する。紙指紋情報登録タブ808のユーザによる押下は、特徴データの登録処理指示に相当し、これに応答して、紙指紋情報登録処理が実行される。
<Operation when the tab for paper fingerprint information registration processing is pressed>
Next, a paper fingerprint information registration process executed when the user presses the paper fingerprint
ユーザが白紙の用紙を201の原稿フィーダにセットして、紙指紋情報登録処理のタブを押下する。するとステップ1101では、CPU301は、スキャナ部13で白紙を読み取って得られた画像データをスキャナI/F311を介してスキャナ画像処理部312に送るように制御する。
The user sets a blank sheet in the
ステップ1102では、スキャナ画像処理部312は、一般的なゲイン調整値よりも小さいゲイン調整値を、シェーディング補正部600に設定する。そして、画像データに対して上記小さいゲイン調整値を適用することで得られた各輝度信号値を紙指紋情報取得部607に対して出力する。その後、図9に示すように出力データに基づいて、紙指紋情報取得部607は、紙指紋情報を取得する。そして、当該取得された紙指紋情報を不図示のデータバスを用いてRAM302に送る。この動作を、図14に示すような紙1405上の予め定められた複数の領域(1401等で例示する合計20の領域)に対して行い、紙上の全ての紙指紋情報をRAM302に記憶した後、紙1枚の全ての紙指紋情報をHDD304へ転送し記憶する。さらにRAM302に記憶された紙指紋情報に関しては、ステップ1102での処理が終了すると、ステップ1103の処理が開始される。
In
ステップ1103では、CPU301は、紙指紋情報を符号化して符号画像を生成し、一度RAM302上にその符号化情報(符号化データ)を記憶し、ついで、紙上の複数の紙指紋情報と対応づけて、図14の各領域ごとに符号化情報をHDD304へ記憶する。次にステップ1104において、201の原稿フィーダにまだ紙が残っているか否かを判定する。白紙の用紙がまだ201の原稿フィーダに残っている場合は、ステップ1101からの処理を繰り返し、白紙の用紙全ての紙指紋情報を読み込み、符号化する処理を繰り返す。201の原稿フィーダ上の紙がなくなった時点で、CPU301は処理を終了する。
In step 1103, the
次にユーザは、紙指紋情報を読み取り、符号化処理が終了した白紙の用紙を201の原稿フィーダから取り出し、用紙カセットの203、204、205または手差しの紙を給紙する部分で当該紙指紋を読み取った紙をセットする。次にユーザは、図8の810に示す印刷開始タブを押下することにより、画像処理装置は前記したように紙指紋情報を読み取った後の白紙の用紙を給紙して当該用紙に画像を形成する動作を開始する。
Next, the user reads the paper fingerprint information, takes out the blank paper that has been encoded, from the
次に図12のフロチャートを使用して、例えば1頁分のPDLデータをレンダリングして保存する際の動作について説明を行う。 Next, using the flowchart of FIG. 12, for example, an operation when rendering and saving one page of PDL data will be described.
CPU301は、まず外部のホストコンピュータからLAN50を介して転送されたネットワークのパケットデータを、ネットワークI/F306を介して、一度RAM302に格納する。CPU301は格納されたパケットデータを解析してPDLデータを取り出し、そのPDLデータをHDD304へ格納する。次にHDD304から再びPDLデータを取り出し、RIP部328でレンダリングを行う。
First, the
ステップ1202では、圧縮部329で、RIP部328で生成された新たな画像データを32画素×32画素のブロック単位に分割しタイルデータを生成する。さらに圧縮部329は、この複数のタイルデータからなる画像データを圧縮する。
In
ステップ1203では、CPU301は、圧縮部329で圧縮された画像データをRAM302に送って格納する。なお、この画像データは必要に応じて画像変換部317に送られ所定の画像処理が施された上で再びRAM302に送られ格納される。次にCPU301は、HDD304にRAM302上の画像データを格納し、処理を終了する。
In
次に図13のフローチャートを用いて、CPU301で前記のようにレンダリングされた画像の非画像領域を検出する際の動作の説明を行う。CPU301が図13のフローチャートに従って動作することによって、非画像領域検出手段の機能が実現される。まずステップ1301において、HDD304に格納された画像データを読み出し、RAM302に転送を行う。次にステップ1302において、伸張部318を使用して圧縮された画像を伸張し、次にステップ1303において変倍部321を使用してたとえば1200dpiでレンダリングされた画像を300dpiの画像に変倍を行う。次にCPU301は、ステップ1304において多値2値部324を使用して、例えば1画素あたり8bitの多値画像データをモノクロ2値の画像に変換を行う。2値データに変換された画像データは再びRAM302に記憶される。RAM302に記憶された画像データは例えば図14のような1頁上の画像1402,1403,1404が記憶される。次にCPU301は、ステップ1305において、図14に示されるような2値画像データをRAM302を読み取ることによって解析を行い、1ページ中の非画像領域を判定する。ついで、ステップ1306で、次の処理を行う。即ち、非画像領域の解析の結果、先に図11で説明したスキャナ部13を用いて紙指紋を読み取った白紙の複数の固定領域の中で、図14の例えば領域Aや領域Bや領域Cなど、非画像領域に位置しているものを紙指紋領域として選択し処理を終了する。ここで、CPU301は、選択した紙指紋領域情報と、前記紙指紋を読み取った白紙に印字する画像とを関連付けてRAM302に記憶することができる。即ち、前記紙指紋を読み取った白紙に印字する画像としては、図13で説明したレンダリングされた画像データまたはスキャナ部で読み取ってHDD内に記憶されている画像データがある。さらに、画像データを特定するための情報である属性データに、特徴データである選択した紙指紋領域情報を関連付けてRAM302に記憶することができる。CPU301はこの関連付け手段を構成する。なお、ステップ1306で選択されなかった固定領域のデータは破棄することもできる。
Next, the operation when the
次に印刷時の動作について、図15のフローチャートを使用して説明を行う。まずステップ1501において、CPU301は前記したようにHDD304に記憶されている印刷する画像データを読み出し、RAM302に転送を行う。なお、HDD304に記憶されている印刷する画像データとしては、前述したレンダリングされた画像データの他に、スキャナ部13を用いて読み取った画像データも含まれる。次にステップ1502においてCPU301はプリンタ部14へ指示を行い、先に紙指紋を複数箇所読み取った後ユーザが手差しまたは用紙カセット203、204、205にセットした紙を給紙させる。即ち、これは、前記の印刷する画像データを印刷する原本としての用紙を給紙させることに相当する。次にステップ1503においてCPU301は、装置内部スキャナ部1705,スキャナ画像処理部332,圧縮部333を使用して、給紙された紙の前述のステップ1306で選択された領域に対応する領域の紙指紋情報を紙搬送路上で取得する。この装置内部スキャナ部705は、搬送される紙上の1306で選択された領域が読めればよい。例えば、紙の幅方向の一部が読めればよく、原稿全面をよめる読み取り手段より小型化できる。もちろん、原稿全面を読めてもよい。例えば図14における、領域Cの紙指紋情報を取得し、RAM302にそのデータを転送させる。次にCPU301はステップ1504において、HDD304に記憶されている紙指紋情報の中に、RAM302に転送されている給紙された紙上(記録媒体表面上)の領域Cの紙指紋情報と一致するデータがあるか否かを検索する。ステップ1505でHDD304中に一致する紙指紋情報が存在しないと判断した場合は、ステップ1506へ処理を移行し、操作部12へエラーのメッセージを表示して処理を終了する。ステップ1505でHDD304内部に一致する紙指紋情報が存在した場合は、ステップ1507において、図14の領域AとBに相当する位置の、先(S1103)に符号化したデータをHDD304から読み出し、符号画像データとしてRAM302に記憶する。この時点で、A、B以外の位置の紙指紋情報の符号化情報は使用されないので、HD304から消去してよい。その結果HD304の容量を有効に使える。この符号画像データは紙指紋情報をバーコード化した画像であったり、電子透かしに変換した透かし画像である。
Next, the operation during printing will be described using the flowchart of FIG. First, in step 1501, the
次にステップ1508では、プリンタ画像処理部315は、画像データに付随されている属性データに応じた画像データ編集を行う。この処理は図7で示した処理である。このステップでは、ステップ1507で読み出された符号画像データと(原稿の)画像データとが合成される。そして、当該合成により得られた合成画像データを中間調補正部706が、出力するプリンタ部の階調数に合わせて中間調処理を行う。中間調処理後の合成画像データはプリンタI/F314を介してプリンタ部14に送られる。プリンタ部14は合成画像データを出力用紙上に画像形成し、終了する。これによって、原本用の用紙として正しく認識された用紙上に画像を正しく印刷することができる。
In
<紙紋紙指紋情報照合処理のタブが押下された際の動作>
続いて、図8に示す紙紋紙指紋情報照合タブ809がユーザにより押下された後にスタートキーが押下された際の動作について図16を用いて説明する。
<Operation when the tab for fingerprint information collation processing on the paper pattern is pressed>
Next, an operation when the start key is pressed after the user has pressed the paper fingerprint
ステップ1601では、CPU301は、スキャナ部13で読み取られた原稿を、画像データとしてスキャナI/F311を介してスキャナ画像処理部312に送るように制御する。
In
ステップ1602では、スキャナ画像処理部312は、この画像データに対して<スキャナ画像処理部312の詳細説明(図6)>で述べたような処理を行い、新たな画像データと共に属性データを生成する。また、この属性データを画像データに付随させる。
In
さらに、このステップ1602では、スキャナ画像処理部312内の紙指紋情報取得部607は、紙指紋情報を取得する(紙指紋情報を取得するために、シェーディング補正部600のゲイン調整を行うなどの構成は上述した通りである)。そして、当該取得された紙指紋情報を不図示のデータバスを用いてRAM302に送る。
Further, in
さらに、このステップ1602では、スキャナ画像処理部312内の復号部608は、符号画像が存在する場合に、当該符号画像を復号して情報を取得する。そして、当該取得された情報を不図示のデータバスを用いてRAM302に送る。
Further, in
ステップ1603では、CPU301は、紙指紋情報照合処理を行う。この紙指紋情報照合処理については、<紙指紋情報照合処理>で説明した通りである。
In step 1603, the
ステップ1604では、CPU301は、<紙指紋情報照合処理>により得られた結果(有効か無効か)を操作部12の表示画面上に表示するように制御する。
In
以上説明したように、紙などの画像記録媒体上の複数の紙指紋情報を予め読み取っておき、機体内部のスキャナでは、ある固定領域の紙指紋情報を読み取るだけで、予め読み取った1ページのすべての紙指紋情報と一致判断を行うことが出来る。このため、機体内部のスキャナは1ページ全てを読み込む必要がなくなり、機体内部のスキャナのコストを下げることが可能となる。 As described above, a plurality of paper fingerprint information on an image recording medium such as paper is read in advance, and the scanner inside the machine simply reads the paper fingerprint information in a certain fixed area. It is possible to make a match with the paper fingerprint information. For this reason, it is not necessary for the scanner inside the machine to read the entire page, and the cost of the scanner inside the machine can be reduced.
[実施例2]
第二の実施例では、紙などの画像記録媒体の紙指紋情報をサーバに記憶しておき、印刷する際にサーバから紙指紋情報を取得する。第一の実施例と同様の部分は詳細な説明を省略する。
[Example 2]
In the second embodiment, paper fingerprint information of an image recording medium such as paper is stored in a server, and the paper fingerprint information is acquired from the server when printing. Detailed description of the same parts as those in the first embodiment will be omitted.
第二の実施例が第一の実施例と異なる点は、図18に示されるようにネットワーク上に紙指紋情報を記憶しておくサーバ1801を設けたことである。紙指紋情報を記憶する手段が画像形成装置から、サーバ1801に代わっただけで、その処理自体は第一の実施例で詳述した内容と同様である。プリンタや複写機において使用する紙などは、紙を製造しているメーカから得られるが、紙製造時に紙上の複数箇所の紙指紋情報を取得し、図10で示されたような1ページの紙上の複数箇所の紙指紋情報を、紙ごとにサーバに登録しておく。紙指紋の登録方法に関しては、第一の実施例で説明した図9に示したフローチャートに沿って紙毎に紙指紋情報を取得し、さらに必要なら、<紙指紋情報符号化処理>も実行して、サーバ171801に記憶しておくものとする。
The second embodiment differs from the first embodiment in that a
次に紙上に印刷データを印字する場合を説明する。これは、図15のフローチャートにしたがって行われ、ステップ1504においてHDD304ではなく、ネットワークI/F306を介して、ネットワーク50上にアクセスし、サーバ1801に対して紙指紋情報の問い合わせを行う。前述した<紙指紋情報照合処理>はサーバ上で行う。サーバのネットワーク上のアドレスはユーザが予め登録しておいても、例えば紙の包装紙にあるバーコードなどからアドレスがリンク付けされており、プリンタもしくは複写機でサーバ1801を自動的に登録しておくことなども可能である。問い合わせの結果、紙指紋情報が検出された場合は、図15のステップS1507以降の処理を行うことで紙指紋の符号データを印刷したい画像データに合成して印刷することが可能となる。
Next, a case where print data is printed on paper will be described. This is performed according to the flowchart of FIG. 15. In step 1504, the
サーバ1801で紙指紋情報(さらにはその符号化画像)を記憶させることにより、ユーザ以外が紙指紋をユーザが使用しているスキャナや複写機を使用せず登録することも可能となる。さらに、複写機やプリンタ、スキャナを複数所有しているユーザにとって、紙指紋情報を1つのサーバで管理することも可能となる。
By storing the paper fingerprint information (and the encoded image thereof) in the
(その他の実施例)
さらに本発明は、複数の機器(例えばコンピュータ、インターフェース機器、リーダ、プリンタなど)から構成されるシステムに適用することも、一つの機器からなる装置(複合機、プリンタ、ファクシミリ装置など)に適用することも可能である。
(Other examples)
Further, the present invention can be applied to a system constituted by a plurality of devices (for example, a computer, an interface device, a reader, a printer, etc.), and can also be applied to an apparatus (multifunction device, printer, facsimile machine, etc.) comprising a single device. It is also possible.
また本発明の目的は、上述した実施例で示したフローチャートの手順を実現するプログラムコードを記憶した記憶媒体から、システムあるいは装置のコンピュータ(またはCPUやMPU)が、そのプログラムコードを読出し実行することによっても達成される。この場合、記憶媒体から読み出されたプログラムコード自体が上述した実施形態の機能を実現することになる。そのため、このプログラムコード及びプログラムコードを記憶した記憶媒体も本発明の一つを構成することになる。 Another object of the present invention is that a computer (or CPU or MPU) of a system or apparatus reads and executes the program code from a storage medium that stores the program code for realizing the procedure of the flowchart shown in the above-described embodiment. Is also achieved. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment. Therefore, the program code and a storage medium storing the program code also constitute one of the present invention.
プログラムコードを供給するための記憶媒体としては、例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。 As a storage medium for supplying the program code, for example, a floppy (registered trademark) disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, magnetic tape, nonvolatile memory card, ROM, or the like is used. be able to.
またコンピュータが読み出したプログラムコードを実行することにより、上述した実施形態の機能が実現されるだけでなく、次の場合も含まれる。即ち、そのプログラムコードの指示に基づきコンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって上述した実施形態の機能が実現される場合も含まれる。 Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also the following cases are included. That is, the case where the OS (operating system) running on the computer performs part or all of the actual processing based on the instruction of the program code, and the functions of the above-described embodiments are realized by the processing. It is.
更に、記憶媒体から読出されたプログラムコードを、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込むこともできる。この場合、その書き込まれたプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって上述した実施形態の機能が実現される。 Furthermore, the program code read from the storage medium can be written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. In this case, based on the instruction of the written program code, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing. The
1401,A,B,C 領域
1402,1403,1404 画像
1405 紙
1401, A, B,
Claims (13)
特徴データ照合処理指示に応答して、前記第1の読み取り手段を使用して前記画像形成手段に供給される前の画像記録媒体の表面の特徴データを取得し、
前記比較手段によって、前記取得した特徴データと、前記第2の記憶手段内の他の特徴データとを比較することを特徴とする画像処理方法。 Using the image processing device according to any one of claims 7 to 11,
In response to the feature data collation processing instruction, the feature data of the surface of the image recording medium before being supplied to the image forming unit using the first reading unit is acquired,
An image processing method, wherein the comparison means compares the acquired feature data with other feature data in the second storage means.
特徴データ登録処理指示に応答して、前記第2の読み取り手段によって画像記録媒体を光学的に読み取り、
前記第2の読み取り手段による読み取り結果に基づいて検出された特徴データを前記第1の記憶手段に記憶し、
前記非画像領域検出手段によって、前記画像記録媒体上に記録する画像データを参照して、当該画像データが前記画像記録媒体上で記録されない非画像の領域を検出し、
前記特徴データ選択手段によって、前記第1の記憶手段に記憶されている前記画像記録媒体の複数箇所の特徴データのうち、前記非画像領域検出手段によって検出された非画像領域に該当する特徴データを選択し、
前記選択された特徴データを画像記録媒体を特定するための特徴データとして前記第2の記憶手段に記憶し、
前記第1の読み取り手段によって、前記画像形成手段に供給される途中の搬送路上で画像記録媒体表面上の幅方向の一部を光学的に読み取り、
前記比較手段によって、前記第1の読み取り手段による読み取り結果に基づいて検出された前記画像記録媒体表面上の特徴データと前記第2の記憶手段に記憶されている複数の特徴データとを比較し、
前記比較手段による比較結果に基づいて前記第1の読み取り手段によって読み取られた前記画像記録媒体表面上の特徴データが前記第2の記憶手段に記憶されている複数の特徴データのいずれかと一致すると判断された場合は前記第1の読み取り手段によって特徴データが読み取られた前記画像記録媒体に、前記合成手段による合成後の前記画像データに対応する画像を前記画像形成手段によって形成することを特徴とする画像処理方法。 Using the image processing apparatus of claim 10;
In response to the characteristic data registration processing instruction, the second reading unit optically reads the image recording medium,
Storing feature data detected based on a reading result by the second reading unit in the first storage unit;
The non-image area detecting means refers to image data to be recorded on the image recording medium, detects a non-image area in which the image data is not recorded on the image recording medium,
Feature data corresponding to the non-image area detected by the non-image area detection means among the feature data of the plurality of locations of the image recording medium stored in the first storage means by the feature data selection means. Selected,
Storing the selected feature data in the second storage means as feature data for specifying an image recording medium;
The first reading unit optically reads a part in the width direction on the surface of the image recording medium on a conveyance path in the middle of being supplied to the image forming unit,
Comparing the feature data on the surface of the image recording medium detected based on the reading result by the first reading means with the plurality of feature data stored in the second storage means by the comparing means;
Based on the comparison result by the comparison means, it is determined that the feature data on the surface of the image recording medium read by the first reading means matches any one of the plurality of feature data stored in the second storage means. In this case, the image forming unit forms an image corresponding to the image data combined by the combining unit on the image recording medium from which the characteristic data is read by the first reading unit. Image processing method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007079446A JP2008244611A (en) | 2007-03-26 | 2007-03-26 | Image processing unit and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007079446A JP2008244611A (en) | 2007-03-26 | 2007-03-26 | Image processing unit and image processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008244611A true JP2008244611A (en) | 2008-10-09 |
Family
ID=39915441
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007079446A Pending JP2008244611A (en) | 2007-03-26 | 2007-03-26 | Image processing unit and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008244611A (en) |
-
2007
- 2007-03-26 JP JP2007079446A patent/JP2008244611A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4810413B2 (en) | Image processing apparatus and image processing method | |
JP4732315B2 (en) | Image processing apparatus and method | |
JP4886584B2 (en) | Image processing apparatus, image processing method, and program thereof | |
KR100805594B1 (en) | Density determination method, image forming apparatus, and image processing system | |
JP4836260B2 (en) | Image forming apparatus, image forming method, recording medium, and program | |
US8031378B2 (en) | Device for controlling image processing based on paper fingerprint | |
US7379214B2 (en) | Image processing apparatus capable of processing image embedded with digital watermark, method for controlling the image processing apparatus, and storage medium storing program to execute the method | |
JP4834531B2 (en) | Image processing apparatus, image processing apparatus control method, and program | |
JP4812106B2 (en) | Image reading apparatus and control method thereof | |
JP2009005312A (en) | Image processing apparatus and image processing method, computer program, and storage medium | |
JP2009077049A (en) | Image reader | |
JP2009075751A (en) | Image processing apparatus, image processing method, program of same, and computer-readable storage medium | |
JP4663682B2 (en) | Image processing apparatus, image processing method, program, and storage medium | |
JP4709090B2 (en) | Image processing apparatus, image processing apparatus control method, and program | |
JP2008283586A (en) | Image processor, control method of image processor, program and storage medium | |
JP2008141683A (en) | Image processor, method and program, and storage medium | |
JP4267029B2 (en) | Image processing apparatus, image processing method, image processing method program, and storage medium therefor | |
US8059296B2 (en) | Image forming apparatus that synthesizes fiber information extracted from pages of a paper medium having a plurality of pages, and an image forming apparatus control method, a program, and a storage medium relating thereto | |
JP2007043656A (en) | Density determination method, image forming apparatus, and image processing system | |
JP2010050551A (en) | Image formation device | |
JP2008227910A (en) | Image forming apparatus, image forming method, image forming program, and storage medium stored with image forming program | |
JP2008066840A (en) | Image processor, image processing method, program of image processing method and its storage medium | |
JP2008244611A (en) | Image processing unit and image processing method | |
JP2008289093A (en) | Method of certifying copy, and image processing system and apparatus related thereto | |
JP2010056912A (en) | Image processing apparatus |