JP2008123456A - Image processing method, image processing device, image forming device, computer program, and recording medium - Google Patents

Image processing method, image processing device, image forming device, computer program, and recording medium Download PDF

Info

Publication number
JP2008123456A
JP2008123456A JP2006309556A JP2006309556A JP2008123456A JP 2008123456 A JP2008123456 A JP 2008123456A JP 2006309556 A JP2006309556 A JP 2006309556A JP 2006309556 A JP2006309556 A JP 2006309556A JP 2008123456 A JP2008123456 A JP 2008123456A
Authority
JP
Japan
Prior art keywords
image
written
document
registered
original
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006309556A
Other languages
Japanese (ja)
Inventor
Tsuyoshi Owaku
剛志 大和久
Masakazu Ohira
雅和 大平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2006309556A priority Critical patent/JP2008123456A/en
Publication of JP2008123456A publication Critical patent/JP2008123456A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing method, an image processing device, an image forming device, and a computer program capable of extracting an inserted image inserted in an original image more easily than ever before, and a recording medium in which the computer program is recorded. <P>SOLUTION: A document collation processing part 22 calculates a hash value based on an inputted original image, judges whether or not the original image is similar to the registration format stored beforehand based on the calculated hash value, and, if it is judged to be similar, judges whether or not an insertion is made into the original image, and extracts the images inserted into the original image. The document collation processing part 22 collates the extracted images inserted into the original image with the inserted images stored in association with the registration format judged to be similar to the original image, and extracts the inserted images similar to the images inserted into the original image. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、取得した原稿画像と予め登録してある登録画像とを照合し、照合結果に基づいて原稿画像に対する処理を行う画像処理方法、画像処理装置、該画像処理装置を備える画像形成装置、前記画像処理装置を実現するためのコンピュータプログラム、及び該コンピュータプログラムを記録した記録媒体に関する。   The present invention relates to an image processing method, an image processing apparatus, and an image forming apparatus including the image processing apparatus, which collate an acquired document image with a registered image registered in advance and perform processing on the document image based on the collation result. The present invention relates to a computer program for realizing the image processing apparatus and a recording medium on which the computer program is recorded.

スキャナで原稿を読み取り、読み取った原稿画像が予め登録されたフォーマットに類似するか否か判定する処理としては、OCRで読み取った画像からキーワードを抽出し、抽出したキーワードによりパターンマッチングを行う方法、あるいは判定を行う原稿を罫線がある帳票原稿に限定し、読み取った原稿から抽出した罫線に関する情報によりパターンマッチングを行う方法などが提案されている。   As a process of reading an original with a scanner and determining whether the read original image is similar to a pre-registered format, a method of extracting a keyword from an image read with an OCR and performing pattern matching with the extracted keyword, or A method is proposed in which the document to be determined is limited to a form document with ruled lines, and pattern matching is performed based on information about ruled lines extracted from the read document.

類似判定に用いるフォーマットを登録するには、登録用に入力された入力画像に対して、線分抽出、文字枠抽出、文字認識又は枠抽出などの認識処理を行い、認識結果から枠データの中心座標、文字列枠の中心座標、連結枠情報などの情報(例えば、特徴点)を抽出する。次に、抽出した情報より特徴量(例えば、ハッシュ値)を算出し、テーブル管理に必要なデータ(特徴量、モデル名、特徴量を算出するのに用いたパラメータなど)を作成してハッシュテーブルに登録することにより、フォーマットの登録を行う。   To register the format used for similarity determination, recognition processing such as line segment extraction, character frame extraction, character recognition, or frame extraction is performed on the input image input for registration, and the center of the frame data is determined from the recognition result. Information (for example, feature points) such as coordinates, center coordinates of character string frames, and connection frame information is extracted. Next, a feature amount (for example, a hash value) is calculated from the extracted information, and data necessary for table management (feature amount, model name, parameters used for calculating the feature amount, etc.) is created and a hash table is created. By registering with, format registration is performed.

原稿の類似判定を行う場合には、入力された原稿画像に対して認識処理を行い、認識結果から枠データの中心座標、文字列枠の中心座標、連結枠情報などの情報(例えば、特徴点)を抽出する。そして、各情報に対する特徴量(例えば、ハッシュ値)を算出し、算出した特徴量を用いて、予め登録されたハッシュテーブルのエリアを検索し、検索したエリア内の登録帳票名ごとに投票を行う。これらの処理を入力された原稿画像の特徴点毎に繰り返し、ヒストグラムの最も大きいモデルを認識結果として類似度を計算する。原稿画像が登録されたフォーマットに類似すると確認された場合、原稿画像に識別子を付与して保存する。また、原稿(入力帳票)がいずれの種類の登録帳票であるかが判明した場合、ハッシュテーブルのプロット位置から枠データへの対応付けを行い、その枠内の画像を切り出して、登録帳票名と関連付けたファイル名を用いて、切り出した部分画像のみを保存する。このような処理を行うことにより、原稿画像と登録されたフォーマットとのマッチングを自動的に行ってユーザの処理工程を軽減することができる画像(原稿画像)のファイリング装置が提案されている(特許文献1参照)。
特許第3469345号公報
When similarity determination of a document is performed, recognition processing is performed on an input document image, and information such as center coordinates of frame data, center coordinates of a character string frame, connection frame information, and the like (for example, feature points) from the recognition result. ). Then, a feature amount (for example, a hash value) for each information is calculated, a pre-registered hash table area is searched using the calculated feature amount, and voting is performed for each registered form name in the searched area. . These processes are repeated for each feature point of the input document image, and the similarity is calculated using the model with the largest histogram as the recognition result. When it is confirmed that the document image is similar to the registered format, an identifier is assigned to the document image and stored. Also, when it is determined which type of registered form the manuscript (input form) is, it is associated with the frame data from the plot position of the hash table, the image within the frame is cut out, and the registered form name and Using the associated file name, save only the cut out partial image. By performing such processing, an image (original image) filing device has been proposed that can automatically match an original image with a registered format and reduce the user's processing steps (patent). Reference 1).
Japanese Patent No. 3469345

しかしながら、特許文献1の装置にあっては、ファイル名を登録帳票名と関連付けるとともに、枠データが示す属性と関連付けることにより、効率的なファイル管理あるいは検索を行うことができる点が指摘されているものの、登録されているデータ量が多い場合、登録帳票名又は枠データに関連付けられたファイル名を確認した上で検索する必要があるため、原稿画像に書き込まれた書込み画像を抽出するには、検索に要する処理が膨大になり、処理時間がかかる虞があった。また、原稿の一部に汚れ、あるいは欠落部分がある場合には、登録されたフォーマットを検索して原稿に書き込まれた元の書込み画像を抽出することができなかった。   However, in the apparatus of Patent Document 1, it is pointed out that efficient file management or search can be performed by associating the file name with the registered form name and the attribute indicated by the frame data. However, if there is a large amount of registered data, it is necessary to search after confirming the file name associated with the registered form name or frame data, so to extract the written image written on the original image, There is a possibility that the processing required for the search becomes enormous and takes a long time. In addition, when a part of the document is dirty or missing, it is impossible to retrieve the original written image written on the document by searching the registered format.

本発明は、斯かる事情に鑑みてなされたものであり、原稿画像が登録画像に類似するか否かを判定し、原稿画像が登録画像に類似する場合、該原稿画像に書き込まれた原稿書込み画像を特定し、特定した原稿書込み画像が前記原稿画像に類似する登録画像に関連付けられた書込み画像に類似するか否かを判定し、前記原稿書込み画像が書込み画像に類似する場合、該書込み画像を抽出することにより、従来よりも簡単に原稿に書き込まれた書込み画像を抽出することができる画像処理方法、画像処理装置、該画像処理装置を備える画像形成装置、前記画像処理装置を実現するためのコンピュータプログラム、及び該コンピュータプログラムを記録した記録媒体を提供することを目的とする。   The present invention has been made in view of such circumstances, and determines whether or not an original image is similar to a registered image. If the original image is similar to a registered image, the original writing written on the original image is performed. An image is specified, and it is determined whether or not the specified document writing image is similar to a writing image associated with a registered image similar to the document image. If the document writing image is similar to the writing image, the writing image In order to realize an image processing method, an image processing apparatus, an image forming apparatus provided with the image processing apparatus, and the image processing apparatus, which can extract a written image written on a document more easily than in the past. It is an object of the present invention to provide a computer program and a recording medium on which the computer program is recorded.

また、本発明の他の目的は、登録画像の書込み画像が書き込まれた箇所の選択を受け付け、原稿画像に書込みがされているか否かを判定する場合、前記原稿画像の選択された箇所に対応する箇所を除外し、特定した原稿書込み画像が登録画像の書込み画像に類似するか否かを判定する場合、選択された箇所の書込み画像を除外することにより、原稿の一部に汚れ、あるいは欠落などがある場合であっても、原稿に書き込まれた書込み画像を抽出することができる画像処理方法、画像処理装置、及び該画像処理装置を備える画像形成装置を提供することにある。   Another object of the present invention is to accept selection of a location where a written image of a registered image is written, and to determine whether or not the original image is written, it corresponds to the selected location of the original image. If it is determined whether or not the specified original writing image is similar to the registered image writing image, by excluding the writing image of the selected portion, a part of the original is soiled or missing. The present invention is to provide an image processing method, an image processing apparatus, and an image forming apparatus including the image processing apparatus that can extract a written image written on a document even if there is a problem.

また、本発明の他の目的は、原稿書込み画像が書込み画像に類似すると判定した場合、該書込み画像に関連付けられた登録画像と前記書込み画像とを合成し、合成した登録画像及び書込み画像を出力することにより、書込みがされた元の原稿を復元することができる画像処理方法、画像処理装置、及び該画像処理装置を備える画像形成装置を提供することにある。   Another object of the present invention is to synthesize a registered image associated with the written image and the written image when it is determined that the original written image is similar to the written image, and output the combined registered image and written image. Accordingly, an object of the present invention is to provide an image processing method, an image processing apparatus, and an image forming apparatus including the image processing apparatus that can restore the original document that has been written.

また、本発明の他の目的は、原稿画像に書込みがされているか否かを判定する場合、該原稿画像の各画素の濃度値に基づいて下地の有無を判定し、下地がある場合、下地を除去することにより、原稿に書き込まれた書込み画像を精度良く抽出することができる画像処理方法、画像処理装置、及び該画像処理装置を備える画像形成装置を提供することにある。   Another object of the present invention is to determine whether or not a document image has been written, to determine the presence or absence of a background based on the density value of each pixel of the document image. It is an object of the present invention to provide an image processing method, an image processing apparatus, and an image forming apparatus including the image processing apparatus that can accurately extract a written image written on a document by removing the image.

また、本発明の他の目的は、原稿に書き込まれた書込み画像を登録画像に関連付けて記憶することができる画像処理装置、及び該画像処理装置を備える画像形成装置を提供することにある。   Another object of the present invention is to provide an image processing apparatus capable of storing a written image written on a document in association with a registered image, and an image forming apparatus including the image processing apparatus.

本発明に係る画像処理方法は、取得した原稿画像が予め登録された登録画像に類似するか否かを判定し、判定結果に基づいて登録画像に書き込まれた書込み画像を抽出する画像処理方法において、複数の登録画像夫々に対して定められた1又は複数の箇所に書き込まれた書込み画像を前記登録画像に関連付けて複数記憶してあり、原稿画像が登録画像に類似するか否かを判定し、原稿画像が登録画像に類似する場合、該原稿画像に書込みがされているか否かを判定し、書込みがされている場合、前記原稿画像に書き込まれた原稿書込み画像を特定し、特定した原稿書込み画像が前記原稿画像に類似する登録画像に関連付けられた書込み画像に類似するか否かを判定し、前記原稿書込み画像が書込み画像に類似する場合、該書込み画像を抽出することを特徴とする。   An image processing method according to the present invention is an image processing method for determining whether an acquired document image is similar to a registered image registered in advance, and extracting a written image written in the registered image based on the determination result. A plurality of write images written in one or a plurality of locations determined for each of the plurality of registered images are stored in association with the registered image, and it is determined whether the document image is similar to the registered image. If the document image is similar to the registered image, it is determined whether or not the document image has been written. If the document image has been written, the document writing image written in the document image is identified, and the identified document is identified. It is determined whether the written image is similar to a written image associated with a registered image similar to the original image. If the original written image is similar to the written image, the written image is extracted. It is characterized in.

本発明に係る画像処理方法は、登録画像の書込み画像が書き込まれた箇所の選択を受け付け、原稿画像に書込みがされているか否かを判定する場合、前記原稿画像の選択された箇所に対応する箇所を除外し、特定した原稿書込み画像が登録画像の書込み画像に類似するか否かを判定する場合、選択された箇所の書込み画像を除外することを特徴とする。   The image processing method according to the present invention accepts selection of a place where a written image of a registered image is written, and when determining whether or not writing is performed on the original image, corresponds to the selected place of the original image. When the portion is excluded and it is determined whether or not the specified original writing image is similar to the writing image of the registered image, the writing image at the selected portion is excluded.

本発明に係る画像処理方法は、原稿書込み画像が書込み画像に類似すると判定した場合、該書込み画像に関連付けられた登録画像と前記書込み画像とを合成し、合成した登録画像及び書込み画像を出力することを特徴とする。   In the image processing method according to the present invention, when it is determined that the original written image is similar to the written image, the registered image associated with the written image and the written image are combined, and the combined registered image and written image are output. It is characterized by that.

本発明に係る画像処理方法は、原稿画像に書込みがされているか否かを判定する場合、該原稿画像の各画素の濃度値に基づいて下地の有無を判定し、下地がある場合、下地を除去することを特徴とする。   In the image processing method according to the present invention, when determining whether or not a document image has been written, the presence or absence of a background is determined based on the density value of each pixel of the document image. It is characterized by removing.

本発明に係る画像処理装置は、取得した原稿画像が予め登録された登録画像に類似するか否かを判定し、判定結果に基づいて登録画像に書き込まれた書込み画像を抽出する画像処理装置において、複数の登録画像夫々に対して定められた1又は複数の箇所に書き込まれた書込み画像を前記登録画像に関連付けて複数記憶する手段と、原稿画像が登録画像に類似するか否かを判定する手段と、原稿画像が登録画像に類似する場合、該原稿画像に書込みがされているか否かを判定する手段と、書込みがされている場合、前記原稿画像に書き込まれた原稿書込み画像を特定する手段と、特定した原稿書込み画像が前記原稿画像に類似する登録画像に関連付けられた書込み画像に類似するか否かを判定する手段と、前記原稿書込み画像が書込み画像に類似する場合、該書込み画像を抽出する手段とを備えることを特徴とする。   An image processing apparatus according to the present invention is an image processing apparatus that determines whether or not an obtained document image is similar to a registered image registered in advance, and extracts a written image written in the registered image based on the determination result. A means for storing a plurality of write images written in one or a plurality of locations determined for each of the plurality of registered images in association with the registered image, and determining whether the document image is similar to the registered image. And means for determining whether or not the original image is written when the original image is similar to the registered image, and specifying the original written image written on the original image when the original is written Means for determining whether the specified document writing image is similar to a writing image associated with a registered image similar to the document image; and If you like, characterized in that it comprises means for extracting 該書 fitted image.

本発明に係る画像処理装置は、登録画像の書込み画像が書き込まれた箇所の選択を受け付ける受付手段と、原稿画像に書込みがされているか否かを判定する場合、前記原稿画像の前記受付手段により選択された箇所に対応する箇所を除外する手段と、特定した原稿書込み画像が登録画像の書込み画像に類似するか否かを判定する場合、前記受付手段により選択された箇所の書込み画像を除外する手段とを備えることを特徴とする。   The image processing apparatus according to the present invention includes: a receiving unit that receives a selection of a portion where a written image of a registered image is written; and a determination unit that determines whether or not a document image has been written. When determining whether to exclude a portion corresponding to the selected portion and whether the specified original writing image is similar to the writing image of the registered image, the writing image at the portion selected by the receiving unit is excluded. Means.

本発明に係る画像処理装置は、原稿書込み画像が書込み画像に類似すると判定した場合、該書込み画像に関連付けられた登録画像と前記書込み画像とを合成する手段と、該手段で合成された登録画像及び書込み画像を出力する手段とを備えることを特徴とする。   When it is determined that the original writing image is similar to the writing image, the image processing apparatus according to the present invention combines a registered image associated with the writing image with the writing image, and a registered image combined by the means. And means for outputting a written image.

本発明に係る画像処理装置は、原稿画像に書込みがされているか否かを判定する場合、該原稿画像の各画素の濃度値に基づいて下地の有無を判定する手段と、下地がある場合、下地を除去する手段とを備えることを特徴とする。   The image processing apparatus according to the present invention, when determining whether or not the document image has been written, when determining whether there is a background based on the density value of each pixel of the document image, And a means for removing the ground.

本発明に係る画像処理装置は、原稿画像に書き込まれた原稿書込み画像の登録を受け付ける手段と、該手段で原稿書込み画像の登録を受け付けた場合、前記原稿画像に類似する登録画像を特定する手段と、前記原稿画像に書き込まれた原稿書込み画像を特定する手段と、該手段で特定された原稿書込み画像を前記登録画像に対して定められた箇所に関連付けて記憶する手段とを備えることを特徴とする。   An image processing apparatus according to the present invention includes means for accepting registration of an original writing image written in an original image, and means for specifying a registered image similar to the original image when registration of the original writing image is accepted by the means. And means for specifying an original writing image written in the original image, and means for storing the original writing image specified by the means in association with a location determined for the registered image. And

本発明に係る画像形成装置は、前述の発明のいずれか1つに係る画像処理装置と、該画像処理装置で処理された画像に基づいて出力画像を形成する画像形成手段とを備えることを特徴とする。   An image forming apparatus according to the present invention includes: the image processing apparatus according to any one of the above-described inventions; and an image forming unit that forms an output image based on an image processed by the image processing apparatus. And

本発明に係るコンピュータプログラムは、コンピュータに、取得した原稿画像が予め登録された登録画像に類似するか否かを判定し、判定結果に基づいて登録画像に書き込まれた書込み画像を抽出させるためのコンピュータプログラムにおいて、コンピュータを、原稿画像が登録画像に類似するか否かを判定する手段と、コンピュータを、原稿画像が登録画像に類似する場合、該原稿画像に書込みがされているか否かを判定する手段と、コンピュータを、書込みがされている場合、前記原稿画像に書き込まれた原稿書込み画像を特定する手段と、コンピュータを、特定した原稿書込み画像が前記原稿画像に類似する登録画像に対して定められた1又は複数の箇所に書き込まれた書込み画像に類似するか否かを判定する手段と、コンピュータを、前記原稿書込み画像が書込み画像に類似する場合、該書込み画像を抽出する手段として機能させることを特徴とする。   A computer program according to the present invention causes a computer to determine whether or not an acquired document image is similar to a registered image registered in advance, and to extract a written image written in the registered image based on the determination result In the computer program, the computer determines whether the original image is similar to the registered image, and the computer determines whether the original image is written when the original image is similar to the registered image. And means for specifying the original writing image written in the original image, if the computer is written, and the computer for a registered image in which the specified original writing image is similar to the original image. Means for determining whether or not the image is similar to a written image written in one or more predetermined locations, and a computer If the document written image is similar to the write image, characterized in that to function as a means for extracting the 該書 fitted image.

本発明に係るコンピュータでの読み取りが可能な記録媒体は、前述の発明に係るコンピュータプログラムを記録してあることを特徴とする。   A recording medium readable by a computer according to the present invention records the computer program according to the above-described invention.

本発明にあっては、取得した原稿画像が予め登録された登録画像に類似するか否かを判定し、原稿画像が登録画像に類似すると判定された場合、取得した原稿画像に書込みがされているか否かを判定する。原稿画像に書込みがされている場合、該原稿画像に書き込まれた原稿書込み画像を特定する。特定した原稿書込み画像が前記原稿画像に類似する登録画像に関連付けられた書込み画像に類似するか否かを判定し、前記原稿書込み画像が書込み画像に類似する場合、該書込み画像を抽出する。すなわち、原稿画像と登録画像とを照合することにより、原稿画像に類似する登録画像を特定する。登録画像には、所定の箇所に書き込まれた書込み画像が関連付けられてあり、原稿画像に書き込まれた原稿書込み画像と登録画像に関連付けられた書込み画像とを照合することにより、原稿画像の原稿書込み画像に類似する書込み画像を抽出する。これにより、原稿に書き込まれた元の書込み画像を抽出する。   In the present invention, it is determined whether or not the acquired document image is similar to a registered image registered in advance. If it is determined that the document image is similar to the registered image, the acquired document image is written. It is determined whether or not. When writing is performed on the document image, the document writing image written on the document image is specified. It is determined whether or not the specified document writing image is similar to a writing image associated with a registered image similar to the document image. If the document writing image is similar to the writing image, the writing image is extracted. That is, the registered image similar to the document image is specified by collating the document image with the registered image. The registered image is associated with a written image written at a predetermined location, and the original image of the original image is written by collating the original written image written on the original image with the written image associated with the registered image. A written image similar to the image is extracted. As a result, the original written image written on the original is extracted.

また、本発明にあっては、登録画像の書込み画像が書き込まれた箇所の選択を受け付ける。例えば、原稿画像と登録画像とを照合して、原稿画像に類似する登録画像が特定された場合、その登録画像に対して予め定められ箇所であって書込み画像が書き込まれた箇所を表示することにより、利用者による所要箇所の選択を受け付ける。選択される箇所は、例えば、原稿の汚れがある部分、あるいは欠落部分を含む箇所に対応する箇所である。原稿画像に書込みがされているか否かを判定する場合、前記原稿画像の選択された箇所に対応する箇所を除外し、特定した原稿書込み画像が登録画像の書込み画像に類似するか否かを判定する場合、選択された箇所の書込み画像を除外する。これにより、原稿に汚れ又は欠落部分がある場合であっても、その部分を除外して原稿画像の書込みの有無を判定するとともに、原稿書込み画像と登録画像の書込み画像を照合することができ、原稿の一部に欠落がある場合、あるいは汚れがある場合でも、原稿の元の書込み画像を抽出することができる。   In the present invention, selection of a portion where a written image of a registered image is written is accepted. For example, when a registered image similar to the document image is identified by comparing the document image with the registered image, a predetermined portion of the registered image where the written image is written is displayed. Thus, selection of a required part by the user is accepted. The selected part is, for example, a part corresponding to a part where the original is dirty or a part including a missing part. When determining whether or not a document image has been written, the portion corresponding to the selected portion of the document image is excluded, and it is determined whether or not the specified document written image is similar to the registered image. If so, the written image at the selected location is excluded. As a result, even if there is a dirty or missing part in the document, it is possible to determine whether or not the document image is written by excluding that part, and to verify the document written image and the registered image written image, Even when a part of the document is missing or dirty, the original written image of the document can be extracted.

また、本発明にあっては、原稿画像の原稿書込み画像と登録画像の書込み画像とを照合して、原稿書込み画像が書込み画像に類似すると判定した場合、該書込み画像に関連付けられた登録画像と前記書込み画像とを合成し、合成した登録画像及び書込み画像を出力する。これにより、原稿画像に類似する登録画像に元の書込み画像を合成することができ、元の原稿を復元することができる。   Further, in the present invention, when the original written image of the original image is compared with the written image of the registered image and it is determined that the original written image is similar to the written image, the registered image associated with the written image The written image is synthesized and the synthesized registered image and written image are output. As a result, the original written image can be synthesized with the registered image similar to the original image, and the original original can be restored.

また、本発明にあっては、原稿画像に書込みがされているか否かを判定する場合、該原稿画像の各画素の濃度値に基づいて下地の有無を判定し、下地がある場合、下地を除去する。例えば、下地であると判断される濃度値の最大値を予め第1の閾値として定めておくとともに、どれだけの画素数以上であれば下地であると判断するか、すなわち、下地であると判断される画素数の最小値を予め第2の閾値として定めておく。原稿画像の各画素の濃度値に基づいて、濃度ヒストグラムを作成し、作成した濃度ヒストグラムの高濃度側から検索することにより、下地であると判断される第1の閾値以下の濃度区分にあって、画素数が第2の閾値以上の濃度区分を下地として抽出する。下地として抽出した濃度区分に対応する濃度補正テーブルにより下地除去処理を行う。これにより、原稿の紙の退色の影響、スキャナで画像データを読み込む際の読み取り条件の変動による影響などを吸収することができる。   Further, in the present invention, when determining whether or not a document image has been written, the presence or absence of a background is determined based on the density value of each pixel of the document image. Remove. For example, the maximum density value determined to be the background is set in advance as the first threshold value, and how many pixels the number of pixels is determined to be the background, that is, the background is determined. A minimum value of the number of pixels to be processed is determined in advance as a second threshold value. Based on the density value of each pixel of the original image, a density histogram is created, and the density classification below the first threshold determined to be the background is obtained by searching from the high density side of the created density histogram. , A density section having the number of pixels equal to or greater than the second threshold is extracted as a background. Background removal processing is performed using a density correction table corresponding to the density classification extracted as the background. As a result, it is possible to absorb the influence of the fading of the original paper, the influence of fluctuations in the reading conditions when the image data is read by the scanner.

また、本発明にあっては、原稿画像に書き込まれた原稿書込み画像の登録を受け付けた場合、原稿画像に類似する登録画像を特定するとともに、原稿画像に書き込まれた原稿書込み画像を特定する。特定された登録画像に対して定められた箇所に関連付けて特定された原稿書込み画像を記憶することにより、原稿に書き込まれた原稿書込み画像を書込み画像として登録する。   In the present invention, when registration of a document writing image written on a document image is received, a registered image similar to the document image is specified and a document writing image written on the document image is specified. By storing the original writing image specified in association with a predetermined location for the specified registered image, the original writing image written on the original is registered as a writing image.

本発明にあっては、原稿画像が登録画像に類似するか否かを判定し、原稿画像が登録画像に類似する場合、該原稿画像に書き込まれた原稿書込み画像を特定し、特定した原稿書込み画像が前記原稿画像に類似する登録画像に関連付けられた書込み画像に類似するか否かを判定し、前記原稿書込み画像が書込み画像に類似する場合、該書込み画像を抽出することにより、従来よりも簡単に原稿に書き込まれた書込み画像を抽出することができる。   In the present invention, it is determined whether or not the document image is similar to the registered image. If the document image is similar to the registered image, the document writing image written in the document image is specified, and the specified document writing is specified. It is determined whether or not an image is similar to a written image associated with a registered image similar to the original image, and when the original written image is similar to the written image, the written image is extracted, so that The written image written on the original can be extracted easily.

本発明にあっては、登録画像の書込み画像が書き込まれた箇所の選択を受け付け、原稿画像に書込みがされているか否かを判定する場合、前記原稿画像の選択された箇所に対応する箇所を除外し、特定した原稿書込み画像が登録画像の書込み画像に類似するか否かを判定する場合、選択された箇所の書込み画像を除外することにより、原稿の一部に汚れ、あるいは欠落などがある場合であっても、原稿に書き込まれた書込み画像を抽出することができる。   In the present invention, when receiving a selection of a portion where a written image of a registered image is written and determining whether or not writing is performed on a document image, a portion corresponding to the selected portion of the document image is selected. When determining whether or not the specified original writing image is similar to the writing image of the registered image, by excluding the writing image at the selected location, a part of the original is soiled or missing. Even in this case, it is possible to extract the written image written on the document.

本発明にあっては、原稿書込み画像が書込み画像に類似すると判定した場合、該書込み画像に関連付けられた登録画像と前記書込み画像とを合成し、合成した登録画像及び書込み画像を出力することにより、書込みがされた元の原稿を復元することができる。   In the present invention, when it is determined that the original written image is similar to the written image, the registered image associated with the written image is combined with the written image, and the combined registered image and written image are output. The original document that has been written can be restored.

本発明にあっては、原稿画像に書込みがされているか否かを判定する場合、該原稿画像の各画素の濃度値に基づいて下地の有無を判定し、下地がある場合、下地を除去することにより、原稿に書き込まれた書込み画像を精度良く抽出することができる。   In the present invention, when determining whether or not writing has been performed on the document image, the presence or absence of a background is determined based on the density value of each pixel of the document image, and if there is a background, the background is removed. Thus, it is possible to accurately extract the written image written on the original.

本発明にあっては、原稿に書き込まれた原稿書込み画像を登録画像に関連付けて記憶することができる。   In the present invention, the original writing image written on the original can be stored in association with the registered image.

実施の形態1
以下、本発明を実施の形態を示す図面に基づいて説明する。図1は本発明に係る画像処理装置を備える画像形成装置100の構成を示すブロック図である。画像形成装置100(例えば、デジタルカラー複写機や複合機能、プリンタ機能、ファックスや電子メール配信機能を備えた複合機)は、カラー画像入力装置1、カラー画像処理装置2(画像処理装置)、画像形成手段としてのカラー画像出力装置3、各種操作を行うための操作パネル4などを備える。カラー画像入力装置1で原稿を読み取ることにより得られたRGB(R:赤、G:緑、B:青)のアナログ信号の画像データは、カラー画像処理装置2へ出力され、カラー画像処理装置2で所定の処理が行われ、CMYK(C:シアン、M:マゼンタ、Y:イエロー、K:黒)のデジタルカラー信号としてカラー画像出力装置3へ出力される。
Embodiment 1
Hereinafter, the present invention will be described with reference to the drawings illustrating embodiments. FIG. 1 is a block diagram illustrating a configuration of an image forming apparatus 100 including an image processing apparatus according to the present invention. The image forming apparatus 100 (for example, a digital color copier, a multi-function machine, a multi-function machine having a printer function, a fax function or an e-mail delivery function) includes a color image input device 1, a color image processing device 2 (image processing device), an image A color image output device 3 as a forming unit, an operation panel 4 for performing various operations, and the like are provided. Image data of RGB (R: red, G: green, B: blue) analog signals obtained by reading a document with the color image input device 1 is output to the color image processing device 2, and the color image processing device 2. Then, a predetermined process is performed and output to the color image output device 3 as a digital color signal of CMYK (C: cyan, M: magenta, Y: yellow, K: black).

カラー画像入力装置1は、例えば、CCD(Charged Coupled Device)を備えたスキャナであり、原稿画像からの反射光像をRGBのアナログ信号として読み取り、読み取ったRGB信号をカラー画像処理装置2へ出力する。また、カラー画像出力装置3は、原稿画像の画像データを記録紙上に出力する電子写真方式やインクジェット方式などを用いた画像形成手段である。また、カラー画像出力装置3は、ディスプレイ等の表示装置であってもよい。   The color image input device 1 is, for example, a scanner including a CCD (Charged Coupled Device), reads a reflected light image from a document image as an RGB analog signal, and outputs the read RGB signal to the color image processing device 2. . The color image output device 3 is an image forming unit using an electrophotographic system or an inkjet system that outputs image data of a document image onto a recording sheet. The color image output device 3 may be a display device such as a display.

カラー画像処理装置2は、CPU、ASIC(Application Specific Integrated Circuit)などにより構成される。   The color image processing apparatus 2 includes a CPU, an application specific integrated circuit (ASIC), and the like.

A/D変換部20は、カラー画像入力装置1から入力されたRGB信号を、例えば、10ビットのデジタル信号に変換し、変換後のRGB信号をシェーディング補正部21へ出力する。   The A / D conversion unit 20 converts the RGB signal input from the color image input device 1 into, for example, a 10-bit digital signal, and outputs the converted RGB signal to the shading correction unit 21.

シェーディング補正部21は、入力されたRGB信号に対して、カラー画像入力装置1の照明系、結像系、撮像系などで生じた各種の歪みを取り除く補正処理を行う。また、シェーディング補正部21は、濃度信号などカラー画像処理装置2で採用されている画像処理システムが扱い易い信号に変換する処理を行い、補正後のRGB信号(画像)を文書照合処理部22へ出力する。   The shading correction unit 21 performs correction processing for removing various distortions generated in the illumination system, imaging system, imaging system, and the like of the color image input apparatus 1 on the input RGB signal. Further, the shading correction unit 21 performs processing for converting the signal such as a density signal into a signal that can be handled easily by the image processing system employed in the color image processing apparatus 2, and outputs the corrected RGB signal (image) to the document matching processing unit 22. Output.

文書照合処理部22は、入力された画像を二値化し、二値画像に基づいて特定された連結領域の特徴点(例えば、重心)を算出し、算出した特徴点の中から複数の特徴点を選択し、選択した特徴点に基づいて不変量を求め、該不変量に基づいて特徴量(例えば、ハッシュ値)を算出する。文書照合処理部22は、算出した特徴量に基づいて入力された画像(原稿画像)が予め記憶されている登録フォーマット(登録画像)に類似するか否かを判定(照合)し、類似すると判定した場合、入力画像(原稿画像)に書込みがされているか否かを判定し、書込みされた画像(原稿書込み画像)を抽出する。   The document matching processing unit 22 binarizes the input image, calculates a feature point (for example, the center of gravity) of the connected region specified based on the binary image, and a plurality of feature points from the calculated feature points Is selected, an invariant is obtained based on the selected feature point, and a feature amount (for example, a hash value) is calculated based on the invariant. The document collation processing unit 22 determines (collates) whether or not an image (original image) input based on the calculated feature amount is similar to a registered format (registered image) stored in advance, and determines that they are similar. In this case, it is determined whether or not the input image (original image) has been written, and the written image (original written image) is extracted.

また、文書照合処理部22は、抽出した原稿書込み画像と、照合の結果原稿画像と類似すると判定された登録フォーマットに関連付けて記憶してある書込み画像とを照合し、原稿書込み画像と類似する書込み画像を抽出する。文書照合処理部22は、原稿画像と登録フォーマットとの照合結果、原稿書込み画像の有無の判定結果、登録フォーマットに関連付けられた書込み画像の抽出結果などの処理結果を出力する。また、文書照合処理部22は、入力されたRGB信号をそのまま後段の入力階調補正部23へ出力する。   Further, the document collation processing unit 22 collates the extracted document writing image with the writing image stored in association with the registered format determined to be similar to the document image as a result of the collation, and writes similar to the document writing image. Extract images. The document collation processing unit 22 outputs processing results such as a collation result between a document image and a registered format, a determination result of the presence / absence of a document written image, and a written image extraction result associated with the registered format. In addition, the document collation processing unit 22 outputs the input RGB signal as it is to the subsequent input tone correction unit 23.

入力階調補正部23は、入力されたRGB信号(RGBの反射率信号)に対して、カラーバランスを整える処理を行うとともに、下地濃度の除去又はコントラストなど画質調整処理を施し、処理後のRGB信号を領域分離処理部24へ出力する。   The input tone correction unit 23 performs a process of adjusting the color balance on the input RGB signal (RGB reflectance signal), and performs an image quality adjustment process such as removal of background density or contrast, and the processed RGB signal The signal is output to the region separation processing unit 24.

領域分離処理部24は、入力されたRGB信号に基づき、入力された画像中の各画素が、文字領域、網点領域、写真領域の何れであるかを分離する。領域分離処理部24は、分離結果に基づいて、各画素がどの領域に属しているかを示す領域識別信号を黒生成下色除去部26、空間フィルタ処理部27、出力階調補正部28、階調再現処理部29へ出力する。また、領域分離処理部24は、入力されたRGB信号をそのまま後段の色補正部25へ出力する。   Based on the input RGB signal, the region separation processing unit 24 separates whether each pixel in the input image is a character region, a halftone dot region, or a photographic region. Based on the separation result, the region separation processing unit 24 generates a region identification signal indicating which region each pixel belongs to, a black generation and under color removal unit 26, a spatial filter processing unit 27, an output tone correction unit 28, a floor. Output to the key reproduction processing unit 29. The region separation processing unit 24 outputs the input RGB signal as it is to the subsequent color correction unit 25.

色補正部25は、入力されたRGB信号をCMYの色空間に変換し、カラー画像出力装置3の特性に合わせて色補正を行い、補正後のCMY信号を黒生成下色除去部26へ出力する。具体的には、色補正部25は、色再現の忠実化のため、不要吸収成分を含むCMY色材の分光特性に基づいた色濁りを取り除く処理を行う。   The color correction unit 25 converts the input RGB signal into a CMY color space, performs color correction in accordance with the characteristics of the color image output device 3, and outputs the corrected CMY signal to the black generation and under color removal unit 26. To do. Specifically, the color correction unit 25 performs a process of removing color turbidity based on the spectral characteristics of CMY color materials including unnecessary absorption components in order to make color reproduction faithful.

黒生成下色除去部26は、色補正部25から入力されたCMY信号に基づいて、K(黒)信号を生成するとともに、入力されたCMY信号からK信号を差し引いて新たなCMY信号を生成し、生成したCMYK信号を空間フィルタ処理部27へ出力する。   The black generation and under color removal unit 26 generates a K (black) signal based on the CMY signal input from the color correction unit 25 and generates a new CMY signal by subtracting the K signal from the input CMY signal. Then, the generated CMYK signal is output to the spatial filter processing unit 27.

黒生成下色除去部26における処理の一例を示す。例えば、スケルトンブラックによる黒生成を行う処理の場合、スケルトンカーブの入出力特性をy=f(x)とし、入力されるデータをC、M、Yとし、出力されるデータをC′、M′、Y′、K′とし、UCR(Under Color Removal)率をα(0<α<1)とすると、黒生成下色除去処理により出力されるデータ夫々は、K′=f{min(C、M、Y)}、C′=C−αK′、M′=M−αK′、Y′=Y−αK′で表される。   An example of processing in the black generation and under color removal unit 26 is shown. For example, in the process of generating black by skeleton black, the input / output characteristic of the skeleton curve is y = f (x), the input data is C, M, Y, and the output data is C ′, M ′. , Y ′, K ′, and the UCR (Under Color Removal) rate is α (0 <α <1), the data output by the black generation and under color removal processing is K ′ = f {min (C, M, Y)}, C ′ = C−αK ′, M ′ = M−αK ′, and Y ′ = Y−αK ′.

空間フィルタ処理部27は、黒生成下色除去部26から入力されたCMYK信号に対して、領域識別信号に基づいたデジタルフィルタによる空間フィルタ処理を行う。これにより、画像データの空間周波数特性が補正され、カラー画像出力装置3における出力画像のぼやけ、又は粒状性劣化を防止する。例えば、空間フィルタ処理部27は、領域分離処理部24において文字領域に分離された領域を、特に黒文字又は色文字の再現性を高めるため、鮮鋭強調処理を施し高周波成分を強調する。また、空間フィルタ処理部27は、領域分離処理部24において網点領域に分離された領域を、入力網点成分を除去するためのローパス・フィルタ処理を施す。空間フィルタ処理部27は、処理後のCMYK信号を出力階調補正部28へ出力する。   The spatial filter processing unit 27 performs spatial filter processing on the CMYK signal input from the black generation and under color removal unit 26 using a digital filter based on the region identification signal. As a result, the spatial frequency characteristics of the image data are corrected, and blurring of the output image in the color image output device 3 or deterioration of graininess is prevented. For example, the spatial filter processing unit 27 performs sharp enhancement processing on the region separated into character regions by the region separation processing unit 24 to enhance the reproducibility of black characters or color characters, and emphasizes high frequency components. The spatial filter processing unit 27 performs low-pass filter processing for removing the input halftone component on the region separated into the halftone dot region by the region separation processing unit 24. The spatial filter processing unit 27 outputs the processed CMYK signal to the output tone correction unit 28.

出力階調補正部28は、空間フィルタ処理部27から入力されたCMYK信号に対して、カラー画像出力装置3の特性値である網点面積率に変換する出力階調補正処理を行い、出力階調補正処理後のCMYK信号を階調再現処理部29へ出力する。   The output tone correction unit 28 performs an output tone correction process for converting the CMYK signal input from the spatial filter processing unit 27 into a halftone dot area ratio that is a characteristic value of the color image output device 3, and The CMYK signal after the tone correction processing is output to the gradation reproduction processing unit 29.

階調再現処理部29は、領域分離処理部24から入力された領域識別信号に基づいて、出力階調補正部28から入力されたCMYK信号に対して所定の処理を行う。例えば、階調再現処理部29は、文字領域に分離された領域を、特に黒文字又は色文字の再現性を高めるため、カラー画像出力装置3における高周波成分の再現に適するように二値化処理又は多値化処理を行う。   The gradation reproduction processing unit 29 performs predetermined processing on the CMYK signal input from the output gradation correction unit 28 based on the region identification signal input from the region separation processing unit 24. For example, the tone reproduction processing unit 29 performs binarization processing or the like so as to be suitable for reproduction of high-frequency components in the color image output device 3 in order to improve the reproducibility of the area separated into character areas, particularly black characters or color characters. Multilevel processing is performed.

また、階調再現処理部29は、領域分離処理部24において網点領域に分離された領域を、最終的に画像を画素に分離して、それぞれの階調を再現できるように階調再現処理(中間調生成)を行う。さらに、階調再現処理部29は、領域分離処理部24において写真領域に分離された領域を、カラー画像出力装置3における階調再現性に適するように二値化処理又は多値化処理を行う。   In addition, the gradation reproduction processing unit 29 performs gradation reproduction processing so that the region separated by the halftone dot region in the region separation processing unit 24 can be finally separated into pixels and the respective gradations can be reproduced. (Generate halftone). Further, the gradation reproduction processing unit 29 performs binarization processing or multi-value quantization processing on the region separated into the photographic region by the region separation processing unit 24 so as to be suitable for gradation reproducibility in the color image output device 3. .

カラー画像処理装置2は、階調再現処理部29で処理された画像データ(CMYK信号)を記憶部(不図示)に一旦記憶し、画像形成をする所定のタイミングで記憶部に記憶した画像データを読み出し、読み出した画像データをカラー画像出力装置3へ出力する。これらの制御は、例えば、CPU(不図示)により行われる。また、カラー画像処理装置2内のCPU(不図示)は、文書照合処理部22から出力された処理結果に基づいて、原稿画像に対する出力処理(例えば、ファイリング、複写、電子配信など)を制御する。   The color image processing apparatus 2 temporarily stores the image data (CMYK signal) processed by the gradation reproduction processing unit 29 in a storage unit (not shown), and stores the image data in the storage unit at a predetermined timing for image formation. And the read image data is output to the color image output device 3. These controls are performed by a CPU (not shown), for example. Further, a CPU (not shown) in the color image processing apparatus 2 controls output processing (for example, filing, copying, electronic distribution, etc.) for a document image based on the processing result output from the document matching processing unit 22. .

操作パネル4は、例えば、液晶ディスプレイなどの表示部と設定ボタンなどより構成され、操作パネル4より入力された情報に基づいてカラー画像入力装置1、カラー画像処理装置2、カラー画像出力装置3の動作が制御される。例えば、操作パネル4には登録モード、検索モードの選択ボタンが表示され、ユーザが登録モード、検索モードを選択することができる。登録モードを選択することにより、登録フォーマット(登録画像)又は原稿画像に書き込まれた原稿書込み画像を登録(記憶)することができる。また、検索モードを選択することにより、原稿の一部が欠落、あるいは汚れがあるため、再度元の原稿を出力するような場合、あるいは原稿に書き込まれた文字、記号、図表などの情報(書込み画像)を変更する必要が生じ、書き込まれた情報の差し替えを行う場合に、原稿画像に基づいて、元の書込み画像を抽出することができる。   The operation panel 4 includes, for example, a display unit such as a liquid crystal display and a setting button. The color image input device 1, the color image processing device 2, and the color image output device 3 are based on information input from the operation panel 4. Operation is controlled. For example, a registration mode / search mode selection button is displayed on the operation panel 4, and the user can select the registration mode / search mode. By selecting the registration mode, the registration format (registered image) or the original writing image written on the original image can be registered (stored). In addition, by selecting the search mode, part of the document is missing or dirty, so when the original document is output again, or information such as characters, symbols, and charts written on the document (writing When it is necessary to change the written image and the written information is replaced, the original written image can be extracted based on the original image.

図2は文書照合処理部22の構成を示すブロック図である。文書照合処理部22は、特徴点算出部220、特徴量算出部221、投票処理部222、類似度判定処理部223、書込み領域抽出部224、登録制御部225、圧縮/伸張処理部226、検索処理部227、合成処理部228、前述の各部を制御する制御部229、メモリ50などを備えている。   FIG. 2 is a block diagram showing a configuration of the document matching processing unit 22. The document collation processing unit 22 includes a feature point calculation unit 220, a feature amount calculation unit 221, a voting processing unit 222, a similarity determination processing unit 223, a writing area extraction unit 224, a registration control unit 225, a compression / decompression processing unit 226, a search A processing unit 227, a synthesis processing unit 228, a control unit 229 for controlling the above-described units, a memory 50, and the like are provided.

特徴点算出部220は、入力された画像(原稿画像)に対して後述する所定の処理を行うとともに、入力画像の文字列あるいは罫線の連結領域を抽出し、連結領域の特徴点(例えば、重心)を算出する。より具体的には、特徴点算出部220は、入力された画像を二値化し、二値画像に基づいて特定された連結領域の特徴点(例えば、連結領域を構成する各画素の二値画像における座標値を累積加算し、累積加算した座標値を連結領域に含まれる画素数で除算した値)を抽出(算出)し、抽出した特徴点を特徴量算出部221へ出力する。   The feature point calculation unit 220 performs predetermined processing to be described later on the input image (original image), extracts a character string or ruled line connection region of the input image, and extracts feature points (for example, the center of gravity) of the connection region. ) Is calculated. More specifically, the feature point calculation unit 220 binarizes the input image, and the feature points of the connected area specified based on the binary image (for example, the binary image of each pixel constituting the connected area). (The value obtained by dividing the accumulated coordinate value by the number of pixels included in the connected region) is extracted (calculated), and the extracted feature points are output to the feature amount calculation unit 221.

図3は特徴点算出部220の構成を示すブロック図である。特徴点算出部220は、無彩化処理部2200、解像度変換部2201、フィルタ処理部2202、二値化処理部2203、重心算出部2204などを備えている。   FIG. 3 is a block diagram illustrating a configuration of the feature point calculation unit 220. The feature point calculation unit 220 includes an achromatic processing unit 2200, a resolution conversion unit 2201, a filter processing unit 2202, a binarization processing unit 2203, a centroid calculation unit 2204, and the like.

無彩化処理部2200は、入力された画像がカラー画像である場合、カラー画像を無彩化して、輝度信号又は明度信号に変換し、変換後の画像を解像度変換部2201へ出力する。例えば、輝度信号Yjは、各画素RGBの色成分を夫々Rj、Gj、Bjとし、Yj=0.30×Rj+0.59×Gj+0.11×Bjで表すことができる。なお、上式に限らず、RGB信号をCIE1976L*** 信号に変換することもできる。 If the input image is a color image, the achromatic processing unit 2200 achromatizes the color image, converts it to a luminance signal or a brightness signal, and outputs the converted image to the resolution conversion unit 2201. For example, the luminance signal Yj can be expressed as Yj = 0.30 × Rj + 0.59 × Gj + 0.11 × Bj, where Rj, Gj, and Bj are the color components of each pixel RGB. Note that the RGB signal is not limited to the above formula, and can be converted into a CIE1976L * a * b * signal.

解像度変換部2201は、入力された画像がカラー画像入力装置1で光学的に変倍された場合であっても、所定の解像度になるように入力された画像を再度変倍し、変倍された画像をフィルタ処理部2202へ出力する。これにより、カラー画像入力装置1で変倍処理が行われ解像度が変化した場合であっても、その影響を受けることなく特徴点の抽出を行うことができ、精度良く原稿を分類することができる。特に、縮小された文字などの場合、二値化処理を行って連結領域を特定するとき、文字が潰れているために本来離れている領域が繋がった状態で特定され、算出される重心がずれる虞を防止できる。また、解像度変換部2201は、カラー画像入力装置1で等倍時に読み込まれる解像度よりも小さい解像度に変換する。例えば、カラー画像入力装置1において600dpi(dot per inch)で読み込まれた画像を300dpiに変換する。これにより、後段における処理量を低減することができる。   Even when the input image is optically scaled by the color image input apparatus 1, the resolution conversion unit 2201 scales the input image again so that the predetermined resolution is obtained, and the scaled image is scaled. The image is output to the filter processing unit 2202. As a result, even when scaling processing is performed in the color image input apparatus 1 and the resolution changes, feature points can be extracted without being affected by the change, and the originals can be classified with high accuracy. . In particular, in the case of a reduced character or the like, when binarization processing is performed and a connected region is specified, the character is crushed and the originally separated regions are connected and the calculated center of gravity is shifted. Fear can be prevented. Also, the resolution conversion unit 2201 converts the resolution to a resolution smaller than the resolution read at the same magnification by the color image input apparatus 1. For example, an image read at 600 dpi (dot per inch) in the color image input device 1 is converted to 300 dpi. Thereby, the processing amount in the latter stage can be reduced.

フィルタ処理部2202は、入力された画像が有する空間周波数特性を補正し(例えば、画像の強調化処理及び平滑化処理など)、補正後の画像を二値化処理部2203へ出力する。フィルタ処理部2202は、カラー画像入力装置1の空間周波数特性が機種ごとに異なるため、異なる空間周波数特性を所要の特性に補正する。カラー画像入力装置1が出力する画像(例えば、画像信号)には、レンズ又はミラーなどの光学系部品、CCDの受光面のアパーチャ開口度、転送効率、残像、物理的な走査による積分効果及び走査むら等に起因して画像のぼけなどの劣化が生ずる。フィルタ処理部2202は、境界又はエッジなどの強調処理を行うことにより、画像に生じたぼけなどの劣化を修復する。また、フィルタ処理部2202は、後段で処理される特徴点の抽出処理に不要な高周波成分を抑制するための平滑化処理を行う。これにより、特徴点を精度良く抽出することができ、結果として画像の類似度の判定を精度良く行うことが可能となる。なお、フィルタ処理部2202で使用するフィルタ係数は、使用されるカラー画像入力装置1の機種又は特性などに応じて適宜設定することができる。   The filter processing unit 2202 corrects the spatial frequency characteristics of the input image (for example, image enhancement processing and smoothing processing), and outputs the corrected image to the binarization processing unit 2203. Since the spatial frequency characteristics of the color image input device 1 are different for each model, the filter processing unit 2202 corrects the different spatial frequency characteristics to the required characteristics. An image (for example, an image signal) output from the color image input apparatus 1 includes optical parts such as a lens or a mirror, aperture aperture of a light receiving surface of a CCD, transfer efficiency, afterimage, integration effect by physical scanning, and scanning. Deterioration such as image blur occurs due to unevenness. The filter processing unit 2202 restores deterioration such as blurring that has occurred in an image by performing enhancement processing such as a boundary or an edge. Further, the filter processing unit 2202 performs a smoothing process for suppressing high-frequency components that are unnecessary for the feature point extraction process to be processed later. As a result, feature points can be extracted with high accuracy, and as a result, the similarity of images can be determined with high accuracy. Note that the filter coefficient used in the filter processing unit 2202 can be appropriately set according to the model or characteristics of the color image input apparatus 1 used.

図4はフィルタ処理部2202のフィルタ係数の例を示す説明図である。図に示すように、空間フィルタは、例えば、7×7(7行、7列)の大きさを有し、強調処理及び平滑化処理を行う混合フィルタである。入力された画像の画素を走査し、空間フィルタによる演算処理をすべての画素に対して行う。なお、空間フィルタの大きさは、7×7の大きさに限定されるものではなく、3×3、5×5などの大きさであってもよい。また、フィルタ係数の数値は一例であって、これに限定されるものではなく、使用されるカラー画像入力装置1の機種又は特性などに応じて適宜設定することができる。   FIG. 4 is an explanatory diagram illustrating an example of filter coefficients of the filter processing unit 2202. As shown in the figure, the spatial filter is, for example, a mixed filter having a size of 7 × 7 (7 rows, 7 columns) and performing enhancement processing and smoothing processing. The pixels of the input image are scanned, and arithmetic processing using a spatial filter is performed on all the pixels. Note that the size of the spatial filter is not limited to 7 × 7, and may be 3 × 3, 5 × 5, or the like. The numerical value of the filter coefficient is an example, and is not limited thereto, and can be set as appropriate according to the model or characteristics of the color image input apparatus 1 used.

二値化処理部2203は、入力された画像の輝度値(輝度信号)又は明度値(明度信号)を閾値と比較することにより画像を二値化し、二値化した二値画像を重心算出部2204へ出力する。   The binarization processing unit 2203 binarizes the image by comparing the luminance value (luminance signal) or brightness value (brightness signal) of the input image with a threshold value, and the binarized binary image 2204.

重心算出部2204は、二値化処理部2203から入力された二値画像の各画素の二値化情報(例えば、「1」、「0」で表される)に基づいて、各画素に対してラベリング(ラベル付け処理)を行い、同一ラベルが付された画素が連結した連結領域を特定し、特定した連結領域の重心を特徴点として抽出し、抽出した特徴点を特徴量算出部221へ出力する。なお、特徴点は、二値画像(原稿画像)における座標(x′、y′)で表すことができる。   Based on the binarization information (for example, represented by “1” and “0”) of each pixel of the binary image input from the binarization processing unit 2203, the centroid calculation unit 2204 Labeling (labeling processing) is performed, a connected region in which pixels with the same label are connected is specified, the center of gravity of the specified connected region is extracted as a feature point, and the extracted feature point is sent to the feature amount calculation unit 221. Output. The feature points can be represented by coordinates (x ′, y ′) in the binary image (original image).

図5は連結領域の特徴点の例を示す説明図である。図において、特定された連結領域は、文字「A」であり、同一ラベルが付された画素の集合として特定される。この文字「A」の特徴点(重心)は、図中黒丸で示される位置(x′座標、y′座標)となる。   FIG. 5 is an explanatory diagram illustrating an example of feature points of a connected region. In the figure, the specified connected area is the letter “A”, and is specified as a set of pixels with the same label. The feature point (centroid) of the character “A” is a position (x ′ coordinate, y ′ coordinate) indicated by a black circle in the drawing.

図6は文字列に対する特徴点の抽出結果の例を示す説明図である。複数の文字から構成される文字列の場合、文字の種類により夫々異なる座標を有する特徴点が複数抽出される。   FIG. 6 is an explanatory diagram showing an example of a feature point extraction result for a character string. In the case of a character string composed of a plurality of characters, a plurality of feature points having different coordinates depending on the character type are extracted.

特徴量算出部221は、特徴点算出部220から入力された特徴点を用いて、回転、拡大、縮小などの処理に対する不変量を求め、該不変量に基づいて特徴量(例えば、ハッシュ値)を算出する。より具体的には、特徴量算出部221は、特徴点算出部220から入力された特徴点(すなわち、連結領域の重心の座標値)夫々を注目特徴点とし、例えば、注目特徴点からの距離が小さい周辺の他の特徴点を4つ抽出する。   The feature amount calculation unit 221 uses the feature points input from the feature point calculation unit 220 to obtain invariants for processing such as rotation, enlargement, and reduction, and based on the invariants, feature amounts (for example, hash values) Is calculated. More specifically, the feature quantity calculation unit 221 uses each feature point (that is, the coordinate value of the center of gravity of the connected area) input from the feature point calculation unit 220 as a feature point, for example, a distance from the feature point Four other feature points in the vicinity of small are extracted.

図7は注目特徴点と周辺の特徴点を示す説明図である。図に示すように、注目特徴点P1に対して、例えば、閉曲線S1で囲まれる4つの特徴点を抽出する(注目特徴点P1に対しては、注目特徴点P2も1つの特徴点として抽出されている)。また、注目特徴点P2に対して、例えば、閉曲線S2で囲まれる4つの特徴点を抽出する(注目特徴点P2に対しては、注目特徴点P1も1つの特徴点として抽出されている)。   FIG. 7 is an explanatory diagram showing a feature point of interest and surrounding feature points. As shown in the drawing, for example, four feature points surrounded by a closed curve S1 are extracted from the feature point P1 (the feature point P2 is also extracted as one feature point for the feature point P1). ing). Further, for example, four feature points surrounded by the closed curve S2 are extracted from the target feature point P2 (the target feature point P1 is also extracted as one feature point for the target feature point P2).

特徴量算出部221は、抽出した4つの特徴点の中から3つの特徴点を選択して、不変量を算出する。なお、選択する特徴点は3つに限られるものではなく、4つ、5つなどの特徴点を選択することもできる。求めたい不変量の種類によって選択すべき特徴点の数が異なる。例えば、3点から求められる不変量は相似不変量となる。   The feature amount calculation unit 221 calculates three invariants by selecting three feature points from the extracted four feature points. Note that the number of feature points to be selected is not limited to three, and four, five, etc. feature points may be selected. The number of feature points to be selected differs depending on the type of invariant to be obtained. For example, an invariant obtained from three points is a similar invariant.

図8は注目特徴点P1による不変量の算出例を示す説明図であり、図9は注目特徴点P2による不変量の算出例を示す説明図である。図8に示すように、注目特徴点P1の周辺の4つの特徴点から3つの特徴点を選択し、3通りの不変量夫々をH1j(j=1、2、3)とする。不変量H1jは、H1j=(A1j/B1j)×C/Dで表される式で算出する。ここで、A1j、B1j夫々は特徴点間の距離を示し、Cは正規化の定数、Dは予め定められた定数である。これにより、例えば、原稿が回転、移動、傾いた場合であっても、不変量H1jは変化せず、画像の類似度の判定を精度良く行うことができ、類似する原稿を精度良く判定することができる。   FIG. 8 is an explanatory diagram showing an example of calculating an invariant using the feature point of interest P1, and FIG. 9 is an explanatory diagram showing an example of calculating an invariant using the feature point of interest P2. As shown in FIG. 8, three feature points are selected from four feature points around the target feature point P1, and each of the three invariants is set to H1j (j = 1, 2, 3). The invariant H1j is calculated by an expression represented by H1j = (A1j / B1j) × C / D. Here, A1j and B1j each indicate a distance between feature points, C is a normalization constant, and D is a predetermined constant. Thereby, for example, even when the document is rotated, moved, or tilted, the invariant H1j does not change, and the similarity of images can be determined with high accuracy, and similar documents can be determined with high accuracy. Can do.

同様に、図9に示すように、注目特徴点P2の周辺の4つの特徴点から3つの特徴点を選択し、3通りの不変量夫々をH2j(j=1、2、3)とする。不変量H2jは、H2j=(A2j/B2j)×C/Dで表される式で算出する。ここで、A2j、B2j夫々は特徴点間の距離を示し、Cは正規化の定数、Dは予め定められた定数である。以下同様に、他の注目特徴点に対して不変量を算出することができる。   Similarly, as shown in FIG. 9, three feature points are selected from the four feature points around the target feature point P2, and each of the three invariants is set to H2j (j = 1, 2, 3). The invariant H2j is calculated by an expression represented by H2j = (A2j / B2j) × C / D. Here, A2j and B2j each indicate a distance between feature points, C is a normalization constant, and D is a predetermined constant. Similarly, invariants can be calculated for other attention feature points.

特徴量算出部221は、夫々の注目特徴点により算出された不変量に基づいて、ハッシュ値(特徴量)Hiを算出する。注目特徴点Piのハッシュ値Hiは、Hi=(Hi1×102 +Hi2×101 +Hi3×100)/Eで表される。ここで、Eは余りをどの程度設定するかにより決定される定数であり、例えば、「10」とした場合には、余りは「0」〜「9」となり、これが算出するハッシュ値の取り得る範囲となる。また、iは自然数である。なお、特徴量としての上記ハッシュ値は一例であって、これに限定されるものではなく、他のハッシュ関数を用いることができる。上記では、周辺の他の特徴点として4点を抽出する例を示しているが、4点に限定されるものではない。例えば、6点抽出するようにしても良い。この場合、6点の特徴点から5点を抽出し、5点を抽出する6通りそれぞれの方法について、5点から3点を抽出して不変量を求め、ハッシュ値を算出するようにしても良い。これにより、1つの特徴点から1つのハッシュ値を算出することも、1つの特徴点から複数のハッシュ値を算出することもできる。 The feature amount calculation unit 221 calculates a hash value (feature amount) Hi based on the invariant calculated by each feature point of interest. The hash value Hi of the feature point Pi of interest is represented by Hi = (Hi1 × 10 2 + Hi2 × 10 1 + Hi3 × 10 0 ) / E. Here, E is a constant determined by how much the remainder is set. For example, when “10” is set, the remainder is “0” to “9”, and the hash value calculated by this can be taken. It becomes a range. I is a natural number. The hash value as the feature amount is an example, and the hash value is not limited to this, and other hash functions can be used. In the above, an example in which four points are extracted as other feature points in the vicinity is shown, but the present invention is not limited to four points. For example, six points may be extracted. In this case, 5 points are extracted from 6 feature points, and for each of the 6 methods of extracting 5 points, 3 points are extracted from 5 points to obtain an invariant, and a hash value is calculated. good. Thus, one hash value can be calculated from one feature point, and a plurality of hash values can be calculated from one feature point.

特徴量算出部221は、原稿画像の特徴点を表すインデックスと、該特徴点に基づいて算出されたハッシュ値と、該特徴点の原稿画像上の座標とを原稿画像の特徴点座標テーブルとしてメモリ50に記憶する。   The feature amount calculation unit 221 stores an index representing a feature point of the document image, a hash value calculated based on the feature point, and coordinates of the feature point on the document image as a feature point coordinate table of the document image. 50.

また、特徴量算出部221は、操作パネル4で登録フォーマット(登録画像)の登録モードが選択された場合、登録画像の特徴点を表すインデックス、該特徴点に基づいて算出されたハッシュ値、及び該特徴点の登録画像上の座標を後述する登録制御部225へ出力する。   In addition, when the registration mode of the registration format (registered image) is selected on the operation panel 4, the feature amount calculation unit 221 includes an index representing the feature point of the registered image, a hash value calculated based on the feature point, and The coordinates of the feature point on the registered image are output to a registration control unit 225 described later.

図10は原稿画像の特徴点座標テーブル501の構造を示す説明図である。原稿画像の特徴点座標テーブル501は、原稿画像の特徴点を表すインデックス、特徴点に基づいて算出されたハッシュ値、特徴点の原稿画像上の座標(x′座標、y′座標)の各欄により構成されている。   FIG. 10 is an explanatory diagram showing the structure of the feature point coordinate table 501 of the document image. The feature point coordinate table 501 of the document image includes columns of an index representing the feature point of the document image, a hash value calculated based on the feature point, and coordinates (x ′ coordinate, y ′ coordinate) of the feature point on the document image. It is comprised by.

図10に示すように、例えば、原稿画像の特徴点を表すインデックスがp1である特徴点に基づいて算出されたハッシュ値はH1、特徴点の座標は(x11′、y11′)である。また、同様に、原稿画像の特徴点を表すインデックスがp2である特徴点に基づいて算出されたハッシュ値はH8、特徴点の座標は(x32′、y32′)である。   As shown in FIG. 10, for example, the hash value calculated based on the feature point whose index representing the feature point of the document image is p1 is H1, and the coordinates of the feature point are (x11 ′, y11 ′). Similarly, the hash value calculated based on the feature point whose index representing the feature point of the original image is p2 is H8, and the coordinates of the feature point are (x32 ′, y32 ′).

図11は登録フォーマットのハッシュテーブル502の構造を示す説明図である。図11(a)に示すように、ハッシュテーブル502の構造は、ハッシュ値及び原稿(登録フォーマット)を表すインデックスの各欄により構成されている。より具体的には、原稿を示すインデックスに対応して、原稿中の位置を示すポイントインデックス、及び不変量(いずれも不図示)が登録されている。ハッシュテーブル502はメモリ50に記憶してある。また、画像の類似度を判定するため、予め登録フォーマット(照合する画像・文書画像)をメモリ50に記憶してある。なお、図11(b)に示すように、ハッシュ値が等しい場合(H1=H5)、ハッシュテーブル502の2つのエントリを1つにまとめることもできる。   FIG. 11 is an explanatory diagram showing the structure of the hash table 502 in the registration format. As shown in FIG. 11A, the structure of the hash table 502 is composed of columns of hash values and indexes representing originals (registered formats). More specifically, a point index indicating the position in the document and an invariant (both not shown) are registered corresponding to the index indicating the document. The hash table 502 is stored in the memory 50. In addition, a registration format (image to be collated / document image) is stored in the memory 50 in advance in order to determine the similarity of images. As shown in FIG. 11B, when the hash values are equal (H1 = H5), two entries of the hash table 502 can be combined into one.

図12は登録フォーマットの特徴点座標テーブル503の構造を示す説明図である。登録フォーマットの特徴点座標テーブル503は、メモリ50に記憶してあり、各登録フォーマットを識別するための原稿を表すインデックス、各登録フォーマットにおいて算出された特徴点を識別するための特徴点を表すインデックス、各特徴点の登録フォーマット上の座標(x座標、y座標)の各欄により構成されている。   FIG. 12 is an explanatory diagram showing the structure of the feature point coordinate table 503 of the registration format. The registered format feature point coordinate table 503 is stored in the memory 50, and an index representing a document for identifying each registered format, and an index representing a feature point for identifying a feature point calculated in each registered format. , Each feature point is composed of columns of coordinates (x coordinate, y coordinate) on the registration format.

図12に示すように、例えば、原稿を表すインデックスがID1の登録フォーマットは、特徴点f11、f12、f13、f14、…を有し、それぞれの登録フォーマット上の特徴点の座標は、(x11、y11)、(x12、y12)、(x13、y13)、(x14、y14)、…である。他の登録フォーマットID2、…についても同様である。   As shown in FIG. 12, for example, the registration format whose index representing the document is ID1 has feature points f11, f12, f13, f14,..., And the coordinates of the feature points on each registration format are (x11, y11), (x12, y12), (x13, y13), (x14, y14),. The same applies to the other registration format IDs 2.

投票処理部222は、特徴量算出部221が算出したハッシュ値(特徴量)に基づいて、メモリ50に記憶された登録フォーマットのハッシュテーブル502を検索し、ハッシュ値が一致する場合、該ハッシュ値に登録されている原稿を表すインデックス(すなわち、一致するハッシュ値が算出された画像)に投票する。投票を累積加算した結果を得票数として類似度判定処理部223へ出力する。   The voting processing unit 222 searches the hash table 502 of the registration format stored in the memory 50 based on the hash value (feature amount) calculated by the feature amount calculation unit 221, and if the hash values match, the hash value Vote for an index representing a document registered in (i.e., an image for which a matching hash value has been calculated). The result of cumulative addition of votes is output to the similarity determination processing unit 223 as the number of votes.

また、投票処理部222は、原稿画像のハッシュ値と登録フォーマットのハッシュ値とが一致する場合、原稿画像の特徴点がどの登録フォーマットの何れの特徴点に投票したかを判定し、判定結果を特徴点投票テーブル504としてメモリ50に記憶する。   In addition, when the hash value of the document image and the hash value of the registered format match, the voting processing unit 222 determines which feature point of the registered format the feature point of the document image has voted, and determines the determination result. The feature point voting table 504 is stored in the memory 50.

図13は特徴点投票テーブル504の構造を示す説明図である。特徴点投票テーブル504は、登録フォーマットの原稿を表すインデックスID1、ID2、ID3、ID4、…、IDnに対応して登録フォーマットの特徴点を表すインデックスf11、f21、…、fn1(以下「fn1」と示す。)、f12、f22、…、fn2(以下「fn2」と示す)、以下同様に、fn3、fn4、fn5、fn6、fn7、…で構成されるマトリクスの各要素に原稿画像の特徴点を表すインデックスp1、p2、…が記録されたものである。   FIG. 13 is an explanatory diagram showing the structure of the feature point voting table 504. The feature point voting table 504 includes indexes f11, f21,..., Fn1 (hereinafter referred to as “fn1”) representing the feature points of the registration format corresponding to the indexes ID1, ID2, ID3, ID4,. .., F12, f22,..., Fn2 (hereinafter referred to as “fn2”), and similarly, the feature points of the original image are provided in each element of the matrix composed of fn3, fn4, fn5, fn6, fn7,. Indexes p1, p2,... Represented are recorded.

図13に示すように、例えば、インデックスp1で表される原稿画像の特徴点に対して算出されたハッシュ値が、登録フォーマットの原稿を表すインデックスID1の特徴点f11のハッシュ値と一致すると判定されている。また、インデックスp2で表される原稿画像の特徴点に対して算出されたハッシュ値が、登録フォーマットの原稿を表すインデックスID3の特徴点f32のハッシュ値と一致すると判定されている。さらに、インデックスp3で表される原稿画像の特徴点に対して算出されたハッシュ値が、登録フォーマットの原稿を表すインデックスID1の特徴点f13のハッシュ値と一致すると判定されている。以下、インデックスp4、p5、p6、p7、…についても同様である。   As shown in FIG. 13, for example, it is determined that the hash value calculated for the feature point of the document image represented by the index p1 matches the hash value of the feature point f11 of the index ID1 representing the document in the registered format. ing. Further, it is determined that the hash value calculated for the feature point of the document image represented by the index p2 matches the hash value of the feature point f32 of the index ID3 representing the document in the registered format. Furthermore, it is determined that the hash value calculated for the feature point of the document image represented by the index p3 matches the hash value of the feature point f13 of the index ID1 representing the document in the registered format. The same applies to the indexes p4, p5, p6, p7,.

類似度判定処理部223は、投票処理部222から入力された投票結果に基づいて、読み取られた原稿画像がいずれの登録フォーマットに類似するかを判定し、判定結果を書込み領域抽出部224へ出力する。より具体的には、類似度判定処理部223は、投票処理部222から入力された得票数を原稿画像の最大得票数(特徴点の数×1つの特徴点から算出されるハッシュ値の数で表される)で除算して正規化した類似度を算出する。類似度判定処理部223は、算出した類似度と予め定めた閾値Th(例えば、0.8)とを比較し、類似度が閾値Th以上である場合には、その類似度が算出された登録フォーマットに類似すると判定し、類似度が閾値Thより小さい場合には、原稿画像に類似する登録フォーマットはないと判定して、その判定結果を書込み領域抽出部224へ出力する。なお、投票処理部222から入力された得票数を予め定めた閾値と比較し、得票数が閾値以上であれば、原稿画像が予め登録された登録フォーマットに類似すると判定し、さらに類似と判定された中で最も得票数の高い登録フォーマットが原稿画像に一致すると判定することもできる。   Based on the voting result input from the voting processing unit 222, the similarity determination processing unit 223 determines which registered format the read document image is similar to, and outputs the determination result to the writing area extraction unit 224. To do. More specifically, the similarity determination processing unit 223 calculates the number of votes input from the voting processing unit 222 by the maximum number of votes of the document image (the number of feature points × the number of hash values calculated from one feature point). The similarity is calculated by dividing by (represented). The similarity determination processing unit 223 compares the calculated similarity with a predetermined threshold Th (for example, 0.8). If the similarity is equal to or greater than the threshold Th, the registration for which the similarity is calculated If it is determined that the format is similar and the similarity is smaller than the threshold Th, it is determined that there is no registered format similar to the document image, and the determination result is output to the writing area extraction unit 224. The number of votes obtained from the voting processing unit 222 is compared with a predetermined threshold. If the number of votes is equal to or greater than the threshold, it is determined that the document image is similar to a registered format registered in advance, and is further determined to be similar. It can also be determined that the registered format with the highest number of votes matches the original image.

図14は投票結果に基づく類似判定の一例を示す説明図である。図14に示すように、読み取った原稿画像から算出されたハッシュ値毎にハッシュテーブル502を検索して投票した結果、原稿を表すインデックスがID1、ID2、ID3で示される登録フォーマットに対して投票されたとする。投票の結果得られたそれぞれの得票数を原稿画像の最大得票数で除算して正規化した類似度N1、N2、N3を算出する。算出した類似度が閾値Th以上であるのは、原稿を表すインデックスがID1で示される登録フォーマットであるため、原稿画像は、原稿を表すインデックスID1の登録フォーマットに類似すると判定される。   FIG. 14 is an explanatory diagram illustrating an example of similarity determination based on a vote result. As shown in FIG. 14, as a result of searching and voting the hash table 502 for each hash value calculated from the read document image, the index representing the document is voted for the registration formats indicated by ID1, ID2, and ID3. Suppose. The normalized similarities N1, N2, and N3 are calculated by dividing the number of votes obtained as a result of the voting by the maximum number of votes of the document image. The calculated similarity is equal to or greater than the threshold Th because the index representing the document is in the registration format indicated by ID1, and thus the document image is determined to be similar to the registration format of index ID1 representing the document.

書込み領域抽出部224は、類似度判定処理部223から原稿画像が登録フォーマットに類似するとの判定結果が出力された場合、原稿画像に書込みがされているか否かを判定し、書込みがされている場合、その原稿書込み画像を抽出し、書込みの有無を示す判定信号とともに、抽出した原稿書込み画像を登録制御部225へ出力する。より具体的には、書込み領域抽出部224は、原稿画像と登録フォーマットとの位置合わせを行う位置合わせ処理、原稿画像及び登録フォーマットそれぞれの各画素が有する画素値(例えば、輝度値)の差分を算出する差分処理、算出された差分に基づいて原稿画像に書込みがされているか否かを判定する判定処理などを行う。   When the determination result that the document image is similar to the registered format is output from the similarity determination processing unit 223, the writing area extracting unit 224 determines whether or not the document image is written, and the writing is performed. In this case, the original written image is extracted, and the extracted original written image is output to the registration control unit 225 together with a determination signal indicating the presence / absence of writing. More specifically, the writing area extraction unit 224 performs alignment processing for aligning the document image and the registration format, and calculates a difference between pixel values (for example, luminance values) of each pixel of the document image and the registration format. A difference process to be calculated, a determination process for determining whether or not a document image has been written based on the calculated difference, and the like are performed.

次に、登録フォーマットの座標系を原稿画像の座標系に変換して画像の位置合わせを行う位置合わせ処理について説明する。登録フォーマットの座標系を原稿画像の座標系に変換して画像の位置合わせを行う場合、登録フォーマット全体を座標変換することもでき、あるいは、登録フォーマットの記載欄毎に座標変換を行う箇所を設定し(又は予め定めておき)、設定した一部の箇所だけを座標変換することもできる。まず、登録フォーマット全体を座標変換して原稿画像との位置合わせを行う場合について説明する。なお、以下の説明においては、原稿画像は、原稿を表すインデックスがID1の登録フォーマットに類似していると判定されたものとする。   Next, an alignment process for aligning images by converting the coordinate system of the registered format into the coordinate system of the document image will be described. When the registration format coordinate system is converted to the original image coordinate system and image alignment is performed, the entire registration format can be coordinate-converted, or the coordinate conversion location can be set for each entry column of the registration format. However, it is also possible to convert the coordinates of only a part of the set points (or to be determined in advance). First, a case where the entire registration format is coordinate-converted and aligned with the document image will be described. In the following description, it is assumed that the document image is determined to have an index representing the document similar to the registration format of ID1.

書込み領域抽出部224は、メモリ50にアクセスして、特徴点投票テーブル504から原稿を表すインデックスがID1に投票された原稿画像の特徴点を抽出する。図13の例では、原稿画像の特徴点を表すインデックスは、p1、p3、p4、p7である。   The writing area extraction unit 224 accesses the memory 50 and extracts the feature points of the document image whose index representing the document is voted ID1 from the feature point voting table 504. In the example of FIG. 13, the indexes representing the feature points of the document image are p1, p3, p4, and p7.

書込み領域抽出部224は、抽出した原稿画像の特徴点を表すインデックスp1、p3、p4、p7に対応(ハッシュ値が一致)する登録フォーマットの特徴点を表すインデックスf11、f13、f14、f17を特定する。書込み領域抽出部224は、登録フォーマットの特徴点座標テーブル503及び原稿画像の特徴点座標テーブル501を参照して、式(1)で示される登録フォーマットの特徴点の座標についての行列Jin、及び式(2)で示される原稿画像の特徴点の座標についての行列Joutを求めるとともに、変換行列Wの変換係数を式(3)と仮定する。   The writing area extracting unit 224 identifies indexes f11, f13, f14, and f17 representing the feature points of the registered format corresponding to the indexes p1, p3, p4, and p7 representing the feature points of the extracted document image (hash values match). To do. The writing area extracting unit 224 refers to the feature point coordinate table 503 of the registration format and the feature point coordinate table 501 of the document image, and the matrix Jin regarding the coordinates of the feature points of the registration format represented by the formula (1) and the formula A matrix Jout is obtained for the coordinates of the feature points of the document image shown in (2), and the conversion coefficient of the conversion matrix W is assumed to be expression (3).

Figure 2008123456
Figure 2008123456

書込み領域抽出部224は、式(4)により変換行列Wを算出する。この場合、式(4)の両辺にJinの転置行列JinT を乗算して式(5)を求め、さらに、式(5)の両辺にJinT Jinの逆行列を乗算して式(6)を求めることにより、変換係数を算出する。書込み領域抽出部224は、算出した変換係数で示される変換行列Wを用いて、式(7)で示す如く、登録フォーマット上の任意の座標(x、y)を、原稿画像上の座標(x′、y′)に変換する。 The writing area extraction unit 224 calculates the transformation matrix W by Expression (4). In this case, both sides of Equation (4) are multiplied by Jin transpose matrix Jin T to obtain Equation (5), and both sides of Equation (5) are multiplied by the inverse matrix of Jin T Jin to obtain Equation (6). To calculate a conversion coefficient. Using the conversion matrix W indicated by the calculated conversion coefficient, the writing area extraction unit 224 converts arbitrary coordinates (x, y) on the registration format into coordinates (x ', Y').

Figure 2008123456
Figure 2008123456

図15は原稿画像及び登録フォーマットの位置合わせを示す説明図である。図15に示すように、登録フォーマットの特徴点f11、f13、f14、f17と、原稿画像の特徴点p1、p3、p4、p7をそれぞれ対応付けることにより、登録フォーマットの原点(画像の左上の画素)と原稿画像の左上の画素の位置がずれている場合であっても、両画像の原点を一致させることができ、登録フォーマットと原稿画像との位置合わせを行うことができる。なお、各画像の特徴点の数は、4つに限定されるものではない。また、登録フォーマットの書式によっては、多数の特徴点が存在する場合、その中からいくつかの特徴点を選択することもできる。   FIG. 15 is an explanatory diagram showing the alignment of the document image and the registered format. As shown in FIG. 15, the registration format feature points f11, f13, f14, and f17 and the document image feature points p1, p3, p4, and p7 are associated with each other to thereby register the origin of the registration format (the upper left pixel of the image). Even if the position of the upper left pixel of the original image is shifted, the origins of both images can be made coincident, and the registration format and the original image can be aligned. Note that the number of feature points in each image is not limited to four. Depending on the format of the registration format, when there are a large number of feature points, some feature points can be selected from them.

次に、原稿画像及び登録フォーマットそれぞれの各画素が有する画素値の差分を算出する差分処理について説明する。書込み領域抽出部224は、位置合わせが行われた原稿画像と登録フォーマットそれぞれが有する画素を、例えば、両画像の左上から右下に順次走査することにより、両画像で対応する注目画素の輝度値の差分を算出する。この場合、原稿を読み取る際の画素値の再現性などを考慮して、画像が256階調で表されているようなときには、両画像の対応する画素の輝度値の差分が5〜10程度の範囲内(差分閾値Tg)位置であれば、注目画素は同じである判定する。例えば、原稿画像のある注目画素の輝度値が210であり、登録フォーマットの対応する注目画素の輝度値が215であれば、両注目画素は同じであると判定する。また、例えば、原稿画像のある注目画素の輝度値が210であり、登録フォーマットの対応する注目画素の輝度値が235であれば、両注目画素は同じでないと判定する。   Next, difference processing for calculating a difference between pixel values of each pixel of the original image and the registration format will be described. The writing area extraction unit 224 sequentially scans the pixels of each of the registered original image and the registration format, for example, from the upper left to the lower right of both images, so that the luminance value of the target pixel corresponding to both images is obtained. The difference is calculated. In this case, in consideration of the reproducibility of the pixel value when reading the document, when the image is represented by 256 gradations, the difference between the luminance values of the corresponding pixels of both images is about 5-10. If the position is within the range (difference threshold Tg), it is determined that the target pixel is the same. For example, if the luminance value of a pixel of interest in a document image is 210 and the luminance value of the pixel of interest corresponding to the registration format is 215, it is determined that both pixels of interest are the same. For example, if the luminance value of a pixel of interest in the original image is 210 and the luminance value of the pixel of interest corresponding to the registration format is 235, it is determined that the pixels of interest are not the same.

書込み領域抽出部224は、同じであると判定された画素数(判定画素数M)を登録フォーマットが有する画素数で除算した比率が比率閾値Ts(例えば、0.99)より小さいか否かを判定し、算出された比率が比率閾値Tsより小さい場合には、原稿画像に書込みがあると判定し、書き込まれた原稿書込み画像を抽出し、書込みの有無を示す判定信号とともに、抽出した原稿書込み画像を出力する。また、算出された比率が比率閾値Ts以上である場合には、原稿画像に書込みがないと判定し、判定信号を出力する。なお、同じでないと判定された画素数を登録フォーマットが有する画素数で除算した比率が比率閾値Td(例えば、0.01)より大きいか否かを判定し、算出された比率が比率閾値Tdより大きい場合には、原稿画像に書込みがあると判定し、算出された比率が比率閾値Td以下である場合には、原稿画像に書込みがないと判定することもできる。   The writing area extraction unit 224 determines whether or not a ratio obtained by dividing the number of pixels determined to be the same (determination pixel number M) by the number of pixels included in the registration format is smaller than a ratio threshold Ts (for example, 0.99). If the calculated ratio is smaller than the ratio threshold value Ts, it is determined that there is writing in the document image, the written document writing image is extracted, and the extracted document writing is performed together with a determination signal indicating the presence / absence of writing. Output an image. If the calculated ratio is equal to or greater than the ratio threshold Ts, it is determined that there is no writing on the document image, and a determination signal is output. It is determined whether the ratio obtained by dividing the number of pixels determined not to be the same as the number of pixels in the registration format is greater than a ratio threshold Td (for example, 0.01), and the calculated ratio is greater than the ratio threshold Td. When the ratio is larger, it is determined that the document image is written, and when the calculated ratio is equal to or less than the ratio threshold value Td, it can be determined that the document image is not written.

すなわち、書込み領域抽出処理は、取得した原稿画像及び登録フォーマット(登録画像)が有する画素値の差分を算出し、算出された差分値を所定の閾値(差分閾値)と比較して画素値が略同一である画素の画素数(判定画素数)を算出し、算出された判定画素数を登録フォーマットが有する全画素数で除算した比率を算出し、算出された比率を所定の閾値(比率閾値)と比較(大小の比較)を行い、比較結果に応じて書込みの有無の判定を行う。   That is, the writing area extraction process calculates a difference between the acquired document image and the pixel value of the registration format (registered image), compares the calculated difference value with a predetermined threshold (difference threshold), and the pixel value is substantially omitted. Calculate the number of pixels of the same pixel (determination pixel number), calculate a ratio obtained by dividing the calculated determination pixel number by the total number of pixels in the registration format, and calculate the ratio to a predetermined threshold (ratio threshold) Are compared (large / small comparison), and the presence / absence of writing is determined according to the comparison result.

次に、登録フォーマットの記載欄毎に座標変換を行う箇所を設定し、設定した一部の箇所だけを座標変換することにより、登録フォーマットと原稿画像との位置合わせを行う場合について説明する。この場合、座標変換を行う箇所として設定された箇所に書込みがされているか否かを判定することになる。   Next, a description will be given of the case where the registration format and the document image are aligned by setting the location where coordinate conversion is performed for each registration format description column and converting the coordinates of only a part of the set location. In this case, it is determined whether or not writing is performed at a location set as a location where coordinate conversion is performed.

図16は登録フォーマットの一例を示す説明図である。図16(a)に示すように、登録フォーマット(すなわち、所定の書式の書類)には、日付、氏名、住所、電話番号、記入事項の各記載欄(書込み領域)が設けられている。また、図16(b)に示すように、登録フォーマットの各記載欄のうち、氏名、住所、記入事項(図中、模様入りの箇所)についてのみ、座標変換を行うように設定することができる。   FIG. 16 is an explanatory diagram showing an example of a registration format. As shown in FIG. 16A, the registration format (that is, a document in a predetermined format) is provided with a description column (writing area) for date, name, address, telephone number, and entry. Also, as shown in FIG. 16B, it is possible to set the coordinate conversion only for the name, address, and entry items (in the figure, with a pattern) in each entry column of the registration format. .

座標変換を行う箇所は、予め登録フォーマット毎に設定しておき、設定情報(登録フォーマットの座標変換対象テーブル)をメモリ50に記憶する構成でもよく、あるいはユーザが操作パネル4から操作することにより、例えば、氏名、住所、記入事項などの記載欄毎に設定可能に構成することもできる。   The location where the coordinate conversion is performed may be set in advance for each registration format, and the configuration information (coordinate conversion target table in the registration format) may be stored in the memory 50, or by the user operating the operation panel 4, For example, it can be configured so that it can be set for each description column such as name, address, and entry.

図17は登録フォーマットの座標変換対象テーブル505の一例を示す説明図である。図17(a)に示すように、座標変換対象テーブル505は、登録フォーマットの原稿を表すインデックス、登録フォーマットの記載欄、記載欄の座標により構成され、さらに、図17(b)に示すように、記載欄の登録フォーマット上の位置は、記載欄の各四隅の登録フォーマット上の座標で特定されている。図17(b)では、一例として原稿を表すインデックスがID1の登録フォーマットの記載欄のうち氏名の欄の座標(x11、y11)、(x12、y11)、(x11、y12)、(x12、y12)を示している。   FIG. 17 is an explanatory diagram showing an example of the coordinate conversion target table 505 in the registration format. As shown in FIG. 17A, the coordinate conversion target table 505 includes an index representing a document in a registration format, a description column of the registration format, and coordinates in a description column. Further, as shown in FIG. The positions on the registration format of the description column are specified by the coordinates on the registration format at the four corners of the description column. In FIG. 17B, as an example, the coordinates (x11, y11), (x12, y11), (x11, y12), (x12, y12) of the name column in the registration format description column whose index representing the document is ID1. ).

図17に示すように、例えば、原稿を表すインデックスがID1の登録フォーマットでは、氏名、住所、記入事項の各記載欄が座標変換の対象であり、氏名の記載欄は、登録フォーマットの座標上の対角の座標値(x11、y11)、(x12、y12)で特定されている。   As shown in FIG. 17, for example, in the registration format in which the index representing the manuscript is ID1, the description columns of name, address, and entry are subject to coordinate conversion, and the name description column is on the coordinates of the registration format. It is specified by diagonal coordinate values (x11, y11), (x12, y12).

この場合、書込み領域抽出部224は、メモリ50にアクセスして、特徴点投票テーブル504から原稿を表すインデックスがID1に投票された原稿画像の特徴点を抽出する。書込み領域抽出部224は、抽出した原稿画像の特徴点を表すインデックスに対応(ハッシュ値が一致)する登録フォーマットの特徴点を表すインデックスを特定する。書込み領域抽出部224は、登録フォーマットの特徴点座標テーブル503、原稿画像の特徴点座標テーブル501、座標変換対象テーブル505を参照して、座標変換対象内にある特徴点に基づいて、上述と同様の変換処理により、登録フォーマット上の記載欄の座標(x、y)を、原稿画像上の座標(x′、y′)に変換する。さらに、書込み領域抽出部224は、記載欄の原稿画像及び登録フォーマットそれぞれの各画素が有する画素値(例えば、輝度値)の差分を算出する差分処理、算出された差分に基づいて原稿画像に書込みがされているか否かを判定する判定処理を行う。   In this case, the writing area extraction unit 224 accesses the memory 50 and extracts the feature point of the document image in which the index representing the document is voted ID1 from the feature point voting table 504. The writing area extraction unit 224 identifies an index that represents a feature point of the registered format that corresponds to the index that represents the feature point of the extracted document image (has the same hash value). The writing area extraction unit 224 refers to the feature point coordinate table 503 of the registration format, the feature point coordinate table 501 of the document image, and the coordinate conversion target table 505, and based on the feature points in the coordinate conversion target, as described above. Thus, the coordinates (x, y) in the description column on the registration format are converted into the coordinates (x ′, y ′) on the document image. Further, the writing area extraction unit 224 performs difference processing for calculating a difference between pixel values (for example, luminance values) of each pixel of the original image and the registration format in the description column, and writes the original image based on the calculated difference. Judgment processing is performed to determine whether or not.

これにより、書込みの有無を判定する箇所だけを座標変換して判定処理を行うことができ、画像全体の処理を行う場合に比べて、処理労力の低減を図ることができ、書込み判定処理を高速に実現することができる。   As a result, it is possible to perform the determination process by converting the coordinates of only the portion for determining the presence / absence of writing, and it is possible to reduce the processing effort and to speed up the writing determination process compared to the case of processing the entire image. Can be realized.

登録制御部225は、登録フォーマット(登録画像)又は原稿画像に書き込まれた原稿書込み画像を登録(記憶)するために、ユーザが操作パネル4を操作して登録モードを選択した場合に、登録フォーマット又は原稿書込み画像の登録を行う。   The registration control unit 225 registers the registration format (registered image) or the registration format when the user selects the registration mode by operating the operation panel 4 in order to register (store) the document writing image written on the document image. Alternatively, a document writing image is registered.

登録制御部225は、登録フォーマット(登録画像)を登録する場合、カラー画像入力装置1で取得された登録フォーマットに原稿を表すインデックスを設定するとともに、特徴量算出部221で求められたハッシュ値、登録フォーマットの特徴点を表すインデックス、特徴点の登録フォーマット上の座標などに基づいて、登録フォーマットのハッシュテーブル502、登録フォーマットの特徴点座標テーブル503を作成してメモリ50に記憶する。これにより、登録フォーマットに関する情報が登録(記憶)される。   When registering a registration format (registered image), the registration control unit 225 sets an index representing a document in the registration format acquired by the color image input device 1, and the hash value obtained by the feature amount calculation unit 221. A registration format hash table 502 and a registration format feature point coordinate table 503 are created and stored in the memory 50 based on an index representing the feature points of the registration format, coordinates of the feature points on the registration format, and the like. As a result, information related to the registration format is registered (stored).

また、登録制御部225は、原稿書込み画像を登録する場合、類似度判定処理部223で原稿画像が類似すると判定された登録フォーマットの原稿を表すインデックスに書込み領域抽出部224で抽出された原稿書込み画像を関連付けて、原稿書込み画像を圧縮/伸張処理部226へ出力する。   In addition, when registering a document writing image, the registration control unit 225 writes the document writing extracted by the writing area extraction unit 224 into an index representing a document in a registration format determined to be similar by the similarity determination processing unit 223. The document writing image is output to the compression / decompression processing unit 226 in association with the image.

圧縮/伸張処理部226は、登録制御部225から入力された原稿書込み画像に対して、所定の圧縮方法、例えば、MH(Modified Huffman)、MR(Modified Read)、MMR(Modified Modified Read)、JPEG(Joint Photographic Experts Group)などの方法を用いて圧縮処理を行い、圧縮後の画像データをメモリ50に記憶する。   The compression / decompression processing unit 226 applies a predetermined compression method to the original writing image input from the registration control unit 225, for example, MH (Modified Huffman), MR (Modified Read), MMR (Modified Modified Read), JPEG. (Joint Photographic Experts Group) or the like is used to perform compression processing, and the compressed image data is stored in the memory 50.

また、圧縮/伸張処理部226は、メモリ50に記憶された登録フォーマットの所定の箇所に書き込まれた書込み画像の画像データを伸張し、伸張した書込み画像を検索処理部227へ出力する。   In addition, the compression / decompression processing unit 226 expands the image data of the written image written in a predetermined location of the registration format stored in the memory 50 and outputs the expanded written image to the search processing unit 227.

図18は登録フォーマットに関連付けられた書込み画像の例を示す説明図である。登録フォーマットは、原稿を表すインデックスID1、ID2、…で特定される。原稿を表すインデックスがID1の登録フォーマットには、例えば、日付、氏名、住所、電話番号、記入事項の各記載欄が定められてあり、各記載欄のうち、氏名、住所、記入事項の各記載欄は、その箇所(書込み領域)を特定するための識別子Q11、Q12、Q13がそれぞれ定められている。なお、書込み領域は、一例であって、これに限定されるものではなく、すべての記載欄に対応して設けてもよい。   FIG. 18 is an explanatory diagram showing an example of a written image associated with a registration format. The registration format is specified by indexes ID1, ID2,. The registration format whose index representing the manuscript is ID1, for example, has columns for date, name, address, telephone number, and entry, and each of the name, address, and entry in each entry column. In the column, identifiers Q11, Q12, and Q13 for specifying the location (writing area) are respectively defined. The writing area is an example and is not limited to this, and may be provided corresponding to all the description columns.

原稿を表すインデックスがID1の登録フォーマットに関連付けて、書込み領域に書き込まれた書込み画像WG11、WG12、WG13、…が記憶(登録)されている。例えば、書込み画像WG11は、書込み領域Q11、Q12、Q13にそれぞれ「11111」、「22222」、「33333」なる書込み画像が書き込まれている。なお、「11111」等は、例示であって、これに限定されるものではない。これにより、元の原稿に書き込まれた文字、記号、図形等の書込み画像WG11が、原稿の書式を示す登録フォーマットに関連付けて登録されている。同様に、書込み画像WG12は、書込み領域Q11、Q12、Q13にそれぞれ「aaaaa」、「bbbbb」、「ccccc」なる書込み画像が書き込まれている。なお、「aaaaa」等は、例示であって、これに限定されるものではない。これにより、元の原稿に書き込まれた文字、記号、図表等の書込み画像WG12が、原稿の書式を示す登録フォーマットに関連付けて登録されている。また、書込み画像WG13についても同様である。   The write image WG11, WG12, WG13,... Written in the write area is stored (registered) in association with the registration format whose index representing the document is ID1. For example, in the write image WG11, write images “11111”, “22222”, and “33333” are written in the write areas Q11, Q12, and Q13, respectively. Note that “11111” and the like are examples and are not limited thereto. As a result, the written image WG11 such as characters, symbols, and figures written on the original document is registered in association with the registration format indicating the format of the document. Similarly, in the writing image WG12, writing images “aaaaaa”, “bbbbbb”, and “ccccc” are written in the writing areas Q11, Q12, and Q13, respectively. Note that “aaaaaa” and the like are examples and are not limited thereto. As a result, the written image WG12 such as characters, symbols, charts and the like written on the original document is registered in association with the registration format indicating the format of the document. The same applies to the written image WG13.

また、原稿を表すインデックスがID2の登録フォーマットに関連付けて、書込み領域Q21に書き込まれた書込み画像WG21、WG22、WG23、…が記憶(登録)されている。例えば、書込み画像WG21は、書込み領域Q21に「44444」なる書込み画像が書き込まれている。なお、これは例示であって、これに限定されるものではない。また、書込み画像WG22、WG23についても同様である。   In addition, write images WG21, WG22, WG23,... Written in the write area Q21 are stored (registered) in association with the registration format whose index representing the document is ID2. For example, in the write image WG21, a write image “44444” is written in the write area Q21. This is merely an example, and the present invention is not limited to this. The same applies to the written images WG22 and WG23.

なお、上述の識別子Q11、Q12、Q13は、登録フォーマット毎に1つの識別子にまとめることもできる。   The identifiers Q11, Q12, and Q13 can be combined into one identifier for each registration format.

検索処理部227は、ユーザが操作パネル4を操作して検索モードを選択した場合に、原稿画像に基づいて、元の書込み画像を抽出するための検索処理を行う。より具体的には、検索処理部227は、原稿画像に類似する登録フォーマットに関連付けられた書込み画像を検索することにより、原稿画像から抽出された原稿書込み画像に類似する書込み画像を抽出する。   When the user operates the operation panel 4 to select the search mode, the search processing unit 227 performs search processing for extracting the original written image based on the document image. More specifically, the search processing unit 227 extracts a written image similar to the original written image extracted from the original image by searching for the written image associated with the registered format similar to the original image.

検索処理部227は、書込み領域抽出部224で抽出された原稿画像の原稿書込み画像と、原稿画像に類似する登録フォーマットに関連付けられた書込み画像それぞれが有する画素を、例えば、両画像の左上から右下に順次走査することにより、両画像で対応する注目画素の輝度値の差分を算出する。この場合、原稿を読み取る際の画素値の再現性などを考慮して、画像が256階調で表されているようなときには、両画像の対応する画素の輝度値の差分が5〜10程度の範囲内(差分閾値Tg)位置であれば、注目画素は同じであると判定する。例えば、原稿書込み画像のある注目画素の輝度値が210であり、登録フォーマットの書込み画像の対応する注目画素の輝度値が215であれば、両注目画素は同じであると判定する。また、例えば、原稿書込み画像のある注目画素の輝度値が210であり、登録フォーマットの書込み画像の対応する注目画素の輝度値が235であれば、両注目画素は同じでないと判定する。   The search processing unit 227 includes pixels of the original writing image of the original image extracted by the writing area extraction unit 224 and the writing image associated with the registration format similar to the original image, for example, from the upper left to the right of both images. By sequentially scanning downward, the difference between the luminance values of the target pixels corresponding to both images is calculated. In this case, in consideration of the reproducibility of the pixel value when reading the document, when the image is represented by 256 gradations, the difference between the luminance values of the corresponding pixels of both images is about 5-10. If the position is within the range (difference threshold Tg), the target pixel is determined to be the same. For example, if the luminance value of a pixel of interest in the original writing image is 210 and the luminance value of the corresponding pixel of interest in the writing image in the registered format is 215, it is determined that both pixels of interest are the same. For example, if the luminance value of a pixel of interest in the original writing image is 210 and the luminance value of the corresponding pixel of interest in the registration format writing image is 235, it is determined that the pixels of interest are not the same.

検索処理部227は、同じであると判定された画素数(判定画素数M)を原稿書込み画像が有する画素数で除算した比率Rn(nは、1つの登録フォーマットに関連付けられた書込み画像の数)を算出し、算出した比率Rnのうちで最も大きい値に対応する書込み画像を原稿書込み画像に一致するものとして抽出する。検索処理部227は、抽出した書込み画像を登録フォーマットの原稿を表すインデックスとともに合成処理部228へ出力する。なお、抽出した書込み画像を合成処理部228へ出力する前に、操作パネル4に表示することで、ユーザに確認を促すようにすることもできる。また、算出した比率Rnと所定の比率閾値とを比較して、比率閾値より大きい比率Rnに対応する書込み画像を順次表示、もしくはサムネイル表示させて、ユーザに選択してもらうように構成することもできる。   The search processing unit 227 divides the number of pixels determined to be the same (determination pixel number M) by the number of pixels included in the original writing image, where Rn (n is the number of writing images associated with one registered format) ) And the written image corresponding to the largest value among the calculated ratios Rn is extracted as matching the original written image. The search processing unit 227 outputs the extracted written image to the synthesis processing unit 228 together with an index representing the document in the registered format. Note that the extracted written image can be displayed on the operation panel 4 before being output to the composition processing unit 228 to prompt the user to confirm. Further, the calculated ratio Rn is compared with a predetermined ratio threshold value, and the writing images corresponding to the ratio Rn larger than the ratio threshold value are sequentially displayed or displayed as thumbnails so that the user can select them. it can.

図19は抽出される書込み画像の例を示す説明図である。図19(a)は、カラー画像入力装置1で読み取られる原稿PG1の原稿画像を示す。ユーザは、原稿PG1に書き込まれた原稿書込み画像に一致する書込み画像を抽出すべく、原稿PG1をカラー画像入力装置1で読み取らせ、カラー画像処理装置2で所定の処理を行うことにより、図19(b)に示す書込み画像WG11を抽出することができる。   FIG. 19 is an explanatory diagram showing an example of a written image to be extracted. FIG. 19A shows a document image of the document PG1 read by the color image input device 1. FIG. The user reads the original PG1 with the color image input apparatus 1 and performs predetermined processing with the color image processing apparatus 2 in order to extract a written image that matches the original written image written on the original PG1, thereby performing FIG. The written image WG11 shown in (b) can be extracted.

また、検索処理部227は、原稿画像から抽出された原稿書込み画像に類似する書込み画像を検索して抽出する場合に、原稿画像の一部の領域を除外して原稿書込み画像を抽出するとともに、登録フォーマットの対応する一部の領域の書込み画像を除外して検索することができる。例えば、図18に示す例において、原稿を表すインデックスがID1の登録フォーマットの書込み領域Q11を除外して、原稿書込み画像の抽出処理、登録フォーマットの書込み画像の検索処理を行うこともできる。これにより、原稿の一部に欠落あるいは汚れがある場合であっても、その箇所(書込み領域)を除外して元の書込み画像を抽出することができる。   In addition, when searching for and extracting a writing image similar to the original writing image extracted from the original image, the search processing unit 227 extracts the original writing image by excluding a part of the original image, It is possible to search by excluding the written image in a part of the corresponding area of the registration format. For example, in the example shown in FIG. 18, a document writing image extraction process and a registration format writing image search process can be performed by excluding the writing area Q11 of the registration format whose index representing the document is ID1. As a result, even if a part of the document is missing or dirty, the original written image can be extracted by excluding that part (writing area).

除外する書込み領域は、例えば、原稿画像と登録フォーマットを照合して、原稿画像に類似する登録フォーマットが特定された時点で、特定された登録フォーマットを操作パネル4に表示し、表示された登録フォーマットの書込み領域のいずれを除外するかユーザに指定させるように構成することができる。ユーザは、原稿の欠落部分あるいは汚れ部分に対応する書込み領域を除外する書込み領域として指定することができる。   The writing area to be excluded includes, for example, displaying the specified registered format on the operation panel 4 when the registered format similar to the original image is specified by comparing the original image with the registered format, and the displayed registered format. It is possible to configure the user to specify which of the writing areas to be excluded. The user can designate a writing area that excludes a writing area corresponding to a missing part or a dirty part of the document.

図20は書込み領域の一部を除外した場合に抽出される書込み画像の例を示す説明図である。図20(a)は、カラー画像入力装置1で読み取られる原稿PG2の原稿画像を示し、氏名の欄に欠落あるいは汚れが存在する。ユーザは、欠落あるいは汚れが修復された元の原稿画像を得るために、原稿PG2をカラー画像入力装置1で読み取らせ、カラー画像処理装置2は所定の処理を行う。この場合、住所及び記入事項の各欄(書込み領域)に基づいて、原稿書込み画像の抽出、登録フォーマットの書込み画像の検索及び抽出が行われ、図20(b)に示す書込み画像WG11を抽出することができる。   FIG. 20 is an explanatory diagram showing an example of a write image extracted when a part of the write area is excluded. FIG. 20A shows a document image of the document PG2 read by the color image input apparatus 1, and there are omissions or dirt in the name column. The user causes the color image input device 1 to read the original document PG2 in order to obtain an original document image in which missing or smudges are repaired, and the color image processing device 2 performs a predetermined process. In this case, based on the address and entry fields (writing area), extraction of the original writing image and search and extraction of the writing image of the registration format are performed, and the writing image WG11 shown in FIG. 20B is extracted. be able to.

合成処理部228は、検索処理部227から入力された書込み画像及び登録フォーマットの原稿を表すインデックスに基づいて、登録フォーマットと抽出された書込み画像とを合成し、合成画像データを出力する。これにより、元の原稿を復元することができる。   The composition processing unit 228 combines the registered format and the extracted written image based on the written image input from the search processing unit 227 and the index representing the document in the registered format, and outputs composite image data. As a result, the original document can be restored.

次に、画像形成装置100の動作について説明する。図21は原稿に書き込まれた原稿書込み画像の登録処理の手順を示すフローチャートである。なお、登録処理は、専用のハードウエア回路で構成するだけでなく、CPU、RAM、ROMなどを備えたパーソナルコンピュータに、登録処理の手順を定めたコンピュータプログラムをロードしてCPUでコンピュータプログラムを実行させることにより行うこともできる。   Next, the operation of the image forming apparatus 100 will be described. FIG. 21 is a flowchart showing a procedure for registering a document writing image written on a document. The registration process is not only configured with a dedicated hardware circuit, but a personal computer having a CPU, RAM, ROM, etc. is loaded with a computer program that defines the procedure of the registration process, and the CPU executes the computer program. Can also be performed.

制御部229は、登録モードであるか否かを判定し(S11)、登録モードでない場合(S11でNO)、ステップS11の処理を続け、ユーザによる登録モードの選択があるまで待機する。登録モードである場合(S11でYES)、制御部229は、カラー画像入力装置1で読み取られた原稿により得られた原稿画像を取得する(S12)。   The control unit 229 determines whether or not the registration mode is set (S11). If the registration mode is not set (NO in S11), the control unit 229 continues the process of step S11 and waits until the user selects the registration mode. In the registration mode (YES in S11), the control unit 229 acquires a document image obtained from a document read by the color image input device 1 (S12).

制御部229は、取得した原稿画像に基づいて、特徴点を算出し(S13)、算出した特徴点に基づいてハッシュ値(特徴量)を算出する(S14)。制御部229は、算出したハッシュ値(特徴量)に基づいて、登録フォーマットのハッシュテーブル502を検索し、ハッシュ値が一致する原稿を表すインデックスに投票する(S15)。なお、この場合、制御部229は、原稿画像の特徴点がどの登録フォーマットの何れの特徴点に投票したかを判定し、判定結果を記憶する。   The control unit 229 calculates a feature point based on the acquired document image (S13), and calculates a hash value (feature amount) based on the calculated feature point (S14). The control unit 229 searches the hash table 502 of the registered format based on the calculated hash value (feature value), and votes for an index representing a document with a matching hash value (S15). In this case, the control unit 229 determines which feature point of the registered format the feature point of the document image has voted, and stores the determination result.

制御部229は、原稿画像の最大得票数で得票数を除算して類似度を算出し(S16)、算出した類似度が閾値Thより大きいか否かを判定する(S17)。類似度が閾値Thより大きい場合(S17でYES)、制御部229は、書込み領域抽出処理を行う(S18)。なお、書込み領域抽出処理の詳細は後述する。制御部229は、抽出された原稿書込み画像を圧縮して原稿書込み画像を登録フォーマットの原稿を表すインデックスに関連付けて記憶することにより登録する(S19)。   The control unit 229 calculates the similarity by dividing the number of votes by the maximum number of votes of the document image (S16), and determines whether the calculated similarity is greater than the threshold Th (S17). When the similarity is larger than the threshold Th (YES in S17), the control unit 229 performs a writing area extraction process (S18). Details of the writing area extraction processing will be described later. The control unit 229 registers the extracted original writing image by compressing the original writing image and storing the original writing image in association with the index representing the original in the registration format (S19).

制御部229は、すべての原稿画像を取得したか否かを判定し(S20)、すべての原稿画像を取得していない場合(S20でNO)、ステップS12以降の処理を続ける。一方、類似度が閾値Thより大きくない場合(S17でNO)、制御部229は、ステップS20以降の処理を続ける。すべての原稿画像を取得した場合(S20でYES)、制御部229は、処理を終了する。   The control unit 229 determines whether or not all document images have been acquired (S20). If all document images have not been acquired (NO in S20), the processing from step S12 is continued. On the other hand, when the similarity is not greater than the threshold value Th (NO in S17), the control unit 229 continues the processing from step S20. When all document images have been acquired (YES in S20), control unit 229 ends the process.

図22は書込み領域抽出処理の手順を示すフローチャートである。制御部229は、原稿画像と類似すると判定された登録フォーマットの座標系(座標)を原稿画像の座標系(座標)に変換する(S101)。なお、この場合、登録フォーマットの全体を座標変換してもよく、あるいは登録フォーマットの設定された記載欄のみの座標変換を行ってもよい。   FIG. 22 is a flowchart showing the procedure of the write area extraction process. The control unit 229 converts the coordinate system (coordinates) of the registration format determined to be similar to the document image into the coordinate system (coordinates) of the document image (S101). In this case, the entire registration format may be coordinate-converted, or only the description column in which the registration format is set may be coordinate-converted.

制御部229は、原稿画像と登録フォーマットの各画素のうち同じ画素値(例えば、輝度値)を有する画素数を示す判定画素数Mを「0」にし(S102)、原稿画像と登録フォーマットの注目画素を走査することにより、各注目画素の画素値の差分を算出する(S103)。   The control unit 229 sets the determination pixel number M indicating the number of pixels having the same pixel value (for example, luminance value) among the pixels of the document image and the registration format to “0” (S102), and pays attention to the document image and the registration format. By scanning the pixels, the difference between the pixel values of each target pixel is calculated (S103).

制御部229は、算出した差分が差分閾値Tgより小さいか否かを判定し(S104)、差分が差分閾値Tgより小さい場合(S104でYES)、判定画素数Mに「1」を加算する(S105)。制御部229は、原稿画像及び登録フォーマットのすべての画素について処理が終了したか否かを判定し(S106)、すべての画素について処理が終了していない場合(S106でNO)、ステップS103以降の処理を続ける。   The control unit 229 determines whether or not the calculated difference is smaller than the difference threshold Tg (S104). If the difference is smaller than the difference threshold Tg (YES in S104), “1” is added to the determination pixel number M ( S105). The control unit 229 determines whether or not the processing has been completed for all the pixels of the original image and the registration format (S106). If the processing has not been completed for all the pixels (NO in S106), the control unit 229 and subsequent steps. Continue processing.

制御部229は、差分が差分閾値Tgより小さくない場合(S104でNO)、ステップS106以降の処理を続ける。すべての画素について処理が終了した場合(S106でYES)、制御部229は、(判定画素数M/登録フォーマットの画素数)で表される比率が比率閾値Tsより小さいか否かを判定する(S107)。   When the difference is not smaller than the difference threshold value Tg (NO in S104), the control unit 229 continues the process from step S106. When the processing has been completed for all the pixels (YES in S106), the control unit 229 determines whether or not the ratio represented by (number of determination pixels M / number of pixels in the registered format) is smaller than the ratio threshold Ts ( S107).

制御部229は、比率が比率閾値Tsより小さい場合(S107でYES)、書込みありと判定し(S108)、原稿書込み画像を抽出し(S109)、処理を終了する。一方、制御部229は、比率が比率閾値Tsより小さくない場合(S107でNO)、書込みなしと判定し(S110)、処理を終了する。   When the ratio is smaller than the ratio threshold value Ts (YES in S107), the control unit 229 determines that there is writing (S108), extracts a document writing image (S109), and ends the process. On the other hand, when the ratio is not smaller than the ratio threshold Ts (NO in S107), the control unit 229 determines that there is no writing (S110), and ends the process.

図23は原稿画像に基づいて元の原稿を復元する処理の手順を示すフローチャートである。なお、この処理は、専用のハードウエア回路で構成するだけでなく、CPU、RAM、ROMなどを備えたパーソナルコンピュータに、処理の手順を定めたコンピュータプログラムをロードしてCPUでコンピュータプログラムを実行させることにより行うこともできる。   FIG. 23 is a flowchart showing a procedure of processing for restoring the original document based on the document image. This process is not limited to a dedicated hardware circuit, but is loaded into a personal computer equipped with a CPU, RAM, ROM, etc., and a computer program that defines the processing procedure is loaded and executed by the CPU. Can also be done.

制御部229は、検索モードであるか否かを判定し(S31)、検索モードでない場合(S31でNO)、ステップS31の処理を続け、ユーザによる検索モードの選択があるまで待機する。検索モードである場合(S31でYES)、制御部229は、カラー画像入力装置1で読み取られた原稿により得られた原稿画像を取得する(S32)。   The control unit 229 determines whether or not the search mode is set (S31). If the search mode is not set (NO in S31), the control unit 229 continues the process of step S31 and waits until the search mode is selected by the user. In the search mode (YES in S31), the control unit 229 acquires a document image obtained from a document read by the color image input device 1 (S32).

制御部229は、取得した原稿画像に基づいて、特徴点を算出し(S33)、算出した特徴点に基づいてハッシュ値(特徴量)を算出する(S34)。制御部229は、算出したハッシュ値(特徴量)に基づいて、登録フォーマットのハッシュテーブル502を検索し、ハッシュ値が一致する原稿を表すインデックスに投票する(S35)。なお、この場合、制御部229は、原稿画像の特徴点がどの登録フォーマットの何れの特徴点に投票したかを判定し、判定結果を記憶する。   The control unit 229 calculates a feature point based on the acquired document image (S33), and calculates a hash value (feature amount) based on the calculated feature point (S34). Based on the calculated hash value (feature value), the control unit 229 searches the hash table 502 of the registered format, and votes for an index representing a document with a matching hash value (S35). In this case, the control unit 229 determines which feature point of the registered format the feature point of the document image has voted, and stores the determination result.

制御部229は、原稿画像の最大得票数で得票数を除算して類似度を算出し(S36)、算出した類似度が閾値Thより大きいか否かを判定する(S37)。類似度が閾値Thより大きい場合(S37でYES)、制御部229は、原稿画像に類似する登録フォーマットを操作パネル4に表示して、書込み領域の抽出箇所の選択を受け付け(S38)、書込み領域抽出処理を行う(S39)。なお、書込み領域抽出処理は図22で示した処理である。   The control unit 229 calculates the similarity by dividing the number of votes by the maximum number of votes of the document image (S36), and determines whether the calculated similarity is greater than the threshold Th (S37). When the similarity is larger than the threshold Th (YES in S37), the control unit 229 displays a registration format similar to the document image on the operation panel 4, accepts selection of a writing area extraction location (S38), and writes the writing area. An extraction process is performed (S39). The writing area extraction process is the process shown in FIG.

制御部229は、選択された書込み領域を除外して検索処理を行う(S40)。なお、検索処理の詳細は後述する。制御部229は、抽出された書込み画像を表示し(S41)、ユーザの確認を得るとともに、抽出した書込み画像を登録フォーマットに合成して画像合成を行う(S42)。   The control unit 229 performs a search process excluding the selected writing area (S40). Details of the search process will be described later. The control unit 229 displays the extracted written image (S41), obtains user confirmation, and synthesizes the extracted written image into a registered format to perform image synthesis (S42).

制御部229は、すべての原稿画像を取得したか否かを判定し(S43)、すべての原稿画像を取得していない場合(S43でNO)、ステップS32以降の処理を続ける。一方、類似度が閾値Thより大きくない場合(S37でNO)、制御部229は、ステップS43以降の処理を続ける。すべての原稿画像を取得した場合(S43でYES)、制御部229は、処理を終了する。   The control unit 229 determines whether or not all document images have been acquired (S43). If all document images have not been acquired (NO in S43), the processing from step S32 is continued. On the other hand, when the similarity is not greater than the threshold Th (NO in S37), the control unit 229 continues the processing from step S43. When all the original images have been acquired (YES in S43), the control unit 229 ends the process.

図24は検索処理の手順を示すフローチャートである。制御部229は、登録フォーマットに関連付けられた書込み画像をメモリ50から読み出し(S131)、読み出した書込み画像に対して伸張処理を行う(S132)。   FIG. 24 is a flowchart showing the procedure of search processing. The control unit 229 reads the write image associated with the registered format from the memory 50 (S131), and performs an expansion process on the read write image (S132).

制御部229は、原稿画像の原稿書込み画像と登録フォーマットの書込み画像の各画素のうち同じ画素値(例えば、輝度値)を有する画素数を示す判定画素数Mを「0」にし(S133)、原稿書込み画像と登録フォーマットの書込み画像の注目画素を走査することにより、各注目画素の画素値の差分を算出する(S134)。   The control unit 229 sets the determination pixel number M indicating the number of pixels having the same pixel value (for example, luminance value) among the pixels of the original written image of the original image and the written image of the registered format to “0” (S133). The pixel value difference of each pixel of interest is calculated by scanning the pixel of interest of the original written image and the registered format written image (S134).

制御部229は、算出した差分が差分閾値Tgより小さいか否かを判定し(S135)、差分が差分閾値Tgより小さい場合(S135でYES)、判定画素数Mに「1」を加算する(S136)。制御部229は、原稿書込み画像及び登録フォーマットの書込み画像のすべての画素について処理が終了したか否かを判定し(S137)、すべての画素について処理が終了していない場合(S137でNO)、ステップS134以降の処理を続ける。   The control unit 229 determines whether or not the calculated difference is smaller than the difference threshold Tg (S135). If the difference is smaller than the difference threshold Tg (YES in S135), “1” is added to the determination pixel number M ( S136). The control unit 229 determines whether or not the processing has been completed for all the pixels of the original writing image and the registration format writing image (S137). If the processing has not been completed for all the pixels (NO in S137), The processing after step S134 is continued.

制御部229は、差分が差分閾値Tgより小さくない場合(S135でNO)、ステップS137以降の処理を続ける。すべての画素について処理が終了した場合(S137でYES)、制御部229は、(判定画素数M/原稿書込み画像の画素数)で表される比率Rnを算出し(S138)、算出した比率Rnを記録する(S139)。   When the difference is not smaller than the difference threshold value Tg (NO in S135), the control unit 229 continues the process from step S137. When the processing is completed for all pixels (YES in S137), the control unit 229 calculates a ratio Rn represented by (number of determination pixels M / number of pixels of the original writing image) (S138), and the calculated ratio Rn Is recorded (S139).

制御部229は、すべての書込み画像の処理が終了したか否かを判定し(S140)、すべての書込み画像の処理が終了していない場合(S140でNO)、ステップS131以降の処理を続ける。すべての書込み画像の処理が終了した場合(S140でYES)、制御部229は、比率Rnが最も大きい書込み画像を抽出し(S141)、処理を終了する。   The control unit 229 determines whether or not all of the written images have been processed (S140). If all of the written images have not been processed (NO in S140), the processing from step S131 is continued. When all the written images have been processed (YES in S140), the control unit 229 extracts a written image having the largest ratio Rn (S141), and ends the processing.

なお、上述の書込み領域抽出処理の例では、(判定画素数M/登録フォーマットの画素数)で表される比率を用いる構成であったが、これに限定されるものではなく、文書照合処理部22で画素数を算出することにより書込み領域抽出処理を実現することができる。この場合、予め定めた二値化閾値により原稿画像及び登録フォーマットを二値化し、二値化後の原稿画像の画素数K1及び二値化後の登録フォーマットの画素数K2を算出し、画素数の差(K1−K2)が画素数閾値より大きいか否かに基づいて原稿書込み画像の有無を判定することができる。また、二値化処理後のデータを用いて排他的論理和を算出することにより、原稿書込み画像の有無を判定することもできる。画素数を算出する構成とすることにより、原稿の記載欄(書込み領域)の面積の大小にかかわらず、わずかな書込みがある場合でも、書込みの有無を精度よく判定することができる。また、比率による書込み判定と画素数による書込み判定とを併用することにより、書込み判定精度をさらに向上させることが可能になる。   In the above-described example of the writing area extraction process, the ratio represented by (the number of determination pixels M / the number of pixels in the registration format) is used. However, the present invention is not limited to this. By calculating the number of pixels at 22, the writing area extraction processing can be realized. In this case, the document image and the registration format are binarized using a predetermined binarization threshold, the pixel number K1 of the binarized document image and the pixel number K2 of the binarized registration format are calculated, and the number of pixels Based on whether or not the difference (K1−K2) is larger than the pixel number threshold value, the presence / absence of a document writing image can be determined. It is also possible to determine the presence / absence of a document writing image by calculating an exclusive OR using the binarized data. By adopting a configuration for calculating the number of pixels, it is possible to accurately determine whether or not writing is performed, even when there is a slight writing, regardless of the size of the document entry column (writing region). In addition, by using both the write determination based on the ratio and the write determination based on the number of pixels, the write determination accuracy can be further improved.

実施の形態2
読み取られる原稿の用紙としては、白色の用紙であるとは限らず、再生紙、あるいは薄く着色された用紙を用いることもある。このような場合であっても、原稿画像の下地除去処理を行うことにより精度良く書込み領域の抽出をすることができる。この場合、文書照合処理部22で下地除去処理を行うことができる。あるいは、シェーディング補正部21の後段に入力階調補正部23を設け、入力階調補正部23の後段に文書照合処理部22を設けて、入力階調補正部23で下地除去処理を行うようにすることもできる。原稿画像に対して下地除去を行う場合、登録フォーマットについても下地除去処理を施して登録しておく。あるいは、原稿画像に対して、登録フォーマットの下地と同じレベルの下地となるように下地除去を行う。これは、下地除去を行う際の濃度補正テーブルを適切に設定することにより可能である。
Embodiment 2
The original paper to be read is not limited to white paper, and recycled paper or lightly colored paper may be used. Even in such a case, the writing area can be extracted with high accuracy by performing the background removal processing of the document image. In this case, the document matching processing unit 22 can perform background removal processing. Alternatively, an input tone correction unit 23 is provided after the shading correction unit 21 and a document matching processing unit 22 is provided after the input tone correction unit 23 so that the input tone correction unit 23 performs background removal processing. You can also When performing background removal on a document image, the registration format is also registered by performing background removal processing. Alternatively, the background removal is performed on the document image so that the background has the same level as the background of the registered format. This is possible by appropriately setting a density correction table for performing background removal.

文書照合処理部22は、シェーディング補正部21から入力されたRGB信号のうちG信号を補正反転した信号を抽出し、例えば、256段階の濃度を16の区分に分割して原稿画像の濃度ヒストグラムを作成する。   The document collation processing unit 22 extracts a signal obtained by correcting and inverting the G signal from the RGB signals input from the shading correction unit 21, and for example, divides the density of 256 levels into 16 sections and generates a density histogram of the document image. create.

また、下地であると判断される濃度値の最大値を予め第1の閾値としてメモリ50に記憶しておくとともに、どれだけの画素数以上であれば下地であると判断するか、すなわち、下地であると判断される画素数の最小値を予め第2の閾値としてメモリ50に記憶しておく。また、下地であると判断された濃度区分に対応して下地を除去するための濃度補正テーブルをメモリ50に記憶しておく。   In addition, the maximum density value determined to be the background is stored in advance in the memory 50 as the first threshold value, and how many pixels or more are determined to be the background, that is, the background The minimum value of the number of pixels determined to be is stored in advance in the memory 50 as the second threshold value. Also, a density correction table for removing the background corresponding to the density classification determined to be the background is stored in the memory 50.

文書照合処理部22は、作成した濃度ヒストグラムの高濃度側から検索することにより、下地であると判断される第1の閾値以下の濃度区分にあって、画素数が第2の閾値以上の濃度区分を下地として抽出する。文書照合処理部22は、下地として抽出した濃度区分に対応する濃度補正テーブルにより下地除去処理を行う。なお、G信号に代えて、輝度信号(255−Yj)を用いることもできる。ここで、Yjは各画素RGBの色成分を夫々Rj、Gj、Bjとし、Yj=0.30×Rj+0.59×Gj+0.11×Bjで表される。   The document matching processing unit 22 searches from the high density side of the created density histogram, and is in a density category equal to or lower than the first threshold value determined to be the background, and has a density of pixels equal to or higher than the second threshold value. A section is extracted as a base. The document matching processing unit 22 performs background removal processing using a density correction table corresponding to the density classification extracted as the background. Note that a luminance signal (255-Yj) can be used instead of the G signal. Here, Yj is represented by Yj = 0.30 × Rj + 0.59 × Gj + 0.11 × Bj, where Rj, Gj, and Bj are the color components of each pixel RGB.

図25は実施の形態2の書込み領域抽出処理の手順を示すフローチャートである。制御部229は、原稿画像と類似すると判定された登録フォーマットの座標系(座標)を原稿画像の座標系(座標)に変換する(S151)。なお、この場合、実施の形態1と同様に登録フォーマットの全体を座標変換してもよく、あるいは登録フォーマットの設定された記載欄のみの座標変換を行ってもよい。   FIG. 25 is a flowchart showing the procedure of the write area extraction process according to the second embodiment. The control unit 229 converts the coordinate system (coordinates) of the registered format determined to be similar to the document image into the coordinate system (coordinates) of the document image (S151). In this case, as in the first embodiment, the entire registration format may be coordinate-converted, or only the description column in which the registration format is set may be coordinate-converted.

制御部229は、原稿画像から抽出したG信号を補正反転した信号に基づいて、原稿画像の濃度ヒストグラムを作成し(S152)、作成した濃度ヒストグラムの高濃度側から検索することにより、下地を抽出する(S153)。制御部229は、下地として抽出した濃度区分に対応する濃度補正テーブルを用いて原稿画像の下地を除去する(S154)。   The control unit 229 creates a density histogram of the document image based on the signal obtained by correcting and inverting the G signal extracted from the document image (S152), and extracts the background by searching from the high density side of the created density histogram. (S153). The control unit 229 removes the background of the original image using the density correction table corresponding to the density classification extracted as the background (S154).

制御部229は、原稿画像と登録フォーマットの各画素のうち同じ画素値(例えば、輝度値)を有する画素数を示す判定画素数Mを「0」にし(S155)、原稿画像と登録フォーマットの注目画素を走査することにより、各注目画素の画素値の差分を算出する(S156)。   The control unit 229 sets the determination pixel number M indicating the number of pixels having the same pixel value (for example, luminance value) among the pixels of the document image and the registration format to “0” (S155), and pays attention to the document image and the registration format. By scanning the pixels, the difference between the pixel values of each pixel of interest is calculated (S156).

制御部229は、算出した差分が差分閾値Tgより小さいか否かを判定し(S157)、差分が差分閾値Tgより小さい場合(S157でYES)、判定画素数Mに「1」を加算する(S158)。制御部229は、原稿画像及び登録フォーマットのすべての画素について処理が終了したか否かを判定し(S159)、すべての画素について処理が終了していない場合(S159でNO)、ステップS156以降の処理を続ける。   The control unit 229 determines whether or not the calculated difference is smaller than the difference threshold Tg (S157). If the difference is smaller than the difference threshold Tg (YES in S157), “1” is added to the determination pixel number M ( S158). The control unit 229 determines whether or not the process has been completed for all the pixels of the original image and the registration format (S159). If the process has not been completed for all the pixels (NO in S159), the control unit 229 and subsequent steps. Continue processing.

制御部229は、差分が差分閾値Tgより小さくない場合(S157でNO)、ステップS159以降の処理を続ける。すべての画素について処理が終了した場合(S159でYES)、制御部229は、(判定画素数M/登録フォーマットの画素数)で表される比率が比率閾値Tsより小さいか否かを判定する(S160)。   When the difference is not smaller than the difference threshold value Tg (NO in S157), the control unit 229 continues the process from step S159. When the processing has been completed for all the pixels (YES in S159), the control unit 229 determines whether or not the ratio represented by (number of determination pixels M / number of pixels in the registered format) is smaller than the ratio threshold Ts ( S160).

制御部229は、比率が比率閾値Tsより小さい場合(S160でYES)、書込みありと判定し(S161)、原稿画像の原稿書込み画像を抽出し(S162)、処理を終了する。一方、制御部229は、比率が比率閾値Tsより小さくない場合(S160でNO)、書込みなしと判定し(S163)、処理を終了する。   If the ratio is smaller than the ratio threshold Ts (YES in S160), the control unit 229 determines that there is writing (S161), extracts the original writing image of the original image (S162), and ends the process. On the other hand, when the ratio is not smaller than the ratio threshold Ts (NO in S160), the control unit 229 determines that there is no writing (S163), and ends the process.

これにより、読み取られる原稿の用紙が再生紙、あるいは薄く着色された用紙であっても、精度良く書込み領域の抽出をすることができる。   As a result, even if the original paper to be read is recycled paper or lightly colored paper, the writing area can be extracted with high accuracy.

図26は原稿読取装置500の構成を示すブロック図である。図に示すように、原稿読取装置500は、カラー画像入力装置1、A/D変換部20、シェーディング補正部21、文書照合処理部22などを備えている。カラー画像入力装置1、A/D変換部20、シェーディング補正部21、文書照合処理部22は、上述の画像形成装置100の場合と同様であるので説明は省略する。   FIG. 26 is a block diagram illustrating a configuration of the document reading apparatus 500. As shown in the figure, the document reading device 500 includes a color image input device 1, an A / D conversion unit 20, a shading correction unit 21, a document matching processing unit 22, and the like. Since the color image input device 1, the A / D conversion unit 20, the shading correction unit 21, and the document collation processing unit 22 are the same as those of the image forming apparatus 100 described above, description thereof is omitted.

以上説明したように、本発明にあっては、従来よりも簡単に原稿に書き込まれた書込み画像を抽出することができる。また、原稿の一部に汚れ、あるいは欠落などがある場合であっても、原稿に書き込まれた書込み画像を抽出することができる。また、書込みがされた元の原稿を復元することができる。また、下地を除去することにより、原稿に書き込まれた書込み画像を精度良く抽出することができる。さらに、原稿に書き込まれた原稿書込み画像を登録画像に関連付けて記憶することができる。   As described above, according to the present invention, it is possible to extract a written image written on an original more easily than in the past. In addition, even when a part of the document is soiled or missing, a written image written on the document can be extracted. In addition, the original document that has been written can be restored. Further, by removing the background, it is possible to accurately extract the written image written on the original. Furthermore, the original writing image written on the original can be stored in association with the registered image.

上述の実施の形態では、登録フォーマット、ハッシュテーブル502を予めメモリ50に記憶しておく構成であるが、これに限定されるものではなく、画像形成装置100と通信回線(ネットワーク)を通じて接続されたサーバ装置の記憶部に登録フォーマットを記憶しておき、ハッシュテーブル502はメモリ50に分散して記憶させてもよい。   In the above-described embodiment, the registration format and the hash table 502 are stored in the memory 50 in advance. The registration format may be stored in the storage unit of the server device, and the hash table 502 may be distributed and stored in the memory 50.

上述の実施の形態において、カラー画像入力装置1としては、例えば、フラットベッドスキャナ、フィルムスキャナ、デジタルカメラ、携帯電話機などが用いられる。また、カラー画像出力装置3としては、例えば、CRTディスプレイ、液晶ディスプレイなどの画像表示装置、処理結果を記録紙などに出力する電子写真方式又はインクジェット方式のプリンタなどが用いられる。さらに画像形成装置100としては、ネットワークを介してサーバ装置などに接続するための通信手段としてのモデムなどを備えることもできる。また、カラー画像入力装置1からカラー画像データを取得する代わりに、ネットワークを介して外部記憶装置、サーバ装置などからカラー画像データを取得する構成であってもよい。   In the above-described embodiment, as the color image input device 1, for example, a flat bed scanner, a film scanner, a digital camera, a mobile phone, or the like is used. Further, as the color image output device 3, for example, an image display device such as a CRT display or a liquid crystal display, an electrophotographic system or an ink jet system printer that outputs processing results to recording paper or the like is used. Further, the image forming apparatus 100 may include a modem as a communication unit for connecting to a server apparatus or the like via a network. Further, instead of acquiring the color image data from the color image input device 1, the color image data may be acquired from an external storage device, a server device, or the like via a network.

上述の実施の形態では、文書照合処理部22の中にメモリ50、制御部229を備える構成であるが、これに限定されるものではなく、メモリ50、制御部229を文書照合処理部22の外部に設ける構成であってもよい。   In the above-described embodiment, the document collation processing unit 22 includes the memory 50 and the control unit 229. However, the present invention is not limited to this, and the memory 50 and the control unit 229 are included in the document collation processing unit 22. The structure provided outside may be sufficient.

本発明はコンピュータに実行させるためのコンピュータプログラムを記録したコンピュータでの読み取り可能な記録媒体に、文書照合のための登録処理、書込み領域抽出処理、原稿の復元処理、検索処理などを行うコンピュータプログラムのプログラムコードを記録することもできる。この結果、上記処理を行うコンピュータプログラムのプログラムコードを記録した記録媒体を持ち運び自在に提供することができる。記録媒体としては、マイクロコンピュータで処理が行われるために図示しないメモリ、例えばROMのようなプログラムメディアであってもよく、図示しない外部記憶装置としてのプログラム読取装置が設けられ、そこに記録媒体を挿入することで読み取り可能なプログラムメディアであってもよい。   The present invention relates to a computer program for performing registration processing for document collation, writing area extraction processing, document restoration processing, search processing, etc. on a computer-readable recording medium on which a computer program to be executed by a computer is recorded. Program code can also be recorded. As a result, a recording medium on which the program code of the computer program for performing the above processing is recorded can be provided in a portable manner. The recording medium may be a non-illustrated memory, for example, a program medium such as a ROM because processing is performed by a microcomputer, and a program reading device as an external storage device (not illustrated) is provided, and the recording medium is stored therein. It may be a program medium that can be read by being inserted.

いずれの場合においても、格納されているプログラムコードはマイクロプロセッサがアクセスして実行させる構成であってもよいし、プログラムコードを読み出し、読み出されたプログラムコードは、マイクロコンピュータの図示されていないプログラム記憶エリアにダウンロードされて、そのプログラムコードが実行される方式であってもよい。この場合、ダウンロード用のコンピュータプログラムは予め本体装置に格納されているものとする。   In any case, the stored program code may be configured to be accessed and executed by the microprocessor, or the program code is read, and the read program code is a program (not shown) of the microcomputer. The program code may be downloaded to the storage area and executed. In this case, it is assumed that the computer program for download is stored in the main device in advance.

ここで、上記プログラムメディアは、本体と分離可能に構成される記録媒体であり、磁気テープやカセットテープ等のテープ系、フレキシブルディスクやハードディスク等の磁気ディスク並びにCD−ROM/MO/MD/DVD等の光ディスクのディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)、フラッシュROM等による半導体メモリを含めた固定的にコンピュータプログラムを担持する媒体であってもよい。   Here, the program medium is a recording medium configured to be separable from the main body, such as a tape system such as a magnetic tape or a cassette tape, a magnetic disk such as a flexible disk or a hard disk, and a CD-ROM / MO / MD / DVD. Semiconductors such as optical discs, IC cards (including memory cards) / optical cards, etc., or mask ROM, EPROM (Erasable Programmable Read Only Memory), EEPROM (Electrically Erasable Programmable Read Only Memory), flash ROM, etc. It may be a medium that carries a computer program fixedly including a memory.

また、この場合、インターネットを含む通信ネットワークを接続可能なシステム構成であることから、通信ネットワークからプログラムコードをダウンロードするように流動的にプログラムコードを担持する媒体であってもよい。なお、このように通信ネットワークからプログラムコードをダウンロードする場合には、そのダウンロード用のコンピュータプログラムは予め本体装置に格納しておくか、あるいは別の記録媒体からインストールされるものであってもよい。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。   In this case, since the system configuration is capable of connecting a communication network including the Internet, the medium may be a medium that dynamically carries the program code so as to download the program code from the communication network. When the program code is downloaded from the communication network in this way, the computer program for downloading may be stored in the main device in advance or may be installed from another recording medium. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.

本発明に係る画像処理装置を備える画像形成装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an image forming apparatus including an image processing apparatus according to the present invention. 文書照合処理部の構成を示すブロック図である。It is a block diagram which shows the structure of a document collation process part. 特徴点算出部の構成を示すブロック図である。It is a block diagram which shows the structure of a feature point calculation part. フィルタ処理部のフィルタ係数の例を示す説明図である。It is explanatory drawing which shows the example of the filter coefficient of a filter process part. 連結領域の特徴点の例を示す説明図である。It is explanatory drawing which shows the example of the feature point of a connection area | region. 文字列に対する特徴点の抽出結果の例を示す説明図である。It is explanatory drawing which shows the example of the extraction result of the feature point with respect to a character string. 注目特徴点と周辺の特徴点を示す説明図である。It is explanatory drawing which shows an attention feature point and the surrounding feature point. 注目特徴点による不変量の算出例を示す説明図である。It is explanatory drawing which shows the example of calculation of the invariant by an attention feature point. 注目特徴点による不変量の算出例を示す説明図である。It is explanatory drawing which shows the example of calculation of the invariant by an attention feature point. 原稿画像の特徴点座標テーブルの構造を示す説明図である。It is explanatory drawing which shows the structure of the feature point coordinate table of an original image. 登録フォーマットのハッシュテーブルの構造を示す説明図である。It is explanatory drawing which shows the structure of the hash table of a registration format. 登録フォーマットの特徴点座標テーブルの構造を示す説明図である。It is explanatory drawing which shows the structure of the feature point coordinate table of a registration format. 特徴点投票テーブルの構造を示す説明図である。It is explanatory drawing which shows the structure of a feature point vote table. 投票結果に基づく類似判定の一例を示す説明図である。It is explanatory drawing which shows an example of the similarity determination based on a vote result. 原稿画像及び登録フォーマットの位置合わせを示す説明図である。It is explanatory drawing which shows the alignment of a manuscript image and a registration format. 登録フォーマットの一例を示す説明図である。It is explanatory drawing which shows an example of a registration format. 登録フォーマットの座標変換対象テーブルの一例を示す説明図である。It is explanatory drawing which shows an example of the coordinate conversion object table of a registration format. 登録フォーマットに関連付けられた書込み画像の例を示す説明図である。It is explanatory drawing which shows the example of the writing image linked | related with the registration format. 抽出される書込み画像の例を示す説明図である。It is explanatory drawing which shows the example of the written image extracted. 書込み領域の一部を除外した場合に抽出される書込み画像の例を示す説明図である。It is explanatory drawing which shows the example of the writing image extracted when a part of writing area | region is excluded. 原稿に書き込まれた原稿書込み画像の登録処理の手順を示すフローチャートである。6 is a flowchart illustrating a procedure for registering a document writing image written on a document. 書込み領域抽出処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of a writing area extraction process. 原稿画像に基づいて元の原稿を復元する処理の手順を示すフローチャートである。6 is a flowchart illustrating a procedure of processing for restoring an original document based on a document image. 検索処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of a search process. 実施の形態2の書込み領域抽出処理の手順を示すフローチャートである。10 is a flowchart illustrating a procedure of write area extraction processing according to the second embodiment. 原稿読取装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of a document reading device.

符号の説明Explanation of symbols

1 カラー画像入力装置
2 カラー画像処理装置
3 カラー画像出力装置
22 文書照合処理部
50 メモリ
220 特徴点算出部
221 特徴量算出部
222 投票処理部
223 類似度判定処理部
224 書込み領域抽出部
225 登録制御部
226 圧縮/伸張処理部
227 検索処理部
228 合成処理部
229 制御部
2200 無彩化処理部
2201 解像度変換部
2202 フィルタ処理部
2203 二値化処理部
2204 重心算出部
DESCRIPTION OF SYMBOLS 1 Color image input device 2 Color image processing device 3 Color image output device 22 Document collation process part 50 Memory 220 Feature point calculation part 221 Feature-value calculation part 222 Voting process part 223 Similarity determination process part 224 Write area extraction part 225 Registration control Unit 226 compression / decompression processing unit 227 search processing unit 228 synthesis processing unit 229 control unit 2200 achromatic processing unit 2201 resolution conversion unit 2202 filter processing unit 2203 binarization processing unit 2204 centroid calculation unit

Claims (12)

取得した原稿画像が予め登録された登録画像に類似するか否かを判定し、判定結果に基づいて登録画像に書き込まれた書込み画像を抽出する画像処理方法において、
複数の登録画像夫々に対して定められた1又は複数の箇所に書き込まれた書込み画像を前記登録画像に関連付けて複数記憶してあり、
原稿画像が登録画像に類似するか否かを判定し、
原稿画像が登録画像に類似する場合、該原稿画像に書込みがされているか否かを判定し、
書込みがされている場合、前記原稿画像に書き込まれた原稿書込み画像を特定し、
特定した原稿書込み画像が前記原稿画像に類似する登録画像に関連付けられた書込み画像に類似するか否かを判定し、
前記原稿書込み画像が書込み画像に類似する場合、該書込み画像を抽出することを特徴とする画像処理方法。
In the image processing method for determining whether or not the obtained document image is similar to a registered image registered in advance, and extracting a written image written in the registered image based on the determination result,
A plurality of write images written in one or a plurality of locations determined for each of a plurality of registered images are stored in association with the registered image,
Determine whether the original image is similar to the registered image,
If the document image is similar to the registered image, determine whether the document image has been written;
If written, specify the original writing image written on the original image,
Determining whether the identified document writing image is similar to a writing image associated with a registered image similar to the document image;
An image processing method, wherein, when the original writing image is similar to the writing image, the writing image is extracted.
登録画像の書込み画像が書き込まれた箇所の選択を受け付け、
原稿画像に書込みがされているか否かを判定する場合、前記原稿画像の選択された箇所に対応する箇所を除外し、
特定した原稿書込み画像が登録画像の書込み画像に類似するか否かを判定する場合、選択された箇所の書込み画像を除外することを特徴とする請求項1に記載の画像処理方法。
Accept selection of the place where the written image of the registered image was written,
When determining whether or not the document image has been written, exclude the portion corresponding to the selected portion of the document image,
2. The image processing method according to claim 1, wherein when it is determined whether or not the specified document writing image is similar to the writing image of the registered image, the writing image at the selected portion is excluded.
原稿書込み画像が書込み画像に類似すると判定した場合、該書込み画像に関連付けられた登録画像と前記書込み画像とを合成し、
合成した登録画像及び書込み画像を出力することを特徴とする請求項1又は請求項2に記載の画像処理方法。
When it is determined that the original writing image is similar to the writing image, the registration image associated with the writing image is combined with the writing image,
The image processing method according to claim 1, wherein the combined registered image and written image are output.
原稿画像に書込みがされているか否かを判定する場合、該原稿画像の各画素の濃度値に基づいて下地の有無を判定し、
下地がある場合、下地を除去することを特徴とする請求項1乃至請求項3のいずれか1つに記載の画像処理方法。
When determining whether or not a document image has been written, the presence or absence of a background is determined based on the density value of each pixel of the document image,
The image processing method according to claim 1, wherein when there is a ground, the ground is removed.
取得した原稿画像が予め登録された登録画像に類似するか否かを判定し、判定結果に基づいて登録画像に書き込まれた書込み画像を抽出する画像処理装置において、
複数の登録画像夫々に対して定められた1又は複数の箇所に書き込まれた書込み画像を前記登録画像に関連付けて複数記憶する手段と、
原稿画像が登録画像に類似するか否かを判定する手段と、
原稿画像が登録画像に類似する場合、該原稿画像に書込みがされているか否かを判定する手段と、
書込みがされている場合、前記原稿画像に書き込まれた原稿書込み画像を特定する手段と、
特定した原稿書込み画像が前記原稿画像に類似する登録画像に関連付けられた書込み画像に類似するか否かを判定する手段と、
前記原稿書込み画像が書込み画像に類似する場合、該書込み画像を抽出する手段と
を備えることを特徴とする画像処理装置。
In an image processing apparatus that determines whether or not an acquired document image is similar to a registered image registered in advance, and extracts a written image written in the registered image based on the determination result,
Means for storing a plurality of write images written in one or a plurality of locations determined for each of a plurality of registered images in association with the registered images;
Means for determining whether a document image is similar to a registered image;
Means for determining whether or not the original image is written when the original image is similar to the registered image;
Means for specifying a document writing image written on the document image, if written,
Means for determining whether the specified document writing image is similar to a writing image associated with a registered image similar to the document image;
An image processing apparatus comprising: means for extracting the written image when the original written image is similar to the written image.
登録画像の書込み画像が書き込まれた箇所の選択を受け付ける受付手段と、
原稿画像に書込みがされているか否かを判定する場合、前記原稿画像の前記受付手段により選択された箇所に対応する箇所を除外する手段と、
特定した原稿書込み画像が登録画像の書込み画像に類似するか否かを判定する場合、前記受付手段により選択された箇所の書込み画像を除外する手段と
を備えることを特徴とする請求項5に記載の画像処理装置。
Accepting means for accepting selection of a place where a written image of a registered image is written;
Means for excluding a portion corresponding to the portion selected by the receiving means of the document image when determining whether or not the document image has been written;
6. The apparatus according to claim 5, further comprising: means for excluding a written image at a location selected by the accepting means when determining whether or not the specified original written image is similar to the written image of the registered image. Image processing apparatus.
原稿書込み画像が書込み画像に類似すると判定した場合、該書込み画像に関連付けられた登録画像と前記書込み画像とを合成する手段と、
該手段で合成された登録画像及び書込み画像を出力する手段と
を備えることを特徴とする請求項5又は請求項6に記載の画像処理装置。
Means for synthesizing the written image with the registered image associated with the written image when it is determined that the original written image is similar to the written image;
The image processing apparatus according to claim 5, further comprising: a registered image and a written image synthesized by the unit.
原稿画像に書込みがされているか否かを判定する場合、該原稿画像の各画素の濃度値に基づいて下地の有無を判定する手段と、
下地がある場合、下地を除去する手段と
を備えることを特徴とする請求項5乃至請求項7のいずれか1つに記載の画像処理装置。
Means for determining the presence or absence of a background based on the density value of each pixel of the original image when determining whether or not the original image has been written;
The image processing apparatus according to any one of claims 5 to 7, further comprising: means for removing the background when there is a background.
原稿画像に書き込まれた原稿書込み画像の登録を受け付ける手段と、
該手段で原稿書込み画像の登録を受け付けた場合、前記原稿画像に類似する登録画像を特定する手段と、
前記原稿画像に書き込まれた原稿書込み画像を特定する手段と、
該手段で特定された原稿書込み画像を前記登録画像に対して定められた箇所に関連付けて記憶する手段と
を備えることを特徴とする請求項5乃至請求項8のいずれか1つに記載の画像処理装置。
Means for accepting registration of an original writing image written on an original image;
Means for specifying a registered image similar to the original image when the means accepts registration of the original written image;
Means for specifying a document writing image written on the document image;
The image according to any one of claims 5 to 8, further comprising: a unit that stores an original writing image specified by the unit in association with a position determined for the registered image. Processing equipment.
請求項5乃至請求項9のいずれか1つに記載の画像処理装置と、該画像処理装置で処理された画像に基づいて出力画像を形成する画像形成手段とを備えることを特徴とする画像形成装置。   An image forming apparatus comprising: the image processing apparatus according to claim 5; and an image forming unit that forms an output image based on an image processed by the image processing apparatus. apparatus. コンピュータに、取得した原稿画像が予め登録された登録画像に類似するか否かを判定し、判定結果に基づいて登録画像に書き込まれた書込み画像を抽出させるためのコンピュータプログラムにおいて、
コンピュータを、原稿画像が登録画像に類似するか否かを判定する手段と、
コンピュータを、原稿画像が登録画像に類似する場合、該原稿画像に書込みがされているか否かを判定する手段と、
コンピュータを、書込みがされている場合、前記原稿画像に書き込まれた原稿書込み画像を特定する手段と、
コンピュータを、特定した原稿書込み画像が前記原稿画像に類似する登録画像に対して定められた1又は複数の箇所に書き込まれた書込み画像に類似するか否かを判定する手段と、
コンピュータを、前記原稿書込み画像が書込み画像に類似する場合、該書込み画像を抽出する手段と
して機能させることを特徴とするコンピュータプログラム。
In a computer program for causing a computer to determine whether or not an acquired document image is similar to a registered image registered in advance, and to extract a written image written in the registered image based on the determination result,
Means for determining whether the original image is similar to the registered image;
Means for determining if the document image is similar to the registered image and whether the document image has been written;
Means for identifying the original writing image written in the original image when the computer is written;
Means for determining whether or not the specified original writing image is similar to the writing image written in one or a plurality of positions determined for a registered image similar to the original image;
A computer program for causing a computer to function as means for extracting a written image when the written image is similar to the written image.
請求項11に記載のコンピュータプログラムを記録してあることを特徴とするコンピュータでの読み取りが可能な記録媒体。
A computer-readable recording medium on which the computer program according to claim 11 is recorded.
JP2006309556A 2006-11-15 2006-11-15 Image processing method, image processing device, image forming device, computer program, and recording medium Pending JP2008123456A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006309556A JP2008123456A (en) 2006-11-15 2006-11-15 Image processing method, image processing device, image forming device, computer program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006309556A JP2008123456A (en) 2006-11-15 2006-11-15 Image processing method, image processing device, image forming device, computer program, and recording medium

Publications (1)

Publication Number Publication Date
JP2008123456A true JP2008123456A (en) 2008-05-29

Family

ID=39508112

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006309556A Pending JP2008123456A (en) 2006-11-15 2006-11-15 Image processing method, image processing device, image forming device, computer program, and recording medium

Country Status (1)

Country Link
JP (1) JP2008123456A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010061449A (en) * 2008-09-04 2010-03-18 Fuji Xerox Co Ltd Device and program for searching original image
JP2013055706A (en) * 1997-12-23 2013-03-21 Intel Corp Image selection based on image content

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013055706A (en) * 1997-12-23 2013-03-21 Intel Corp Image selection based on image content
JP2010061449A (en) * 2008-09-04 2010-03-18 Fuji Xerox Co Ltd Device and program for searching original image
US8923625B2 (en) 2008-09-04 2014-12-30 Fuji Xerox Co., Ltd. Original image searching device, original image searching method, and computer readable medium

Similar Documents

Publication Publication Date Title
US8320683B2 (en) Image processing method, image processing apparatus, image reading apparatus, and image forming apparatus
US8144994B2 (en) Image processing method, image processing apparatus, image reading apparatus, image forming apparatus, and recording medium
JP4538507B2 (en) Image collation method, image collation apparatus, image data output processing apparatus, program, and storage medium
US8131083B2 (en) Image processing apparatus, image forming apparatus, image processing system, and image processing method having storage section, divided into a plurality of regions, for storing identification information for identifying reference image
JP4604100B2 (en) Image processing method, image processing apparatus, image forming apparatus, program, and storage medium
JP4565015B2 (en) Image processing apparatus, image forming apparatus, image processing system, image processing program, and recording medium thereof
US8265345B2 (en) Image processing method, image processing apparatus, image forming apparatus, and image reading apparatus
US8300944B2 (en) Image processing method, image processing apparatus, image reading apparatus, image forming apparatus, image processing system, and storage medium
US8107738B2 (en) Image processing method, image processing apparatus, image forming apparatus, image reading apparatus and memory product
JP4362538B2 (en) Image processing apparatus, image forming apparatus, image transmitting apparatus, image reading apparatus, image processing system, image processing method, image processing program, and recording medium thereof
JP2009031876A (en) Image processor, image forming device and image reader therewith, image processing method, image processing program and recording medium recording image processing program
JP4913094B2 (en) Image collation method, image collation apparatus, image data output processing apparatus, program, and storage medium
US20080031549A1 (en) Image processing apparatus, image reading apparatus, image forming apparatus, image processing method, and recording medium
JP2009088712A (en) Image processor, external storage device, image forming apparatus, image transmitter, image reader, image processing system, image processing method, program, and its recording medium
JP4486995B2 (en) Image processing system
JP4362537B2 (en) Image processing apparatus, image forming apparatus, image transmitting apparatus, image reading apparatus, image processing system, image processing method, image processing program, and recording medium thereof
US8184912B2 (en) Image processing apparatus, image forming apparatus, image processing system, and image processing method
JP4487000B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing system, image processing program, and recording medium thereof
JP4361946B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium storing the program
JP4588771B2 (en) Image processing method, image processing apparatus, image forming apparatus, program, and storage medium
JP4393556B2 (en) Image processing method, image processing apparatus, image reading apparatus, image forming apparatus, computer program, and computer-readable recording medium
JP2008123456A (en) Image processing method, image processing device, image forming device, computer program, and recording medium
JP2008154216A (en) Image processing method and device, image forming device, document reading device, computer program, and recording medium
JP2008245147A (en) Image processor, image reader, image forming apparatus, image processing method, computer program and recording medium
JP2009048618A (en) Document extracting method, document extracting apparatus, computer program, and recording medium