JP2008135857A - Image processor and image processing program - Google Patents

Image processor and image processing program Download PDF

Info

Publication number
JP2008135857A
JP2008135857A JP2006318985A JP2006318985A JP2008135857A JP 2008135857 A JP2008135857 A JP 2008135857A JP 2006318985 A JP2006318985 A JP 2006318985A JP 2006318985 A JP2006318985 A JP 2006318985A JP 2008135857 A JP2008135857 A JP 2008135857A
Authority
JP
Japan
Prior art keywords
image
area
feature
document
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006318985A
Other languages
Japanese (ja)
Other versions
JP4803001B2 (en
Inventor
Hideaki Ashikaga
英昭 足利
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2006318985A priority Critical patent/JP4803001B2/en
Publication of JP2008135857A publication Critical patent/JP2008135857A/en
Application granted granted Critical
Publication of JP4803001B2 publication Critical patent/JP4803001B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor and an image processing program that can detect an image of a corrected area of a document at high speed. <P>SOLUTION: The image processor 20 extracts featured areas having a predetermined feature from a first image and a second image based upon image data before correction representing an image (first image) of the document before correction and image data after correction representing an image (second image) of the document after correction, and derives predetermined feature quantities from the featured areas, specifies a featured area having the similarity of featured quantities larger than a predetermined degree between the first and second images, selects an area which is not included in the specified feature areas among the extracted featured areas as a corrected area, determines a correction state for the document based upon the corrected area, and detects a corrected image according to the determination result. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、画像処理装置及び画像処理プログラムに関する。   The present invention relates to an image processing apparatus and an image processing program.

従来、帳票等の予め定められた原稿に対する追記箇所を特定するための技術として、特許文献1及び特許文献2には、追記前画像と追記後画像の位置合わせを行った後、追記前画像データと追記後画像データの単色化・二値化を行い、これによって得られた追記前画像データと追記後画像データとの間で所定演算を行うことにより追記箇所を抽出する技術が開示されている。   Conventionally, as a technique for specifying a location to be added to a predetermined document such as a form, Patent Literature 1 and Patent Literature 2 describe that before pre-recording and post-recording image alignment, And post-recording image data are monochromatized and binarized, and a technique for extracting a postscript part by performing a predetermined calculation between the pre-recording image data and the post-recording image data obtained thereby is disclosed. .

また、特許文献3には、追記前後の画像を所定個数に分割し、各分割領域毎に画像の位置合わせを行った後、追記前画像を膨張させて、追記前画像データと追記後画像データの各画素単位で排他的論理和を算出することにより追記箇所を抽出する技術が開示されている。   Further, in Patent Document 3, the images before and after the additional recording are divided into a predetermined number, the images are aligned for each divided area, and then the image before the additional recording is expanded to obtain the image data before the additional recording and the image data after the additional recording. A technique for extracting a postscript location by calculating an exclusive OR for each pixel of the above is disclosed.

更に、特許文献4には、追記前文書の画像と追記後文書の画像とを取得し、両画像の位置合わせを行い、両画像を格子状の小領域に分割して各分割領域毎に黒字率、画像濃度の総和、及び色毎の濃度の総和を比較し、これによって追記がある分割領域を特定して、当該追記がある分割領域毎に両画像の再位置合わせ(微調整)を行い、当該微調整後の分割領域において、追記後画像から追記前画像を差し引くことにより追記画像を抽出する技術が開示されている。
特開2004−80601号公報 特開2004−240598号公報 特開2004−341914号公報 特開2004−213230号公報
Further, in Patent Document 4, an image of a document before appending and an image of a document after appending are acquired, both images are aligned, and both images are divided into grid-like small areas, and a black character is obtained for each divided area. The ratio, the sum of the image densities, and the sum of the densities for each color are compared, thereby identifying the divided areas with additional writing, and realigning (fine-tuning) both images for each divided area with the additional writing. In addition, a technique for extracting a postscript image by subtracting a pre-recording image from a post-recording image in the finely adjusted divided area is disclosed.
JP 2004-80601 A JP 2004-240598 A JP 2004-341914 A JP 2004-213230 A

本発明は、以上のような技術背景においてなされたものであり、原稿の修正が行われた領域の画像を高速に検出することのできる画像処理装置及び画像処理プログラムを提供することを目的とする。   The present invention has been made in the technical background as described above, and it is an object of the present invention to provide an image processing apparatus and an image processing program capable of detecting at high speed an image of a region where a document has been corrected. .

上記目的を達成するために、請求項1に記載の画像処理装置は、修正が行われる前の原稿である第1原稿の画像を示す第1画像情報、及び修正が行われた後の前記原稿である第2原稿の画像を示す第2画像情報を取得する取得手段と、前記第1画像情報及び前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における予め定められた特徴を有する特徴領域を抽出する抽出手段と、前記第1画像情報及び前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における前記特徴領域から予め定められた特徴量を導出する導出手段と、前記第1原稿の画像及び前記第2原稿の画像の間で前記特徴量の類似度が所定度合以上である前記特徴領域を特定する特定手段と、前記抽出手段によって前記第1原稿の画像から抽出された特徴領域で、かつ前記特定手段によって特定された特徴領域に含まれない特徴領域である第1特徴領域、及び前記抽出手段によって前記第2原稿の画像から抽出された特徴領域で、かつ前記特定手段によって特定された特徴領域に含まれない特徴領域である第2特徴領域を前記修正が行われた領域である修正領域として選択する選択手段と、前記第1特徴領域及び前記第2特徴領域に基づいて前記原稿に対する修正状態を判断する判断手段と、前記判断手段による判断結果に応じて修正画像を検出する検出手段と、を備えている。   In order to achieve the above object, the image processing apparatus according to claim 1, the first image information indicating an image of a first document that is a document before correction is performed, and the document after correction is performed. Acquisition means for acquiring second image information indicating an image of the second document, and based on the first image information and the second image information, the first document image and the second document image in advance Based on extraction means for extracting a feature area having a predetermined feature, and the feature area in the image of the first document and the image of the second document based on the first image information and the second image information. Deriving means for deriving the obtained feature amount, identifying means for identifying the feature region in which the similarity of the feature amount is a predetermined degree or more between the image of the first document and the image of the second document, The first document is extracted by the extracting means. A first feature region which is a feature region extracted from an image and which is not included in the feature region specified by the specifying unit; and a feature region extracted from the image of the second document by the extracting unit. And selecting means for selecting a second feature area that is not included in the feature area specified by the specifying means as a correction area that is the corrected area, the first feature area, and the first feature area A determination unit configured to determine a correction state of the document based on the two characteristic areas; and a detection unit configured to detect a corrected image according to a determination result by the determination unit.

また、請求項2に記載の発明は、請求項1に記載の発明において、前記判断手段が、前記第1特徴領域と前記第2特徴領域とで互いに重なる領域を重なり領域として、前記第1特徴領域における重なり領域内の画像を二値化したときの黒画素数が前記第2特徴領域における重なり領域内の画像を二値化したときの黒画素数に比較して少ない場合に、当該重なり領域が前記第1原稿に予め存在した画像に対して重ねて追記された重なりあり追記領域であるものと判断するものである。   The invention according to claim 2 is the invention according to claim 1, wherein the determination means sets the first feature region and the second feature region as overlapping regions, and the first feature region and the second feature region overlap each other. When the number of black pixels when the image in the overlapping area in the area is binarized is smaller than the number of black pixels when the image in the overlapping area in the second feature area is binarized, the overlapping area Is determined to be an overlapped additional recording area that is additionally recorded on an image previously existing in the first document.

また、請求項3に記載の発明は、請求項2に記載の発明において、前記検出手段が、前記判断手段によって前記重なりあり追記領域であるものと判断された領域を対象として前記第2画像情報から前記第1画像情報の減算を画素毎に行うことにより前記追記された画像を検出するものである。   According to a third aspect of the present invention, in the second aspect of the present invention, the second image information is targeted for an area determined by the determining means as the overlapped additional recording area. The added image is detected by subtracting the first image information for each pixel.

また、請求項4に記載の発明は、請求項1乃至請求項3の何れか1項に記載の発明において、前記判断手段が、前記第1特徴領域と前記第2特徴領域とで互いに重なる領域を重なり領域として、前記第1特徴領域における重なり領域内の画像を二値化したときの黒画素数が前記第2特徴領域における重なり領域内の画像を二値化したときの黒画素数に比較して多い場合に、当該重なり領域が前記第1原稿に予め存在した画像の一部が消去された一部消去領域であるものと判断するものである。   According to a fourth aspect of the present invention, there is provided the method according to any one of the first to third aspects, wherein the determination unit overlaps the first feature region and the second feature region. The number of black pixels when the image in the overlap area in the first feature area is binarized is compared with the number of black pixels when the image in the overlap area in the second feature area is binarized. In the case where there are a large number of images, it is determined that the overlap area is a partially erased area in which a part of an image previously existing in the first document is erased.

また、請求項5に記載の発明は、請求項4に記載の発明において、前記検出手段が、前記判断手段によって前記一部消去領域であるものと判断された領域を対象として前記第1画像情報から前記第2画像情報の減算を画素毎に行うことにより前記一部が消去された画像を検出するものである。   According to a fifth aspect of the present invention, in the invention of the fourth aspect, the first image information is targeted for an area determined by the determining means as the partially erased area. The second image information is subtracted from each pixel to detect the partially erased image.

また、請求項6に記載の発明は、請求項1乃至請求項5の何れか1項記載の発明において、前記判断手段が、前記第1特徴領域に含まれ、かつ互いに重なる領域が前記第2特徴領域に存在しない領域を、前記第1原稿に予め存在した画像が消去された消去領域であるものと判断するものである。   The invention according to claim 6 is the invention according to any one of claims 1 to 5, wherein the determination means is included in the first feature area, and an area overlapping each other is the second area. An area that does not exist in the characteristic area is determined to be an erased area in which an image previously existing in the first document is erased.

また、請求項7に記載の発明は、請求項6記載の発明において、前記検出手段が、前記判断手段によって前記消去領域であるものと判断された領域内の情報を前記第1画像情報から抽出することにより前記消去された画像を検出するものである。   According to a seventh aspect of the invention, in the sixth aspect of the invention, the detection means extracts information in the area determined as the erasure area by the determination means from the first image information. By doing so, the erased image is detected.

また、請求項8に記載の発明は、請求項1乃至請求項7の何れか1項記載の発明において、前記判断手段が、前記第2特徴領域に含まれ、かつ互いに重なる領域が前記第1特徴領域に存在しない領域を、前記第1原稿において画像が存在せず、かつ追記された重なりなし追記領域であるものと判断するものである。   The invention according to claim 8 is the invention according to any one of claims 1 to 7, wherein the determination means is included in the second feature region, and regions overlapping each other are the first. An area that does not exist in the characteristic area is determined to be an additional recording area that does not have an image and is additionally recorded in the first document.

また、請求項9に記載の発明は、請求項8記載の発明において、前記検出手段が、前記判断手段によって前記重なりなし追記領域であるものと判断された領域内の情報を前記第2画像情報から抽出することにより前記追記された画像を検出するものである。   The invention according to claim 9 is the invention according to claim 8, wherein the information in the area determined by the determining means as the non-overlapping additional area by the determining means is the second image information. The added image is detected by extracting from.

また、請求項10に記載の発明は、請求項1乃至請求項9の何れか1項記載の発明において、前記予め定められた特徴が、2値化された前記第1画像情報及び前記第2画像情報における黒又は白の連結画像であるものである。   The invention according to claim 10 is the invention according to any one of claims 1 to 9, wherein the first image information and the second image in which the predetermined feature is binarized. It is a black or white connected image in the image information.

また、請求項11に記載の発明は、請求項1乃至請求項10の何れか1項記載の発明において、前記導出手段が、前記抽出手段によって抽出された特徴領域の位置を示す位置情報を更に導出し、前記特定手段が、前記位置情報によって示される距離が所定距離以内である特徴領域のみを対象として前記特徴領域を特定するものである。   The invention according to claim 11 is the invention according to any one of claims 1 to 10, wherein the deriving means further includes position information indicating the position of the feature region extracted by the extracting means. And the specifying means specifies the feature region only for the feature region whose distance indicated by the position information is within a predetermined distance.

また、請求項12に記載の発明は、請求項1乃至請求項11の何れか1項記載の発明において、前記第1特徴領域と前記第2特徴領域とで互いに重なる領域のみを対象として前記第1画像情報及び前記第2画像情報の少なくとも一方に対して画像の位置合わせ処理を実行する位置合わせ手段を更に備えたものである。   The invention according to claim 12 is the invention according to any one of claims 1 to 11, wherein only the region where the first feature region and the second feature region overlap each other is the target. The image processing apparatus further includes an alignment unit that performs an image alignment process on at least one of the one image information and the second image information.

また、請求項13に記載の発明は、請求項12に記載の発明において、前記位置合わせ手段による位置合わせ処理に先立ち、前記第1画像情報及び前記第2画像情報の少なくとも一方に対して前記第1原稿の画像と前記第2原稿の画像の画像全体における位置合わせ処理を実行する事前位置合わせ手段を更に備えたものである。   According to a thirteenth aspect of the present invention, in the twelfth aspect of the present invention, prior to the alignment processing by the alignment means, the first image information and the second image information are at least one of the first image information and the second image information. The image forming apparatus further includes pre-alignment means for performing alignment processing on the entire image of one original image and the second original image.

更に、請求項14に記載の発明は、請求項13に記載の発明において、前記第1原稿の画像と前記第2原稿の画像における対応する前記特徴領域のずれ量に基づいて補正係数を算出する算出手段を更に備え、前記事前位置合わせ手段が、前記位置合わせ処理として前記補正係数を用いた前記第1画像情報及び前記第2画像情報の少なくとも一方に対する補正処理を実行するものである。   Further, in the invention described in claim 14, in the invention described in claim 13, a correction coefficient is calculated based on a shift amount of the corresponding feature region in the image of the first document and the image of the second document. The image forming apparatus further includes a calculation unit, and the pre-alignment unit performs a correction process on at least one of the first image information and the second image information using the correction coefficient as the alignment process.

一方、上記目的を達成するために、請求項15に記載の画像処理プログラムは、修正が行われる前の原稿である第1原稿の画像を示す第1画像情報、及び修正が行われた後の前記原稿である第2原稿の画像を示す第2画像情報を取得する取得ステップと、前記第1画像情報及び前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における予め定められた特徴を有する特徴領域を抽出する抽出ステップと、前記第1画像情報及び前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における前記特徴領域から予め定められた特徴量を導出する導出ステップと、前記第1原稿の画像及び前記第2原稿の画像の間で前記特徴量の類似度が所定度合以上である前記特徴領域を特定する特定ステップと、前記抽出ステップによって前記第1原稿の画像から抽出された特徴領域で、かつ前記特定ステップによって特定された特徴領域に含まれない特徴領域である第1特徴領域、及び前記抽出ステップによって前記第2原稿の画像から抽出された特徴領域で、かつ前記特定ステップによって特定された特徴領域に含まれない特徴領域である第2特徴領域を前記修正が行われた領域である修正領域として選択する選択ステップと、前記第1特徴領域及び前記第2特徴領域に基づいて前記原稿に対する修正状態を判断する判断ステップと、前記判断ステップによる判断結果に応じて修正画像を検出する検出ステップと、をコンピュータに実行させるものである。   On the other hand, in order to achieve the above object, the image processing program according to claim 15 includes: first image information indicating an image of a first document that is a document before correction is performed; and after the correction is performed. An acquisition step for acquiring second image information indicating an image of the second document as the document, and an image of the first document and an image of the second document based on the first image information and the second image information An extraction step for extracting a feature region having a predetermined feature in the image, and, based on the first image information and the second image information, from the feature region in the image of the first document and the image of the second document A deriving step for deriving a predetermined feature amount, and a specifying step for identifying the feature region where the similarity of the feature amount is equal to or greater than a predetermined degree between the image of the first document and the image of the second document. ,in front A first feature region that is a feature region extracted from the image of the first document by the extraction step and that is not included in the feature region specified by the specification step, and a second feature of the second document by the extraction step A selection step of selecting a second feature region that is a feature region extracted from an image and that is not included in the feature region specified by the specifying step as a correction region that is the corrected region; Causing a computer to execute a determination step of determining a correction state of the document based on the first feature region and the second feature region, and a detection step of detecting a correction image according to a determination result of the determination step It is.

請求項1及び請求項15記載の発明によれば、原稿の修正が行われた領域の画像を高速に検出することができる、という効果が得られる。   According to the first and fifteenth aspects of the present invention, it is possible to obtain an effect that it is possible to detect an image of an area where a document has been corrected at high speed.

また、請求項2記載の発明によれば、予め存在した画像に対して重ねて追記された重なりあり追記領域を判断することができる、という効果が得られる。   Further, according to the second aspect of the present invention, there is an effect that it is possible to determine an overlapping additional recording area that is additionally recorded over an existing image.

また、請求項3記載の発明によれば、本発明を適用しない場合に比較して、より高速に追記された画像を検出することができる、という効果が得られる。   Further, according to the third aspect of the invention, it is possible to obtain an effect that an additionally written image can be detected at a higher speed than when the present invention is not applied.

また、請求項4記載の発明によれば、予め存在した画像の一部が消去された一部消去領域を判断することができる、という効果が得られる。   According to the fourth aspect of the present invention, there is an effect that it is possible to determine a partially erased area in which a part of an existing image is erased.

また、請求項5記載の発明によれば、本発明を適用しない場合に比較して、より高速に一部が消去された画像を検出することができる、という効果が得られる。   Further, according to the invention described in claim 5, it is possible to detect an image in which a part is erased at a higher speed than in the case where the present invention is not applied.

また、請求項6記載の発明によれば、予め存在した画像が消去された消去領域を判断することができる、という効果が得られる。   According to the sixth aspect of the present invention, there is an effect that it is possible to determine the erased area where the preexisting image is erased.

また、請求項7記載の発明によれば、本発明を適用しない場合に比較して、より高速に消去された画像を検出することができる、という効果が得られる。   Further, according to the invention described in claim 7, it is possible to obtain an effect that an erased image can be detected at a higher speed than when the present invention is not applied.

また、請求項8記載の発明によれば、画像が存在せず、かつ追記された重なりなし追記領域を判断することができる、という効果が得られる。   Further, according to the eighth aspect of the present invention, there is an effect that it is possible to determine a non-overlapping additional recording area in which no image exists and is additionally recorded.

また、請求項9記載の発明によれば、本発明を適用しない場合に比較して、より高速に追記された画像を検出することができる、という効果が得られる。   Further, according to the ninth aspect of the present invention, it is possible to detect an additionally written image at a higher speed than when the present invention is not applied.

また、請求項10記載の発明によれば、本発明を適用しない場合に比較して、より簡易に修正された箇所を特定することができる結果、より高速に修正が行われた領域の画像を検出することができる、という効果が得られる。   Further, according to the invention described in claim 10, as compared with the case where the present invention is not applied, it is possible to specify the corrected portion more easily, and as a result, the image of the region corrected at a higher speed can be obtained. The effect that it can detect is acquired.

また、請求項11記載の発明によれば、本発明を適用しない場合に比較して、より短時間かつ的確に特徴領域を特定することができる結果、より高速かつ高精度に修正が行われた領域の画像を検出することができる、という効果が得られる。   Further, according to the invention described in claim 11, as a result of being able to specify the feature region in a shorter time and more accurately than in the case where the present invention is not applied, the correction was performed at higher speed and with higher accuracy. The effect that the image of the area can be detected is obtained.

また、請求項12記載の発明によれば、本発明を適用しない場合に比較して、より高精度で修正が行われた領域の画像を検出することができる、という効果が得られる。   Further, according to the twelfth aspect of the present invention, it is possible to detect an image of a region that has been corrected with higher accuracy than when the present invention is not applied.

また、請求項13記載の発明によれば、本発明を適用しない場合に比較して、より高精度で修正が行われた領域の画像を検出することができる、という効果が得られる。   According to the thirteenth aspect of the present invention, it is possible to detect an image of a corrected region with higher accuracy than when the present invention is not applied.

更に、請求項14記載の発明によれば、本発明を適用しない場合に比較して、より高速かつ高精度で修正が行われた領域の画像を検出することができる、という効果が得られる。   Further, according to the fourteenth aspect of the present invention, it is possible to detect an image of a region that has been corrected with higher speed and higher accuracy than when the present invention is not applied.

以下、図面を参照して本発明の実施の形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1には、本発明が適用された画像処理システム10の構成例が示されている。同図に示されるように、本実施の形態に係る画像処理システム10は、パーソナル・コンピュータ等の画像処理装置20と、スキャナ等の画像読取装置30とを備えている。画像処理装置20と画像読取装置30は電気的に接続されており、画像処理装置20は画像読取装置30による読み取りによって得られた画像データを画像読取装置30から取得することができる。   FIG. 1 shows a configuration example of an image processing system 10 to which the present invention is applied. As shown in the figure, the image processing system 10 according to the present embodiment includes an image processing device 20 such as a personal computer and an image reading device 30 such as a scanner. The image processing device 20 and the image reading device 30 are electrically connected, and the image processing device 20 can acquire image data obtained by reading by the image reading device 30 from the image reading device 30.

本実施の形態に係る画像処理システム10は、手書き、押印等による追記による修正や、消しゴム、修正液等による消去による修正が行われる前の原稿(以下、「修正前原稿」という。)と、当該修正が行われた後の原稿(以下、「修正後原稿」という。)を画像読取装置30によって読み取り、これによって得られた2つの画像データに基づき、画像処理装置20により、修正が行われた箇所を特定し、特定した箇所から修正された画像部分を検出(抽出)する処理を行うものである。なお、以下では、修正前原稿の読み取りによって得られた画像データを「修正前画像データ」といい、修正後原稿の読み取りによって得られた画像データを「修正後画像データ」という。   The image processing system 10 according to the present embodiment includes a document (hereinafter, referred to as “original document before correction”) before correction by additional writing by handwriting, stamping, etc., or correction by deletion by an eraser, correction liquid, or the like. The original after the correction (hereinafter referred to as “corrected original”) is read by the image reading device 30, and the correction is performed by the image processing device 20 based on the two image data obtained thereby. The specified part is specified, and the process of detecting (extracting) the image part corrected from the specified part is performed. In the following, image data obtained by reading a document before correction is referred to as “image data before correction”, and image data obtained by reading a document after correction is referred to as “image data after correction”.

本実施の形態に係る画像読取装置30は、読み取りによって得る画像データを、各画素値(画素情報)が複数ビット(本実施の形態では、8ビット)で構成されるものとして取得するものとされている。また、本実施の形態に係る画像処理システム10では、画像読取装置30として、読み取り対象とする原稿の画像をR(赤)、G(緑)、B(青)の3原色に分解して読み取るカラー・スキャナを適用している。なお、画像読取装置30としては、このような複数ビット構成のカラー・スキャナに限らず、複数ビット構成のモノクロ・スキャナ(所謂グレイスケール・モノクロ・スキャナ)、1ビット(2値)構成のカラー・スキャナ、1ビット構成のモノクロ・スキャナ等を適用することもできる。   The image reading device 30 according to the present embodiment acquires image data obtained by reading as each pixel value (pixel information) is composed of a plurality of bits (8 bits in the present embodiment). ing. In the image processing system 10 according to the present embodiment, the image reading apparatus 30 separates and reads an image of a document to be read into three primary colors R (red), G (green), and B (blue). A color scanner is applied. The image reading device 30 is not limited to such a multi-bit color scanner, but a multi-bit monochrome scanner (so-called grayscale monochrome scanner), a 1-bit (binary) color scanner. A scanner, a monochrome scanner having a 1-bit configuration, or the like can also be applied.

次に、図2を参照して、画像処理システム10において特に重要な役割を有する画像処理装置20の電気系の要部構成を説明する。   Next, with reference to FIG. 2, the main configuration of the electrical system of the image processing apparatus 20 having a particularly important role in the image processing system 10 will be described.

同図に示すように、本実施の形態に係る画像処理装置20は、画像処理装置20全体の動作を司るCPU(中央処理装置)20Aと、CPU20Aによる各種処理プログラムの実行時のワークエリア等として用いられるRAM(Random Access Memory)20Bと、各種制御プログラムや各種パラメータ等が予め記憶されたROM(Read Only Memory)20Cと、各種情報を記憶するために用いられる記憶手段であるハードディスク20Dと、各種情報を入力するために用いられるキーボード20Eと、各種情報を表示するために用いられるディスプレイ20Fと、外部装置との各種情報の授受を司る入出力インタフェース(I/F)20Gと、が備えられており、これら各部はシステムバスBUSにより電気的に相互に接続されている。ここで、入出力インタフェース20Gには、前述した画像読取装置30が接続されている。   As shown in the figure, the image processing apparatus 20 according to the present embodiment includes a CPU (central processing unit) 20A that controls the operation of the entire image processing apparatus 20, and a work area when the CPU 20A executes various processing programs. A RAM (Random Access Memory) 20B, a ROM (Read Only Memory) 20C in which various control programs, various parameters, and the like are stored in advance, a hard disk 20D that is a storage means used for storing various information, and various types A keyboard 20E used for inputting information, a display 20F used for displaying various types of information, and an input / output interface (I / F) 20G for exchanging various types of information with external devices are provided. These units are electrically connected to each other by a system bus BUS. Here, the image reading device 30 described above is connected to the input / output interface 20G.

従って、CPU20Aは、RAM20B、ROM20C、及びハードディスク20Dに対するアクセス、キーボード20Eを介した各種入力情報の取得、ディスプレイ20Fに対する各種情報の表示、及び入出力インタフェース20Gを介した画像読取装置30との各種情報の授受を、各々行うことができる。   Accordingly, the CPU 20A accesses the RAM 20B, ROM 20C and hard disk 20D, acquires various input information via the keyboard 20E, displays various information on the display 20F, and various information with the image reading device 30 via the input / output interface 20G. Can be exchanged.

図3は、本実施の形態に係る画像処理装置20の機能的な構成を示す機能ブロック図である。   FIG. 3 is a functional block diagram showing a functional configuration of the image processing apparatus 20 according to the present embodiment.

同図に示されるように、本実施の形態に係る画像処理装置20は、第1位置合わせ部22と、修正領域判断部24A及び第2位置合わせ部24Bを有する修正検出部24と、記憶部28と、修正領域選択部29とを備えている。   As shown in the figure, the image processing apparatus 20 according to the present embodiment includes a first alignment unit 22, a correction detection unit 24 having a correction area determination unit 24A and a second alignment unit 24B, and a storage unit. 28 and a correction area selection unit 29.

なお、上記第1位置合わせ部22は、修正前画像データ及び修正後画像データの少なくとも一方に対して、修正前画像データにより示される修正前画像と、修正後画像データにより示される修正後画像との間で、画像読取装置30において読み取る際の修正前原稿と修正後原稿の傾斜角の違いや、読み取り環境の違い等に起因して画像全体に対して発生する、対応する画素の位置のずれを補正する位置合わせ処理を実行する。なお、本実施の形態に係る第1位置合わせ部22では、修正前画像データ及び修正後画像データに基づいて、修正前画像及び修正後画像における予め定められた特徴(本実施の形態では、2値化画像データにおける黒画素の連結画像及び白画素の連結画像)を有する特徴領域を抽出し、修正前画像及び修正後画像の対応する特徴領域同士が重なり合うように、修正前画像データ及び修正後画像データの少なくとも一方を変換する。   In addition, the first alignment unit 22 has, for at least one of the pre-correction image data and the post-correction image data, a pre-correction image indicated by the pre-correction image data, and a post-correction image indicated by the post-correction image data. Between the positions of the corresponding pixels that occur with respect to the entire image due to a difference in inclination angle between the original document after correction and the original document after correction, a difference in reading environment, etc. Alignment processing for correcting is performed. In the first alignment unit 22 according to the present embodiment, predetermined features in the uncorrected image and the corrected image based on the uncorrected image data and the corrected image data (in this embodiment, 2 Extracted feature regions having a black pixel connection image and a white pixel connection image in the binarized image data), and the pre-correction image data and the post-correction image so that the corresponding feature regions of the pre-correction image and the post-correction image overlap. At least one of the image data is converted.

ここで、本実施の形態に係る第1位置合わせ部22では、当該変換として、修正前画像データ及び修正後画像データの何れか一方に対してアフィン変換を行うことによる変換を適用しているが、これに限らず、修正前画像データ及び修正後画像データの何れか一方に対する共一次変換、一次等角変換、二次等角変換、射影変換、拡大・縮小、回転、平行移動等の他の従来既知の変換手法を適用する形態とすることもできる。   Here, in the first alignment unit 22 according to the present embodiment, the conversion is performed by performing affine transformation on either one of the pre-correction image data and the post-correction image data. However, the present invention is not limited to this, and other linear transformation, primary equiangular transformation, secondary equiangular transformation, projective transformation, enlargement / reduction, rotation, translation, etc. for any one of the pre-correction image data and post-correction image data A conventionally known conversion method may be applied.

一方、上記修正検出部24は、修正領域判断部24Aにより、後述する修正領域選択部29によって第1位置合わせ部22により抽出された特徴領域から選択された修正領域に基づいて原稿に対する修正状態を判断し、当該判断結果に応じて修正画像を検出する。   On the other hand, the correction detection unit 24 determines the correction state of the document based on the correction region selected from the feature region extracted by the first alignment unit 22 by the correction region selection unit 29 described later by the correction region determination unit 24A. A correction image is detected according to the determination result.

ところで、第1位置合わせ部22による画像の位置合わせでは、画像読取装置30による画像読み取り時においてスキャン速度のむらや、光学系のひずみ等に起因して発生する修正前画像及び修正後画像の局所的なひずみまで補正(位置合わせ)することは困難である。   By the way, in the image alignment by the first alignment unit 22, local images of the pre-correction image and the post-correction image generated due to uneven scanning speed or distortion of the optical system at the time of image reading by the image reading device 30 are used. It is difficult to correct (align) up to a large distortion.

そこで、修正検出部24に備えられた上記第2位置合わせ部24Bは、上記修正領域の少なくとも一部のみを対象として、修正前画像データ及び修正後画像データの少なくとも一方に対し、修正前画像及び修正後画像との間で対応する画素の位置のずれを補正する位置合わせ処理を実行する。   Therefore, the second alignment unit 24B provided in the correction detection unit 24 targets only at least a part of the correction region, and applies at least one of the pre-correction image data and the post-correction image data, Alignment processing for correcting a shift in the position of the corresponding pixel with the corrected image is executed.

なお、本実施の形態に係る第2位置合わせ部24Bでは、パターン・マッチング処理により、対応する画素の位置ずれを極力なくすように、修正前画像データ及び修正後画像データの少なくとも一方を変換する。   Note that the second alignment unit 24B according to the present embodiment converts at least one of the pre-correction image data and the post-correction image data so as to eliminate the positional deviation of the corresponding pixel as much as possible by the pattern matching process.

ここで、本実施の形態に係る第2位置合わせ部24Bでは、当該変換として、修正前画像データ及び修正後画像データの対応する修正領域間の相関係数を算出し、当該相関係数が最も高くなるように修正前画像及び修正後画像の少なくとも一方を平行移動する変換を適用しているが、これに限らず、修正前画像データ及び修正後画像データの何れか一方に対するアフィン変換、共一次変換、一次等角変換、二次等角変換、射影変換、拡大・縮小、回転、平行移動等の他の従来既知の変換手法を適用する形態とすることもできる。   Here, in the second alignment unit 24B according to the present embodiment, as the conversion, a correlation coefficient between the correction areas corresponding to the uncorrected image data and the corrected image data is calculated, and the correlation coefficient is the largest. A transformation that translates at least one of the pre-correction image and the post-correction image so as to be higher is applied. However, the present invention is not limited to this, and affine transformation or bilinear for either the pre-correction image data or the post-correction image data. Other conventionally known conversion methods such as transformation, primary equiangular transformation, secondary equiangular transformation, projective transformation, enlargement / reduction, rotation, translation, etc. may be applied.

そして、上記修正領域選択部29は、第1位置合わせ部22によって抽出された特徴領域のうち、修正が行われた特徴領域である修正領域を選択し、選択した修正領域を示す修正領域情報を修正検出部24に出力する。   Then, the correction area selection unit 29 selects a correction area that is a corrected characteristic area from among the characteristic areas extracted by the first alignment unit 22, and sets correction area information indicating the selected correction area. The data is output to the correction detection unit 24.

次に、図4を参照して、本実施の形態に係る第1位置合わせ部22の構成について説明する。   Next, with reference to FIG. 4, the structure of the 1st position alignment part 22 which concerns on this Embodiment is demonstrated.

同図に示されるように、本実施の形態に係る第1位置合わせ部22は、一対の特徴領域抽出部22A,22Bと、対応付部22Cと、補正パラメータ算出部22Dと、画像変換部22Eとを備えている。   As shown in the figure, the first alignment unit 22 according to the present embodiment includes a pair of feature region extraction units 22A and 22B, an association unit 22C, a correction parameter calculation unit 22D, and an image conversion unit 22E. And.

なお、上記特徴領域抽出部22Aは修正前画像データが、上記特徴領域抽出部22Bは修正後画像データが、各々入力されるものであり、特徴領域抽出部22A,22Bは、入力された画像データに基づいて、修正前画像及び修正後画像における前述した予め定められた特徴(本実施の形態では、2値化画像データにおける黒画素の連結画像及び白画素の連結画像)を有する特徴領域を抽出した後、当該特徴領域から予め定められた特徴量(本実施の形態では、後述する大きさ、画素数、筆跡長(図8も参照。))を、入力された画像データに基づいて導出し、特徴領域情報として出力する。   The feature region extraction unit 22A receives pre-correction image data, the feature region extraction unit 22B receives post-correction image data, and the feature region extraction units 22A and 22B receive input image data. Based on the above, a feature region having the above-described predetermined features in the pre-correction image and the post-correction image (in this embodiment, the black pixel connected image and the white pixel connected image in the binarized image data) is extracted. After that, a predetermined feature amount (in this embodiment, a size, the number of pixels, and a handwriting length (see also FIG. 8)) derived from the feature region is derived based on the input image data. And output as feature area information.

また、上記対応付部22Cは、修正前画像及び修正後画像の間で、特徴領域抽出部22A,22Bから出力された特徴領域情報により示される特徴量の類似度が所定度合以上である特徴領域の対を特定し、特定した特徴領域の対を対応付ける特定特徴領域情報を作成して出力する。   Further, the association unit 22C has a feature region in which the similarity between the feature amounts indicated by the feature region information output from the feature region extraction units 22A and 22B is equal to or greater than a predetermined level between the pre-correction image and the post-correction image. Specific feature region information is created and output. The specific feature region information is associated with the specified feature region pair.

また、上記補正パラメータ算出部22Dは、対応付部22Cから出力された特定特徴領域情報により示される、対応する特徴領域のずれ量に基づいて、修正前画像及び修正後画像の全体的なずれをなくするための補正係数を算出する。そして、上記画像変換部22Eは、補正パラメータ算出部22Dによって算出された補正係数を用いて、修正前画像データ又は修正後画像データ(ここでは、修正後画像データ)に対し、修正前画像及び修正後画像の全体的な位置合わせを行うための画像変換(ここでは、アフィン変換)を実行する。   Further, the correction parameter calculation unit 22D determines the overall shift between the pre-correction image and the post-correction image based on the shift amount of the corresponding feature region indicated by the specific feature region information output from the association unit 22C. A correction coefficient for eliminating it is calculated. Then, the image conversion unit 22E uses the correction coefficient calculated by the correction parameter calculation unit 22D, and applies the pre-correction image and the correction to the pre-correction image data or the post-correction image data (here, the post-correction image data). Image transformation (here, affine transformation) for performing overall alignment of the subsequent image is executed.

なお、アフィン変換に適用する補正係数は、幅方向移動量、縦方向移動量、回転角、及び倍率である。補正係数は、一方の画像(ここでは、修正後画像)に対して補正係数に基づく変換を実行した場合に、修正前画像及び修正後画像の対応する特徴領域の重心位置の誤差が最も小さくなる値として算出される。具体的には、例えば、最小二乗法を適用して、修正前画像及び修正後画像の対応する特徴領域の重心位置の誤差の総和が最も小さくなる補正係数として幅方向移動量、縦方向移動量、回転角、及び倍率の各値を求める。なお、最小二乗法を適用した補正係数の算出手法については、一例として特開平9−93431号公報に記載されている。   The correction coefficients applied to the affine transformation are the width direction movement amount, the vertical direction movement amount, the rotation angle, and the magnification. As for the correction coefficient, when conversion based on the correction coefficient is performed on one image (here, the corrected image), the error of the centroid position of the corresponding feature region of the pre-correction image and the post-correction image is minimized. Calculated as a value. Specifically, for example, by applying the least square method, the movement amount in the width direction and the movement amount in the vertical direction are the correction coefficients that minimize the sum of the errors of the centroid positions of the corresponding feature regions of the pre-correction image and the post-correction image. , Rotation angle, and magnification are obtained. A method for calculating a correction coefficient using the least square method is described in Japanese Patent Laid-Open No. 9-93431 as an example.

本実施の形態に係る修正領域選択部29では、特徴領域抽出部22Aから出力された修正前画像に対応する特徴領域情報、特徴領域抽出部22Bから出力された修正後画像に対応する特徴領域情報、及び対応付部22Cから出力された特定特徴領域情報に基づいて、特徴領域抽出部22A,22Bによって抽出された特徴領域のうち、特定特徴領域情報により示される特徴領域に含まれない特徴領域を修正が行われた領域である修正領域として選択し、選択した修正領域を示す修正領域情報を作成して修正検出部24に出力する。   In the correction area selection unit 29 according to the present embodiment, feature area information corresponding to the pre-correction image output from the feature area extraction unit 22A and feature area information corresponding to the post-correction image output from the feature area extraction unit 22B Of the feature regions extracted by the feature region extraction units 22A and 22B based on the specific feature region information output from the association unit 22C, feature regions not included in the feature region indicated by the specific feature region information The correction area is selected as a correction area, and correction area information indicating the selected correction area is generated and output to the correction detection unit 24.

なお、本実施の形態に係る修正領域選択部29では、上記修正領域の選択を、特徴領域抽出部22Aによって抽出された修正前画像における特徴領域のうち、特定特徴領域情報により示される特徴領域に含まれない特徴領域を修正領域aとして選択し、特徴領域抽出部22Bによって抽出された修正後画像における特徴領域のうち、特定特徴領域情報により示される特徴領域に含まれない特徴領域を修正領域bとして選択することにより行っている。   In the correction area selection unit 29 according to the present embodiment, the correction area is selected from the characteristic areas in the pre-correction image extracted by the characteristic area extraction unit 22A to the characteristic area indicated by the specific characteristic area information. A feature region that is not included is selected as the correction region a, and a feature region that is not included in the feature region indicated by the specific feature region information is selected from the feature regions in the corrected image extracted by the feature region extraction unit 22B. It is done by selecting as.

次に、図5を参照して、本実施の形態に係る特徴領域抽出部22A,22Bの構成について説明する。なお、特徴領域抽出部22A及び特徴領域抽出部22Bは入力される画像データが異なるのみで同一の構成とされているため、ここでは、特徴領域抽出部22Aの構成について説明する。   Next, with reference to FIG. 5, the structure of the feature area extraction units 22A and 22B according to the present embodiment will be described. Note that the feature region extraction unit 22A and the feature region extraction unit 22B have the same configuration except for the input image data, and therefore, the configuration of the feature region extraction unit 22A will be described here.

同図に示されるように、本実施の形態に係る特徴領域抽出部22Aは、前処理部40と、連結領域抽出部42と、重心算出部44と、特徴量算出部46とを備えている。   As shown in the figure, the feature region extraction unit 22A according to the present embodiment includes a preprocessing unit 40, a connected region extraction unit 42, a centroid calculation unit 44, and a feature amount calculation unit 46. .

なお、上記前処理部40は、入力された修正前画像データに対して、単色化処理及び二値化処理を実行する。ここで、上記単色化処理は、修正前画像データを輝度情報のみの画素データとする処理である。また、上記二値化処理は、単色化処理によって得られた単色画像を所定の閾値レベルで1(黒)又は0(白)の何れかの値に変換する処理である。なお、入力画像がモノクロ画像である場合は、上記単色化処理を省略することができる。   Note that the pre-processing unit 40 performs monochromatic processing and binarization processing on the input pre-correction image data. Here, the monochromatic processing is processing in which the pre-correction image data is converted to pixel data of only luminance information. The binarization process is a process for converting a monochrome image obtained by the monochrome process into a value of 1 (black) or 0 (white) at a predetermined threshold level. Note that when the input image is a monochrome image, the monochromatic processing can be omitted.

また、上記連結領域抽出部42は、前処理部40によって二値化処理が施された修正前画像データに対して、前記特徴領域として連結領域を抽出する連結領域抽出処理を実行する。なお、上記連結領域抽出処理は、一例として特開平12−295438号公報に記載されている手法等を適用して実行することができる。ここで、連結領域(特徴領域)は二値化画像における黒画素の連続領域(黒ラン)、或いは黒画素ではない白画素の連続領域(白ラン)として抽出される。上記連結領域抽出処理は、例えば、予め抽出条件として、所定の大きさ(面積又は画素数)の範囲(最小、最大)を設定し、その範囲にある連続する同一画素値の領域等、予め定められた設定条件に基づいて実行される。   The connected region extracting unit 42 performs a connected region extracting process for extracting a connected region as the feature region on the pre-correction image data that has been binarized by the preprocessing unit 40. In addition, the said connection area | region extraction process can be performed applying the method etc. which are described in Unexamined-Japanese-Patent No. 12-295438 as an example. Here, the connected region (feature region) is extracted as a continuous region (black run) of black pixels in the binarized image or a continuous region (white run) of white pixels that are not black pixels. In the connected region extraction processing, for example, a range (minimum, maximum) of a predetermined size (area or number of pixels) is set in advance as an extraction condition, and a region of continuous identical pixel values in the range is determined in advance. It is executed based on the set conditions.

ここで、図6を参照して、上記連結領域抽出処理によって抽出される連結領域の具体例について説明する。   Here, with reference to FIG. 6, the specific example of the connection area | region extracted by the said connection area | region extraction process is demonstrated.

同図には、二値化処理が施された修正前画像80と修正後画像90とが示されている。これらの画像から、一定条件の下に黒画素の連続領域(黒ラン)を有する画像データや白画素の連続領域(白ラン)を有する画像データを連結領域として抽出する。同図に示す例では、修正前画像80から黒文字画像である‘A’、‘B’と白抜き文字画像である‘A’が、連結領域81〜83として抽出され、修正後画像90から黒文字画像である‘A’、‘B’と白抜き文字画像である‘A’が、連結領域91〜93として抽出された例が示されている。なお、実際の処理において抽出される連結領域のデータ数は、設計条件にもよるが、数百〜数千個単位のデータの抽出が行われる。   The figure shows a pre-correction image 80 and a post-correction image 90 that have been binarized. From these images, image data having a continuous region of black pixels (black run) and image data having a continuous region of white pixels (white run) are extracted as connected regions under certain conditions. In the example shown in the figure, black character images “A” and “B” and white character images “A” are extracted from the pre-correction image 80 as connected regions 81 to 83, and black characters are extracted from the post-correction image 90. An example in which “A” and “B” as images and “A” as an outline character image are extracted as connected regions 91 to 93 is shown. Note that the number of data in the connected area extracted in the actual processing is extracted in units of hundreds to thousands, although it depends on the design conditions.

更に、上記重心算出部44は、連結領域抽出部42によって抽出された連結領域(特徴領域)の重心を算出し、上記特徴量算出部46は、各連結領域の特徴量(ここでは、大きさ、画素数、筆跡長)を算出する。なお、本実施の形態では、重心算出部44と特徴量算出部46とを区別しているが、重心も連結領域の1つの特徴量として、特徴量算出部46において算出する構成としてもよいことは言うまでもない。   Further, the center of gravity calculation unit 44 calculates the center of gravity of the connected region (feature region) extracted by the connected region extraction unit 42, and the feature amount calculation unit 46 calculates the feature amount (here, the size) of each connected region. , Number of pixels, handwriting length). In the present embodiment, the centroid calculating unit 44 and the feature amount calculating unit 46 are distinguished from each other. However, the feature amount calculating unit 46 may calculate the centroid as one feature amount of the connected region. Needless to say.

次に、図7及び図8を参照して、連結領域から求められる重心及び特徴量について説明する。図7に示す文字‘A’が、例えば修正前画像80から抽出された1つの連結領域70である。図8は、修正前画像80と修正後画像90とから抽出された連結領域についての重心と特徴量の各情報からなるテーブルを示している。   Next, with reference to FIGS. 7 and 8, the center of gravity and the feature amount obtained from the connected region will be described. The character ‘A’ shown in FIG. 7 is, for example, one connected region 70 extracted from the pre-correction image 80. FIG. 8 shows a table made up of information on the center of gravity and feature amounts for the connected regions extracted from the pre-correction image 80 and the post-correction image 90.

まず、図7を参照して、連結領域70の重心及び特徴量の詳細について説明する。   First, with reference to FIG. 7, details of the center of gravity and the feature amount of the connection region 70 will be described.

重心72は、連結領域としての文字A70の重心位置を示す情報であり、例えば、修正前画像80をXY座標面とした場合の座標データ(x,y)として算出する(図8も参照。)。   The centroid 72 is information indicating the position of the centroid of the character A70 as a connected area, and is calculated as, for example, coordinate data (x, y) when the uncorrected image 80 is an XY coordinate plane (see also FIG. 8). .

また、大きさは、図7に示される連結領域70を外接するように囲む外接矩形74の幅L及び高さHにより‘L,H’として求める。また、画素数は、連結領域70自体の構成全画素数として算出する。更に、筆跡長は、図7に示すように、連結領域70を細線化して、幅が1画素の線として変換した連結領域細線化データ76における構成画素数として算出する。   The size is obtained as ‘L, H’ by the width L and the height H of the circumscribed rectangle 74 that circumscribes the connecting region 70 shown in FIG. 7. Further, the number of pixels is calculated as the total number of pixels of the connection region 70 itself. Further, as shown in FIG. 7, the handwriting length is calculated as the number of constituent pixels in the connection region thinning data 76 obtained by thinning the connection region 70 and converting it as a line having a width of one pixel.

重心算出部44及び特徴量算出部46は、比較対象となる修正前画像80と修正後画像90から、連結領域抽出部42によって抽出された連結領域(特徴領域)の各々について、重心位置と、上記大きさ、画素数、筆跡長等が含まれた特徴量情報とを算出し、一例として図8に示されるように、修正前画像80に対応する特徴領域情報50Aと、修正後画像90に対応する特徴領域情報50Bとして整理する。同図に示されるように、修正前画像80と修正後画像90の各々から抽出された各連結領域について唯一無二のID(Identification)が付与され、当該IDによって対応付けられるように、各連結領域の重心位置と、特徴量、すなわち、大きさ、画素数、筆跡長の各情報が特徴領域情報としてハードディスク20D等の記憶手段により記録される。   The center-of-gravity calculation unit 44 and the feature amount calculation unit 46, for each of the connected regions (feature regions) extracted by the connected region extraction unit 42 from the uncorrected image 80 and the corrected image 90 to be compared, The feature amount information including the size, the number of pixels, the handwriting length, and the like is calculated. As shown in FIG. 8 as an example, the feature area information 50A corresponding to the uncorrected image 80 and the corrected image 90 are displayed. The corresponding feature area information 50B is organized. As shown in the figure, each connection region extracted from each of the pre-correction image 80 and the post-correction image 90 is assigned a unique ID (Identification), and each connection region is associated with the ID. The information on the center of gravity of the area and the feature amount, that is, the size, the number of pixels, and the handwriting length are recorded as feature area information by a storage unit such as the hard disk 20D.

ところで、本実施の形態に係る対応付部22C(図4参照。)は、前述したように、修正前画像及び修正後画像の間で、特徴領域抽出部22A,22Bから出力された特徴領域情報により示される特徴量の類似度が所定度合以上である特徴領域の対を特定し、特定した特徴領域の対を対応付ける特定特徴領域情報を作成する。   By the way, as described above, the associating unit 22C (see FIG. 4) according to the present embodiment provides the feature region information output from the feature region extraction units 22A and 22B between the pre-correction image and the post-correction image. A feature region pair whose feature quantity similarity indicated by is equal to or greater than a predetermined degree is specified, and specific feature region information for associating the specified feature region pair is created.

ここで、対応付部22Cでは、一例として、特徴領域抽出部22Aによって記録された特徴領域情報50Aと特徴領域抽出部22Bによって記録された特徴領域情報50Bを入力し、両特徴領域情報に記録された情報に基づくパターン・マッチング処理を行い、この結果に基づいて特定特徴領域情報を作成する。   Here, as an example, the associating unit 22C receives the feature region information 50A recorded by the feature region extracting unit 22A and the feature region information 50B recorded by the feature region extracting unit 22B, and is recorded in both feature region information. Pattern matching processing based on the obtained information is performed, and specific feature region information is created based on the result.

なお、本実施の形態に係る対応付部22Cでは、修正前画像及び修正後画像の何れか一方の画像から抽出した特徴領域の重心位置から予め定められた距離内に重心位置が位置する他方の画像の特徴領域を、各特徴領域情報における重心位置に基づいて特定することにより、類似度が所定度合以上である特徴領域の候補となる特徴領域を絞り込み、絞り込んだ特徴領域のみを対象として、各特徴領域情報における特徴量(大きさ、画素数、筆跡長)の少なくとも1つの情報の類似度を算出し、当該類似度が所定度合以上となる特徴領域の対を示す情報を特定特徴領域情報として作成する。なお、本実施の形態では、上記類似度として、適用した特徴量間の距離(一例として、ユークリッド距離)の逆数を適用しているが、これに限らず、修正前画像及び修正後画像の各特徴領域情報により示される特徴量の類似の度合を示すものであれば如何なるものも適用できることは言うまでもない。   In addition, in the associating unit 22C according to the present embodiment, the other center where the center of gravity is located within a predetermined distance from the center of gravity of the feature region extracted from one of the pre-correction image and the post-correction image. By specifying the feature region of the image based on the barycentric position in each feature region information, the feature regions that are candidates for feature regions having a similarity equal to or higher than a predetermined degree are narrowed down, and only the narrowed feature regions are targeted. The similarity of at least one piece of information of the feature amount (size, number of pixels, handwriting length) in the feature region information is calculated, and information indicating a pair of feature regions whose similarity is equal to or higher than a predetermined degree is used as the specific feature region information. create. In the present embodiment, the reciprocal of the distance between applied feature amounts (for example, Euclidean distance) is applied as the similarity, but the present invention is not limited to this, and each of the uncorrected image and the corrected image Needless to say, any method can be used as long as it indicates the degree of similarity of the feature amount indicated by the feature region information.

図9には、本実施の形態に係る特定特徴領域情報のデータ構造の一例が模式的に示されている。同図に示されるように、本実施の形態に係る対応付部22Cでは、類似度が所定度合以上となった修正前画像及び修正後画像の各特徴領域に付与されたIDが対応付けられたものとして特定特徴領域情報を作成する。   FIG. 9 schematically shows an example of the data structure of the specific feature area information according to the present embodiment. As shown in the figure, in the associating unit 22C according to the present embodiment, the IDs assigned to the feature regions of the pre-correction image and the post-correction image whose similarity is equal to or higher than a predetermined degree are associated with each other. Specific feature region information is created as a thing.

なお、以上のように構成された画像処理装置20の各構成要素(第1位置合わせ部22、修正検出部24、修正領域選択部29)による処理は、プログラムを実行することにより、コンピュータを利用してソフトウェア構成により実現することができる。この場合、当該プログラムに本発明の画像処理プログラムが含まれることになる。但し、ソフトウェア構成による実現に限られるものではなく、ハードウェア構成や、ハードウェア構成とソフトウェア構成の組み合わせによって実現することもできることは言うまでもない。   The processing by each component (first alignment unit 22, correction detection unit 24, correction region selection unit 29) of the image processing apparatus 20 configured as described above uses a computer by executing a program. It can be realized by a software configuration. In this case, the program includes the image processing program of the present invention. However, the present invention is not limited to realization by a software configuration, and needless to say, it can also be realized by a hardware configuration or a combination of a hardware configuration and a software configuration.

以下では、本実施の形態に係る画像処理システム10が、上記プログラム(以下、「画像処理プログラム」という。)を実行することにより上記各構成要素による処理を実現するものとされている場合について説明する。この場合、当該画像処理プログラムを画像処理装置20に予めインストールしておく形態や、コンピュータ読み取り可能な記録媒体に格納された状態で提供される形態、有線又は無線による通信手段を介して配信される形態等を適用することができる。   Hereinafter, a description will be given of a case where the image processing system 10 according to the present embodiment is configured to realize processing by each of the above-described components by executing the above-described program (hereinafter referred to as “image processing program”). To do. In this case, the image processing program is installed in the image processing apparatus 20 in advance, provided in a state stored in a computer-readable recording medium, or distributed via wired or wireless communication means. Forms and the like can be applied.

次に、図10を参照して、本実施の形態に係る画像処理システム10の作用を説明する。なお、図10は、画像処理装置20のCPU20Aにより実行される画像処理プログラムの処理の流れを示すフローチャートである。また、ここでは、錯綜を回避するために、処理対象とする修正前画像データ及び修正後画像データが同一サイズの原稿画像を示すものとして画像読取装置30から入力され、ハードディスク20Dの所定領域に予め記憶されている場合について説明する。   Next, the operation of the image processing system 10 according to the present embodiment will be described with reference to FIG. FIG. 10 is a flowchart showing the flow of processing of the image processing program executed by the CPU 20A of the image processing apparatus 20. Also, here, in order to avoid complications, the pre-correction image data and the post-correction image data to be processed are input from the image reading device 30 as indicating the same size original image, and are previously stored in a predetermined area of the hard disk 20D. The case where it is stored will be described.

同図のステップ100では、処理対象とする修正前画像データ及び修正後画像データをハードディスク20Dから読み出すことにより取得し、次のステップ102では、前述した特徴領域抽出部22A,22Bによる処理と同様の処理によって修正前画像及び修正後画像に対応する特徴領域情報(図8も参照。)を導出し、記録する。例えば、修正前画像80及び修正後画像90が図12に示されるものである場合、本ステップ102の処理では、図13(A)に示される特徴領域(本実施の形態では、連結領域)に関する特徴領域情報が修正前画像と修正後画像の各画像別に導出されることになる。   In step 100 of the figure, pre-correction image data and post-correction image data to be processed are obtained by reading from the hard disk 20D, and in the next step 102, the same processing as that by the above-described feature region extraction units 22A and 22B is performed. The characteristic area information (see also FIG. 8) corresponding to the pre-correction image and the post-correction image is derived by processing and recorded. For example, if the pre-correction image 80 and the post-correction image 90 are those shown in FIG. 12, the processing in this step 102 relates to the feature region shown in FIG. 13A (in this embodiment, a connected region). The feature area information is derived for each of the pre-correction image and the post-correction image.

次のステップ104では、導出した特徴領域情報に基づいて、前述した対応付部22Cによる処理と同様の処理により特定特徴領域情報を作成する。本ステップ104の処理により、一例として図13(B)に示される特徴領域が対応付けられた特定特徴領域情報(図9も参照。)が作成されることになる。   In the next step 104, based on the derived feature area information, specific feature area information is created by a process similar to the process by the association unit 22C described above. By the process of step 104, specific feature region information (see also FIG. 9) associated with the feature region shown in FIG. 13B is created as an example.

次のステップ106では、作成した特定特徴領域情報に基づいて、前述した補正パラメータ算出部22Dによる処理と同様の処理により、修正前画像及び修正後画像の全体的なずれをなくすための補正係数を算出し、次のステップ108では、算出した補正係数を用いて、前述した画像変換部22Eによる処理と同様の処理により修正前画像及び修正後画像の全体的な位置合わせを行うための画像変換処理(本実施の形態では、アフィン変換処理)を実行し、更に、次のステップ110では、前述した修正領域選択部29による処理と同様の処理により、上記ステップ102による特徴領域情報の導出過程において抽出された特徴領域のうち、修正が行われた特徴領域である修正領域を選択し、選択した特徴領域(修正領域)を示す修正領域情報を作成する。なお、上記ステップ108では、画像変換処理を実行した画像データ(ここでは、修正後画像データ)に対応する特徴領域情報を、当該画像変換処理後の画像に応じた値に変換する処理も実行することが好ましい。   In the next step 106, a correction coefficient for eliminating the overall shift between the pre-correction image and the post-correction image is obtained by the same processing as the processing by the correction parameter calculation unit 22D described above based on the created specific feature region information. In the next step 108, an image conversion process for performing overall alignment of the pre-correction image and the post-correction image by the same process as the process by the image conversion unit 22E described above using the calculated correction coefficient. (In this embodiment, affine transformation processing) is executed, and in the next step 110, extraction is performed in the feature region information derivation process in step 102 by the same processing as the processing by the correction region selection unit 29 described above. Correction area indicating the selected feature area (correction area) by selecting a correction area that has been corrected from the selected feature areas To create a broadcast. In step 108, the process of converting the feature area information corresponding to the image data that has been subjected to the image conversion process (here, the corrected image data) into a value corresponding to the image after the image conversion process is also executed. It is preferable.

本ステップ110の処理において、当該修正領域の選択を、特徴領域抽出部22Aによって抽出された修正前画像の特徴領域のうち、特定特徴領域情報により示される特徴領域に含まれない領域を修正領域(修正領域a)として選択することにより行う際には、一例として図13(C)に示される特徴領域を示す修正領域情報が作成され、上記修正領域の選択を、特徴領域抽出部22Bによって抽出された修正後画像の特徴領域のうち、特定特徴領域情報により示される特徴領域に含まれない領域を修正領域(修正領域b)として選択することにより行う際には、一例として図13(D)に示される特徴領域を示す修正領域情報が作成されることになる。   In the processing of this step 110, the correction area is selected by selecting an area that is not included in the feature area indicated by the specific feature area information from among the feature areas of the pre-correction image extracted by the feature area extraction unit 22A. When selecting the correction area a), correction area information indicating the characteristic area shown in FIG. 13C is generated as an example, and the selection of the correction area is extracted by the characteristic area extraction unit 22B. When the region not included in the feature region indicated by the specific feature region information among the feature regions of the corrected image is selected as the correction region (correction region b), an example is illustrated in FIG. Correction area information indicating the indicated characteristic area is created.

次のステップ112では、修正前画像の幅(ここでは、当該画像の水平方向の画素数)で、かつ修正前画像の高さ(ここでは、当該画像の垂直方向の画素数)の白色画像を示す画像データ(以下、「白色画像データ」という。)を作成し、次のステップ114では、修正検出部24の処理として、上記修正領域情報により示される修正領域に対応する修正前画像データ及び修正後画像データに基づいて、修正画像を検出する修正画像検出処理ルーチン・プログラムを実行する。   In the next step 112, a white image having the width of the image before correction (here, the number of pixels in the horizontal direction of the image) and the height of the image before correction (here, the number of pixels in the vertical direction of the image) is acquired. The image data shown (hereinafter referred to as “white image data”) is created, and in the next step 114, the correction detection unit 24 processes the pre-correction image data and the correction corresponding to the correction area indicated by the correction area information. A modified image detection processing routine program for detecting a modified image is executed based on the post-image data.

以下、図11を参照して、修正画像検出処理ルーチン・プログラムについて説明する。   Hereinafter, the corrected image detection processing routine program will be described with reference to FIG.

同図のステップ200では、一例として次に示すように、上記ステップ110の処理によって作成した修正領域情報により示される修正領域a及び修正領域bの全ての領域の範囲を示す座標(以下、「修正領域座標」という。)を導出する。   In step 200 of the figure, as shown as an example, as shown below, coordinates (hereinafter referred to as “correction”) indicating the range of all the correction areas a and b indicated by the correction area information created by the processing of step 110 described above. Derived as "region coordinates").

まず、各修正領域に対応する重心位置及び大きさの各情報を特徴領域情報から取得する。   First, each information of the center of gravity position and the size corresponding to each correction area is acquired from the characteristic area information.

次に、取得した重心位置情報により示される重心位置を中心とする、取得した大きさ情報により示される幅L及び高さHを有する矩形領域の角点(本実施の形態では、左上角点及び右下角点)の位置座標を上記修正領域座標として各修正領域毎に算出する。   Next, the corner point of the rectangular area having the width L and the height H indicated by the acquired size information centered on the center of gravity position indicated by the acquired center of gravity position information (in this embodiment, the upper left corner point and The position coordinates of the lower right corner point) are calculated as the correction area coordinates for each correction area.

次のステップ202では、上記ステップ200の処理によって導出した修正領域毎の修正領域座標に基づいて、修正領域aに含まれる修正領域と修正領域bに含まれる修正領域とで重なり合う領域が存在するか否かを判定し、否定判定となった場合は後述するステップ220に移行する一方、肯定判定となった場合にはステップ204に移行する。   In the next step 202, based on the correction area coordinates for each correction area derived by the processing in step 200, is there an overlapping area between the correction area included in the correction area a and the correction area included in the correction area b? If the determination is negative and the determination is negative, the process proceeds to step 220 described later, whereas if the determination is affirmative, the process proceeds to step 204.

ステップ204では、修正前画像データ及び修正後画像データ(上記ステップ108の処理によって画像変換処理が実行されたもの)における、上記ステップ202の処理によって重なり合う領域であるものと判定された修正領域のうちの何れか1組の領域(以下、「処理対象領域」という。)を対象として、修正前画像と修正後画像の位置合わせを行う画像変換処理を、前述した第2位置合わせ部24Bによる処理と同様に実行する。   In step 204, of the correction areas determined to be overlapping areas by the process of step 202 in the pre-correction image data and the post-correction image data (the image conversion process executed by the process of step 108). The image conversion processing for aligning the pre-correction image and the post-correction image for any one set of regions (hereinafter referred to as “processing target region”) is the processing by the second alignment unit 24B described above. Do the same.

なお、ここで処理対象領域とされている1組の修正領域のサイズが必ずしも一致するとは限らない。例えば、修正領域aが図13(C)に示されるものであり、修正領域bが図13(D)に示されるものである場合、修正領域aに含まれる修正領域である「さ」と、修正領域bに含まれる修正領域である、バツ(‘×’)が追記された「さしすせ」とでは、各修正領域のサイズは異なる。この場合、本実施の形態に係る修正画像検出処理ルーチン・プログラムでは、サイズが小さい方の修正領域の外接矩形内の領域のみを対象として上記画像変換処理を行うようにする。   It should be noted that the size of a set of correction areas set as processing target areas does not always match. For example, when the correction area a is as shown in FIG. 13C and the correction area b is as shown in FIG. 13D, “sa”, which is a correction area included in the correction area a, The size of each correction area is different from the correction area included in the correction area “b” (“X”) to which “X” is added. In this case, in the modified image detection processing routine program according to the present embodiment, the image conversion process is performed only for the region within the circumscribed rectangle of the smaller modified region.

次のステップ206では、処理対象領域とされている1組の修正領域で、かつ上記ステップ204の処理によって画像変換処理が実行された領域に対応する修正前画像データ及び修正後画像データに対して、前述した前処理部40と同様に単色化処理及び二値化処理を実行し、次のステップ208にて、二値化処理が施された修正前画像データの黒画素数(以下、「修正前黒画素数」という。)が、二値化処理が施された修正後画像データの黒画素数(以下、「修正後黒画素数」という。)より少ないか否かを判定し、肯定判定となった場合は、処理対象領域が修正前原稿に予め存在した画像に対して重ねて追記された領域である「重なりあり追記領域」であるものと見なしてステップ210に移行する。   In the next step 206, the pre-correction image data and the post-correction image data corresponding to the set of correction areas that are the processing target areas and the areas in which the image conversion processing has been executed by the processing in step 204 are performed. The monochrome processing and binarization processing are executed in the same manner as the preprocessing unit 40 described above, and in the next step 208, the number of black pixels of the pre-correction image data subjected to the binarization processing (hereinafter referred to as “correction”). It is determined whether or not the “number of previous black pixels” is smaller than the number of black pixels in the corrected image data subjected to binarization processing (hereinafter referred to as “number of corrected black pixels”). If it becomes, the processing target area is regarded as an “additional area with overlap”, which is an area that is added to the pre-corrected image in advance, and the process proceeds to step 210.

ステップ210では、上記ステップ204の処理によって画像変換処理が施された修正前画像及び修正後画像の各画像データを用いて、重なりあり追記領域に対応して予め定められた第1修正画像検出処理を実行し、その後にステップ216に移行する。   In step 210, a first corrected image detection process predetermined corresponding to the overlapped additional recording area is used by using the respective image data of the pre-correction image and the post-correction image subjected to the image conversion process in the process of step 204. After that, the process proceeds to step 216.

なお、本実施の形態に係る修正画像検出処理ルーチン・プログラムでは、上記第1修正画像検出処理として、上記ステップ204の処理によって画像変換処理が施された領域に対応する修正前画像データに対して、当該修正前画像データにより示される画像に対する予め定められたドット数(一例として、1ドット)の画像膨張処理を施した後、当該修正後画像データから、上記ステップ204の処理によって画像変換処理が施された領域に対応する修正前画像データを、対応する画素毎で、かつR,G,Bの各々別に減算する処理を適用しているが、これに限らず、例えば、上記画像膨張処理を行わずに当該減算を行う処理を適用する形態や、上記ステップ206の処理によって二値化された修正後画像データから修正前画像データを、対応する画素毎で、かつR,G,Bの各々別に減算する処理を適用する形態等の、他の従来既知の追記画像検出処理を適用する形態とすることもできる。   In the modified image detection processing routine program according to the present embodiment, as the first modified image detection process, the image data before modification corresponding to the region subjected to the image conversion process by the process of step 204 is processed. Then, after performing an image expansion process of a predetermined number of dots (for example, 1 dot) on the image indicated by the uncorrected image data, the image conversion process is performed from the corrected image data by the process of step 204 above. Although the process of subtracting the pre-correction image data corresponding to the applied area for each corresponding pixel and for each of R, G, and B is applied, the present invention is not limited to this. The form in which the subtraction process is applied without being performed, or the pre-correction image data is converted from the post-correction image data binarized by the process in step 206 above. In every pixel to, and can be R, G, forms or the like for applying the process of subtracting each separate B, also be in the form of applying other conventional known additional image detection processing.

一方、上記ステップ208において否定判定となった場合はステップ212に移行し、修正前黒画素数が、修正後黒画素数より多いか否かを判定して、否定判定となった場合は後述するステップ218に移行する一方、肯定判定となった場合は、処理対象領域が修正前原稿に予め存在した画像の一部が消去された領域である「一部消去領域」であるものと見なしてステップ214に移行する。   On the other hand, when a negative determination is made in step 208, the process proceeds to step 212, where it is determined whether the number of black pixels before correction is larger than the number of black pixels after correction. On the other hand, if the determination is affirmative, the process target area is regarded as a “partially erased area” that is an area where a part of an image previously existing in the document before correction is erased. Move to 214.

ステップ214では、上記ステップ204の処理によって画像変換処理が施された修正前画像及び修正後画像の各画像データを用いて、一部消去領域に対応して予め定められた第2修正画像検出処理を実行し、その後にステップ216に移行する。   In step 214, a second modified image detection process predetermined for a part of the erasure region is performed using the image data of the uncorrected image and the corrected image subjected to the image conversion process in step 204. After that, the process proceeds to step 216.

なお、本実施の形態に係る修正画像検出処理ルーチン・プログラムでは、上記第2修正画像検出処理として、上記ステップ204の処理によって画像変換処理が施された領域に対応する修正後画像データに対して、当該修正後画像データにより示される画像に対する予め定められたドット数(一例として、1ドット)の画像膨張処理を施した後、当該修正前画像データから、上記ステップ204の処理によって画像変換処理が施された領域に対応する修正後画像データを、対応する画素毎で、かつR,G,Bの各々別に減算する処理を適用しているが、これに限らず、例えば、上記画像膨張処理を行わずに当該減算を行う処理を適用する形態や、上記ステップ206の処理によって二値化された修正前画像データから修正後画像データを、対応する画素毎で、かつR,G,Bの各々別に減算する処理を適用する形態等の、他の従来既知の消去画像検出処理を適用する形態とすることもできる。   In the modified image detection processing routine program according to the present embodiment, as the second modified image detection process, the modified image data corresponding to the area subjected to the image conversion process by the process of step 204 is performed. Then, after performing an image expansion process of a predetermined number of dots (for example, 1 dot) on the image indicated by the corrected image data, the image conversion process is performed from the uncorrected image data by the process of step 204 above. Although the process of subtracting the corrected image data corresponding to the applied area for each corresponding pixel and for each of R, G, and B is applied, the present invention is not limited to this. A form of applying the process of performing the subtraction without performing the process, or the corrected image data from the uncorrected image data binarized by the process of step 206 above, In every pixel to, and can be R, G, forms or the like for applying the process of subtracting each separate B, also be in the form of applying other conventional known erasing image detection processing.

ステップ216では、上記ステップ210又はステップ214の処理によって得られた画像データを、上記ステップ112の処理によって作成した白色画像データに対して重畳(上書き)することにより、検出した修正画像又は消去画像を合成し、次のステップ218では、上記ステップ202の処理によって重なり合う領域であるものと判定された全ての修正領域について上記ステップ204〜ステップ216の処理が終了したか否かを判定し、否定判定となった場合は上記ステップ204に戻り、当該ステップ204以降の処理を再び実行する一方、肯定判定となった場合にはステップ220に移行する。なお、上記ステップ204〜ステップ218の処理を繰り返し実行する際には、それまでに処理対象としなかった重なり合う修正領域を処理対象領域として適用するようにする。   In step 216, the detected corrected image or erased image is obtained by superimposing (overwriting) the image data obtained by the process of step 210 or 214 on the white image data created by the process of step 112. In the next step 218, it is determined whether or not the processing of step 204 to step 216 has been completed for all the correction regions determined to be overlapping regions by the processing of step 202. If YES in step 204, the process returns to step 204, and the processing in step 204 and subsequent steps is executed again. On the other hand, if a positive determination is made, the process proceeds to step 220. Note that, when the processes in steps 204 to 218 are repeatedly executed, overlapping correction areas that have not been processed until then are applied as processing target areas.

ステップ220では、上記ステップ200の処理によって導出した修正領域毎の修正領域座標に基づいて、修正領域aに含まれる修正領域で、修正領域bに含まれる何れの修正領域にも重ならない領域が存在するか否かを判定し、肯定判定となった場合は、処理対象領域が修正前原稿に予め存在した画像が消去された領域である「消去領域」であるものと見なしてステップ222に移行し、修正前画像データを用いて、消去領域に対応して予め定められた第3修正画像検出処理を実行し、その後にステップ224に移行する。なお、本実施の形態に係る修正画像検出処理ルーチン・プログラムでは、上記第3修正画像検出処理として、修正前画像データから上記消去領域に対応する画像データを抽出する処理を適用している。   In step 220, based on the correction area coordinates for each correction area derived by the processing in step 200, there is a correction area included in the correction area a that does not overlap any correction area included in the correction area b. If the result of the determination is affirmative, it is assumed that the processing target area is an “erased area” that is an area in which an image existing in the document before correction is erased, and the process proceeds to step 222. Then, using the pre-correction image data, a third corrected image detection process determined in advance corresponding to the erased area is executed, and thereafter, the process proceeds to step 224. In the modified image detection processing routine program according to the present embodiment, a process of extracting image data corresponding to the erasure area from the pre-correction image data is applied as the third modified image detection process.

ステップ224では、上記ステップ222の処理によって得られた画像データを、上記白色画像データに対して重畳(上書き)することにより、検出した修正画像(消去された画像)を合成し、その後にステップ226に移行する。なお、上記ステップ220において否定判定となった場合には、上記ステップ222及びステップ224の処理を実行することなくステップ226に移行する。   In step 224, the detected corrected image (erased image) is synthesized by superimposing (overwriting) the image data obtained by the processing of step 222 on the white image data, and then step 226 is performed. Migrate to If the determination in step 220 is negative, the process proceeds to step 226 without executing the processes in steps 222 and 224.

ステップ226では、上記ステップ200の処理によって導出した修正領域毎の修正領域座標に基づいて、修正領域bに含まれる修正領域で、修正領域aに含まれる何れの修正領域にも重ならない領域が存在するか否かを判定し、肯定判定となった場合は、処理対象領域が修正前原稿において画像が存在せず、かつ追記された領域である「重なりなし追記領域」であるものと見なしてステップ228に移行し、修正後画像データを用いて、重なりなし追記領域に対応して予め定められた第4修正画像検出処理を実行し、その後にステップ230に移行する。なお、本実施の形態に係る修正画像検出処理ルーチン・プログラムでは、上記第4修正画像検出処理として、修正後画像データから上記重なりなし追記領域に対応する画像データを抽出する処理を適用している。   In step 226, based on the correction area coordinates for each correction area derived by the processing in step 200, there is a correction area included in the correction area b that does not overlap any correction area included in the correction area a. If the result of the determination is affirmative, the processing target area is assumed to be a “non-overlapping additional area” in which no image exists in the uncorrected document and the additional area is added. The process proceeds to 228, and the fourth corrected image detection process predetermined in correspondence with the non-overlapping additional recording area is executed using the corrected image data, and then the process proceeds to step 230. In the modified image detection processing routine program according to the present embodiment, a process of extracting image data corresponding to the non-overlapping additional area from the corrected image data is applied as the fourth modified image detection process. .

ステップ230では、上記ステップ228の処理によって得られた画像データを、上記白色画像データに対して重畳(上書き)することにより、検出した修正画像(追記された画像)を合成し、その後に本修正画像検出処理ルーチン・プログラムを終了する。なお、上記ステップ226において否定判定となった場合には、上記ステップ228及びステップ230の処理を実行することなく本修正画像検出処理ルーチン・プログラムを終了する。図13(E)には、重なりあり追記領域、一部消去領域、消去領域、及び重なりなし追記領域の条件及び画像例が、図13(F)には、上記第1〜第4修正画像検出処理による修正画像の検出手法が、各々纏めて記されている。   In step 230, the corrected image (added image) detected is synthesized by superimposing (overwriting) the image data obtained in the process of step 228 on the white image data, and then this correction is performed. The image detection processing routine program is terminated. If the determination in step 226 is negative, the modified image detection processing routine / program is terminated without executing the processing in steps 228 and 230. FIG. 13E shows the conditions and image examples of the additional write area with overlap, the partially erased area, the erase area, and the additional write area without overlap, and FIG. 13F shows the first to fourth modified image detections. The detection method of the corrected image by processing is described collectively.

修正画像検出処理ルーチン・プログラムが終了すると、画像処理プログラム(図10参照。)のステップ116に移行し、以上の処理によって修正画像が重畳された白色画像データを用いて修正画像を出力し、その後に本画像処理プログラムを終了する。なお、本実施の形態に係る画像処理プログラムでは、上記ステップ116による修正画像を出力する処理として、ディスプレイ20Fによる表示による出力、及び図示しないプリンタ(所謂画像形成装置)による印刷による出力の双方を適用しているが、これに限定されるものではなく、これらの何れか一方の出力を行う形態や、音声合成装置により音声によって出力する形態等、他の出力形態を適用することができることは言うまでもない。また、本実施の形態に係る画像処理プログラムでは、白色画像データに対して修正画像を重畳することにより、検出した修正画像を記録する場合について説明したが、これに限定されるものではなく、検出した修正画像の位置を示す座標を記録する形態等、修正画像を特定することのできる情報を記録する他の形態とすることができることも言うまでもない。更に、追記画像と消去画像とで色を変える等、追記画像と消去画像が区別できる状態で出力する形態とすることもできる。   When the corrected image detection processing routine program ends, the process proceeds to step 116 of the image processing program (see FIG. 10), and the corrected image is output using the white image data on which the corrected image is superimposed by the above processing. This image processing program ends. In the image processing program according to the present embodiment, both the output by display on the display 20F and the output by printing by a printer (so-called image forming apparatus) (not shown) are applied as the process of outputting the corrected image in step 116. However, the present invention is not limited to this, and it goes without saying that other output forms such as a form in which any one of these is output or a form in which sound is output by a speech synthesizer can be applied. . In the image processing program according to the present embodiment, the case where the detected corrected image is recorded by superimposing the corrected image on the white image data has been described. However, the present invention is not limited to this. It goes without saying that other forms of recording information that can specify the corrected image, such as a form of recording coordinates indicating the position of the corrected image, can be used. Further, the output image and the erased image can be output in a state where the additional image and the erased image can be distinguished, for example, by changing the color between the additionally recorded image and the erased image.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。発明の要旨を逸脱しない範囲で上記実施の形態に多様な変更または改良を加えることができ、当該変更または改良を加えた形態も本発明の技術的範囲に含まれる。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. Various modifications or improvements can be added to the above-described embodiment without departing from the gist of the invention, and embodiments to which such modifications or improvements are added are also included in the technical scope of the present invention.

また、上記の実施の形態は、クレーム(請求項)にかかる発明を限定するものではなく、また実施の形態の中で説明されている特徴の組合せの全てが発明の解決手段に必須であるとは限らない。前述した実施の形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜の組み合せにより種々の発明を抽出できる。実施の形態に示される全構成要件から幾つかの構成要件が削除されても、効果が得られる限りにおいて、この幾つかの構成要件が削除された構成が発明として抽出され得る。   The above embodiments do not limit the invention according to the claims (claims), and all the combinations of features described in the embodiments are essential for the solution of the invention. Is not limited. The above-described embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. Even if some constituent requirements are deleted from all the constituent requirements shown in the embodiment, as long as an effect is obtained, a configuration from which these some constituent requirements are deleted can be extracted as an invention.

例えば、上記実施の形態では、画像処理をソフトウェア構成によって実現した場合について説明したが、本発明はこれに限定されるものではなく、例えば、当該画像処理をハードウェア構成により実現する形態とすることもできる。この場合の形態例としては、例えば、図3に示した画像処理装置20の各構成要素(第1位置合わせ部22、修正検出部24、修正領域選択部29)と同一の処理を実行する機能デバイスを作成して用いる形態が例示できる。この場合は、上記実施の形態に比較して、画像処理の高速化が期待できる。   For example, in the above embodiment, the case where the image processing is realized by the software configuration has been described. However, the present invention is not limited to this, and for example, the image processing is realized by the hardware configuration. You can also. As an example of this case, for example, a function of executing the same processing as each component (first alignment unit 22, correction detection unit 24, correction region selection unit 29) of the image processing apparatus 20 shown in FIG. The form which creates and uses a device can be illustrated. In this case, the image processing can be speeded up as compared with the above embodiment.

また、上記実施の形態では、修正画像検出処理ルーチン・プログラムのステップ204〜ステップ218の繰り返し処理において修正領域a及び修正領域bの互いに重なり合う修正領域を1組ずつ処理する場合について説明したが、本発明はこれに限定されるものではなく、例えば、修正領域aに含まれる複数の修正領域が修正領域bに含まれる修正領域の何れか1つに重なる場合や、修正領域bに含まれる複数の修正領域が修正領域aに含まれる修正領域の何れか1つに重なる場合には、当該複数の修正領域を纏めて1つの修正領域として上記ステップ204〜ステップ218の処理を実行する形態とすることもできる。この場合も、上記実施の形態に比較して、画像処理の高速化が期待できる。   In the above-described embodiment, a case has been described in which correction regions overlapping correction regions a and b are processed one by one in the repeated processing of step 204 to step 218 of the correction image detection processing routine program. The invention is not limited to this, for example, when a plurality of correction areas included in the correction area a overlap any one of the correction areas included in the correction area b, or a plurality of correction areas included in the correction area b. When the correction area overlaps any one of the correction areas included in the correction area a, the processing from step 204 to step 218 is executed as a single correction area by combining the correction areas. You can also. Also in this case, it can be expected that the image processing speeds up as compared with the above embodiment.

その他、上記実施の形態で説明した画像処理システム10や画像処理装置20の構成(図1〜図5参照。)は一例であり、本発明の主旨を逸脱しない範囲内において不要な部分を削除したり、新たな部分を追加したりすることができることは言うまでもない。   In addition, the configurations (see FIGS. 1 to 5) of the image processing system 10 and the image processing apparatus 20 described in the above embodiment are merely examples, and unnecessary portions are deleted without departing from the gist of the present invention. Needless to say, you can add new parts.

また、上記実施の形態で説明した各種情報のデータ構造(図8,図9参照。)も一例であり、本発明の主旨を逸脱しない範囲内において変更を加えることができることは言うまでもない。   The data structure of various information described in the above embodiment (see FIGS. 8 and 9) is also an example, and it goes without saying that changes can be made without departing from the gist of the present invention.

更に、上記実施の形態で説明した画像処理プログラム及び修正画像検出処理ルーチン・プログラムの処理の流れ(図10,図11参照。)も一例であり、本発明の主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりすることができることは言うまでもない。   Furthermore, the processing flow (see FIGS. 10 and 11) of the image processing program and the modified image detection processing routine program described in the above embodiment is also an example, and is unnecessary within the scope of the present invention. It goes without saying that steps can be deleted, new steps can be added, and the processing order can be changed.

実施の形態に係る画像処理システムの構成を示すブロック図である。1 is a block diagram illustrating a configuration of an image processing system according to an embodiment. 実施の形態に係る画像処理装置の電気系の要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the electric system of the image processing apparatus which concerns on embodiment. 実施の形態に係る画像処理装置の機能的な構成を示す機能ブロック図である。It is a functional block diagram which shows the functional structure of the image processing apparatus which concerns on embodiment. 実施の形態に係る画像処理装置の機能的な構成のうち、第1位置合わせ部の構成を示すブロック図である。It is a block diagram which shows the structure of a 1st position alignment part among the functional structures of the image processing apparatus which concerns on embodiment. 実施の形態に係る画像処理装置の機能的な構成のうち、特徴領域抽出部の構成を示すブロック図である。It is a block diagram which shows the structure of a characteristic area extraction part among the functional structures of the image processing apparatus which concerns on embodiment. 実施の形態に係る連結領域(特徴領域)の説明に供する図である。It is a figure where it uses for description of the connection area | region (characteristic area | region) which concerns on embodiment. 実施の形態に係る連結領域から求められる重心及び特徴量の各情報の説明に供する図である。It is a figure with which it uses for description of each information of the gravity center calculated | required from the connection area | region which concerns on embodiment, and a feature-value. 実施の形態に係る特徴領域情報のデータ構造を示す模式図である。It is a schematic diagram which shows the data structure of the characteristic area information which concerns on embodiment. 実施の形態に係る特定特徴領域情報のデータ構造を示す模式図である。It is a schematic diagram which shows the data structure of the specific feature area information which concerns on embodiment. 実施の形態に係る画像処理プログラムの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the image processing program which concerns on embodiment. 実施の形態に係る修正画像検出処理ルーチン・プログラムの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the correction image detection process routine program which concerns on embodiment. 実施の形態に係る画像処理プログラム及び修正画像検出処理ルーチン・プログラムの処理内容の説明に供する図であり、修正前画像及び修正後画像の一例を示す正面図である。It is a figure used for description of the processing contents of the image processing program and the corrected image detection processing routine program according to the embodiment, and is a front view showing an example of an image before correction and an image after correction. 実施の形態に係る画像処理プログラム及び修正画像検出処理ルーチン・プログラムの処理内容の説明に供する他の図である。It is another figure with which it uses for description of the processing content of the image processing program which concerns on embodiment, and a correction image detection processing routine program.

符号の説明Explanation of symbols

10 画像処理システム
20 画像処理装置
20A CPU
20D ハードディスク
20F ディスプレイ
22 第1位置合わせ部
22A 特徴領域抽出部
22B 特徴領域抽出部
22C 対応付部(特定手段)
22D 補正パラメータ算出部(算出手段)
22E 画像変換部(事前位置合わせ手段)
24 修正検出部(検出手段)
24A 修正領域判断部(判断手段)
24B 第2位置合わせ部(位置合わせ手段)
28 記憶部
29 修正領域選択部(選択手段)
30 画像読取装置(取得手段)
40 前処理部
42 連結領域抽出部(抽出手段)
44 重心算出部(導出手段)
46 特徴量算出部(導出手段)
DESCRIPTION OF SYMBOLS 10 Image processing system 20 Image processing apparatus 20A CPU
20D Hard disk 20F Display 22 First alignment unit 22A Feature region extraction unit 22B Feature region extraction unit 22C Corresponding unit (specifying means)
22D correction parameter calculation unit (calculation means)
22E Image converter (pre-positioning means)
24 Correction detection unit (detection means)
24A Correction area determination unit (determination means)
24B 2nd alignment part (alignment means)
28 storage unit 29 correction area selection unit (selection means)
30 Image reader (acquiring means)
40 Pre-processing unit 42 Connected region extraction unit (extraction means)
44 Center of gravity calculation unit (derivation means)
46 feature amount calculation unit (derivation means)

Claims (15)

修正が行われる前の原稿である第1原稿の画像を示す第1画像情報、及び修正が行われた後の前記原稿である第2原稿の画像を示す第2画像情報を取得する取得手段と、
前記第1画像情報及び前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における予め定められた特徴を有する特徴領域を抽出する抽出手段と、
前記第1画像情報及び前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における前記特徴領域から予め定められた特徴量を導出する導出手段と、
前記第1原稿の画像及び前記第2原稿の画像の間で前記特徴量の類似度が所定度合以上である前記特徴領域を特定する特定手段と、
前記抽出手段によって前記第1原稿の画像から抽出された特徴領域で、かつ前記特定手段によって特定された特徴領域に含まれない特徴領域である第1特徴領域、及び前記抽出手段によって前記第2原稿の画像から抽出された特徴領域で、かつ前記特定手段によって特定された特徴領域に含まれない特徴領域である第2特徴領域を前記修正が行われた領域である修正領域として選択する選択手段と、
前記第1特徴領域及び前記第2特徴領域に基づいて前記原稿に対する修正状態を判断する判断手段と、
前記判断手段による判断結果に応じて修正画像を検出する検出手段と、
を備えた画像処理装置。
Acquisition means for acquiring first image information indicating an image of a first document that is a document before correction and second image information indicating an image of a second document that is the document after correction; ,
Extracting means for extracting a feature region having a predetermined feature in the image of the first document and the image of the second document based on the first image information and the second image information;
Derivation means for deriving a predetermined feature amount from the feature region in the image of the first document and the image of the second document based on the first image information and the second image information;
Specifying means for specifying the feature region in which the similarity of the feature amount is equal to or greater than a predetermined degree between the image of the first document and the image of the second document;
A first feature region which is a feature region extracted from the image of the first document by the extraction unit and which is not included in the feature region specified by the specification unit, and the second document by the extraction unit Selecting means for selecting a second feature area that is a feature area extracted from the image of the image and that is not included in the feature area specified by the specifying means as a correction area that is the corrected area; ,
Determining means for determining a correction state of the document based on the first feature area and the second feature area;
Detecting means for detecting a corrected image according to a determination result by the determining means;
An image processing apparatus.
前記判断手段は、前記第1特徴領域と前記第2特徴領域とで互いに重なる領域を重なり領域として、前記第1特徴領域における重なり領域内の画像を二値化したときの黒画素数が前記第2特徴領域における重なり領域内の画像を二値化したときの黒画素数に比較して少ない場合に、当該重なり領域が前記第1原稿に予め存在した画像に対して重ねて追記された重なりあり追記領域であるものと判断する
請求項1記載の画像処理装置。
The determination means uses an overlapping area in the first feature area and the second feature area as an overlapping area, and the number of black pixels when the image in the overlapping area in the first feature area is binarized is the first number. When there is a smaller number of black pixels than when the images in the overlap area in the two feature areas are binarized, there is an overlap in which the overlap area is added to the image previously existing in the first document. The image processing apparatus according to claim 1, wherein the image processing apparatus determines that the area is an additional recording area.
前記検出手段は、前記判断手段によって前記重なりあり追記領域であるものと判断された領域を対象として前記第2画像情報から前記第1画像情報の減算を画素毎に行うことにより前記追記された画像を検出する
請求項2記載の画像処理装置。
The detection means performs the subtraction of the first image information from the second image information for each pixel for the area determined to be the additional recording area with the overlap by the determination means. The image processing apparatus according to claim 2.
前記判断手段は、前記第1特徴領域と前記第2特徴領域とで互いに重なる領域を重なり領域として、前記第1特徴領域における重なり領域内の画像を二値化したときの黒画素数が前記第2特徴領域における重なり領域内の画像を二値化したときの黒画素数に比較して多い場合に、当該重なり領域が前記第1原稿に予め存在した画像の一部が消去された一部消去領域であるものと判断する
請求項1乃至請求項3の何れか1項記載の画像処理装置。
The determining means sets the overlapping area between the first feature area and the second feature area as an overlapping area, and the number of black pixels when the image in the overlapping area in the first feature area is binarized is the first number. Partial erasure in which a part of the image previously existing in the first document is erased when the number of black pixels when the image in the overlap area in the two feature areas is binarized is large. The image processing apparatus according to claim 1, wherein the image processing apparatus is determined to be an area.
前記検出手段は、前記判断手段によって前記一部消去領域であるものと判断された領域を対象として前記第1画像情報から前記第2画像情報の減算を画素毎に行うことにより前記一部が消去された画像を検出する
請求項4記載の画像処理装置。
The detection means erases the part by subtracting the second image information from the first image information for each pixel for the area determined to be the partially erased area by the judgment means. The image processing apparatus according to claim 4, wherein a detected image is detected.
前記判断手段は、前記第1特徴領域に含まれ、かつ互いに重なる領域が前記第2特徴領域に存在しない領域を、前記第1原稿に予め存在した画像が消去された消去領域であるものと判断する
請求項1乃至請求項5の何れか1項記載の画像処理装置。
The determination means determines that an area that is included in the first feature area and that does not have an overlapping area in the second feature area is an erased area in which an image previously existing in the first document is erased. The image processing apparatus according to any one of claims 1 to 5.
前記検出手段は、前記判断手段によって前記消去領域であるものと判断された領域内の情報を前記第1画像情報から抽出することにより前記消去された画像を検出する
請求項6記載の画像処理装置。
The image processing apparatus according to claim 6, wherein the detection unit detects the erased image by extracting information in the area determined to be the erasure area by the determination unit from the first image information. .
前記判断手段は、前記第2特徴領域に含まれ、かつ互いに重なる領域が前記第1特徴領域に存在しない領域を、前記第1原稿において画像が存在せず、かつ追記された重なりなし追記領域であるものと判断する
請求項1乃至請求項7の何れか1項記載の画像処理装置。
The determination means includes an area that is included in the second feature area and that does not have an overlapping area in the first feature area, and that is a non-overlapping additional recording area in which no image exists in the first document and is additionally recorded. The image processing device according to claim 1, wherein the image processing device is determined to be present.
前記検出手段は、前記判断手段によって前記重なりなし追記領域であるものと判断された領域内の情報を前記第2画像情報から抽出することにより前記追記された画像を検出する
請求項8記載の画像処理装置。
The image according to claim 8, wherein the detection unit detects the added image by extracting, from the second image information, information in a region determined to be the non-overlapping additional recording region by the determination unit. Processing equipment.
前記予め定められた特徴は、2値化された前記第1画像情報及び前記第2画像情報における黒又は白の連結画像である
請求項1乃至請求項9の何れか1項記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the predetermined feature is a black or white connected image in the binarized first image information and second image information. .
前記導出手段は、前記抽出手段によって抽出された特徴領域の位置を示す位置情報を更に導出し、
前記特定手段は、前記位置情報によって示される距離が所定距離以内である特徴領域のみを対象として前記特徴領域を特定する
請求項1乃至請求項10の何れか1項記載の画像処理装置。
The deriving means further derives position information indicating the position of the feature region extracted by the extracting means,
The image processing apparatus according to any one of claims 1 to 10, wherein the specifying unit specifies the feature region only for a feature region whose distance indicated by the position information is within a predetermined distance.
前記第1特徴領域と前記第2特徴領域とで互いに重なる領域のみを対象として前記第1画像情報及び前記第2画像情報の少なくとも一方に対して画像の位置合わせ処理を実行する位置合わせ手段
を更に備えた請求項1乃至請求項11の何れか1項記載の画像処理装置。
Alignment means for executing an image alignment process on at least one of the first image information and the second image information only for an area where the first feature area and the second feature area overlap each other; The image processing apparatus according to claim 1, comprising the image processing apparatus.
前記位置合わせ手段による位置合わせ処理に先立ち、前記第1画像情報及び前記第2画像情報の少なくとも一方に対して前記第1原稿の画像と前記第2原稿の画像の画像全体における位置合わせ処理を実行する事前位置合わせ手段
を更に備えた請求項12記載の画像処理装置。
Prior to the alignment processing by the alignment means, alignment processing is performed on the entire image of the first document image and the second document image on at least one of the first image information and the second image information. The image processing apparatus according to claim 12, further comprising pre-alignment means.
前記第1原稿の画像と前記第2原稿の画像における対応する前記特徴領域のずれ量に基づいて補正係数を算出する算出手段を更に備え、
前記事前位置合わせ手段は、前記位置合わせ処理として前記補正係数を用いた前記第1画像情報及び前記第2画像情報の少なくとも一方に対する補正処理を実行する
請求項13記載の画像処理装置。
A calculation unit for calculating a correction coefficient based on a shift amount of the corresponding feature area in the image of the first document and the image of the second document;
The image processing apparatus according to claim 13, wherein the pre-alignment unit performs a correction process on at least one of the first image information and the second image information using the correction coefficient as the alignment process.
修正が行われる前の原稿である第1原稿の画像を示す第1画像情報、及び修正が行われた後の前記原稿である第2原稿の画像を示す第2画像情報を取得する取得ステップと、
前記第1画像情報及び前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における予め定められた特徴を有する特徴領域を抽出する抽出ステップと、
前記第1画像情報及び前記第2画像情報に基づいて、前記第1原稿の画像及び前記第2原稿の画像における前記特徴領域から予め定められた特徴量を導出する導出ステップと、
前記第1原稿の画像及び前記第2原稿の画像の間で前記特徴量の類似度が所定度合以上である前記特徴領域を特定する特定ステップと、
前記抽出ステップによって前記第1原稿の画像から抽出された特徴領域で、かつ前記特定ステップによって特定された特徴領域に含まれない特徴領域である第1特徴領域、及び前記抽出ステップによって前記第2原稿の画像から抽出された特徴領域で、かつ前記特定ステップによって特定された特徴領域に含まれない特徴領域である第2特徴領域を前記修正が行われた領域である修正領域として選択する選択ステップと、
前記第1特徴領域及び前記第2特徴領域に基づいて前記原稿に対する修正状態を判断する判断ステップと、
前記判断ステップによる判断結果に応じて修正画像を検出する検出ステップと、
をコンピュータに実行させる画像処理プログラム。
An acquisition step of acquiring first image information indicating an image of a first document that is a document before correction and second image information indicating an image of a second document that is the document after correction; ,
An extraction step of extracting a feature region having a predetermined feature in the image of the first document and the image of the second document based on the first image information and the second image information;
A derivation step for deriving a predetermined feature amount from the feature region in the image of the first document and the image of the second document based on the first image information and the second image information;
A specifying step of specifying the feature region in which the similarity of the feature amount is a predetermined degree or more between the image of the first document and the image of the second document;
A first feature region that is a feature region extracted from the image of the first document by the extraction step and is not included in the feature region specified by the specification step, and the second document by the extraction step A selection step of selecting a second feature region that is a feature region extracted from the image of the image and that is not included in the feature region specified by the specifying step as a correction region that is the corrected region; ,
A determination step of determining a correction state for the document based on the first feature region and the second feature region;
A detection step of detecting a corrected image according to the determination result of the determination step;
An image processing program for causing a computer to execute.
JP2006318985A 2006-11-27 2006-11-27 Image processing apparatus and image processing program Expired - Fee Related JP4803001B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006318985A JP4803001B2 (en) 2006-11-27 2006-11-27 Image processing apparatus and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006318985A JP4803001B2 (en) 2006-11-27 2006-11-27 Image processing apparatus and image processing program

Publications (2)

Publication Number Publication Date
JP2008135857A true JP2008135857A (en) 2008-06-12
JP4803001B2 JP4803001B2 (en) 2011-10-26

Family

ID=39560407

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006318985A Expired - Fee Related JP4803001B2 (en) 2006-11-27 2006-11-27 Image processing apparatus and image processing program

Country Status (1)

Country Link
JP (1) JP4803001B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011097538A (en) * 2009-11-02 2011-05-12 Sharp Corp Image processing apparatus, program, recording medium
JP2011109637A (en) * 2009-06-30 2011-06-02 Konica Minolta Laboratory Usa Inc Method for detecting alteration in printed document using image comparison analysis

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002118735A (en) * 2000-10-10 2002-04-19 Cmic Co Ltd Method and device for assisting detection of corrected description on paper media
JP2003115039A (en) * 2001-07-11 2003-04-18 Ricoh Co Ltd Document filing device, its method and program and storage medium
JP2006235785A (en) * 2005-02-23 2006-09-07 Fuji Xerox Co Ltd Image processor, image processing method and computer program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002118735A (en) * 2000-10-10 2002-04-19 Cmic Co Ltd Method and device for assisting detection of corrected description on paper media
JP2003115039A (en) * 2001-07-11 2003-04-18 Ricoh Co Ltd Document filing device, its method and program and storage medium
JP2006235785A (en) * 2005-02-23 2006-09-07 Fuji Xerox Co Ltd Image processor, image processing method and computer program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011109637A (en) * 2009-06-30 2011-06-02 Konica Minolta Laboratory Usa Inc Method for detecting alteration in printed document using image comparison analysis
JP2011097538A (en) * 2009-11-02 2011-05-12 Sharp Corp Image processing apparatus, program, recording medium

Also Published As

Publication number Publication date
JP4803001B2 (en) 2011-10-26

Similar Documents

Publication Publication Date Title
JP5387193B2 (en) Image processing system, image processing apparatus, and program
JP5934762B2 (en) Document modification detection method by character comparison using character shape characteristics, computer program, recording medium, and information processing apparatus
JP5861503B2 (en) Image inspection apparatus and method
JP2009003936A (en) Text direction-determining method in digital image, system, control program, and recording medium
JP2007241356A (en) Image processor and image processing program
JP5541679B2 (en) Image processing apparatus and method, and program
JP2006350680A (en) Image processing apparatus, image processing method, and computer program
US8254693B2 (en) Image processing apparatus, image processing method and program
JP6413542B2 (en) Image processing apparatus and image processing program
JP4910635B2 (en) Image processing apparatus and image processing program
JP4803001B2 (en) Image processing apparatus and image processing program
JP2010074342A (en) Image processing apparatus, image forming apparatus, and program
JP2008269131A (en) Image processor and image processing program
JP2005184685A (en) Image processing device, program, and recording medium
JP2010079507A (en) Image processor and image processing program
JP4873554B2 (en) Image distribution apparatus and image distribution method
JP5056063B2 (en) Image processing apparatus and image processing program
JP4825888B2 (en) Document image processing apparatus and document image processing method
JP2003046746A (en) Method and apparatus for processing image
JP2018137509A (en) Image processing device, image reading device, and program
JP5923981B2 (en) Image processing apparatus and image processing program
JP2010258627A (en) Image processor, image processing method, program, and storage medium
JP2012181618A (en) Image processing program and image processing device
JP4792117B2 (en) Document image processing apparatus, document image processing method, and document image processing program
JP5434273B2 (en) Image processing apparatus and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091023

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110426

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110712

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110725

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140819

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees